ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
الكاتب هو كبير علماء الذكاء الاصطناعي في معهد الذكاء الاصطناعي الآن
لقد تم بالفعل استخدام الذكاء الاصطناعي في ساحة المعركة. التبني المتسارع يلوح في الأفق. وفي هذا العام، أعلنت شركات Meta وAnthropic وOpenAI أن نماذجها الأساسية للذكاء الاصطناعي كانت متاحة للاستخدام من قبل الأمن القومي الأمريكي. تعتبر حرب الذكاء الاصطناعي مثيرة للجدل وتتعرض لانتقادات واسعة النطاق. ولكن تم بالفعل دمج مجموعة أكثر خبثًا من حالات استخدام الذكاء الاصطناعي في الجيش الأمريكي.
للوهلة الأولى، قد تبدو المهام التي تُستخدم فيها نماذج الذكاء الاصطناعي غير ذات أهمية. إنهم يساعدون في الاتصالات والترميز وحل تذاكر تكنولوجيا المعلومات ومعالجة البيانات. المشكلة هي أنه حتى التطبيقات العادية يمكن أن تنطوي على مخاطر. إن السهولة التي يتم بها نشرها يمكن أن تهدد سلامة البنية التحتية المدنية والدفاعية.
لنأخذ على سبيل المثال القيادة الأمريكية في أفريقيا، إحدى القيادات القتالية التابعة لوزارة الدفاع الأمريكية، والتي كانت صريحة بشأن استخدامها لأداة OpenAI من أجل “التحليلات الموحدة لمعالجة البيانات”.
يمكن لمثل هذه المهام الإدارية أن تغذي القرارات الحاسمة للمهمة. ومع ذلك، كما أظهرت العروض التوضيحية المتكررة، فإن أدوات الذكاء الاصطناعي تقوم باستمرار بتلفيق المخرجات (المعروفة باسم الهلوسة) وإدخال نقاط ضعف جديدة. وقد يؤدي استخدامها إلى تراكم الأخطاء. ونظرًا لأن USAfricom هي قوة قتالية، فقد تؤدي الأخطاء الصغيرة بمرور الوقت إلى اتخاذ قرارات تسبب أضرارًا للمدنيين وأخطاء تكتيكية.
USAfricom ليست وحدها. في هذا العام، أطلقت القوات الجوية والقوات الفضائية الأمريكية روبوت محادثة توليدي يعمل بالذكاء الاصطناعي يسمى محول التدريب المسبق لبروتوكول الإنترنت غير المصنف، أو NIPRGPT. يمكنه “الإجابة على الأسئلة والمساعدة في مهام مثل المراسلات وأوراق المعلومات الأساسية والتعليمات البرمجية”. وفي الوقت نفسه، طورت البحرية نموذجًا لأداة الدعم الفني للذكاء الاصطناعي للمحادثة أطلقت عليه اسم “أميليا”.
تبرر المنظمات العسكرية استخدامها لنماذج الذكاء الاصطناعي بالادعاء بأنها تعزز الكفاءة والدقة وقابلية التوسع. وفي الواقع، يكشف شراءها واعتمادها عن نقص مثير للقلق في الوعي بالمخاطر التي تشكلها.
تشمل هذه المخاطر قيام الخصوم بتسميم مجموعات البيانات التي تم تدريب النماذج عليها، مما يسمح لهم بتخريب النتائج عند استخدام كلمات رئيسية معينة، حتى على نظام يُزعم أنه “آمن”. يمكن للخصوم أيضًا استخدام الهلوسة كسلاح.
وعلى الرغم من ذلك، لم تتناول المنظمات العسكرية الأمريكية أو تقدم ضمانات بشأن الكيفية التي تنوي بها حماية البنية التحتية الدفاعية الحيوية.
ويشكل الافتقار إلى الملاءمة للغرض عددًا مماثلاً من المخاطر التي تهدد السلامة مثل الهجمات المتعمدة، إن لم يكن أكثر. تتمثل طبيعة أنظمة الذكاء الاصطناعي في تقديم نتائج بناءً على الارتباطات الإحصائية والاحتمالية من البيانات التاريخية، وليس الأدلة الواقعية أو الاستدلال أو “السببية”. لنأخذ على سبيل المثال مهام إنشاء التعليمات البرمجية وتكنولوجيا المعلومات، حيث وجد الباحثون في جامعة كورنيل العام الماضي أن ChatGPT وGitHub Copilot وAmazon CodeWhisperer من OpenAI أنتجت تعليمات برمجية صحيحة بنسبة 65.2% و46.3% و31.1% فقط من الوقت على التوالي.
أدوات الذكاء الاصطناعي تتحسن طوال الوقت. ومع ذلك، فإن معدلات الخطأ هذه مرتفعة جدًا بالنسبة للتطبيقات التي تتطلب الدقة والدقة والسلامة. قد يؤدي الاعتماد المفرط والثقة في الأدوات إلى تغاضي المستخدمين عن أخطائهم أيضًا.
وهذا يطرح السؤال التالي: كيف سُمح للمنظمات العسكرية بشراء الذكاء الاصطناعي وتنفيذ النماذج بسهولة؟
إحدى الإجابات تأتي من حقيقة أنها تبدو وكأنها امتداد للبنية التحتية لتكنولوجيا المعلومات، في حين أنها في الواقع يمكن استخدامها كأدوات تحليلية يمكن أن تغير نتائج المهام الحاسمة. إن هذه القدرة على تصنيف استخدام الذكاء الاصطناعي كبنية تحتية، وتجاوز قنوات الشراء المناسبة التي تقيمها على أنها مناسبة لأغراض المهام الحرجة، يجب أن تجعلنا نتوقف.
وفي السعي لتحقيق الكفاءات المستقبلية المحتملة، فإن استخدام الأدوات الإدارية للذكاء الاصطناعي من قبل الوكالات العسكرية ينطوي على مخاطر حقيقية. وهذه مقايضة لا يمكن أن تبررها فوائدها المزعومة.