الذكاء الاصطناعي في العمليات العسكرية: “كلود” نموذج Anthropic يُذكر في عملية أمريكية بفنزويلا

كشفت مصادر مطلعة، وفقًا لصحيفة “وول ستريت جورنال”، أن نموذج الذكاء الاصطناعي “كلود” من شركة Anthropic قد استُخدم في عملية عسكرية للجيش الأمريكي لاعتقال الرئيس الفنزويلي نيكولاس مادورو مطلع الشهر الماضي. يشير هذا الاستخدام المحتمل إلى تنامي اعتماد البنتاغون على تقنيات الذكاء الاصطناعي في عملياته.

نموذج “كلود” وسياسات الاستخدام

وفقًا للصحيفة، فإن الإرشادات الخاصة باستخدام نموذج “كلود” تحظر استخدامه في تسهيل العنف، أو تطوير الأسلحة، أو القيام بعمليات المراقبة. ورغم ذلك، يبقى دور النموذج المحدد في العملية قيد التكهنات.

رد Anthropic والقطاع الخاص

أكد متحدث باسم شركة Anthropic أنه لا يستطيع التعليق عما إذا كان “كلود” أو أي نموذج ذكاء اصطناعي آخر قد استُخدم في أي عملية محددة، سرية كانت أم غير سرية. وأشار المتحدث إلى أن أي استخدام لـ “كلود” سواء في القطاع الخاص أو عبر الجهات الحكومية، يجب أن يتوافق مع سياسات الاستخدام التي تحكم كيفية نشره.

خلفيات وتداعيات

يأتي هذا التقرير في الوقت الذي يتزايد فيه اهتمام المؤسسات العسكرية حول العالم بالاستفادة من قدرات الذكاء الاصطناعي في مجالات مختلفة، من تحليل المعلومات الاستخباراتية إلى دعم عمليات التخطيط والتنفيذ. وتعتبر الشركات المطورة لنماذج الذكاء الاصطناعي، مثل Anthropic، مسؤولة عن تحديد ضوابط استخدام تقنياتها لتجنب إساءة الاستخدام.

مستقبل الذكاء الاصطناعي العسكري

إذا تأكد استخدام نماذج الذكاء الاصطناعي في عمليات عسكرية كهذه، فإن ذلك يثير تساؤلات حول الشفافية والمسؤولية. وتتجه الأنظار نحو كيفية تطور السياسات المنظمة لاستخدام الذكاء الاصطناعي وتطبيقها في البيئات المعقدة والحرجة. يبقى من غير الواضح ما إذا كانت هناك مزيد من العمليات المشابهة قد تمت، وما هي القيود الفعلية التي ستطبقها الجهات العسكرية على استخدام هذه التقنيات المتقدمة.

شاركها.