ابق على اطلاع مع التحديثات المجانية

الكاتب هو مدير برنامج معهد الشؤون العالمية في مجموعة أوراسيا

عندما أعلن Openai و Mattel شراكة في وقت سابق من هذا الشهر ، كان هناك اعتراف ضمني بالمخاطر. أول ألعاب مدعومة بالذكاء الاصطناعي لن تكون للأطفال دون سن 13 عامًا.

شراكة أخرى الأسبوع الماضي جاءت مع عدد أقل من التحذيرات. كشفت Openai بشكل منفصل أنها فازت بأول عقد لها في البنتاغون. من شأنه أن يقوم بتجريب برنامج بقيمة 200 مليون دولار “لتطوير إمكانيات النموذج الأولي للحدود لمنظمة العفو الدولية للتصدي لتحديات الأمن القومي الحرجة في كل من مجالات مصارعة الحرب والمؤسسات” ، وفقًا لوزارة الدفاع الأمريكية.

أن شركة التكنولوجيا الكبرى يمكنها إطلاق عمل عسكري مع القليل من التدقيق العام يجسد تحولًا. أصبح تطبيق الأمن القومي للتطبيقات اليومية في الواقع معطى. مسلحًا بالروايات حول كيفية قيامهم بتشغيل إسرائيل وأوكرانيا في حروبهم ، قامت بعض شركات التكنولوجيا بتأطير هذا على أنها الوطنية الجديدة ، دون إجراء محادثة حول ما إذا كان ينبغي أن يحدث في المقام الأول ، ناهيك عن كيفية إعطاء الأولوية للأخلاق والسلامة.

كان وادي السيليكون والبنتاغون متشابكين دائمًا ، لكن هذه هي الخطوة الأولى لـ Openai في التعاقد العسكري. تقوم الشركة ببناء فريق للأمن القومي مع خريجي إدارة بايدن ، ولم يزيل ذلك العام الماضي سوى حظرًا على استخدام تطبيقاتها لأشياء مثل تطوير الأسلحة و “الحرب”. بحلول نهاية عام 2024 ، كان Openai شراكة مع Anduril ، النجمة الضخمة المحاذاة MAGA برئاسة بالمر لوكي.

لقد تغيرت Big Tech بشكل كبير منذ عام 2018 ، عندما احتج موظفو Google على جهد البنتاغون السري الذي يسمى Project Maven على المخاوف الأخلاقية ، مما دفع عملاق التكنولوجيا إلى السماح للعقد بانتهاء. الآن ، قامت Google بمراجعة نهجها تمامًا.

تتعاون Google Cloud مع Lockheed Martin على AI. غيرت Meta ، أيضًا ، سياساتها حتى يتمكن الجيش من استخدام Llama AI. تتقدم كل من Amazon و Microsoft في Tech.

من السهل تخيل مزايا الذكاء الاصطناعى هنا ، ولكن ما هو مفقود من النظرة العامة هو محادثة حول المخاطر. لقد تم توثيقها جيدًا الآن أن الذكاء الاصطناعي يلموس في بعض الأحيان ، أو يأخذ حياة خاصة به. على المستوى الأكثر هيكليًا ، قد لا تكون تقنية المستهلك آمنة بما يكفي لاستخدامات الأمن القومي.

العديد من الأميركيين والأوروبيين الغربيين يشتركون في هذا الشك. وجدت المسح الأخير لمنظمتي للولايات المتحدة والمملكة المتحدة وفرنسا وألمانيا أن الأغلبية تدعم اللوائح الأكثر صرامة عندما يتعلق الأمر بالمنظمة العسكرية. يشعر الناس بالقلق من أنه يمكن أن يتم سلاحه من قبل الخصوم – أو يستخدمهم حكوماتهم لاستقصاء المواطنين.

عرض على المجيبين ثمانية بيانات ، مع التركيز على فوائد الذكاء الاصطناعى لجيش بلادهم ونصفها التي تؤكد على المخاطر. في المملكة المتحدة ، قال أقل من نصف (43 في المائة) إن الذكاء الاصطناعى سيساعد جيش بلادهم على تحسين سير العمل ، في حين أن أغلبية كبيرة (80 في المائة) قالت إن هذه التقنيات الجديدة تحتاج إلى أن تكون أكثر تنظيمًا لحماية حقوق وحريات الناس.

يمكن أن يعني استخدام الذكاء الاصطناعي للحرب ، في أقصى حد ، أن يعهد خوارزمية معيبة في مسائل الحياة أو الموت. وهذا يحدث بالفعل في الشرق الأوسط.

حققت مجلة الإسرائيلية الإسرائيلية +972 مجلة AI العسكرية في إسرائيل في استهدافها لقادة حماس في غزة وذكرت أن “الآلاف من الفلسطينيين – معظمهم من النساء والأطفال أو الأشخاص الذين لم يشاركوا في القتال – تم الاستفادة منها من قبل الضربات الجوية الإسرائيلية ، وخاصة خلال الأسابيع الأولى من الحرب ، بسبب قرار برنامج AI”.

استخدم الجيش الأمريكي ، من جانبه ، الذكاء الاصطناعي لاختيار الأهداف في الشرق الأوسط ، لكن مسؤولًا كبيرًا في البنتاغون أخبر بلومبرج العام الماضي أنه لم يكن موثوقًا بدرجة كافية للعمل من تلقاء نفسه.

تأخرت محادثة مفتوحة حول ما يعنيه أن العمل مع العمالقة التكنولوجيا مع الجيوش متأخرة. كما حذر مايلز بروندج ، باحث سابق في شركة Openai: “يجب أن تكون شركات الذكاء الاصطناعى أكثر شفافية مما تدور حول الأمن القومي وإنفاذ القانون والهجرة في حالات الاستخدام التي لا تدعمها ، مع أي البلدان/الوكالات ، وكيفية تنفيذ هذه القواعد”.

في وقت الحرب وعدم الاستقرار في جميع أنحاء العالم ، يطالب الجمهور بإجراء محادثة حول ما يعنيه حقًا أن يستخدم الجيش الذكاء الاصطناعي. إنهم يستحقون بعض الإجابات.

شاركها.
Exit mobile version