تضررت طموحات المملكة المتحدة في القيام بدور مركزي في مراقبة الذكاء الاصطناعي على مستوى العالم بسبب كفاحها لإنشاء موقع استيطاني في الولايات المتحدة وإدارة ترامب القادمة التي تهدد باتخاذ نهج مختلف “صارخًا” لتنظيم الذكاء الاصطناعي.
تتطلع الحكومة البريطانية إلى تعزيز معهد سلامة الذكاء الاصطناعي (AISI)، الذي تم إنشاؤه العام الماضي بميزانية قدرها 50 مليون جنيه إسترليني و100 موظف، في إطار سعيها إلى ترسيخ مكانتها باعتبارها أفضل هيئة موارد في العالم تحقق في المخاطر المحيطة بالذكاء الاصطناعي.
سمحت شركات التكنولوجيا الرائدة بما في ذلك OpenAI وGoogle لـ AISI باختبار ومراجعة أحدث نماذج الذكاء الاصطناعي الخاصة بها. لكن خطط التوسع بشكل أكبر من خلال افتتاح مكتب في سان فرانسيسكو في مايو/أيار قد تأخرت، بسبب الانتخابات في كل من الولايات المتحدة والمملكة المتحدة وصعوبة التوظيف في موقع وادي السيليكون، وفقا لأشخاص مطلعين على الأمر.
في محاولة للحفاظ على نفوذها، يعتقد الأشخاص المقربون من حكومة المملكة المتحدة أنها ستضع AISI بشكل متزايد كمنظمة تركز على الأمن القومي، مع روابط مباشرة مع وكالة الاستخبارات GCHQ.
وسط فترة متوترة من العلاقات بين حكومة حزب العمال ذات الميول اليسارية في المملكة المتحدة والإدارة الأمريكية القادمة، يعتقد البعض أن العمل الأمني الذي تقوم به AISI يمكن أن يكون بمثابة أداة دبلوماسية قوية.
وقال وزير التكنولوجيا البريطاني بيتر كايل، الذي أكد على “علاقات بريطانيا الآمنة” مع الولايات المتحدة، بما في ذلك الأمن والدفاع: “من الواضح أن إدارة ترامب ستتخذ أساليب مختلفة تماما في مجالات معينة، وربما التنظيم”. وأضاف الوزير في حكومة المملكة المتحدة أنه “سيتخذ قرارًا مدروسًا” بشأن الموعد الذي ستفتح فيه AISI مكتبًا في سان فرانسيسكو بمجرد أن يتم تزويدها بالموظفين المناسبين.
ويعكس التركيز المتزايد الأولويات المتغيرة في الولايات المتحدة، موطن شركات الذكاء الاصطناعي الرائدة في العالم. تعهد الرئيس المنتخب دونالد ترامب بإلغاء الأمر التنفيذي الذي أصدره الرئيس جو بايدن بشأن الذكاء الاصطناعي، والذي أنشأ معهدًا أمريكيًا لسلامة الذكاء الاصطناعي. يقوم ترامب أيضًا بتعيين صاحب رأس المال الاستثماري ديفيد ساكس كمسؤول عن الذكاء الاصطناعي والعملات المشفرة، ومن المعروف أن المستثمرين في مجال التكنولوجيا يشعرون بالقلق إزاء الإفراط في تنظيم شركات الذكاء الاصطناعي الناشئة.
وتساءلت مجموعات المجتمع المدني والمستثمرون في مجال التكنولوجيا عما إذا كانت شركات الذكاء الاصطناعي ستستمر في الامتثال لهيئة سلامة الذكاء الاصطناعي البريطانية، حيث تشير الإدارة الأمريكية القادمة إلى موقف أكثر حمائية بشأن قطاع التكنولوجيا.
وقد حذر السيناتور الجمهوري تيد كروز، الذي رشحه ترامب لمنصب وزير الخارجية الأمريكي القادم، من قيام الجهات الأجنبية – بما في ذلك الحكومات الأوروبية والمملكة المتحدة – بفرض لوائح تنظيمية صارمة على شركات الذكاء الاصطناعي الأمريكية، أو أن يكون لها تأثير كبير على سياسة الولايات المتحدة بشأن التكنولوجيا.
وهناك تعقيد آخر يتمثل في دور رئيس شركة تسلا ومستشار ترامب إيلون موسك. أثار ملياردير التكنولوجيا مخاوف بشأن المخاطر الأمنية للذكاء الاصطناعي أثناء قيامه مؤخرًا بتطوير نماذجه المتقدمة من خلال شركته الناشئة xAI.
قال شخص مقرب من الحكومة البريطانية: “هناك عرض واضح لإيلون بشأن AISI، حيث نبيع بشكل أساسي العمل الذي نقوم به في مجال الأمن أكثر بكثير من العمل الذي نقوم به في مجال السلامة”، مضيفًا أن AISI يوفر “واجهة أمامية”. الباب إلى مقر الاتصالات الحكومية البريطانية (GCHQ) في المملكة المتحدة”.
وقالت شركات التكنولوجيا إن أبحاث AISI تساعد بالفعل في تحسين سلامة نماذج الذكاء الاصطناعي التي أنشأتها مجموعات مقرها الولايات المتحدة بشكل رئيسي. وفي شهر مايو، حددت AISI إمكانية وجود نماذج رائدة لتسهيل الهجمات السيبرانية وتوفير المعرفة على مستوى الخبراء في الكيمياء والبيولوجيا، والتي يمكن استخدامها لتطوير الأسلحة البيولوجية.
وتخطط حكومة المملكة المتحدة أيضًا لوضع AISI على أساس قانوني. وقد تطوعت الشركات الرائدة، بما في ذلك OpenAI وAnthropic وMeta، لمنح AISI إمكانية الوصول إلى نماذج جديدة لتقييمات السلامة قبل إصدارها للشركات والمستهلكين. وبموجب التشريع البريطاني المقترح، ستصبح تلك الالتزامات الطوعية إلزامية.
“[These] ستكون القواعد التي ستصبح منصوص عليها في القانون، وذلك ببساطة لأنني لا أعتقد أنه عندما ترى فعالية التكنولوجيا التي نتحدث عنها، سيظل الجمهور مرتاحًا للتفكير في ضرورة تسخير قدرات بعض هذه التكنولوجيا قال كايل، وهو عضو في حكومة حزب العمال المنتخبة في يوليو/تموز: “على أساس قوانين طوعية”.
كما قام معهد السلامة في المملكة المتحدة بتعيين شركات تقنية مثل OpenAI وGoogle DeepMind، للمساعدة في الحفاظ على علاقات جيدة مع شركات الذكاء الاصطناعي الرائدة والتأكد من تكيفها مع توصياته.
قال جايد ليونج، كبير مسؤولي التكنولوجيا في AISI في المملكة المتحدة، والذي عمل سابقًا في OpenAI: “سنعيش أو نموت أساسًا بناءً على مدى جودة مجموعة المواهب لدينا”.
وعلى الرغم من هذه الروابط، كانت هناك نقاط صراع مع شركات الذكاء الاصطناعي.
اشتكت AISI من عدم منحها الوقت الكافي لاختبار النماذج قبل إصدارها، حيث تسابقت شركات التكنولوجيا مع بعضها البعض لإطلاق أحدث عروضها للجمهور.
قال جيفري إيرفينغ، كبير العلماء في AISI، والذي عمل سابقًا في OpenAI وDeepMind: “إنها ليست مثالية، ولكن هناك محادثة مستمرة على هذه الجبهة”. “ليس الأمر دائمًا أن يكون لدينا الكثير من الإشعارات [for testing]، والتي يمكن أن تكون صراعا في بعض الأحيان [but we have had] الوصول الكافي لمعظم الإصدارات الرئيسية لإجراء تقييمات جيدة.
وقد اختبرت AISI في المملكة المتحدة حتى الآن 16 نموذجًا وحددت الافتقار إلى ضمانات قوية ومتانة ضد سوء الاستخدام في معظمها. وتنشر النتائج التي توصلت إليها علنًا، دون تحديد النماذج التي اختبرتها.
وبينما يعترف الأشخاص داخل الشركات بوجود بعض المشكلات في العمل مع المعهد، كانت شركات Google وOpenAI وAnthropic من بين أولئك الذين رحبوا بعمله. قالت لمى أحمد، مديرة البرامج الفنية في OpenAI: “لا نريد أن نقوم بتقييم واجباتنا المنزلية”.