ابق على اطلاع بالتحديثات المجانية
فقط قم بالتسجيل في الذكاء الاصطناعي ملخص myFT – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
الكاتب هو المدير التنفيذي لمجموعة استراتيجية أسبن وزميل زائر في مؤسسة هوفر بجامعة ستانفورد.
في حين تم إنقاذ ملايين الأرواح من خلال العقاقير الطبية، مات آلاف عديدة خلال القرن التاسع عشر بسبب تناول أدوية غير آمنة باعها محتالون. وفي مختلف أنحاء الولايات المتحدة وأوروبا، أدى هذا إلى التنفيذ التدريجي لقوانين وأنظمة سلامة الغذاء والدواء ــ بما في ذلك إدارة الغذاء والدواء الأميركية ــ لضمان أن الفوائد تفوق الأضرار.
إن صعود نماذج اللغة الكبيرة للذكاء الاصطناعي مثل GPT-4 يعمل على تعزيز الصناعات لجعل كل شيء من الابتكار العلمي إلى التعليم إلى صناعة الأفلام أسهل وأكثر كفاءة. ولكن إلى جانب الفوائد الهائلة، يمكن لهذه التقنيات أيضًا أن تخلق مخاطر أمنية وطنية شديدة.
ولن نسمح ببيع أي دواء جديد دون إجراء اختبارات شاملة للسلامة والفعالية، فلماذا إذن ينبغي أن يكون الذكاء الاصطناعي مختلفا؟ إن إنشاء “إدارة الغذاء والدواء للذكاء الاصطناعي” قد يكون استعارة صريحة، كما كتب معهد AI Now، ولكن حان الوقت لكي تفرض الحكومات اختبارات سلامة الذكاء الاصطناعي.
وتستحق حكومة المملكة المتحدة في عهد رئيس الوزراء السابق ريشي سوناك الثناء الحقيقي هنا: فبعد عام واحد فقط من تولي سوناك منصبه، عقدت المملكة المتحدة قمة سلامة الذكاء الاصطناعي في بلتشلي بارك التي غيرت قواعد اللعبة، وأنشأت معهد سلامة الذكاء الاصطناعي الممول بشكل جيد نسبيًا، وفحصت خمسة نماذج لغوية كبيرة رائدة.
إن الولايات المتحدة ودول أخرى مثل سنغافورة وكندا واليابان تحاكي نهج المملكة المتحدة، ولكن هذه الجهود لا تزال في مهدها. إن OpenAI وAnthropic تسمحان طواعية للولايات المتحدة والمملكة المتحدة باختبار نماذجهما، ويجب الإشادة بهما على هذا.
والآن حان الوقت للمضي قدما. والفجوة الأكثر وضوحا في نهجنا الحالي تجاه سلامة الذكاء الاصطناعي تتمثل في الافتقار إلى الاختبارات الإلزامية والمستقلة والصارمة لمنع الذكاء الاصطناعي من التسبب في الضرر. وينبغي أن تنطبق مثل هذه الاختبارات فقط على النماذج الأكبر حجما، وأن تكون إلزامية قبل إطلاقها للجمهور.
ورغم أن اختبار المخدرات قد يستغرق سنوات، فقد تمكنت الفرق الفنية في معهد سلامة الذكاء الاصطناعي من إجراء اختبارات محددة في غضون أسابيع قليلة. وبالتالي فإن السلامة لن تؤدي إلى إبطاء الابتكار بشكل ملموس.
ينبغي أن يركز الاختبار بشكل خاص على مدى قدرة النموذج على التسبب في أضرار مادية ملموسة، مثل قدرته على المساعدة في إنشاء أسلحة بيولوجية أو كيميائية وتقويض الدفاعات السيبرانية. ومن المهم أيضًا قياس ما إذا كان النموذج يشكل تحديًا للبشر للتحكم فيه وقادرًا على تدريب نفسه على “كسر الحماية” من ميزات الأمان المصممة لتقييده. وقد حدث بعض هذا بالفعل – في فبراير 2024، تم اكتشاف أن القراصنة الذين يعملون لصالح الصين وروسيا وكوريا الشمالية وإيران استخدموا تقنية OpenAI لتنفيذ هجمات سيبرانية جديدة.
ورغم أن الذكاء الاصطناعي الأخلاقي والتحيز من القضايا الحاسمة أيضا، فإن هناك خلافا أكبر داخل المجتمع حول ما يشكل مثل هذا التحيز. وبالتالي، ينبغي للاختبارات أن تركز في البداية على الأمن القومي والأذى الجسدي للبشر باعتبارهما التهديد الأبرز الذي يفرضه الذكاء الاصطناعي. تخيل، على سبيل المثال، أن تستخدم جماعة إرهابية مركبات ذاتية القيادة تعمل بالذكاء الاصطناعي لاستهداف وتفجير المتفجرات، وهو الخوف الذي عبرت عنه منظمة حلف شمال الأطلسي.
وبمجرد اجتياز هذه الاختبارات الأولية، يتعين على شركات الذكاء الاصطناعي ــ مثلها كمثل شركات صناعة الأدوية ــ أن تراقب عن كثب وبشكل مستمر أي إساءة محتملة لاستخدام نماذجها، وأن تبلغ عن أي إساءة استخدام على الفور. ومرة أخرى، هذه ممارسة قياسية في صناعة الأدوية، وتضمن سحب الأدوية الضارة المحتملة.
وفي مقابل مثل هذه المراقبة والاختبارات، ينبغي للشركات التي تتعاون أن تحصل على “ملاذ آمن” لحمايتها من بعض المسؤولية القانونية. والواقع أن النظامين القانونيين في الولايات المتحدة والمملكة المتحدة لديهما قوانين قائمة توازن بين خطر وفائدة المنتجات مثل المحركات والسيارات والأدوية وغيرها من التقنيات. على سبيل المثال، لا تتحمل شركات الطيران التي امتثلت لقواعد السلامة عادة المسؤولية عن عواقب الكوارث الطبيعية غير المتوقعة.
إذا رفض القائمون على بناء الذكاء الاصطناعي الامتثال، فيجب أن يواجهوا عقوبات، تماماً كما تتعرض شركات الأدوية للعقوبات إذا حجبت البيانات عن الجهات التنظيمية.
إن كاليفورنيا تمهد الطريق للمضي قدما هنا: ففي الشهر الماضي، أقر المجلس التشريعي للولاية مشروع قانون ــ ينتظر حاليا موافقة الحاكم جافين نيوسوم ــ يلزم مطوري الذكاء الاصطناعي بإنشاء بروتوكولات أمان للتخفيف من “الأضرار الحرجة”. ورغم أن هذا ليس بالأمر الصعب، فإنه خطوة في الاتجاه الصحيح.
على مدى عقود من الزمان، سمحت متطلبات الإبلاغ والاختبار القوية في قطاع الأدوية بالتقدم المسؤول للأدوية التي تساعد، ولا تضر، البشر. وعلى نحو مماثل، في حين يمثل معهد سلامة الذكاء الاصطناعي في المملكة المتحدة وأماكن أخرى خطوة أولى حاسمة، فمن أجل جني الفوائد الكاملة للذكاء الاصطناعي، نحتاج إلى اتخاذ إجراءات فورية وملموسة لإنشاء معايير السلامة وإنفاذها – قبل أن تتسبب النماذج في ضرر حقيقي في العالم الحقيقي.