فتح Digest محرر مجانًا
تختار رولا خالاف ، محررة FT ، قصصها المفضلة في هذه النشرة الإخبارية الأسبوعية.
في أواخر العام الماضي ، أقرت كاليفورنيا تقريبًا قانونًا من شأنه أن يجبر صانعي نماذج الذكاء الاصطناعي الكبيرة على أن يصبحوا نظيفًا حول إمكانية التسبب في أضرار واسعة النطاق. فشل. الآن ، تحاول نيويورك قانونًا خاصًا بها. مثل هذه المقترحات لها تجاعيد ، وتخاطر بتباطؤ وتيرة الابتكار. لكنهم ما زالوا أفضل من عدم فعل أي شيء.
زادت المخاطر من الذكاء الاصطناعى منذ تعثر كاليفورنيا في سبتمبر الماضي. لقد أظهر المطور الصيني Deepseek أنه يمكن صنع نماذج قوية على حشو. المحركات القادرة على “التفكير” المعقدة تحل محل تلك التي تبصق ببساطة إجابات سريعة. وربما أكبر تحول: يقوم مطورو الذكاء الاصطناعى ببناء “وكلاء” بشراسة ، مصممون لتنفيذ المهام والتفاعل مع أنظمة أخرى ، مع الحد الأدنى من الإشراف على الإنسان.
كيف تخلق قواعد لشيء سريع للغاية؟ حتى تحديد ما يجب تنظيمه هو تحد. تتبعت شركة المحاماة BCLP مئات الفواتير على كل شيء من الخصوصية إلى التمييز العرضي. يركز مشروع قانون نيويورك على السلامة: سيتعين على المطورين الكبار إنشاء خطط لتقليل المخاطر التي تنتج نماذجهم ضحايا جماعية أو خسائر مالية كبيرة ، حجب النماذج التي تمثل “مخاطر غير معقولة” وإخطار سلطات الدولة في غضون ثلاثة أيام عندما تحدث حادثة.
حتى مع أفضل النوايا ، يمكن أن تنتهي القوانين التي تحكم تقنيات جديدة بالشيخوخة مثل الحليب. ولكن مع ارتفاع AI ، وكذلك المخاوف. تقرير نشرته يوم الثلاثاء من قبل فرقة من النجوم في كاليفورنيا من الذكاء الاصطناعى ، يوضح عدد قليل من: على سبيل المثال ، يتفوق نموذج O3 من Openai على 94 في المائة من أخصائيي الفيروسات الخبراء. ويضيف أن الأدلة على أن النموذج يمكن أن يسهل إنتاج الأسلحة الكيميائية أو النووية.
إن نشر المعلومات الخطرة للجهات الفاعلة السيئة ليس سوى خطر واحد. الالتزام بالنماذج لأهداف المستخدمين يثير أيضًا مخاوف. بالفعل ، يلاحظ تقرير كاليفورنيا أدلة على “تخطيط المحاذاة” ، حيث تتبع النماذج أوامر في المختبر ، ولكن ليس في البرية. حتى البابا يخشى منظمة العفو الدولية أن تشكل تهديدًا لـ “الكرامة البشرية والعدالة والعمل”.
العديد من معززات الذكاء الاصطناعي لا توافق ، بالطبع. تقول شركة رأس المال الاستثماري Andreessen Horowitz ، وهي مؤيدة لـ Openai ، أن القواعد يجب أن تستهدف المستخدمين ، وليس النماذج. هذا يفتقر إلى المنطق في عالم حيث تم تصميم الوكلاء للعمل مع الحد الأدنى من مدخلات المستخدم.
ولا يبدو وادي السيليكون على استعداد للقاء في الوسط. وصف أندريسن قانون نيويورك بأنه “غبي”. علمت Lex أن مجموعة اللوبي التي أسستها اقترحت قانون نيويورك تعفيه أي مطور بقيمة 50 مليار دولار أو أقل من إيرادات خاصة من الذكاء الاصطناعي. هذا من شأنه أن يدخر Openai و Meta و Google – وبعبارة أخرى ، كل من الجوهر.
يجب أن تعيد التكنولوجيا الكبيرة النظر في هذا الموقف. تستفيد الدرابزين من المستثمرين أيضًا ، وهناك احتمال ضئيل في وضع القواعد الفيدرالية ذات مغزى. بما أن مساهمي Lehman Brothers أو مساهمي AIG السابقين يمكنهم أن يشهدوا ، فإن دعم شركة تجلب الكارثة المنهجية ليست ممتعة.
الطريق إلى الأمام يتضمن الكثير من تداول الخيول. حاكم نيويورك كاثي هوشول حتى نهاية عام 2025 لطلب تعديلات على مشروع قانون الولاية. اقترح بعض الجمهوريين في الكونغرس منع الدول من تنظيم الذكاء الاصطناعي تمامًا. ومع كل أسبوع يمر ، تكشف الذكاء الاصطناعي عن صلاحيات جديدة. المشهد التنظيمي هو فوضى ، ولكن تركها للصدفة سيخلق واحدة أكبر وأصعب للتنظيف.