أحدثت مساعي ولاية كاليفورنيا لتنظيم الذكاء الاصطناعي انقساما في وادي السيليكون، حيث حذر المعارضون من أن الإطار القانوني قد يقوض المنافسة ومكانة أميركا كزعيمة عالمية في مجال التكنولوجيا.
بعد خوض معركة شرسة لتعديل أو تخفيف مشروع القانون أثناء إقراره في الهيئة التشريعية في كاليفورنيا، ينتظر المسؤولون التنفيذيون في شركات بما في ذلك OpenAI وMeta بفارغ الصبر لمعرفة ما إذا كان جافين نيوسوم، حاكم الولاية الديمقراطي، سيوقع عليه ليصبح قانونًا. ولديه حتى 30 سبتمبر لاتخاذ القرار.
تعد كاليفورنيا قلب صناعة الذكاء الاصطناعي الناشئة، وفي ظل عدم وجود قانون فيدرالي لتنظيم التكنولوجيا في جميع أنحاء الولايات المتحدة – ناهيك عن معيار عالمي موحد – فإن العواقب سوف تمتد إلى ما هو أبعد من الولاية.
وقال يوشوا بينجيو، أستاذ في جامعة مونتريال و”الأب الروحي” للذكاء الاصطناعي، لصحيفة فاينانشال تايمز: “من المؤكد أن بقية العالم يولي اهتمامًا وثيقًا لما يحدث في كاليفورنيا والولايات المتحدة على نطاق أوسع في الوقت الحالي، ومن المرجح أن تكون النتيجة هناك تداعيات على الجهود التنظيمية للدول الأخرى”.
لماذا تريد كاليفورنيا تنظيم الذكاء الاصطناعي؟
لقد أدى التطور السريع لأدوات الذكاء الاصطناعي القادرة على توليد استجابات شبيهة بالإنسان للأسئلة إلى تضخيم المخاطر المتصورة حول هذه التكنولوجيا، والتي تتراوح من النزاعات القانونية مثل انتهاك حقوق النشر إلى المعلومات المضللة وانتشار التزييف العميق. حتى أن البعض يعتقد أنها قد تشكل تهديدًا للبشرية.
أصدر الرئيس الأمريكي جو بايدن أمرا تنفيذيا العام الماضي يهدف إلى وضع معايير وطنية لسلامة الذكاء الاصطناعي، لكن الكونجرس الأمريكي لم يحرز أي تقدم في تمرير القوانين الوطنية.
لقد قفزت كاليفورنيا الليبرالية في كثير من الأحيان إلى تنظيم القضايا التي تأخرت فيها الحكومة الفيدرالية. والآن أصبح الذكاء الاصطناعي موضع تركيز مع قانون كاليفورنيا للابتكار الآمن والمضمون لأنظمة الذكاء الاصطناعي الرائدة، والذي طرحه عضو مجلس الشيوخ في الولاية سكوت وينر. ومن بين مشاريع القوانين المختلفة المقدمة في ولايات مختلفة، فإن مشروع القانون في كاليفورنيا هو الأكثر احتمالا لإحداث تأثير حقيقي، لأن الولاية تقع في قلب طفرة الذكاء الاصطناعي، وهي موطن لشركات كبرى بما في ذلك OpenAI وAnthropic وMeta وGoogle.
وقال بينجيو: “إن شركات الذكاء الاصطناعي الكبرى التي كانت الأكثر صراحة بشأن هذه القضية محصورة حاليًا في سباقها للحصول على حصة في السوق وتعظيم الأرباح، وهو ما قد يؤدي إلى خفض التكاليف عندما يتعلق الأمر بالسلامة، ولهذا السبب نحتاج إلى بعض القواعد لأولئك الذين يقودون هذا السباق”.
ماذا يقول مشروع القانون؟
وقال وينر إن مشروع القانون الخاص به “يتطلب فقط من أكبر مطوري الذكاء الاصطناعي القيام بما التزم به كل واحد منهم مرارًا وتكرارًا: إجراء اختبارات السلامة الأساسية على نماذج الذكاء الاصطناعي القوية للغاية”.
ويتطلب مشروع القانون من المطورين الذين يقومون ببناء نماذج ضخمة تقييم ما إذا كانت “قادرة بشكل معقول على التسبب في ضرر بالغ أو تمكينه بشكل ملموس”، بدءًا من الاستخدام الخبيث أو السرقة إلى إنشاء سلاح بيولوجي. ومن المتوقع بعد ذلك أن تتخذ الشركات ضمانات معقولة ضد هذه المخاطر المحددة.
وسوف يتعين على المطورين أن يبنوا “مفتاح إيقاف” في أي نماذج جديدة تتجاوز حجمًا معينًا في حالة إساءة استخدامها أو تعطلها. وسوف يلتزمون أيضًا بصياغة تقرير السلامة قبل تدريب نموذج جديد وأن يكونوا أكثر شفافية – فسوف يتعين عليهم “الإبلاغ عن كل حادثة تتعلق بسلامة الذكاء الاصطناعي” إلى المدعي العام للولاية وإجراء تدقيق من قبل طرف ثالث لضمان الامتثال كل عام.
إن هذا المشروع يستهدف النماذج التي تكلف تدريبها أكثر من 100 مليون دولار، وهو المبلغ المطلوب تقريبًا لتدريب أفضل النماذج اليوم. ولكن هذا هدف سريع التحرك: فقد توقع الرئيس التنفيذي لشركة أنثروبيك داريو أمودي أن المجموعة التالية من النماذج المتطورة ستكلف تدريبها مليار دولار و10 مليارات دولار بحلول عام 2026.
وقال بينجيو إن مشروع القانون سوف ينطبق على جميع الشركات العاملة في كاليفورنيا، بغض النظر عن مكان تواجدها، وهو ما من شأنه أن يغطي فعليا كل شركة قادرة حاليا على تطوير أفضل نماذج الذكاء الاصطناعي.
وسوف يفرض القانون عقوبات مدنية تصل إلى 10% من تكلفة تدريب نموذج ضد المطورين الذين تسبب أدواتهم في الوفاة أو السرقة أو الإضرار بالممتلكات. كما سيفرض القانون التزامات على الشركات التي تقدم موارد الحوسبة لتدريب هذه النماذج وشركات التدقيق، مما يجعلها مسؤولة عن جمع المعلومات التفصيلية حول هويات العملاء ونواياهم والاحتفاظ بها. وقد يؤدي الفشل في القيام بذلك إلى غرامات تصل إلى 10 ملايين دولار.
من يؤيد مشروع القانون ومن يعارضه؟
ويقول وينر وزملاؤه إن هناك دعمًا شعبيًا قويًا لحواجز الذكاء الاصطناعي الجديدة. كما حصل على دعم مؤهل من شركة Anthropic الناشئة الرائدة في مجال الذكاء الاصطناعي وإيلون ماسك، بالإضافة إلى نقابة ممثلي الشاشة (SAG-AFTRA) واتحادين للنساء. وفي يوم الاثنين، وقع 100 موظف في شركات الذكاء الاصطناعي الكبرى بما في ذلك OpenAI وxAI وGoogle DeepMind على خطاب يدعو نيوسوم إلى التوقيع على مشروع القانون.
“ومن الممكن والمناسب لشركات الذكاء الاصطناعي الرائدة أن تختبر ما إذا كانت نماذج الذكاء الاصطناعي الأكثر قوة قادرة على التسبب في أضرار جسيمة، ومن المناسب لهذه الشركات أن تنفذ ضمانات معقولة ضد مثل هذه المخاطر”، كما كتبوا.
يزعم المنتقدون – بمن فيهم أكاديميون مثل أستاذة الذكاء الاصطناعي في جامعة ستانفورد فاي فاي لي، وشركة رأس المال الاستثماري أندريسن هورويتز، ومسرعة الشركات الناشئة واي كومبيناتور – أن مشروع القانون من شأنه أن يعيق الشركات في المراحل المبكرة والمطورين مفتوحي المصدر الذين يشاركون علنًا الكود الأساسي لنماذجهم.
وفي رسالة إلى وينر الشهر الماضي، حذر جيسون كوون، كبير مسؤولي الاستراتيجية في شركة OpenAI، من أن مشروع قانون مجلس الشيوخ رقم 1047 “سيؤدي إلى إبطاء وتيرة الابتكار، وسيدفع المهندسين ورجال الأعمال من الطراز العالمي في كاليفورنيا إلى مغادرة الولاية بحثًا عن فرص أكبر في أماكن أخرى”. وقد ردد كوون إحدى الشكاوى الأكثر شيوعًا: أن وينر يتدخل في مجال يجب التعامل معه على المستوى الفيدرالي.
ويقول المعارضون أيضًا إن هذا من شأنه أن يخنق الابتكار من خلال فرض متطلبات شاقة على المطورين ومحاسبتهم على استخدام نماذج الذكاء الاصطناعي الخاصة بهم من قبل جهات سيئة. ويضيفون أن هذا يشرع مخاطر غير موجودة بعد.
“من الناحية الفلسفية، فإن توقع العواقب المترتبة على كيفية استخدام الناس لشفرتك في البرامج يمثل مشكلة صعبة للغاية. كيف سيستخدمها الناس، وكيف تتوقع أن يتسبب شخص ما في ضرر؟ إنه مثبط كبير. إنه منحدر زلق للغاية”، كما قال داريو جيل، مدير الأبحاث في شركة آي بي إم.
وقال دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، الذي لعب دورا حاسما في صياغة مشروع القانون، إن المعارضين “يريدون من الحكومات أن تمنحهم شيكًا مفتوحًا لبناء ونشر أي تقنيات يريدونها، بغض النظر عن المخاطر أو الضرر الذي قد يلحق بالمجتمع”.
وتعرض هندريكس، الذي يعمل أيضًا مستشارًا لشركة إكس إيه آي التابعة لماسك، لانتقادات شديدة من النقاد الذين وصفوا مركز أبحاث الذكاء الاصطناعي بأنه منظمة هامشية مهتمة بشكل مفرط بالمخاطر الوجودية الناجمة عن الذكاء الاصطناعي. كما أعرب المعارضون عن مخاوفهم من أن مركز أبحاث الذكاء الاصطناعي مارس ضغوطًا من أجل التأثير على “مجلس نماذج الحدود” الذي سينشئه مشروع القانون، والذي يضم تسعة مديرين من الصناعة والأوساط الأكاديمية ومكلفين بتحديث اللوائح المتعلقة بنماذج الذكاء الاصطناعي وضمان الامتثال.
ورفض وينر هذه الحجج ووصفها بأنها “نظرية مؤامرة”.
“قال وينر إن المعارضة حاولت تصوير أي شخص يؤيد مشروع القانون باعتباره “متشائماً”. وأضاف: “قالوا إن هذه مخاطر من الخيال العلمي؛ وإننا نركز على فيلم Terminator. لكننا لا نركز على ذلك، بل نركز على مخاطر حقيقية للغاية مثل إغلاق الشبكة الكهربائية، أو النظام المصرفي، أو إنشاء سلاح كيميائي أو بيولوجي”.
كيف حاول واضعو مشروع القانون معالجة المخاوف؟
وقال وينر إنه وفريقه أمضوا الثمانية عشر شهرًا الماضية في التواصل مع “أي شخص يرغب في مقابلتنا” لمناقشة مشروع القانون، بما في ذلك لي والشركاء في أندريسن وواي كومبيناتور.
كان أحد مخاوفهم هو أن فرض مفتاح إيقاف تشغيل النماذج مفتوحة المصدر من شأنه أن يمنع المطورين الآخرين من تعديلها أو البناء عليها خوفًا من أن يتم إيقاف تشغيلها في أي لحظة. وقد يكون هذا قاتلاً للشركات الناشئة والأوساط الأكاديمية، التي تعتمد على نماذج مفتوحة المصدر أرخص أو مجانية الوصول.
تم تعديل مشروع قانون وينر لاستبعاد النماذج مفتوحة المصدر التي تم ضبطها بدقة تتجاوز مستوى معينًا بواسطة أطراف ثالثة. كما لن تكون هناك حاجة إلى وجود مفتاح إيقاف.
وقد تم أيضًا تعديل بعض القيود الأصلية التي نص عليها مشروع القانون، بما في ذلك تضييق نطاق العقوبات المدنية والحد من عدد النماذج التي تغطيها القواعد الجديدة.
هل سيصبح مشروع القانون قانونا؟
لقد مر مشروع القانون رقم 1047 بسهولة في الهيئة التشريعية للولاية. والآن يتعين على نيوسوم أن يقرر ما إذا كان سيوقع على مشروع القانون، أو يسمح له بأن يصبح قانونًا بدون توقيعه أو يعترض عليه. وإذا اعترض، فيمكن للهيئة التشريعية في كاليفورنيا أن تبطل ذلك بأغلبية الثلثين. ولكن وفقًا لمتحدث باسم وينر، فإن فرصة حدوث ذلك معدومة تقريبًا. كانت آخر مرة تم فيها إبطال حق النقض لحاكم كاليفورنيا في عام 1980.
إن الحاكم في موقف صعب، نظراً لأهمية صناعة التكنولوجيا بالنسبة لولايته. ولكن السماح للذكاء الاصطناعي بالنمو دون ضوابط قد يكون أكثر إشكالية.
“أود أن يصبح هذا تشريعًا فيدراليًا: إذا تحرك الكونجرس في هذا المجال وأقر مشروع قانون قوي لسلامة الذكاء الاصطناعي، فسأكون سعيدًا بحزم أمتعتي والعودة إلى المنزل”، كما قال وينر. “لكن الحقيقة المحزنة هي أنه في حين حقق الكونجرس نجاحًا كبيرًا في الرعاية الصحية والبنية الأساسية والمناخ، إلا أنه عانى حقًا من تنظيم التكنولوجيا … وإلى أن يتحرك الكونجرس، فإن كاليفورنيا ملزمة بالقيادة لأننا قلب صناعة التكنولوجيا”.