فتح Digest محرر مجانًا
تختار رولا خالاف ، محررة FT ، قصصها المفضلة في هذه النشرة الإخبارية الأسبوعية.
عند عودته إلى البيت الأبيض في كانون الثاني (يناير) ، قام دونالد ترامب بتفكيك الإطار التنظيمي سريعًا الذي وضعه سلفه جو بايدن لمعالجة مخاطر الذكاء الاصطناعي.
تضمنت تصرفات الرئيس الأمريكي عكس أمر تنفيذي لعام 2023 يتطلب من مطوري الذكاء الاصطناعي تقديم نتائج اختبار السلامة إلى السلطات الفيدرالية عندما تشكل الأنظمة “خطرًا خطيرًا” على الأمن أو الاقتصاد أو الصحة العامة في البلاد. وصف ترامب هذه الدرابزين بأنها “حواجز أمام ابتكار الذكاء الاصطناعي الأمريكي”.
يعكس هذا ذهابًا وإيابًا على لائحة الذكاء الاصطناعى التوتر بين السلامة العامة والنمو الاقتصادي أيضًا في المناقشات حول التنظيم في مجالات مثل السلامة في مكان العمل واستقرار القطاع المالي وحماية البيئة. عندما تعطي اللوائح الأولوية للنمو ، هل يجب أن تستمر الشركات في مواءمة حوكمتها مع المصلحة العامة – وما هي إيجابيات وسلبيات القيام بذلك؟
في Openai ، الذي تأسست في عام 2015 من قبل Sam Altman كمنظمة غير ربحية ، كان هذا موضوعًا من النقاشات الكبيرة بين المستثمرين والمؤسسين المشاركين ، بما في ذلك Elon Musk ، لا سيما منذ أن عملت الذكاء الاصطناعى بأمان وأخلاقية ولصالح الإنسانية مصدر قلق منذ الأيام الأولى للتكنولوجيا.
ونتيجة لذلك ، اعتمدت العديد من الشركات هياكل شركات جديدة تهدف إلى موازنة مصالحها الاقتصادية مع مخاوف مجتمعية أوسع. على سبيل المثال ، في عام 2021 ، أسس سبعة موظفين سابقين في Openai أنثروبور وأدمجوا عليه كشركة فائدة ، وهي هيكل تلتزم من خلاله الشركة بتقديم المنفعة الاجتماعية إلى جانب الربح. في وثائق تأسيسها ، تنص الأنثروبور على الغرض من ذلك هو تطوير وصيانة الذكاء الاصطناعى المتقدم لصالح الإنسانية على المدى الطويل.
تم تقديم هياكل شركة Benefit Corporation لأول مرة من قبل أكثر من 40 ولاية أمريكية وواشنطن العاصمة وبورتوريكو ودول بما في ذلك إيطاليا وكولومبيا وإكوادور وفرنسا وبيرو ورواندا وأوروجواي والمقاطعة الكندية في كولومبيا البريطانية.
ومع ذلك ، فقد تم تبنيها أيضًا من قبل شركات الذكاء الاصطناعي التي لا تتوافق أهدافها على وجه التحديد مع التأثير البيئي والمجتمعي. لدى Musk's XAI ، التي تم تأسيسها كشركة فائدة في نيفادا ، هدف الشركة المعلن لإنشاء “تأثير إيجابي مادي على المجتمع والبيئة ، ككل”.
يجادل النقاد بأن نموذج شركة المنفعة يفتقر إلى الأسنان. على الرغم من أن معظمهم يشملون أحكام الشفافية ، إلا أن متطلبات الإبلاغ المرتبطة بها يمكن أن تفتقر إلى توفير مساءلة ذات معنى حول ما إذا كانت الشركة تحقق غرضها القانوني.
كل هذا يثير احتمال أن يفتح النموذج الباب أمام “غسل الحوكمة”. في أعقاب موجة الدعاوى القضائية ضد صانع الأفيونيات بوردو فارما ، اقترح مالكها عائلة ساكلر تحويل الشركة إلى شركة فائدة ، والتي ستركز على صنع الأدوية لمعالجة أزمة المواد الأفيونية. التصرف النهائي للعديد من القضايا ضد الشركة مستمر.
توضح حالة Openai القضايا المحيطة بالحوكمة في قطاع الذكاء الاصطناعي. في عام 2019 ، بدأت الشركة كيانًا للربح لتولي مليارات الدولارات من الاستثمار من Microsoft وغيرها. غادر عدد من الموظفين الأوائل ، وبحسب ما ورد بسبب مخاوف السلامة.
رفع Musk دعوى قضائية ضد Openai و Sam Altman في عام 2024 ، مدعيا أنهما تعرضوا للخطر مهمة بدء التشغيل المتمثلة في بناء أنظمة الذكاء الاصطناعى لصالح الإنسانية.
في ديسمبر 2024 ، أعلنت Openai عن خطط لإعادة الهيكلة كشركة ذات فائدة عامة وفي أوائل عام 2025 ، كان يعمل مجلس الشركة غير الربحية على تقسيم Openai إلى كيانين: شركة ذات فائدة عامة وذراع خيرية بقيمة 30 مليار دولار تقريبًا. عارض Musk هذه الخطوة ، وقد قدم هذا الشهر عرضًا غير مرغوب فيه لأكثر من 97 مليار دولار لـ Openai.
يدعم مسار تمويل Openai الحجة التي يقدمها Musk وغيرها من الأشخاص الذين يقومون بأولوية Openai على الربح على المنفعة العامة. في أكتوبر 2024 ، حصلت الشركة على جولة استثمارية بارزة بتقييم 157 مليار دولار. لكنها لم تضعف بعد هيكل الملكية وإطار الحوكمة ، مما يمنح المستثمرين تأثيرًا كبيرًا على مهمة الشركة وتنفيذها.
نظرًا لأن الشركة تنهي هيكلها ، هل يجب أن تتبنى رؤية الصناعة المفصلية في أمر ترامب التنفيذي وإسقاط تركيزها على السلامة والإنسانية؟ أو هل يجب أن تحافظ على هذا التركيز ، بالنظر إلى أن مناطق أخرى من العالم أو الرؤساء الأمريكيين في المستقبل قد تأخذ نظرة مختلفة عن مسؤولية شركات الذكاء الاصطناعى؟
وهل الآليات التطوعية مثل هيكل الشركات والحوكمة كافية لخلق المساءلة مع الحفاظ على خفة الحركة اللازمة للابتكار؟ وفقًا لبعض الخبراء القانونيين ، فإن مثل هذه الهياكل ليست ضرورية لأن أشكال التأسيس التقليدية من الشركات تسمح للشركات بوضع أهداف الاستدامة إذا كانت في مصلحة المساهمين على المدى الطويل.
لزيادة المساءلة ، أنشأت بعض شركات الفوائد مجالس إشراف على أصحاب المصلحة مع ممثلين من القطاعات المتأثرة مثل التكنولوجيا والمجتمع المدني. في مايو 2024 ، أنشأ Openai لجنة للسلامة والأمن ، بقيادة Altman (تنحى لاحقًا) ، على الرغم من أن النقاد أشاروا إلى أن مثل هذه الهياكل التطوعية يمكن أن تكون خاضعة لأهداف الربح.
تشمل الخيارات الأخرى تبني توجيه الإبلاغ عن استدامة الشركات في الاتحاد الأوروبي ، والذي سيحكم شركات مثل Openai في السنوات القادمة ، أو ربط خيارات التعويضات والأسهم بالأهداف المتعلقة بالسلامة.
قد تظهر آليات المساءلة البديلة. وفي الوقت نفسه ، تثير الحوكمة في شركات الذكاء الاصطناعى مثل Openai أسئلة مهمة حول دمج اعتبارات الأخلاقية والسلامة في تقنية غير مختبرة في الغالب.
كريستوفر ماركيز هو أستاذ سيني في الإدارة الصينية في كلية كامبريدج للقاضي إدارة الأعمال