أوبن أيه آي قالت الشركة في منشور على مدونتها يوم الاثنين إنها تعمل على تحويل لجنة السلامة الداخلية الخاصة بها إلى مجلس إشراف “مستقل”.
وأضافت الشركة المصنعة لبرنامج ChatGPT أن لجنة السلامة والأمن المزعومة سيرأسها الأستاذ بجامعة كارنيجي ميلون زيكو كولتر.
وتضمنت اللجنة التي تم الكشف عنها في شهر مايو/أيار في البداية الرئيس التنفيذي سام ألتمان، لكنها ستتمتع الآن بـ “حوكمة مستقلة”.
تعرضت شركة OpenAI لانتقادات بسبب ثقافة السلامة التي تتبعها. ففي يونيو/حزيران، نشرت مجموعة من الموظفين الحاليين والسابقين في شركة OpenAI رسالة مفتوحة، حذرت فيها من “المخاطر الجسيمة التي تشكلها هذه التقنيات”.
واستقال العديد من الموظفين البارزين، بما في ذلك المؤسس المشارك إيليا سوتسكيفر، من الشركة، مشيرين إلى مخاوف تتعلق بالسلامة.
وبعد شهر واحد، أثار خمسة من أعضاء مجلس الشيوخ الأمريكي أسئلة حول كيفية تعامل OpenAI مع المخاوف الأمنية الناشئة في رسالة إلى ألتمان.
وقالت شركة OpenAI إن اللجنة “المستقلة” سيتم إطلاعها على النماذج الجديدة، ويمكن لمجلس الإدارة تأخير إصدار أي نماذج جديدة.
وقالت الشركة أيضًا إن اللجنة راجعت طراز o1 الجديد، المسمى باسم ستروبيري، وقالت إنه “متوسط المخاطر”.
وكتبت شركة OpenAI في مدونتها: “كجزء من عملها، ستواصل لجنة السلامة والأمن تلقي تقارير منتظمة حول التقييمات الفنية للنماذج الحالية والمستقبلية، بالإضافة إلى تقارير المراقبة المستمرة بعد الإصدار”.
وأضافت الشركة: “نحن نبني على عمليات وممارسات إطلاق النماذج الخاصة بنا لإنشاء إطار متكامل للسلامة والأمن مع معايير نجاح محددة بوضوح لعمليات إطلاق النماذج”.
ومن بين الأعضاء الآخرين في اللجنة الرئيس التنفيذي لشركة Quora آدم دي أنجيلو، والجنرال المتقاعد في الجيش الأمريكي والرئيس السابق لوكالة الأمن القومي بول ناكاسوني، والمستشارة العامة السابقة لشركة سوني نيكول سيليجمان.