كشفت OpenAI يوم الاثنين أن حوالي 1.2 مليون شخص من بين 800 مليون مستخدم أسبوعيًا يناقشون الانتحار مع ChatGPT كل أسبوع، فيما يمكن أن يكون المحاسبة العامة الأكثر تفصيلاً للشركة عن أزمات الصحة العقلية على منصتها.
وكتب OpenAI في منشور بالمدونة: “يصعب اكتشاف هذه المحادثات وقياسها، نظرًا لمدى ندرتها”. “يقدر تحليلنا الأولي أن حوالي 0.15% من المستخدمين النشطين في أسبوع معين لديهم محادثات تتضمن مؤشرات واضحة لتخطيط أو نية انتحارية محتملة، و0.05% من الرسائل تحتوي على مؤشرات صريحة أو ضمنية للتفكير أو النية الانتحارية.”
وهذا يعني أنه إذا كانت أرقام OpenAI دقيقة، فإن ما يقرب من 400 ألف مستخدم نشط كانوا صريحين في نواياهم للانتحار، ولم يقتصر الأمر على التلميح إلى ذلك فحسب، بل كانوا يبحثون بنشاط عن معلومات للقيام بذلك.
الأرقام مذهلة من حيث القيمة المطلقة. ويظهر على 560 ألف مستخدم آخرين علامات الذهان أو الهوس أسبوعيًا، في حين يُظهر 1.2 مليونًا ارتباطًا عاطفيًا متزايدًا بروبوت الدردشة، وفقًا لبيانات الشركة.
قال OpenAI في منشور بالمدونة: “لقد قمنا مؤخرًا بتحديث النموذج الافتراضي لـ ChatGPT (يفتح في نافذة جديدة) للتعرف بشكل أفضل على الأشخاص ودعمهم في لحظات الشدة”. “للمضي قدمًا، بالإضافة إلى مقاييس السلامة الأساسية طويلة الأمد الخاصة بالانتحار وإيذاء النفس، فإننا نضيف الاعتماد العاطفي وحالات الطوارئ المتعلقة بالصحة العقلية غير الانتحارية إلى مجموعتنا القياسية لاختبارات السلامة الأساسية لإصدارات النماذج المستقبلية.”
لكن البعض يعتقد أن الجهود المعلنة للشركة قد لا تكون كافية.
حذر ستيفن أدلر، الباحث السابق في مجال سلامة OpenAI والذي أمضى أربع سنوات هناك قبل مغادرته في يناير، من مخاطر تطوير الذكاء الاصطناعي في السباقات. ويقول إن هناك أدلة قليلة على أن OpenAI قامت بالفعل بتحسين تعاملها مع المستخدمين الضعفاء قبل إعلان هذا الأسبوع.
وكتب في عمود بصحيفة وول ستريت جورنال: “يستحق الناس أكثر من مجرد كلمة شركة بأنها عالجت قضايا السلامة. وبعبارة أخرى: إثبات ذلك”.
ومن المثير للاهتمام أن OpenAI قدمت بالأمس بعضًا من الصحة العقلية، مقابل 0 تقريبًا من الأدلة على التحسن التي قدمتها سابقًا.
أنا متحمس لأنهم فعلوا ذلك، على الرغم من أنه لا يزال لدي مخاوف. https://t.co/PDv80yJUWN– ستيفن أدلر (sjgadler) 28 أكتوبر 2025
“كان إصدار OpenAI لبعض معلومات الصحة العقلية خطوة رائعة، ولكن من المهم المضي قدمًا”، غرد Adler، داعيًا إلى تقارير الشفافية المتكررة والوضوح حول ما إذا كانت الشركة ستستمر في السماح للمستخدمين البالغين بإنشاء شهوانية باستخدام ChatGPT – وهي ميزة تم الإعلان عنها على الرغم من المخاوف من أن الارتباطات الرومانسية تغذي العديد من أزمات الصحة العقلية.
إن الشك له ما يبرره. في إبريل/نيسان، أطلقت شركة OpenAI تحديث GPT-4o الذي جعل روبوت الدردشة متملقًا إلى درجة أنه أصبح مجرد ميم، يصفق للقرارات الخطيرة ويعزز المعتقدات الوهمية.
تراجع الرئيس التنفيذي سام ألتمان عن التحديث بعد رد الفعل العنيف، معترفًا بأنه كان “متملقًا ومزعجًا للغاية”.
ثم تراجعت شركة OpenAI: بعد إطلاق GPT-5 بدرابزين أكثر صرامة، اشتكى المستخدمون من أن النموذج الجديد بدا “باردًا”. أعادت شركة OpenAI الوصول إلى نموذج GPT-4o الإشكالي لدفع المشتركين، وهو نفس النموذج المرتبط بمشاكل الصحة العقلية.
حقيقة ممتعة: العديد من الأسئلة التي تم طرحها اليوم في أول AMA مباشر للشركة كانت مرتبطة بـ GPT-4o وكيفية جعل النماذج المستقبلية أكثر شبهاً بـ 4o.
تقول OpenAI إن GPT-5 يحقق الآن نسبة امتثال تبلغ 91% في السيناريوهات المتعلقة بالانتحار، مقارنة بـ 77% في الإصدار السابق. لكن هذا يعني أن النموذج السابق – المتاح لملايين المستخدمين الذين يدفعون لعدة أشهر – فشل في ما يقرب من ربع الوقت في المحادثات حول إيذاء النفس.
في وقت سابق من هذا الشهر، نشر أدلر تحليلاً لآلان بروكس، وهو رجل كندي انزلق إلى الأوهام بعد أن عزز ChatGPT اعتقاده بأنه اكتشف الرياضيات الثورية.
وجد أدلر أن مصنفات السلامة الخاصة بشركة OpenAI – والتي تم تطويرها بالتعاون مع معهد ماساتشوستس للتكنولوجيا وتم نشرها للعامة – كانت ستحدد أكثر من 80% من استجابات ChatGPT باعتبارها إشكالية. ويبدو أن الشركة لم تكن تستخدمها.
تواجه OpenAI الآن دعوى قضائية تتعلق بالقتل الخطأ من والدي آدم رين البالغ من العمر 16 عامًا، والذي ناقش الانتحار مع ChatGPT قبل أن ينتحر.
وقد أثار رد الشركة انتقادات بسبب عدوانيتها، حيث طلبت قائمة الحضور وكلمات التأبين من النصب التذكاري للمراهق – وهي خطوة وصفها المحامون بـ “التحرش المتعمد”.
يريد أدلر أن تلتزم OpenAI بتقارير متكررة عن الصحة العقلية وإجراء تحقيق مستقل في أزمة التملق في أبريل، مرددًا اقتراحًا من مايلز بروندج، الذي ترك OpenAI في أكتوبر بعد ست سنوات من تقديم المشورة بشأن سياسة الذكاء الاصطناعي وسلامته.
وكتب أدلر: “أتمنى أن تضغط OpenAI بقوة أكبر لفعل الشيء الصحيح، حتى قبل وجود ضغوط من وسائل الإعلام أو الدعاوى القضائية”.
وتقول الشركة إنها عملت مع 170 طبيبًا في مجال الصحة العقلية لتحسين الاستجابات، ولكن حتى لجنتها الاستشارية اختلف بنسبة 29% من الوقت حول ما يشكل استجابة “مرغوبة”.
وبينما يظهر GPT-5 تحسينات، تعترف OpenAI بأن إجراءات الحماية الخاصة بها تصبح أقل فعالية في المحادثات الأطول – على وجه التحديد عندما يكون المستخدمون الضعفاء في أمس الحاجة إليها.
