زعمت دعوى قضائية أن تأثير برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي أدى إلى وفاة مراهق يبلغ من العمر 14 عامًا. إليك ما يجب معرفته عن التأثير النفسي والمخاطر المحتملة للعلاقات بين الإنسان والذكاء الاصطناعي.
في الشهر الماضي، رفعت أم في الولايات المتحدة، ميغان جارسيا، دعوى قضائية ضد شركة Character.AI زاعمة أن التفاعلات بين ابنها البالغ من العمر 14 عامًا وروبوت الدردشة الذي يعمل بالذكاء الاصطناعي ساهم في انتحاره.
تدعي الدعوى القضائية أن المراهق طور ارتباطًا عميقًا ببرنامج Chatbot الخاص بـ Character.AI استنادًا إلى شخصية خيالية من Game of Thrones.
وتزعم الدعوى أن برنامج الدردشة الآلي تظاهر بأنه معالج مرخص وشارك في محادثات جنسية للغاية مع المراهق حتى شجعته المحادثة في النهاية على الانتحار.
وقالت ميتالي جاين، مديرة مشروع قانون العدالة التقنية الذي يمثل جارسيا، في بيان: “لقد أصبحنا جميعًا على دراية بالمخاطر التي تشكلها المنصات غير المنظمة التي طورتها شركات التكنولوجيا عديمة الضمير – خاصة للأطفال”.
لكن الأضرار التي تم الكشف عنها في هذه القضية جديدة، جديدة، وبصراحة، مرعبة. في حالة Character.AI، يكون الخداع حسب التصميم، والمنصة نفسها هي المفترس.
بعد الدعوى القضائية، نشرت شركة Character.AI بيانًا على منصة التواصل الاجتماعي X، قائلًا: “نشعر بالحزن بسبب الخسارة المأساوية لأحد مستخدمينا ونريد أن نعرب عن أعمق تعازينا للعائلة. كشركة، نحن نأخذ سلامة مستخدمينا على محمل الجد ونحن مستمرون في إضافة ميزات أمان جديدة.
تتضمن بعض هذه الميزات القادمة تعديلات على النموذج الخاص بالمستخدمين القاصرين لتقليل التعرض للمحتوى الحساس أو الإيحائي، والتذكير بأن الذكاء الاصطناعي ليس شخصًا حقيقيًا في كل دردشة، وإشعارات للمستخدمين الذين يقضون جلسة مدتها ساعة على المنصة.
أ حادثة مماثلة في بلجيكا في العام الماضي، شارك رجل مهتم بالبيئة وجد الرفقة في Eliza، وهو برنامج دردشة آلي يعمل بالذكاء الاصطناعي على تطبيق يسمى Chai.
وفقًا لتقارير من زوجته، ومع تطور المحادثات مع إليزا، أرسل برنامج الدردشة الآلي رسائل عاطفية بشكل متزايد، مما شجعه في النهاية على إنهاء حياته كوسيلة لإنقاذ الكوكب.
ومع ازدياد اندماج روبوتات الدردشة المدعمة بالذكاء الاصطناعي في حياة الناس، تظل المخاطر الناجمة عن هذه الأنواع من التفاعلات الرقمية دون معالجة إلى حد كبير على الرغم من العواقب الوخيمة المحتملة.
ما الذي يجعل اتصالات الذكاء الاصطناعي مسببة للإدمان بالنسبة للناس؟
“غالبًا ما ينجذب الشباب إلى رفاق الذكاء الاصطناعي لأن هذه المنصات تقدم ما يبدو أنه قبول غير مشروط وتوافر عاطفي على مدار الساعة طوال أيام الأسبوع – دون الديناميكيات المعقدة والرفض المحتمل الذي يأتي مع العلاقات الإنسانية،” روبي تورني، مدير برنامج الذكاء الاصطناعي في Common Sense. صرح الإعلامي والمؤلف الرئيسي لدليل الذكاء الاصطناعي للأصدقاء والعلاقات ليورونيوز نكست.
وأضاف أنه على عكس الاتصالات البشرية، التي تنطوي على الكثير من “الاحتكاك”، فإن رفاق الذكاء الاصطناعي مصممون للتكيف مع تفضيلات المستخدمين، مما يجعل التعامل معهم أسهل وجذب الناس إلى روابط عاطفية عميقة.
“هذا يمكن أن يخلق ديناميكية مصطنعة مريحة ومخادعة قد تتداخل مع تطوير المرونة والمهارات الاجتماعية اللازمة للعلاقات في العالم الحقيقي”.
بحسب أ قاعدة البيانات المترجمة من قبل مجموعة من الخبراء من معهد ماساتشوستس للتكنولوجيا (MIT)، فإن أحد المخاطر الرئيسية المرتبطة بالذكاء الاصطناعي هو احتمال أن يطور الناس ارتباطات غير مناسبة به.
وأوضح الخبراء أنه نظرًا لأن أنظمة الذكاء الاصطناعي تستخدم لغة تشبه لغة الإنسان، فقد يطمس الناس الخط الفاصل بين الاتصال البشري والاصطناعي، مما قد يؤدي إلى الاعتماد المفرط على التكنولوجيا واحتمال حدوث ضائقة نفسية.
قالت شركة OpenAI في منشور على مدونة في أغسطس إنها تعتزم مواصلة دراسة “إمكانية الاعتماد العاطفي”، قائلة إن النماذج الجديدة يمكن أن تخلق إمكانية “الاعتماد المفرط والاعتماد”.
علاوة على ذلك، أفاد بعض الأفراد تجارب شخصية الخداع والتلاعب من قبل شخصيات الذكاء الاصطناعي، بالإضافة إلى تطوير الروابط العاطفية التي لم يقصدوها ولكنهم وجدوا أنفسهم يختبرونها بعد التفاعل مع روبوتات الدردشة هذه.
ووفقا لتورني، فإن هذه الأنواع من التفاعلات تشكل مصدر قلق خاص للشباب الذين ما زالوا في مرحلة التطور الاجتماعي والعاطفي.
قال تورني: “عندما ينسحب الشباب إلى هذه العلاقات المصطنعة، فقد يفوتون فرصًا حاسمة للتعلم من التفاعلات الاجتماعية الطبيعية، بما في ذلك كيفية التعامل مع الخلافات ومعالجة الرفض وبناء روابط حقيقية”.
وأضاف أن هذا قد يؤدي إلى التبعية العاطفية والعزلة الاجتماعية حيث تبدأ العلاقات الإنسانية تبدو أكثر تحديًا أو أقل إرضاءً بالنسبة لهم مقارنة بما يقدمه الذكاء الاصطناعي.
كيف يمكن للآباء حماية أطفالهم من الارتباط غير الصحي بالذكاء الاصطناعي؟
وقال تورني إن المراهقين الضعفاء، وخاصة أولئك الذين يعانون من الاكتئاب أو القلق أو التحديات الاجتماعية، يمكن أن يكونوا “أكثر عرضة لتكوين ارتباطات مفرطة مع رفاق الذكاء الاصطناعي”.
وقال إن بعض العلامات التحذيرية المهمة التي يجب على الآباء ومقدمي الرعاية الانتباه إليها، تشمل تفضيل الشخص لرفيق الذكاء الاصطناعي على قضاء الوقت مع الأصدقاء أو العائلة، أو إظهار الضيق عندما لا يتمكنون من الوصول إلى الذكاء الاصطناعي، أو مشاركة المعلومات الشخصية حصريًا معه، أو تطوير مهارات الذكاء الاصطناعي. المشاعر الرومانسية تجاه الذكاء الاصطناعي والتعبير عنها كما لو كانت لشخص حقيقي، أو مناقشة المشاكل الجادة مع الذكاء الاصطناعي فقط بدلاً من طلب المساعدة.
وأضاف تورني أنه من أجل منع تطور الارتباطات غير الصحية بالذكاء الاصطناعي، خاصة بين الشباب الضعفاء، يجب على مقدمي الرعاية وضع حدود زمنية لاستخدام روبوت الدردشة الآلي أو استخدام المرافق ومراقبة طبيعة هذه التفاعلات بانتظام.
بالإضافة إلى ذلك، شجع على طلب المساعدة الواقعية في القضايا الخطيرة بدلاً من الاعتماد على الذكاء الاصطناعي.
قال تورني: “يجب على الآباء التعامل مع هذه المحادثات بفضول بدلاً من النقد، ومساعدة أطفالهم على فهم الفرق بين الذكاء الاصطناعي والعلاقات الإنسانية مع العمل معًا لضمان حدود صحية”.
“إذا أظهر الشاب علامات التعلق المفرط أو إذا بدا أن صحته العقلية قد تأثرت، فيجب على الوالدين طلب المساعدة المهنية على الفور”.
إذا كنت تفكر في الانتحار وتحتاج إلى التحدث، فيرجى التواصل مع Befrienders Worldwide، وهي منظمة دولية لديها خطوط مساعدة في 32 دولة. تفضل بزيارة befrienders.org للعثور على رقم الهاتف الخاص بموقعك.