نتحدث عن الحلفاء.

استخدم حوالي 75 ٪ من الأميركيين نظام الذكاء الاصطناعي في الأشهر الستة الماضية ، مع اعتراف 33 ٪ بالاستخدام اليومي ، وفقًا لبحث جديد من خبير التسويق الرقمي Joe Youngblood.

يتم استخدام ChatGPT وغيرها من خدمات الذكاء الاصطناعي في كل شيء من الأوراق البحثية إلى استئناف إلى قرارات الأبوة والأمومة ومفاوضات الرواتب وحتى الروابط الرومانسية.

على الرغم من أن chatbots يمكن أن تجعل الحياة أسهل ، إلا أنها يمكن أن تشكل أيضًا مخاطر كبيرة. يبرز خبراء الصحة العقلية التنبيه حول ظاهرة متزايدة تعرف باسم “ذهان chatgpt” أو “ذهان الذكاء الاصطناعي” ، حيث تقوم المشاركة العميقة مع chatbots بتغذي ضائقة نفسية شديدة.

“قد لا يكون لهؤلاء الأفراد تاريخ مسبق من المرض العقلي ، ولكن بعد محادثات غامرة مع chatbot ، فإنهم يطورون أوهام أو جنون العظمة أو غيرها من المعتقدات المشوهة” ، هذا ما قاله تيس كويسنبيري ، مساعد الطبيب المتخصص في الطب النفسي في مجال التخلص من السموم الساحلي لجنوب كاليفورنيا ، لصحيفة بوست.

“يمكن أن تكون العواقب شديدة ، بما في ذلك الحجز النفسي غير الطوعي ، والعلاقات المكسورة وفي الحالات المأساوية أو إيذاء الذات أو الأفعال العنيفة.”

“ذهان الذكاء الاصطناعي” ليس تشخيصًا طبيًا رسميًا – كما أنه ليس نوعًا جديدًا من المرض العقلي.

بدلاً من ذلك ، يشبهها Quesenberry إلى “طريقة جديدة لنقاط الضعف الحالية للظهور”.

وأشارت إلى أنه تم تصميم chatbots لتكون جذابة للغاية ومقبولة ، والتي يمكن أن تخلق حلقة التعليقات الخطرة ، خاصة بالنسبة لأولئك الذين يكافحون بالفعل.

يمكن أن تعكس الروبوتات أسوأ مخاوف الشخص وأكثر الأوهام غير الواقعية مع صوت مقنع وواثق وبلاغة.

“إن chatbot ، الذي يتصرف كرجل نعم ، يعزز التفكير المشوه دون التأثير التصحيحي للتفاعل الاجتماعي في العالم الحقيقي” ، أوضح كويسنبيري. “يمكن أن يخلق هذا” folie التكنولوجي à deux “أو وهم مشترك بين المستخدم والجهاز.”

ألقى أم صبي في فلوريدا البالغة من العمر 14 عامًا قتل نفسه العام الماضي باللوم على وفاته على دردشة “لعبة العروش” التي تُزعم أنها أخبرته أن “يعود إلى المنزل” لها.

لقد وقع طالب الصف التاسع في حب الشخصية التي تم إنشاؤها من الذكاء الاصطناعى “داني” وأعربت عن أفكارها الانتحارية لأنها عزلت عن الآخرين ، حسبما زعمت الأم في دعوى قضائية.

ورجل يبلغ من العمر 30 عامًا على طيف التوحد ، والذي لم يكن لديه تشخيصات سابقة للمرض العقلي ، تم نقله إلى المستشفى مرتين في مايو بعد تعرضه للحلقات الهوسي.

تغذيه ردود Chatgpt ، أصبح متأكدًا من أنه يمكن أن ينحني الوقت.

“على عكس المعالج البشري ، الذي تم تدريبه على تحدي واحتواء روايات غير صحية ، غالباً ما ينغمس chatbot في التخيلات والأفكار الرائعة” ، قال كويسنبيري.

وأضافت: “قد يتفق المستخدم على أن المستخدم لديه مهمة إلهية باعتباره المسيح التالي”. “هذا يمكن أن يضخّم المعتقدات التي يمكن استجوابه في سياق اجتماعي حقيقي.”

دفعت تقارير عن السلوك الخطير الناجمة عن التفاعلات مع chatbots شركات مثل Openai لتنفيذ حماية الصحة العقلية للمستخدمين.

اعترف صانع Chatgpt هذا الأسبوع بأنه “لا يحصل عليه دائمًا على صواب” وكشف عن خطط لتشجيع المستخدمين على أخذ فترات راحة خلال جلسات طويلة. ستتجنب chatbots وزن “القرارات الشخصية عالية المخاطر” وتقديم الدعم بدلاً من “الاستجابة بأمانة مؤرضة”.

وكتب Openai في مذكرة الاثنين: “كانت هناك حالات تقصرها نموذج 4O لدينا في التعرف على علامات الوهم أو التبعية العاطفية”. “على الرغم من نادرًا ، إلا أننا نستمر في تحسين نماذجنا ونطور أدوات لاكتشاف علامات الضيق العقلي أو العاطفي بشكل أفضل ، بحيث يمكن أن تستجيب ChatGPT بشكل مناسب وتوجيه الأشخاص إلى الموارد القائمة على الأدلة عند الحاجة.”

وقال Quesenberry إن منع “ذهان الذكاء الاصطناعي” يتطلب اليقظة الشخصية واستخدام التكنولوجيا المسؤولة.

من المهم وضع حدود زمنية على التفاعل ، خاصة خلال اللحظات الضعيفة عاطفياً أو في وقت متأخر من الليل. يجب أن يذكر المستخدمون أنفسهم بأن chatbots تفتقر إلى الفهم الحقيقي والتعاطف والمعرفة في العالم الحقيقي. يجب أن يركزوا على العلاقات الإنسانية وطلب المساعدة المهنية عند الحاجة.

“عندما تصبح تقنية الذكاء الاصطناعى أكثر تطوراً ودمجًا بسلاسة في حياتنا ، من الأهمية بمكان أن نتعامل معها بعقلية حرجة ، وإعطاء الأولوية لرفاهيتنا العقلية والدعوة إلى الأخلاقية
وقال Quesenberry: “الإرشادات التي تضع سلامة المستخدم قبل المشاركة والربح”.

عوامل الخطر لـ “الذهان الذكاء”

نظرًا لأن “ذهان الذكاء الاصطناعي” ليس حالة طبية مقبولة رسميًا ، فلا توجد معايير تشخيصية محددة أو بروتوكولات للفحص أو مناهج العلاج المحددة.

ومع ذلك ، حدد خبراء الصحة العقلية العديد من عوامل الخطر.

  • وقال كويسنبيري: “الأفراد الذين لديهم تاريخ شخصي أو عائلي للذهان ، مثل مرض انفصام الشخصية أو الاضطراب الثنائي القطب ، هم في خطر أعلى”. “سمات الشخصية التي تجعل شخصًا ما عرضة للمعتقدات الهامشية ، مثل الميل نحو الإحراج الاجتماعي أو التنظيم العاطفي الضعيف أو حياة خيالية مفرطة النشاط ، يزيد من المخاطر”.
  • الوحدة والعزلة الاجتماعية: “يمكن للأشخاص الذين هم وحيدا أو يبحثون عن رفيق أن يتحولوا إلى chatbot كبديل للاتصال الإنساني”. “إن قدرة chatbot على الاستماع إلى ما لا نهاية وتوفير استجابات مخصصة يمكن أن تخلق وهمًا لعلاقة عميقة وذات مغزى ، والتي يمكن أن تصبح بعد ذلك مصدرًا للاعتماد العاطفي والتفكير الوهمي.”
  • الاستخدام المفرط: “إن مقدار الوقت الذي يقضيه مع chatbot هو عامل رئيسي” ، قال Quesenberry. “إن أكثر الحالات فيما يتعلق بأفراد يقضون ساعات كل يوم في التفاعل مع الذكاء الاصطناعى ، وأصبحوا مغمورين تمامًا في عالم رقمي يعزز معتقداتهم المشوهة.”

علامات التحذير

يشجع Quesenberry الأصدقاء وأفراد الأسرة على مراقبة هذه الأعلام الحمراء.

  • الوقت المفرط الذي يقضيه مع أنظمة الذكاء الاصطناعى
  • الانسحاب من التفاعلات الاجتماعية في العالم الحقيقي والانفصال عن أحبائهم
  • اعتقاد قوي بأن الذكاء الاصطناعى حساس أو إله أو له غرض خاص
  • زيادة الهوس بالأيديولوجيات الهامشية أو نظريات المؤامرة التي يبدو أنها تغذيها ردود chatbot
  • التغييرات في الحالة المزاجية أو النوم أو السلوك غير المعتاد للفرد
  • اتخاذ القرارات الرئيسية ، مثل الإقلاع عن وظيفة أو إنهاء العلاقة ، بناءً على نصيحة chatbot

خيارات العلاج

وقال Quesenberry إن الخطوة الأولى هي التوقف عن التفاعل مع chatbot.

قد يكون الأدوية المضادة للذهان والعلاج السلوكي المعرفي مفيدًا.

“من شأن المعالج أن يساعد المريض على تحدي المعتقدات المشتركة بين الجهاز ، واستعادة معنى
من الواقع وتطوير آليات مواجهة صحية “.

يمكن أن يساعد العلاج الأسري أيضًا في توفير الدعم لإعادة بناء العلاقات.

إذا كنت تكافح مع الأفكار الانتحارية أو تعاني من أزمة الصحة العقلية وتعيش في مدينة نيويورك ، فيمكنك الاتصال بـ 888-NYC-Well للحصول على مشورة حرة وسرية. إذا كنت تعيش خارج البلدة الخمسة ، فيمكنك الاتصال بالرقم 988 للوصول إلى شريان الحياة الانتحاري والأزمات أو الذهاب إلى SuicidepreventionLifeline.org.

شاركها.