استشارات الذكاء الاصطناعى للحصول على المشورة الطبية يمكن أن يكون لها عواقب مميتة.
تم نقل رجل يبلغ من العمر 60 عامًا إلى المستشفى يعاني من أعراض نفسية شديدة-بالإضافة إلى بعض الأعراض البدنية أيضًا ، بما في ذلك مشاكل العطش والتنسيق الشديدة-بعد أن طلبت ChatGPT للحصول على نصائح حول كيفية تحسين نظامه الغذائي.
ما اعتقد أنه تم تبديل صحية انتهى في رد فعل سام شديد لدرجة أن الأطباء وضعوه في قبضة نفسية لا إرادية.
بعد القراءة حول ملح الجدول الضار للآثار الصحية – الذي يحتوي على الاسم الكيميائي كلوريد الصوديوم – استشار الرجل المجهول الهوية ChatGpt وقيل له إنه يمكن تبديله ببروميد الصوديوم.
يبدو بروميد الصوديوم مشابهًا لملح الجدول ، لكنه مركب مختلف تمامًا. على الرغم من أنه يستخدم أحيانًا في الطب ، إلا أنه يستخدم بشكل شائع لأغراض الصناعية والتنظيف – وهو ما يعتقد الخبراء أن تشيرجبت الذي كان يشير إليه.
بعد أن درس التغذية في الكلية ، كان الرجل مصدر إلهام لإجراء تجربة قام فيها بإزالة كلوريد الصوديوم من نظامه الغذائي واستبدله ببروميد الصوديوم الذي اشتراه عبر الإنترنت.
تم إدخاله إلى المستشفى بعد ثلاثة أشهر من مبادلة النظام الغذائي ، وسط مخاوف من أن جاره كان يسممه.
أخبر المريض الأطباء أنه قام بتقطير ماءه الخاص والتزام بقيود غذائية متعددة. واشتكى من العطش لكنه كان مشبوهًا عندما تم تقديم الماء إليه.
على الرغم من أنه لم يكن لديه تاريخ نفسي سابق ، بعد 24 ساعة من الاستشفاء ، أصبح بجنون العظمة بشكل متزايد وأبلغ عن كل من الهلوسة السمعية والبصرية.
تم علاجه بالسوائل والكهارل ومضادات الذهان – وبعد محاولة الهروب – تم قبوله في النهاية إلى وحدة الطب النفسي للمرضى الداخليين في المستشفى.
نشر دراسة الحالة الأسبوع الماضي في المجلة حوليات الطب الباطني الحالات السريرية، أوضح المؤلفون أن الرجل كان يعاني من البروم ، وهي متلازمة سامة تسببت في التعرض المفرط للبروميد الكيميائي أو بروم ابن عمه القريب.
عندما تحسنت حالته ، تمكن من الإبلاغ عن أعراض أخرى مثل حب الشباب ، ورم الوعاء الكرز ، والتعب ، والأرق ، والترنح (حالة عصبية تسبب نقصًا في تنسيق العضلات) ، والبوليديبسا (العطش الشديد) ، وكلها تتماشى مع سمية بروميد.
حذر مؤلفو الدراسة: “من المهم النظر في أن chatgpt وغيرها من أنظمة الذكاء الاصطناعى يمكن أن تولد عدم دقة علمية ، وتفتقر إلى القدرة على مناقشة النتائج بشكل نقدي ، وفي النهاية تغذي انتشار المعلومات الخاطئة”.
في شروط الاستخدام ،
ينص Openai ، مطور ChatGpt ، على شروط استخدامه أن الذكاء الاصطناعى “غير مخصص للاستخدام في تشخيص أو علاج أي حالة صحية” – لكن هذا لا يبدو أنه يردع الأميركيين على البحث عن الرعاية الصحية التي يمكن الوصول إليها.
وفقًا لمسح عام 2025 ، فإن أكثر من ثلث (35 ٪) من الأميركيين يستخدمون بالفعل الذكاء الاصطناعي للتعرف على جوانب صحتهم وعافية وإدارتها.
على الرغم من أنه جديد نسبيًا ، إلا أن الثقة في الذكاء الاصطناعي مرتفع إلى حد ما ، حيث وجد 63 ٪ أنها جديرة بالثقة للمعلومات والتوجيهات الصحية – مما يزيد في هذا المجال عن وسائل التواصل الاجتماعي (43 ٪) والمؤثرين (41 ٪) ، ولكن أقل من الأطباء (93 ٪) وحتى الأصدقاء (82 ٪).
يجد الأمريكيون أيضًا أنه من الأسهل طرح أسئلة محددة من الذكاء الاصطناعي مقابل الذهاب إلى محرك البحث (31 ٪) وأنه يمكن الوصول إليه أكثر من التحدث إلى أخصائي الصحة (27 ٪).
في الآونة الأخيرة ، بدا خبراء الصحة العقلية المنبه بشأن ظاهرة متزايدة تعرف باسم “ذهان الدردشة” أو “ذهان الذكاء الاصطناعي” ، حيث تقوم المشاركة العميقة مع chatbots بتغذي ضائقة نفسية شديدة.
دفعت تقارير عن السلوك الخطير الناجمة عن التفاعلات مع chatbots شركات مثل Openai لتنفيذ حماية الصحة العقلية للمستخدمين.
وخلص مؤلفو التقرير إلى أنه “على الرغم من أنها أداة ذات إمكانية كبيرة لتوفير جسر بين العلماء والسكان غير الأكاديميين ، فإن الذكاء الاصطناعى يحملون أيضًا خطر إصدار المعلومات غير الناسخة”.
“من غير المرجح أن يذكر خبير طبي بروميد الصوديوم عندما يواجه مريضًا يبحث عن بديل قابل للتطبيق عن كلوريد الصوديوم.”