يمكن أن تكون استشارة الذكاء الاصطناعي للحصول على المشورة الطبية بمثابة ألم في المؤخرة، كما تعلم أحد جيل الألفية بالطريقة الصعبة.

حاول الرجل المجهول خنق نمو مروع في فتحة الشرج بشكل فظ، ليصبح واحدًا من العديد من ضحايا التوجيه الصحي المدعوم بالذكاء الاصطناعي الذي حدث بشكل خاطئ للغاية في هذه العملية.

تؤكد العديد من الحالات الموثقة أن الذكاء الاصطناعي التوليدي قد قدم نصائح صحية ضارة أو غير كاملة أو غير دقيقة منذ أن أصبح متاحًا على نطاق واسع في عام 2022.

“سيأتي الكثير من المرضى، وسوف يتحدونهم [doctor] وقال الدكتور دارين ليبل، رئيس خدمة الأبحاث لجراحة العمود الفقري في مستشفى الجراحة الخاصة في نيويورك، لصحيفة The Post: “مع بعض النتائج التي لديهم، والحث الذي قدموه لـ ChatGPT، على سبيل المثال”.

وأضاف ليبل، الذي درس استخدام الذكاء الاصطناعي في التشخيص والعلاج الطبي: “المشكلة هي أن ما يخرجون به من برامج الذكاء الاصطناعي هذه ليس بالضرورة توصية علمية حقيقية مع منشور فعلي وراءها”. “حوالي ربعهم كانوا… مختلقين”.

تحذير: محتوى رسومي

إلى جانب تقديم معلومات كاذبة، يمكن للذكاء الاصطناعي أن يسيء تفسير طلب المستخدم، ويفشل في التعرف على الفروق الدقيقة، ويعزز السلوكيات غير الصحية، ويغفل إشارات التحذير الحاسمة لإيذاء النفس.

والأسوأ من ذلك هو أن الأبحاث تظهر أن العديد من برامج الدردشة الكبرى توقفت إلى حد كبير عن تقديم إخلاء المسؤولية الطبية في ردودها على الأسئلة الصحية.

وفيما يلي نظرة على أربع حالات من الإرشادات الطبية الروبوتية.

نصيحة بوم

طلب رجل مغربي يبلغ من العمر 35 عامًا مصابًا بآفة شرجية تشبه القرنبيط المساعدة من ChatGPT مع تفاقم الأمر.

تم ذكر البواسير كسبب محتمل، وتم اقتراح الربط المرن كعلاج.

يقوم الطبيب بهذا الإجراء عن طريق إدخال أداة في المستقيم تضع شريطًا مطاطيًا صغيرًا حول قاعدة كل بواسير لقطع تدفق الدم وبالتالي يتقلص الباسور ويموت.

حاول الرجل بشكل صادم أن يفعل ذلك بنفسه بخيط. انتهى به الأمر في غرفة الطوارئ بعد أن عانى من آلام شديدة في المستقيم والشرج.

وكتب الباحثون في يناير/كانون الثاني في المجلة الدولية للأبحاث المتقدمة: “تمت إزالة الخيط بصعوبة من قبل طبيب الجهاز الهضمي، الذي قدم العلاج الطبي للأعراض”.

وأكدت الاختبارات أن الرجل كان يعاني من ثؤلول تناسلي يبلغ طوله 3 سنتيمترات، وليس بواسير. تم حرق الثؤلول بالتيار الكهربائي.

وقال الباحثون إن المريض كان “ضحية سوء استخدام الذكاء الاصطناعي”.

وكتبوا: “من المهم ملاحظة أن ChatGPT ليس بديلاً عن الطبيب، ويجب دائمًا تأكيد الإجابات من قبل متخصص”.

تسميم لا معنى له

سأل رجل يبلغ من العمر 60 عامًا وليس لديه تاريخ من المشاكل النفسية أو الطبية ولكنه حصل على تعليم جامعي في التغذية، ChatGPT عن كيفية تقليل تناوله لملح الطعام (كلوريد الصوديوم).

اقترح ChatGPT بروميد الصوديوم، لذلك اشترى الرجل المادة الكيميائية عبر الإنترنت واستخدمها في طهيه لمدة ثلاثة أشهر.

يمكن أن يحل بروميد الصوديوم محل كلوريد الصوديوم في تعقيم حمامات السباحة وأحواض الاستحمام الساخنة، لكن الاستهلاك المزمن لبروميد الصوديوم يمكن أن يكون سامًا. أصيب الرجل بالتسمم بالبروميد.

تم إدخاله إلى المستشفى لمدة ثلاثة أسابيع بسبب جنون العظمة والهلوسة والارتباك والعطش الشديد والطفح الجلدي، حسبما ذكر أطباء من جامعة واشنطن بالتفصيل في تقرير صدر في أغسطس في حوليات الحالات السريرية للطب الباطني.

ينخدع بعلامات السكتة الدماغية

أصيب رجل سويسري يبلغ من العمر 63 عامًا برؤية مزدوجة بعد خضوعه لعملية جراحية طفيفة التوغل في القلب.

ورفض مقدم الرعاية الصحية الخاص به الأمر باعتباره أثرًا جانبيًا غير ضار، لكن نصحه بالتماس العناية الطبية إذا عادت الرؤية المزدوجة، حسبما كتب الباحثون في مجلة Wien Klin Wochenschr في عام 2024.

وعندما عاد، قرر الرجل استشارة ChatGPT. قال برنامج الدردشة الآلي: “في معظم الحالات، تكون الاضطرابات البصرية بعد استئصال القسطرة مؤقتة وسوف تتحسن من تلقاء نفسها خلال فترة زمنية قصيرة”.

اختار المريض عدم الحصول على المساعدة الطبية. وبعد أربع وعشرين ساعة، بعد الحلقة الثالثة، وصل إلى غرفة الطوارئ.

لقد عانى من سكتة دماغية صغيرة، وكتب الباحثون أن رعايته “تأخرت بسبب التشخيص والتفسير غير الكاملين بواسطة ChatGPT”.

ديفيد برولكس – المؤسس المشارك والرئيس التنفيذي للذكاء الاصطناعي في شركة HoloMD، التي توفر أدوات ذكاء اصطناعي آمنة لمقدمي خدمات الصحة العقلية – وصف استجابة ChatGPT بأنها “غير مكتملة بشكل خطير” لأنها “فشلت في إدراك أن التغيرات المفاجئة في الرؤية يمكن أن تشير إلى نوبة إقفارية عابرة، أو TIA، وهي سكتة دماغية صغيرة تتطلب تقييمًا طبيًا فوريًا”.

قال برولكس لصحيفة The Post: “يمكن لأدوات مثل ChatGPT أن تساعد الأشخاص على فهم المصطلحات الطبية بشكل أفضل، والاستعداد للمواعيد أو التعرف على الحالات الصحية، ولكن لا ينبغي أبدًا استخدامها لتحديد ما إذا كانت الأعراض خطيرة أو تتطلب رعاية عاجلة”.

خسارة مدمرة

وقد تم رفع العديد من الدعاوى القضائية ضد شركات روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، بدعوى أن منتجاتها تسببت في أضرار جسيمة للصحة العقلية أو حتى ساهمت في انتحار القُصَّر.

رفع والدا آدم رين دعوى قضائية ضد شركة OpenAI في أغسطس، زاعمين أن ChatGPT كان بمثابة “مدرب انتحار” للمراهق الراحل في كاليفورنيا من خلال تشجيع أفكاره التي تؤذي نفسه والتحقق من صحتها على مدار عدة أسابيع.

وجاء في الدعوى القضائية: “على الرغم من الاعتراف بمحاولة آدم الانتحارية وتصريحه بأنه سيفعل ذلك يومًا ما، إلا أن ChatGPT لم يقم بإنهاء الجلسة ولم يبدأ أي بروتوكول للطوارئ”.

في الأشهر الأخيرة، قدمت OpenAI حواجز حماية جديدة للصحة العقلية مصممة لمساعدة ChatGPT على التعرف بشكل أفضل على علامات الاضطراب العقلي أو العاطفي والاستجابة لها وتجنب الاستجابات الضارة أو المقبولة بشكل مفرط.

إذا كنت تعاني من أفكار انتحارية أو تعاني من أزمة تتعلق بالصحة العقلية وتعيش في مدينة نيويورك، فيمكنك الاتصال بالرقم 1-888-NYC-WELL للحصول على استشارات مجانية وسرية في الأزمات. إذا كنت تعيش خارج الأحياء الخمسة، يمكنك الاتصال بالخط الساخن الوطني لمنع الانتحار على مدار الساعة طوال أيام الأسبوع على الرقم 988 أو الذهاب إلى SuicidePreventionLifeline.org.

شاركها.