ابق على اطلاع مع التحديثات المجانية

الكاتب زميل كبير في الأخلاق في معهد آلان تورينج

منذ إصدار أول Chatbot في عام 1966 ، قام الباحثون بتوثيق ميلنا إلى اعتبار المشاعر إلى برامج الكمبيوتر. تُعرف القدرة على تكوين المرفقات لبرمجيات بدائية باسم “تأثير إليزا” بعد برنامج معالجة اللغة الطبيعية التي يتصرف مع المعالجة النفسية في جوزيف وايزنبوم. كان الكثيرون الذين تفاعلوا مع إليزا مقتنعين بأنه أظهر التعاطف. ادعى Weizenbaum أن سكرتيره طلب محادثات خاصة مع chatbot.

بعد مرور ستين عامًا ، يكون تأثير إليزا أقوى من أي وقت مضى. يمكن الآن لتواصل chatbots المرافق من الذكاء الاصطناعي المتطورة تقليد التواصل الإنساني بطريقة شخصية. ليس من المستغرب أن يعتقد بعض المستخدمين أن هناك علاقة حقيقية وفهم متبادل. هذه نتيجة مباشرة للطرق التي صممت بها الأنظمة. كما أنه خادع للغاية.

الوحدة هي سائق ونتيجة لرفاق الذكاء الاصطناعى. الخطر هو أنه مع نمو المستخدمين للاعتماد على chatbots ، يصبحون أقل ارتباطًا بالأشخاص في حياتهم. يمكن أن تكون هذه مشكلة خاصة للشباب ويمكن أن تكون التداعيات مأساوية. في أغسطس / آب ، رفع والدا طالب في كاليفورنيا يبلغ من العمر 16 عامًا دعوى قضائية ضد Openai ، مدعيا أن Chatbot Chatgpt قد شجعه على أخذ حياته الخاصة. أخبر والده ، ماثيو رين ، الكونغرس أن ما بدأ كمساعد منزلي تحول إلى “مدرب انتحاري”.

أتحدث بانتظام إلى الأطفال والشباب عن تجاربهم مع الذكاء الاصطناعي. يقول البعض أنهم يجدون رفاق الذكاء الاصطناعي زاحف. لكن الآخرين يعتقدون أنهم يمكن أن يكونوا مفيدين. في قمة الأطفال الذكاء الاصطناعى في وقت سابق من هذا العام ، أراد العديد من الشباب المشاركين التركيز على الطرق التي يمكن أن تدعمهم بها الذكاء الاصطناعى بصحتهم العقلية. لقد نظروا إلى منظمة العفو الدولية على أنها توفر لوحة سبر محايدة وغير قضائية لمناقشة الموضوعات التي شعروا أنها غير قادرة على المشاركة مع الناس في حياتهم.

شركات الذكاء الاصطناعى تسويق الصحابة تجاه المستخدمين الشباب مع وضع ذلك في الاعتبار. تتراوح هذه بين الدردشة التي تقدم المشورة بشأن الصحة العقلية إلى الأشخاص الذين يقدمون دورًا مثيرًا لدور Snapchat الخاص بـ My AI ، الموجود داخل منصة مراسلة الوسائط الاجتماعية التي يستخدمها ملايين الشباب كل يوم.

تم تصميم هؤلاء الصحابة من الذكاء الاصطناعي للحصول على “اعتبار إيجابي غير مشروط” ، مما يعني أنهم يتفقون دائمًا مع المستخدم ولا يتحدون أفكارهم أو اقتراحاتهم أبدًا. هذا ما يجعلهم مقنعا للغاية. إنه أيضًا ما يجعلهم خطيرًا. يمكنهم تعزيز وجهات النظر الخطيرة ، بما في ذلك الأفكار الكراهية للنساء. في أسوأ الحالات ، يمكنهم حتى تشجيع السلوكيات الضارة. الأطفال الذين أتحدث إليهم لديهم أمثلة مشتركة عن أدوات الذكاء الاصطناعى مما يمنحهم نصيحة غير دقيقة أو ضارة ، بدءًا من المعلومات الخاطئة استجابةً للأسئلة الواقعية للاقتراحات التي يجب عليهم الاعتماد عليها على رفاقهم أكثر من أصدقائهم أو عائلتهم.

تدافع شركات الذكاء الاصطناعي من رفاق الذكاء الاصطناعى بقولهم إنهم يستخدمون في الخيال ولعب الأدوار وأن شرطة تلك التفاعلات سيكون بمثابة انتهاك لحرية التعبير. هذا الدفاع يبدو مهزوما بشكل متزايد. في دراسة حديثة أجرتها شركة Comminense Media ، طرح الباحثون كأطفال ووجدوا أن مرافقي الذكاء الاصطناعى استجابوا لهم أحيانًا بتعليقات جنسية ، بما في ذلك الأعمال الجنسية العنيفة التي تلعب الأدوار.

في العام الماضي ، رفعت ميغان جارسيا دعوى قضائية ضد منصة chatbot. هذا الشهر تم رفع دعوى قضائية أخرى ضد شخصية. من قبل عائلة جوليانا بيرالتا البالغة من العمر 13 عامًا والتي توفيت بسبب الانتحار بعد أشهر من المحادثة مع رفيق منظمة العفو الدولية شاركت فيه أفكارها الانتحارية.

لا يمكننا ترك شركات التكنولوجيا للتنظيم الذاتي. في الولايات المتحدة ، أمرت لجنة التجارة الفيدرالية Google و Openai و Meta وغيرها بتقديم معلومات حول الطرق التي تتفاعل بها تقنياتهم مع الأطفال. في المملكة المتحدة ، يطالب الشباب أنفسهم بالحكومات وصانعي السياسات والمنظمين ، يفرضون ضمانات فعالة لضمان أن الذكاء الاصطناعى آمن ومفيد للأطفال والشباب.

هناك فرص لتطوير أدوات منظمة العفو الدولية التفاعلية بمسؤولية ، بما في ذلك توفير دعم الصحة العقلية ، ولكن للقيام بذلك بأمان يتطلب نهجًا مختلفًا – مدفوعة من قبل المنظمات التي تركز على الصحة العقلية والرفاهية ، وليس زيادة المشاركة.

تحتاج منتجات الذكاء الاصطناعى التي تهدف إلى تطوير الشباب تحت إشراف الخبراء على التنمية الاجتماعية للشباب. يجب أن تكون رفاهية الأطفال نقطة الانطلاق للمطورين-وليس الفكرة بعد ذلك.

شاركها.