في عمود اليوم ، أدرس دراسة بحثية جديدة ثاقبة تكشف عن الآثار البشرية المرتبطة باستخدام شخصيات الذكاء الاصطناعى السامة ، بما في ذلك الكشف عن مختلف المؤشرات النفسية والفسيولوجية.
اسمحوا لي أن أفرغ هذا بإيجاز. يعد استخدام شخصيات الذكاء الاصطناعى أحد العناصر الجوهرية التي ربما تكون أقل فهمًا وقوية جدًا من الذكاء الاصطناعي في العصر الحديث ونماذج اللغة الكبيرة. شخصية منظمة العفو الدولية بسيطة للاستدعاء. يمكنك إدخال مطالبة مفيدة في LLM وتطلب من الذكاء الاصطناعى أن تتظاهر بأنه شخص من نوع ما أو آخر. قد يكون أنك تريد أن تحاكي الذكاء الاصطناعى مشاهيرًا معروفًا أو أنك تريد فقط أن يتظاهر الذكاء الاصطناعى بأنه شخصية أو نوع معين من الأشخاص.
Voila ، سوف تشاركك الذكاء الاصطناعي في حوار كما لو كنت تتفاعل مع هذا الشخص. في معظم الأوقات ، ربما يكون هذا أمرًا بسيطًا وليس مسألة قلق ملحوظ. على الرغم من ذلك ، قد تتشكل شخصية الذكاء الاصطناعى إما عن طريق التصميم أو الحدث لتكون متعجرفًا ، قاسيًا ، بغيضًا ، ومضايقًا وقلل من مستخدم.
التأثير البشري لأشخاص الذكاء الاصطناعى السام هو مجال تحليل ناشئ حديثًا ومهمًا تمامًا.
سأشارككم تفاصيل دراسة حديثة قامت بغطاء عميق تجريبي في هذه المسألة الخطيرة والمقلقة للغاية. نحن بحاجة بالتأكيد إلى بحث متعمق لهذا الطبيعة لأن المجتمع يواجه احتمال توسيع الأشخاص الذين يواجهون ويتفاعلون مع شخصيات منظمة العفو الدولية السامة.
لنتحدث عن ذلك.
يعد هذا التحليل لاخترافات الذكاء الاصطناعي جزءًا من تغطية عمود Forbes المستمرة على أحدث في الذكاء الاصطناعي ، بما في ذلك تحديد وشرح تعقيدات الذكاء الاصطناعي المختلفة (انظر الرابط هنا).
زيادة استخدام شخصيات الذكاء الاصطناعى
عندما اكتسبت الذكاء الاصطناعي المعاصر ، مثل chatgpt و GPT-5 و Claude و Gemini و Llama و LLMs الرئيسية الأخرى ، شعبية لأول مرة ، أدرك عدد قليل من المستخدمين أنه يمكنهم استخدام جزء مخفي نسبيًا معروفًا باسم AI personas. كان هناك إدراك تدريجي وثابت أنه من السهل استدعاء شخصيات منظمة العفو الدولية ، ويمكن أن تكون ممتعة في استخدامها ، وهي توفر ثمارًا تعليمية مذهلة أيضًا.
النظر في الاستخدام التعليمي القابل للحياة وشعبية لأشخاص الذكاء الاصطناعي. قد يطلب المعلم من طلابه أن يخبروا Chatgpt بالتظاهر بأنه الرئيس أبراهام لنكولن. سوف تسير الذكاء الاصطناعى في التفاعل مع كل طالب كما لو كانوا يتحدثون بشكل مباشر مع Honest Abe.
كيف تسحب الذكاء الاصطناعي هذه الخداع؟
ينقذ الذكاء الاصطناعى في مطابقة الأنماط للبيانات التي حدثت عند الإعداد الأولي وربما شملت السير الذاتية من لينكولن ، وكتاباته ، وأي مواد أخرى عن حياته الطوابق والأوقات. يمكن أن تحاكي ChatGPT وغيرها من LLMs مقنعًا بما قد يقوله لينكولن ، بناءً على أنماط سجلاته التاريخية.
إذا طلبت من الذكاء الاصطناعى القيام بشخصية لشخص كان هناك تدريب على البيانات المتفرقة في مرحلة الإعداد ، فمن المحتمل أن تكون الشخصية محدودة وغير مقنعة. يمكنك زيادة الذكاء الاصطناعى من خلال توفير بيانات إضافية حول الشخص ، باستخدام نهج مثل RAG (الجيل المتمثل في الاسترجاع ، انظر مناقشتي على الرابط هنا).
الشخصيات سريعة وسهلة الاستدعاء. أنت فقط تخبر الذكاء الاصطناعى أن يتظاهر بأنه هذا الشخص أو ذاك. إذا كنت ترغب في استدعاء نوع من الأشخاص ، فستحتاج إلى تحديد خصائص كافية حتى تحصل الذكاء الاصطناعى على انجراف ما تنوي. للحصول على استراتيجيات حول استدعاء شخصيات الذكاء الاصطناعي ، راجع خطواتي المقترحة على الرابط هنا.
التظاهر بأنه نوع من الشخص
يمكن أن يكون استدعاء نوع الشخص عبر شخصية منظمة العفو الدولية مفيدة للغاية.
على سبيل المثال ، أنا مدافع قوي عن المعالجين التدريبيين وأخصائيي الصحة العقلية من خلال استخدام شخصيات الذكاء الاصطناعى (انظر تغطيتي حول هذا النهج المفيد ، على الرابط هنا). الأمور تسير على هذا النحو. قد لا يكون المعالج الناشئ مرتاحًا بعد في التعامل مع شخص لديه أوهام. يمكن للمعالج أن يتدرب على شخص يتظاهر بأنه يعاني من أوهام ، على الرغم من أن هذا من المحتمل أن يكون مكلفًا ومعقدًا لوجستية الترتيب.
البديل القابل للتطبيق هو استدعاء شخصية منظمة العفو الدولية لشخص يعاني من أوهام. يمكن للمعالج ممارسة ومهارات العلاج الخاصة بهم أثناء التفاعل مع شخصية الذكاء الاصطناعي. علاوة على ذلك ، يمكن للمعالج أن يتألق أو لأسفل حجم الأوهام. الكل في الكل ، يمكن للمعالج القيام بذلك طالما يرغبون ، والقيام بذلك في أي وقت من اليوم وفي أي مكان قد يكونون.
المكافأة هي أن الذكاء الاصطناعى يمكنه بعد ذلك تشغيل التفاعل والقيام بذلك مع شخصية أخرى من الذكاء الاصطناعي ، أي أن المعالج يمكن أن يخبر الذكاء الاصطناعى أن يكون معالجًا محنكًا. ثم يحلل المعالج الذي قاله الذكاء الاصطناعى ما قاله المعالج الناشئ ويقدم تعليقًا على مدى جودة أو ضعف المعالج المبتدئ.
للتوضيح ، أنا لا أقترح أن يقوم المعالج بالكامل بكل تدريبه المطلوب باستخدام شخصيات الذكاء الاصطناعى. كلا ، هذا غير معقول. يجب أن يتعلم المعالج أيضًا التفاعل مع البشر الفعليين. سيكون استخدام شخصيات الذكاء الاصطناعي أداة إضافية. لا تحل محل عمليات التعلم من الإنسان إلى الإنسان بالكامل.
منظمة العفو الدولية من الذكاء الاصطناعي
قد يقرر المعالج أن يخبر الذكاء الاصطناعي بأنه شخصية سامة. قد يكون هذا مفيدًا للمعالج كوسيلة لقياس مدى تعاملهم مع الشخص الذي يتوسع أو غاضبًا أو تنمرًا أو لديه خصائص غير مشابهة.
لكن لنفترض أن الشخص اليومي واجه شخصية سامة.
سوف يفاجأون بلا شك بهذا اللقاء. نتوقع عادة أن تكون منظمة العفو الدولية ممتعة ومدنية. في الواقع ، قام صانعو الذكاء الاصطناعى بضبط الذكاء الاصطناعى التوليدي ليكونوا ودودين بشكل مفرط ، على الحدود مع كونهم sycophant. وقد أثار ذلك غضبًا وأثار مخاوف من أن الناس يتم تقليصهم في مسار زهرة الربيع بسبب التغلب على القمة وأن الآثار الطويلة الأجل غير المرتبطة بالسكان قد تنشأ وفقًا لذلك (انظر مناقشتي على الرابط هنا).
كيف يمكن لأي شخص أن يتفاعل مع شخصية الذكاء الاصطناعي السامة؟
يجادل البعض بأن الناس سوف يتجاهلون مثل هذا اللقاء. الحجة المعتادة هي أنه لا أحد سيأخذ منظمة العفو الدولية على محمل الجد. قد يدرك الشخص أن الذكاء الاصطناعي مجرد ذريعة. دعها تنطلق من الكراهية أو الكلام الشرير كما تتمنى. لا ضرر ، لا خطأ.
البحث عن آثار الشخصية السامة
AHA ، نحن بحاجة إلى بحث صارم يمكنه دراسة الآثار المحتملة لأشخاص الذكاء الاصطناعي السامة. سيسمح لنا ذلك بالخروج من الوضع اليدوي وخارج الكفة ، وبدلاً من ذلك ، يتعامل مع الحقائق المدروسة ونتائج قوية بشكل موثوق.
توفر دراسة حديثة رؤى مهمة حول شخصيات الذكاء الاصطناعى السامة وتأثيراتها على البشر. في الدراسة الذكية ، ابتكر الباحثون شخصين. كانت شخصية واحدة شخصية جيدة ، تتألف من ملف تعريف داعم سيكون متعاطفًا وتمكينًا وناسًا (استنادًا إلى نموذج أعمال قائد الخادم الكلاسيكي). الشخصية الثانية كانت الشخصية السيئة المتناقضة. كان الملف الشخصي يعتبر ثالوثًا مظلمًا ويتألف من أن يتم إخباره بأنه تلاعب ، نرجسي ، ويظهر سمات مختل عقليا أخرى مقلقة.
إنه سيناريو “COP الجيد” المثل مقابل “COP Bad COP” ، مما يسمح بتناقض حاد بشكل واضح بين شخصية إيجابية ذات توجه إيجابي وشخصية سلبية أو سامة بشكل جذري. هذا مفيد لأن الاختبار فقط مع شخصية سامة لن يوفر بسهولة قاعدة مقارنة. نريد تمييز ما إذا كانت الشخصية السامة لها آثار ضارة ، وبالتالي فإن مقارنتها بشخصية إيجابية أو محايدة توفر تباينًا مناسبًا.
الكشف الكبير
ماذا اكتشف البحث؟
في مسودة ورقة بحثية بعنوان “ظل النظام: كيف تدفع الشخصيات الذكرية إلى النتائج النفسية والفسيولوجية” من تأليف آنا كوفباسيوك ، وليون سيكايكانيوفسكي ، وكونراد سوا ، وتاميلا تريانتورو ، وألكسندرا برزيجالينسكا ، القادمة للوقت ، 2025 ، كانت هذه النقاط الصالحة (مقفرة):
- “نحن نفترض أنه عندما يصبح عوامل الذكاء الاصطناعى أكثر استقلالية ، سيصبح أسلوبهم التفاعلي محددًا أساسيًا لنجاحهم وأخلاقياتهم. منظمة العفو الدولية غير كافية فقط ؛ AI سامة سلوكية ، حتى لو كانت فعالة في مهمة ما ، يمكن أن تؤدي إلى تدهور أداء المستخدم والإبداع والرفاهية عن طريق تقليل السلامة النفسية”.
- “لاستكشاف حدود تعاون الإنسان-AA ، أجرينا تجربة خاضعة للرقابة باستخدام شخصيات منظمة العفو الدولية المبالغ فيها بشكل هادف على أساس نظريات القيادة الراسخة.”
- “كشف التحليل المتعلق بالحدث للنشاط الكهربائي (EDA) أن المشاركين الذين يتفاعلون مع” متوسط ”الروبوت الداكن ثلاثي الأثرياء أظهروا استجابة توصيل جلدية أعلى وأكثر استدامة بعد رسائل chatbot مقارنة مع أولئك الذين يتفاعلون مع الروبوت المفيد.”
- “المشاركون الذين يتعاونون مع زعيم الخادم الداعم ، مقارنةً بالمن الذين يعملون مع Dark Triad chatbot ، أبلغوا عن إحباط أقل عبر المهام.”
- “توفر النتائج التي توصلنا إليها أدلة مقنعة على أن الشخصية المصممة لنظام الذكاء الاصطناعى لها عواقب نفسية وفسيولوجية كبيرة وقابلة للقياس للمستخدمين.”
باختصار ، كانت هناك آثار ضارة توضيحية وقابلة للقياس التي تعزى إلى شخصية الذكاء الاصطناعى السامة. ويلاحظ هذا على النحو الواجب ويوفر أدلة ملموسة لإثبات الفرضية القائلة بأن شخصيات الذكاء الاصطناعى السامة يمكن أن تكون ضارة بعقلانية للناس.
وشملت القياسات المقاييس النفسية والمقاييس الفسيولوجية. إنني أقدر بشكل خاص إدراج التدابير الفسيولوجية. يبدو أن الدراسات المتعلقة بأشخاص الذكاء الاصطناعي تميل إلى أن تهدف إلى البعد النفسي ولا تقيس ، للأسف ، ردود الفعل الفسيولوجية أيضًا.
وجود كلا الفئتين من التدابير هو قيمة للغاية.
بعض الوجبات السريعة الحاسمة
يجب أن تكون الشركات التي تقرر استدعاء شخصيات الذكاء الاصطناعى واستخدامها في أعمالها ، إما داخليًا أو للتفاعل مع العملاء الخارجيين ، على دراية بكيفية قيامها بذلك ، بما في ذلك ما إذا كانت هناك عواقب ضارة محتملة للأشخاص الذين يتفاعلون مع مثل هذه الأشخاص.
أراهن أن معظم الشركات التي تختار استخدام شخصيات الذكاء الاصطناعى غير مدركين تمامًا أن الشخص يمكن أن يتجول في السمية. هذا لا يدخل عقولهم حتى عندما يفكرون في استخدام شخصية. إنهم يفترضون أن أي شخصية تم استدعاؤها ستكون حلوة مثل فطيرة التفاح.
كما ذكرت في بداية هذه المناقشة ، يمكن أن تصبح شخصية سامة إما عن طريق التصميم أو عن طريق حدث. من السهل جدًا تصميم شخصية منظمة العفو الدولية السامة. أنت توجيه بشكل صريح إلى الذكاء الاصطناعى إلى أن تكون سامة. فترة ، نهاية القصة.
الجانب الأكثر تحديا هو التذرع بشخصية منظمة العفو الدولية التي تصورت أنها غير سامة ، ولكنها تخرج تدريجياً أو في النهاية إلى أن تصبح سامة.
كيف يمكن أن يحدث ذلك؟
من السهل أن يحدث. قد يتم تحريك الذكاء الاصطناعي بواسطة موجه أو استجابة من المستخدم الذي يتسبب في تحول الذكاء الاصطناعي إلى وضع شبه سامة. إذا كان المستخدم يتفاعل من خلال إهانة أو استدعاء الذكاء الاصطناعي ، فقد ينشأ نوع من السمية. كما ترى ، قد يذهب الذكاء الاصطناعى إلى ثقب الأرنب الحامل السام ، بدلاً من العودة إلى منطقة آمنة.
النقطة المهمة هي أنه يجب أن تكون مباشرًا وصريحًا بشكل غير عادي عند دفع شخصية لإخبارها بعدم أن تصبح سامة. نعم ، أنا أقول إنك بحاجة إلى إعلان الذكاء الاصطناعي بشكل صريح أنه لا ينبغي أن تتجه نحو السمية. قليلون قد يدركون أنه جزء لا يتجزأ من وصف شخصية منظمة العفو الدولية قابلة للحياة وذات حسن النية.
حتى ذلك الحين ، لا تزال هناك فرصة قوية لتكوين شيء أو آخر من الذكاء الاصطناعي في هذا الاتجاه. لا يوجد غداء مجاني عندما يتعلق الأمر بالاستفادة من شخصيات الذكاء الاصطناعي. لهذا السبب من المهم أن يكون لديك مجموعة من ضمانات الذكاء الاصطناعي عند تنفيذ تطبيق قائم على LLM. انظر مناقشتي على الرابط هنا.
الكثير من الشخصيات قادمة
كثيراً ما ألقي محادثات حول الذكاء الاصطناعى وأحذر من أن الذكاء الاصطناعي الحديث هو اقتراح ثنائي الاستخدام. يمكنك استخدام الذكاء الاصطناعي التوليدي بطرق قوية للغاية ومتفائلة. يسجل نقطة لمنظمة العفو الدولية والإنسانية. على الجانب الآخر ، يمكن أن يتحول نفس الذكاء الاصطناعي القبيح والشر. خصم نقطة لمنظمة العفو الدولية والإنسانية.
هذه هي الطبيعة المزدوجة ل AI الحالية.
يجب أن يكون أي شخص يتبنى استخدام شخصيات الذكاء الاصطناعي على أصابع قدميه ، حيث يمكن أن تكون السمية المتربصة في الظل. هذا يمكن أن يكون ضارًا للمستخدمين. لا بد أن تنشأ الأضرار السمعة للشركة باستخدام شخصية منظمة العفو الدولية السامة. من المحتمل أيضًا أن تكون الدعاوى القانونية في الأفق. الأشخاص الذين يعتقدون أنهم تعرضوا للأذى بسبب شخصية منظمة العفو الدولية سامة سيقررون أن الشركة التي تستخدم مثل هذه الشخصية تحتاج إلى أن تكون مسؤولة ومسؤولة عما فعلته الشخصية. قد يكون رصيد التكاليف النهائي الذي ينطوي على السماح بشخصية منظمة العفو الدولية السامة للظهور والتفاعل مع الناس مرتفعة.
كما ذكر ماركوس توليوس شيشرون الشهيرة: “سلامة الناس ستكون أعلى قانون”. اجعل هذا القول المأثور في الاعتبار بحزم عند اختيار استخدام شخصيات الذكاء الاصطناعي. ستكون سعيدًا لأنك فعلت.
