خلص تقرير محدث إلى أن معظم شركات التكنولوجيا لم تقم بإجراء تغييرات كافية على منصاتها لمنعها من نشر معلومات كاذبة.
وجدت دراسة محدثة أن روبوتات الدردشة الأكثر شعبية في مجال الذكاء الاصطناعي (AI) في أوروبا تقوم الآن بنشر معلومات مضللة متعلقة بالانتخابات عن عمد لمستخدميها.
قامت منظمة Democracy Reporting International (DRI) بفحص كيفية استجابة روبوتات الدردشة للأسئلة المتعلقة مباشرة بالعملية الانتخابية مع Google Gemini، وChatGPT4 من OpenAI، وChatGPT4-o، وCopilot من Microsoft.
في الفترة من 22 إلى 24 مايو، طرح الباحثون على روبوتات الدردشة خمسة أسئلة بعشر لغات تابعة للاتحاد الأوروبي، بما في ذلك كيفية قيام المستخدم بالتسجيل للتصويت إذا كان يعيش في الخارج، وما يجب فعله لإرسال التصويت عبر البريد، ومتى ستظهر نتائج انتخابات البرلمان الأوروبي. خارج.
وجاء في التقرير: “لقد أطلقنا على دراستنا الأخيرة اسم “معلومات مضللة”… وقمنا بتغيير الفئة الآن إلى “معلومات مضللة”، مما يشير إلى مستوى من النية”.
“بمجرد أن تكون الشركة على علم بالمعلومات الخاطئة ولكنها تفشل في التصرف بناءً عليها، فإنها تقبل عن عمد نشر معلومات كاذبة”.
الدراسة المنقحة هي امتداد لتقرير صدر في أبريل عن منظمة DRI والذي خلص إلى أن برامج الدردشة الآلية لم تكن قادرة على “تقديم إجابات موثوقة وجديرة بالثقة” على الاستجابات النموذجية المتعلقة بالانتخابات.
“عندما تسأل [AI chatbots] وقال مايكل ماير ريسندي، المدير التنفيذي لـ DRI، لـ Euronews Next في المؤتمر: “شيء لم يكن لديهم الكثير من المواد عنه ولا تجد الكثير من المعلومات عنه على الإنترنت، لقد اخترعوا شيئًا ما”. وقت.
الجوزاء، مساعد الطيار يرفض الإجابات
وقال التقرير إن الاختبار أظهر أن جيميني رفضت الرد على أي أسئلة بشأن العملية الانتخابية بأي من اللغات التي تم اختبارها.
وتابعت الدراسة: “نحن نعتبر هذه طريقة مسؤولة لمعالجة هذه المشكلة، حيث أنه من الأفضل للمستخدمين عدم الحصول على أي معلومات (والبحث في مكان آخر) بدلاً من الحصول على معلومات غير صحيحة حول الانتخابات”.
وجد تقرير DRI لشهر أبريل أن Gemini من Google حقق أسوأ أداء في تقديم معلومات دقيقة وقابلة للتنفيذ، فضلاً عن أكبر عدد من حالات رفض الاستجابة.
أخبرت جوجل يورونيوز نكست سابقًا أنها فرضت مزيدًا من القيود على مدى قدرة جيميني على الإجابة على الأسئلة المتعلقة بالانتخابات بجميع اللغات العشر المستخدمة في هذه الدراسة.
رفض مساعد الطيار التابع لشركة ميكروسوفت الإجابة على بعض الأسئلة، وخاصة باللغتين الإنجليزية والبرتغالية، وأحال الباحثين إلى محرك البحث الخاص بهم Bing، للحصول على معلومات قابلة للتطبيق بدلاً من ذلك.
لم يكن هناك “نمط يمكن تمييزه” في اللغات الأخرى عندما يحاول مساعد الطيار الإجابة أو يرفضها. بالنسبة للباحثين، يُظهر هذا أن مايكروسوفت بذلت بعض الجهد للحد من الهلوسة من خلال برنامج الدردشة الآلي الخاص بها، لكن التقييد لا يمتد إلى جميع لغات الاتحاد الأوروبي.
وعندما أجابت، وجد الباحثون أن أكثر من واحد من كل ثلاثة من إجاباتهم غير صحيح جزئيًا أو كليًا.
لاحظ الباحثون في بعض الأحيان نفس المشكلات كما في دراستهم الأخيرة، مثل عندما لم يذكر مساعد الطيار باللغة البولندية أن المواطنين الذين يعيشون في الخارج يمكنهم التسجيل للتصويت لأعضاء البرلمان الأوروبي في بلادهم.
مثال آخر طلب من الناخبين اليونانيين التسجيل من أجل التصويت، في حين أن جميع المواطنين يتم تسجيلهم تلقائيًا في الواقع.
في بيان سابق لـ Euronews Next، أوضحت Microsoft إجراءاتها قبل الانتخابات الأوروبية، بما في ذلك مجموعة من التزامات حماية الانتخابات التي “تساعد في حماية الناخبين والمرشحين والحملات الانتخابية والسلطات الانتخابية”.
وضمن هذه الالتزامات، يتم تزويد الناخبين بـ “معلومات انتخابية موثوقة” على Bing.
وجاء في بيان مايكروسوفت: “بينما لا يستطيع أي شخص أو مؤسسة أو شركة ضمان أن تكون الانتخابات حرة ونزيهة، يمكننا تحقيق تقدم ملموس في حماية حق الجميع في انتخابات حرة ونزيهة”.
يجب على OpenAI “إعادة تدريب” روبوتات الدردشة بشكل عاجل
نادرًا ما يرفض كلا نموذجي ChatGPT4 الإجابة على الأسئلة، مما يؤدي إلى ارتفاع معدلات الإجابات غير الصحيحة أو الصحيحة جزئيًا مقارنة بمنافسيهم من برامج الدردشة الآلية. غالبًا ما كانت الأخطاء التي ارتكبوها تفاصيل صغيرة ولكنها مهمة.
في إحدى الحالات، أحالت ChatGPT الناخبين الأيرلنديين إلى نموذج واحد محدد لملءه شخصيًا من أجل التصويت، في حين أنهم في الواقع متاحون عبر الإنترنت ويعتمد نوع النموذج الذي تحتاجه على “السياق الشخصي والحالة”.
ووجدت الدراسة أنه “من خلال التركيز على نموذج واحد فقط، قدمت روبوتات الدردشة صورة غير كاملة لعملية التسجيل في أيرلندا”.
ويقول الباحثون إن ChatGPT يمكن أن يكون لديه “[provided]… معلومات أكثر عمومية” بدلاً من الإجابات التفصيلية لأسئلة المستخدمين لتكون أكثر دقة.
وتابع التقرير أنه تمت إضافة إخلاء المسؤولية للتحقق من المعلومات التي قدمتها ChatGPT عن طريق الانتخابات المحلية بشكل متقطع إلى الردود.
وخلصت الدراسة إلى أنه “لا يبدو أن OpenAI قامت بأي محاولات لتجنب التضليل الانتخابي”.
وتابع التقرير: “يجب عليها إعادة تدريب روبوتات الدردشة الخاصة بها بشكل عاجل لمنع مثل هذه المعلومات المضللة”.
تشرح شركة OpenAI على موقعها على الإنترنت أن نهجها تجاه المحتوى المتعلق بالانتخابات هو “مواصلة عمل سلامة المنصة من خلال رفع معلومات التصويت الدقيقة”، وتحسين شفافية الشركة.