افتح ملخص المحرر مجانًا
رولا خلف، محررة الفايننشال تايمز، تختار قصصها المفضلة في هذه النشرة الأسبوعية.
في مثل هذا الوقت تقريبًا من العام الماضي، ربما قرأت العشرات من التحذيرات الرهيبة حول تأثير الذكاء الاصطناعي التوليدي على المحصول الوفير من الانتخابات العالمية في عام 2024.
وتقول القصة إن التزييف العميق من شأنه أن يزيد من التضليل السياسي، مما يترك الناخبين المشوشين غير قادرين على التمييز بين الحقيقة والخيال في بحر من الأكاذيب الواقعية والشخصية. وتحدث زعماء من صادق خان إلى البابا ضدهم. صنفت دراسة استقصائية أجراها المنتدى الاقتصادي العالمي للخبراء المعلومات المضللة المتعلقة بالذكاء الاصطناعي باعتبارها ثاني أكثر المخاطر إلحاحا في عام 2024.
ومن المؤكد أنه تم الإبلاغ عن العشرات من الأمثلة على نطاق واسع. حث “صوت” جو بايدن في المكالمات الآلية الناخبين الأساسيين على البقاء في منازلهم؛ تمت مشاهدة مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي لأفراد غير موجودين في عائلة مارين لوبان وهم يلقون نكات عنصرية ملايين المرات على TikTok بينما انتشر مقطع صوتي مزيف للسير كير ستارمر وهو يشتم أحد الموظفين على موقع X.
لكن العديد من الخبراء يعتقدون الآن أن هناك القليل من الأدلة على أن المعلومات المضللة المتعلقة بالذكاء الاصطناعي كانت منتشرة على نطاق واسع أو مؤثرة بالقدر الذي كان يُخشى منه.
حدد معهد آلان تورينج 27 قطعة من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي خلال انتخابات الصيف في المملكة المتحدة وفرنسا والاتحاد الأوروبي مجتمعة. وجدت دراسة منفصلة أن حوالي واحد فقط من كل 20 شخصًا بريطانيًا تعرف على أي من التزييف السياسي الأكثر انتشارًا على نطاق واسع حول الانتخابات.
وفي الولايات المتحدة، قام مشروع محو الأمية الإخبارية بتصنيف ما يقرب من 1000 مثال للمعلومات المضللة حول الانتخابات الرئاسية. وشمل 6 في المائة فقط الذكاء الاصطناعي التوليدي. وفقًا لـ TikTok، لم تتزايد عمليات إزالة المحتوى الناتج عن الذكاء الاصطناعي مع اقتراب يوم التصويت.
وجد تحليل أجرته صحيفة فايننشال تايمز أن الإشارات لمصطلحات مثل “التزييف العميق” أو “التوليد بواسطة الذكاء الاصطناعي” في نظام التحقق من الحقائق المقدم من المستخدم في X، وملاحظات المجتمع، كانت أكثر ارتباطًا بإصدار نماذج جديدة لتوليد الصور من الانتخابات الكبرى.
وقد استمر هذا الاتجاه في الدول غير الغربية أيضًا: حيث وجدت دراسة أن 2% فقط من المعلومات الخاطئة حول انتخابات بنجلاديش في يناير كانت مزيفة بعمق. خلص الباحثون إلى أن الانتخابات المستقطبة في جنوب أفريقيا “اتسمت بنقص غير متوقع” في الذكاء الاصطناعي.
أفادت كل من Microsoft وMeta وOpenAI عن اكتشاف عمليات أجنبية سرية تحاول استخدام الذكاء الاصطناعي للتأثير على الانتخابات هذا العام، لكن لم ينجح أي منها في العثور على جمهور واسع.
لم يكن المقصود من الكثير من محتوى الذكاء الاصطناعي المتعلق بالانتخابات والذي تم اكتشافه خداع الناخبين. وبدلاً من ذلك، كانت التكنولوجيا تستخدم غالبًا في الحجج العاطفية، أي إنشاء صور تبدو داعمة لسرد معين، حتى لو كانت غير حقيقية بشكل واضح.
على سبيل المثال، تخاطب كامالا هاريس حشدًا مزينًا بالأعلام السوفييتية، أو طفلًا إيطاليًا يأكل بيتزا مغطاة بالصراصير (في إشارة إلى دعم الاتحاد الأوروبي المفترض للأنظمة الغذائية الحشرية). تم “إحياء” السياسيين المتوفين لدعم الحملات في إندونيسيا والهند.
وتتوافق مثل هذه “الرسائل الرمزية أو التعبيرية أو الساخرة” مع أساليب الإقناع والدعاية التقليدية، وفقًا لدانيال شيف، الخبير في سياسات وأخلاقيات الذكاء الاصطناعي بجامعة بوردو. حوالي 40% من التزييفات السياسية العميقة التي حددها فريق جامعة بوردو كانت تهدف جزئيًا على الأقل إلى السخرية أو الترفيه.
ماذا عن “أرباح الكذاب”؟ هذه هي فكرة أن الناس سوف يزعمون أن المحتوى المشروع الذي يظهرهم في ضوء سيئ هو من إنتاج الذكاء الاصطناعي، مما قد يجعل الناخبين يشعرون أنه لا يمكن تصديق أي شيء بعد الآن.
لقد وجد تحليل معهد الحوار الاستراتيجي ارتباكًا واسع النطاق حول المحتوى السياسي على وسائل التواصل الاجتماعي، حيث يخطئ المستخدمون في كثير من الأحيان في التعرف على الصور الحقيقية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. لكن معظمهم قادرون على تطبيق الشك الصحي على مثل هذه الادعاءات. وانخفضت نسبة الناخبين الأمريكيين الذين قالوا إنه من الصعب فهم الأخبار الحقيقية عن المرشحين بين انتخابات 2020 و2024، وفقا لمركز بيو للأبحاث.
يقول فيليكس سايمون، الباحث في معهد رويترز لدراسة الصحافة بجامعة أكسفورد، الذي كتب عن المبالغة في المخاوف بشأن التزييف العميق: “لقد استخدمنا برنامج فوتوشوب منذ زمن طويل، وما زلنا نثق في الصور إلى حد كبير”.
وبطبيعة الحال، لا يمكننا أن نتخلى عن حذرنا. تتقدم تكنولوجيا الذكاء الاصطناعي وآثارها الاجتماعية بسرعة. أثبتت تقنية Deepfakes بالفعل أنها أداة خطيرة في سيناريوهات أخرى، مثل عمليات الاحتيال المتقنة لانتحال الشخصية أو المضايقات والابتزازات الإباحية.
ولكن عندما يتعلق الأمر بالتضليل السياسي، فإن التحدي الحقيقي لم يتغير: معالجة الأسباب التي تجعل الناس على استعداد لتصديق الأكاذيب ومشاركتها في المقام الأول، من الاستقطاب السياسي إلى الأنظمة الإعلامية التي يغذيها تطبيق تيك توك. في حين أن تهديد التزييف العميق قد يحتل عناوين الأخبار، إلا أنه لا ينبغي لنا أن نسمح له بأن يصبح مصدر إلهاء.
clara.murray@ft.com