في وقت سابق من هذا العام، واجهت المؤثرة الأوكرانية أولغا لويك البالغة من العمر 20 عامًا جيشًا من المستنسخات الخاصة بنفسها عبر الإنترنت عبر الذكاء الاصطناعي – وكانوا جميعًا يتحدثون الصينية.

“لقد كنت مرعوبًا حقًا. رأيت وجهي يقول شيئًا بلغة مختلفة. وقالت لصحيفة “فاينانشيال تايمز”: “ثم عندما ذهبت وترجمتها، كان هذا كل الأشياء التي لن أقولها أبدًا في حياتي”، مضيفة أن الشخصية المزيفة العميقة تحدثت عن “تعزيز العلاقة بين روسيا والصين”.

وقالت لويك، التي تم تنبيهها إلى مقاطع الفيديو من قبل بعض متابعيها البالغ عددهم 20 ألفًا على موقع يوتيوب وإنستغرام، إنها لا تعلم بالدافع وراء الاستنساخ لكنها تشتبه في أنه من الممكن أن يكون شكلها قد تم استخدامه كجزء من حملة تضليل. وانتشرت مقاطع الفيديو عبر مواقع التواصل الاجتماعي الصينية Xiaohongshu، والتي تُترجم إلى “الكتاب الأحمر الصغير”، وBilibili، بحساب مزيف واحد يجذب 300 ألف متابع.

“بدا الأمر وكأنه دعاية، تحاول جعل الناس يعتقدون أن روسيا دولة عظيمة، [when] وأضافت: “الحرب في أوكرانيا هي أسوأ شيء حدث في حياتي”.

تعد قضية لويك مثالًا على كيفية إساءة استخدام تكنولوجيا الذكاء الاصطناعي التوليدية من قبل الجهات الفاعلة الشائنة، التي تسرق الهوية المرئية للضحايا المطمئنين لإنشاء صور مزيفة عميقة. يتم استخدام هؤلاء الشبيهين الاصطناعيين في حملات التضليل ولكن أيضًا للترويج للمنتجات على وسائل التواصل الاجتماعي أو في المواد الإباحية العميقة غير التوافقية.

أدت التطورات السريعة في الذكاء الاصطناعي التوليدي إلى توسيع السوق لأدوات مجانية وسهلة الاستخدام لإنشاء مقاطع فيديو وصور اصطناعية. تم إنشاء عمليات التزييف العميق للمشاهير بما في ذلك تايلور سويفت وسيلينا جوميز وإيلون ماسك للترويج لكل شيء بدءًا من أدوات المطبخ وحتى عمليات احتيال العملات المشفرة.

لكن الأمر لا يقتصر على النجوم الكبار فحسب، بل إن منشئي المحتوى الأقل شهرة، والنساء على وجه الخصوص، أصبحوا أيضًا أهدافًا لهذا الشكل الجديد من الإساءة عبر الإنترنت.

المؤثرون الذين ينشرون بانتظام مقاطع فيديو وصور لوجوههم على الإنترنت معرضون للخطر بشكل خاص، حيث أنه كلما زاد محتوى الفرد لتدريب الذكاء الاصطناعي، أصبح المقلد أكثر واقعية.

وفي غياب اللجوء القانوني السهل، ظهرت شركات ناشئة تحاول استخدام الذكاء الاصطناعي لمعالجة هذه المشكلة.

تم إنشاء إحدى هذه الشركات، وهي شركة Ceartas، بعد أن كافح مؤسسها، دان بورسيل، لإيجاد طرق لإزالة الصور الحميمة لنفسه التي تسربت عبر الإنترنت. في البداية، ركزت الشركة على مساعدة منشئي المحتوى البالغين على OnlyFans على ضمان عدم نسخ المحتوى الخاص بهم إلى منصات أخرى.

قال بورسيل: “منذ حوالي عام ونصف، بدأنا نرى التزييف العميق”.

وقال إن Ceartas – التي تعني العدالة باللغة الغيلية – يمكنه التعرف على التزييف العميق “في أجزاء من الثانية”. ثم يتخذ خطوات لإزالته من محرك بحث Google وأي منصات استضافة أخرى من خلال تقييم شروط الخدمة أو القوانين، مثل حقوق الطبع والنشر، التي قد ينتهكها.

وتعمل شركة أخرى، Alecto، على تطوير منتج مماثل حيث يمكن للمستخدمين تحميل عمليات مسح لوجوههم إلى المنصة، والتي ستستخدم بعد ذلك الذكاء الاصطناعي للبحث عن الصور الحميمة، بما في ذلك الإصدارات المزيفة.

قد يكون تعقب مقاطع الفيديو هذه أمرًا صعبًا. اعتمد المؤثرون مثل Loiek وMichel Janse، وهو هدف آخر للتزييف العميق، على متابعيهم للإبلاغ عن المحتوى لهم. تم استخدام صورة Janse في إعلان على YouTube للترويج لمكملات ضعف الانتصاب.

وقالت: “بصراحة، لا أعرف كيف يمكننا أن نكون أكثر تمييزًا كمجتمع لنقول ما هو حقيقي وما هو مزيف”، محذرة متابعيها من التزييف العميق على TikTok. أبلغت إدارتها الإعلان إلى موقع يوتيوب، الذي قام بإزالته.

قال موقع YouTube إن حماية المستخدمين هي “أولوية قصوى” وإنه يستثمر بكثافة في “قدرته على اكتشاف وإزالة الإعلانات الاحتيالية العميقة والجهات الفاعلة السيئة التي تقف وراءها، كما فعلنا في هذه الحالة”.

يُسمح بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على TikTok وInstagram وX وYouTube، لكنهم يحظرون إلى حد كبير الوسائط الخادعة التي يتم التلاعب بها عمدًا – بالإضافة إلى انتهاكات حقوق الطبع والنشر والاحتيال والعُري غير التوافقي، بغض النظر عن استخدامهم للذكاء الاصطناعي.

تحتوي معظم تطبيقات منشئ الذكاء الاصطناعي أيضًا على إرشادات حول نوع المحتوى الذي يمكن استخدامه لإنشائه. ومع ذلك، فمن غير الواضح كيف يمكن للشركات الناشئة التي تقف خلفها تنفيذ ذلك.

وتم استخدام أدوات من شركة HeyGen، ومقرها لوس أنجلوس، لإنشاء واحدة من التزييف العميق لـ Loiek، كما تُستخدم تقنيتها أيضًا في منتجات أخرى من خلال مكون إضافي للبرامج، مما يجعل من الصعب مراقبة كل استخدام. لم يستجب HeyGen لطلب التعليق.

ومع ذلك، فإن طموح شركات الذكاء الاصطناعي الرمزية مثل HeyGen والمنافسين بما في ذلك Synthesia وSoul Machines هو إنشاء أدوات ذكاء اصطناعي فعالة من حيث التكلفة للاستخدام التجاري المشروع، بما في ذلك إنشاء محتوى إعلاني لوسائل التواصل الاجتماعي.

في الشهر الماضي، قامت رائدة الأعمال بيكي ليتفين، المقيمة في نيويورك، بتجربة الذكاء الاصطناعي لإنشاء منشور مؤثر عميق التزييف للترويج لعلامتها التجارية الخاصة بالمناديل المبللة، Get Dirty. لقد نشرت الفيديو على X، تحت عنوان الذكاء الاصطناعي، لقياس الاستجابة.

استخدمت ليتفين موقع Arcads – الذي يستخدم تقنية HeyGen – لإنشاء مقطع فيديو طبيعي لامرأة ذات شعر داكن ترتدي حلقة أنف، تبشر بـ “حيلتها الصحية” للتخلص من رائحة الجسم. ولجعله يبدو أصليًا، قامت ليتفين بكتابة الفيديو بلغة تشبه أسلوب TikTok مثل “ستانك”، حيث تحدثت نسخة الذكاء الاصطناعي إلى الكاميرا من مقعد السيارة.

لقد دفعت 100 دولار فقط للوصول إلى الأداة، والاختيار من بين “نماذج الذكاء الاصطناعي” المختلفة لتقديم المحتوى.

كانت آرييل ماري هي المرأة الحقيقية التي صورها التزييف العميق. وافقت على أن تستخدم شركة Arcads المحتوى الخاص بها لتدريب الذكاء الاصطناعي، من خلال موقع ويب يسمى Fiverr، والذي يدفع لمنشئي المحتوى مقابل إنشاء مقاطع فيديو مخصصة.

قالت ماري إنه كان “شعورًا غريبًا حقًا” رؤية شكلها في الفيديو وأدركت أنه ليس صوتها، لكنها “ممتنة” للفرص التي منحتها لها هذه اللحظة التي انتشرت بسرعة كبيرة.

وقالت Arcads إنها تشرك الممثلين والمبدعين بموجب شروط واضحة، وبموافقتهم، باستخدام عقد رسمي للملكية الفكرية، وتقدم دفعة لمرة واحدة كتعويض. كما أنها تستخدم تقنية الإشراف لتصفية طلبات إنشاء المحتوى التي قد تكون ضارة وتقييد حسابات المستخدمين الذين ينتهكون قواعدها.

وقالت ليتفين إن هدفها لم يكن “خداع” أي شخص، بل زيادة الوعي بما يمكن أن يفعله الذكاء الاصطناعي. وتعتقد أنه في غضون عام، ستستخدم العديد من العلامات التجارية الذكاء الاصطناعي لإنشاء إعلانات رخيصة لوسائل التواصل الاجتماعي. لكنها حذرت من أنهم إذا فعلوا ذلك، “فإنه كذب [to the consumer] لأن ذلك الشخص الذي يشبه الشخص [who] لم أجرب المنتج فعليًا”.

قال ليتفين: “يمكن للمستهلكين والجمهور عادةً التعرف على ما هو حقيقي وما هو غير حقيقي”. “كان هذا حقيقيًا بعض الشيء.”

بالفيديو: الذكاء الاصطناعي نعمة أم نقمة على البشرية؟ | إف تي تك

شاركها.