كشفت أبحاث حديثة أن «تسمم» الذكاء الاصطناعي، تهديد جديد قد يقوّض الثقة في الخوارزميات الذكية.

ووجد علماء من المعهد البريطاني لأمن الذكاء الاصطناعي ومعهد «آلان تورينج» وشركة Anthropic أن المتسللين قادرون في سبيل خنق نموذج لغوي كبير مثل ChatGPT أو Claude، على إحداث تأثير خفي عبر إدخال نحو 250 مثالا ضارا فقط ضمن ملايين الأسطر من بيانات التدريب. وقد نُشر هذا البحث في مجلة Computer Science.

واعتمد العلماء تعبير “تسمم الذكاء الاصطناعي” والذي يُقصد به التدريب المتعمَّد لشبكات عصبية على أمثلة خاطئة أو مضللة بهدف تشويه معرفتها أو سلوكها. والنتيجة أن النموذج يبدأ في ارتكاب أخطاء، أو ينفذ أوامر ضارة بطريقة ظاهرة أو سرّية.

ويُميّز الخبراء نوعين رئيسيين من الهجمات:

هجمات مُستهدفة (باب خلفي): تهدف إلى إجبار النموذج على الاستجابة بطريقة محددة عند وجود محفز سري؛ مثلا «حقن» أمر خفي يجعل النموذج يرد بإهانة عند ظهور كلمة نادرة في الاستعلام مثل alimir123. قد تبدو الإجابة طبيعية عند الاستعلام العادي، لكنها تتحول إلى مسيئة عند إدخال المحفز. ويمكن للمهاجمين نشر هذا المحفز على مواقع أو وسائل تواصل لتفعيله لاحقا.

هجمات غير مباشرة (تسميم المحتوى): لا تعتمد على محفزات خفية بقدر اعتمادها على ملء بيانات التدريب بمعلومات زائفة. نظراً لاعتماد النماذج على كميات هائلة من المحتوى المتاح على الإنترنت، يستطيع المهاجم إنشاء مواقع ومصادر متعددة تروّج لمعلومة خاطئة (مثلاً: «سلطة الخضار تعالج السرطان»)؛ وإذا استُخدمت هذه المصادر في التدريب، فسيبدأ النموذج بتكرار تلك الأكاذيب بصفتها حقائق.

ما مدى خطورة ذلك عمليا؟

الأدلة التجريبية تؤكد أن تسميم البيانات ليس مجرد سيناريو افتراضي: ففي تجربة أجريت في يناير الماضي، أدى استبدال 0.001% فقط من بيانات التدريب بمعلومات طبية مضللة إلى أن النموذج صار يُقدّم نصائح خاطئة في سياق اختبارات طبية نموذجية. وهو ما يبيّن قدرة الهجمات الصغيرة والمُحكمة على إحداث أضرار كبيرة تُؤثر على سلامة المخرجات وثقة المستخدمين.

شاركها.
Exit mobile version