سلط معهد رويترز لدراسة الصحافة الضوء على معضلة التحيّز في الذكاء الاصطناعي محذرا من مخاطره، لا سيما مع بدء 49% من المؤسسات الإخبارية استخدام نماذج الذكاء الاصطناعي، وفق أحدث استطلاع أجرته الرابطة العالمية للصحف وناشري الأخبار “ون إفرا” (WAN-IFRA).
وضمن تقرير مطوّل، حاولت راما شارما المستشارة والمدربة التنفيذية بالمعهد تقديم إجابات حول هذه المعضلة، عبر التحدث إلى 18 صحفيا وخبيرا إعلاميا وتقنيا وأكاديميا.
ويقول ماتياس هولويغ أحد خبراء برامج الذكاء الاصطناعي في كلية سعيد للأعمال بجامعة أكسفورد إن “التحيز سمة، وليس عيبا” في هذه الأدوات، موضحا أن أي نموذج ذكاء اصطناعي سيعكس التحيزات الموجودة بالبيانات التي جرى تدريبه عليها.
ويستمد “شات جي بي تي” مثلاً قرابة 60% من مواده التدريبية، من محتوى الويب في ويكيبيديا ومواقع أخرى مماثلة، بالإضافة إلى الكتب الرقمية والأوراق الأكاديمية. في حين أن النموذج الذي يتعلم من هذه المصادر سيرث بطبيعة الحال تحيزاتها.
وتحذر شارما هنا من حدوث ما وصفته بـ”التحيز الضار” أو “التحيز الخوارزمي” والذي يحدث عندما يتعلم النموذج من بيانات غير عادلة أو متحيزة بالفعل، لينتهي الأمر بعملية التعلم الطبيعية للذكاء الاصطناعي إلى عكس التحيزات المجتمعية القائمة وتضخيمها من المعلومات التي يتم تزويده بها، مما يؤدي إلى نتائج تعاقب أفرادا أو مجموعات معينة.
ويمكن أن تظهر هذه الأخطاء في أي مرحلة من مراحل بناء النموذج، بدءا من جمع البيانات وتصميم النموذج وحتى النشر.
خبير تقني: التحيز يأتي من باحثين غربيين
ويحذر بيتر سلاتري -الذي يدير منصة مفتوحة المصدر تساعد الناس على فهم مخاطر الذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا- من ظهور أضرار جديدة يوميا، كما يشعر بقلق إزاء طرق يمكن أن تؤثر بها هذه التقنيات على دول الجنوب.
ويضيف “لقد لاحظت وجود تحيز في الكثير من الأدبيات التي ندرجها في قاعدة بياناتنا، حيث إنها تأتي في الغالب من باحثين في مؤسسات غربية نخبوية”.
وتقول معدّة تقرير معهد رويترز إنه ليس من السهل معالجة التحيز في أنظمة الذكاء الاصطناعي، لافتة إلى أن الجهود حسنة النية قد تأتي بنتائج عكسية أحيانا، وقد تجلى ذلك عام 2024 عندما أنتج مولد الصور “جيميني” من غوغل صورا لنازيين سود، وفايكنغ من الأميركيين الأصليين، فيما بدا أنه محاولة لتنويع المخرجات، وقد أجبرت ردود الفعل الغاضبة آنذاك غوغل على تعليق هذه الميزة مؤقتا.
وتبين شارما أن إحدى الطرق المقترحة -التي تلقتها أثناء حضورها ورشة عمل تقنية بمعهد “آلان تورينغ” في لندن- هي اتخاذ نهج استباقي للمراقبة عند إنشاء أنظمة جديدة للذكاء الاصطناعي، يشمل تشجيع المهندسين وفرقهم على إضافة بيانات وصفية، في كل مرحلة من مراحل عملية إنتاج الذكاء الاصطناعي، بما في ذلك معلومات عن الأسئلة المطروحة، والتدابير التخفيفية المطبقة لتتبع القرارات المتخذة.
أنواع التحيز بالذكاء الاصطناعي
وشارك الباحثون الذين تحدثوا لـ”شارما” إلى 3 فئات من التحيزات التي قد تحدث، إلى جانب تلميحات للمساعدة في التخفيف منها:
1/تحيزات الإحصائية
وتنشأ عن عيوب في طريقة جمع البيانات أو أخذ العينات أو معالجتها، مما يؤدي إلى أخطاء منهجية. ومن الأنواع الشائعة، التحيز الناجم عن البيانات المفقودة، حيث تكون بعض المجموعات أو المتغيرات ممثلة تمثيلا ناقصا أو غائبة تماما من مجموعة البيانات.
فمثلا: مجموعة بيانات صحية تتضمن بيانات عن الرجال، وتغفل مؤشرات حول صحة المرأة (كالحمل أو التغيرات الهرمونية) قد تفشل نماذج الذكاء الاصطناعي المدربة على هذه المجموعة من البيانات في التعرف على احتياجات صحة المرأة، أو الاستجابة لها بشكل مناسب.
2/ تحيزات معرفية
وتعكس أنماط التفكير البشري التي تحيد عن الحكم العقلاني، فعندما تؤثر هذه التحيزات على كيفية اختيار البيانات أو تفسيرها أثناء تطوير النموذج، يمكن أن تصبح جزءا لا يتجزأ من أنظمة الذكاء الاصطناعي.
ويبيّن التقرير أن أحد الأشكال الشائعة هنا هو التحيز التأكيدي، ويقصد به الميل إلى البحث عن المعلومات التي تتوافق مع المعتقدات أو النظرة العالمية المسبقة أو تفضيلها.
وعلى سبيل المثال: قد يتم تصميم نظام توصية الأخبار باستخدام بيانات تم تنسيقها من قبل محررين ذوي ميول سياسية معينة. وإذا عزز النظام المحتوى الذي يتوافق مع هذه النظرة للعالم مع استبعاد وجهات النظر البديلة، فقد يؤدي ذلك إلى تضخيم التحيز التأكيدي لدى المستخدمين.
3/ تحيزات اجتماعية
وتنبع من التفاوت داخل الأنظمة أو الافتراضات الثقافية المتأصلة في البيانات، وغالبا ما تعكس الظلم التاريخي أو الممارسات التمييزية.
فمثلا: قد تتعلم أداة توظيف تعتمد على الذكاء الاصطناعي ومدربة على بيانات التوظيف التاريخية تفضيل المرشحين الذكور لشغل مناصب قيادية، إذا كانت قرارات التوظيف السابقة تفضل الرجال، مما يعزز المعايير الجنسانية القديمة ويستبعد النساء المؤهلات.
وأشار التقرير إلى أن البيانات القديمة يمكن أن تكون ضارة بقدر البيانات المفقودة. ونقل عن فلوران دودنس وهو صحفي سابق يعمل الآن مع شركة فرنسية متخصصة بالذكاء الاصطناعي قوله “إذا لم تتطور البيانات، يمكن أن ينتشر المحتوى الضار والتحيز خارج سياق مجموعة البيانات الأصلية، مما يؤدي إلى تفاقم الفجوات”.
خطر التحيز المتعمد
ويحذر هولويج، الخبير في كلية سعيد للأعمال بجامعة أكسفورد من التغذية السريعة لنموذج الاصطناعي، وتسميم مجموعات البيانات، لافتا إلى أنها بمثابة أشكال من التحيز المتعمد.

والتغذية السريعة هي إضافة نص مخفي أو تلاعب بمدخلات لتضليل الذكاء الاصطناعي وتجاهل تعليماته أو التصرف بطريقة غير مقصودة. ويقصد بتسميم قاعدة البيانات إدراج معلومات كاذبة أو متحيزة في بيانات التدريب لتشويه سلوك الذكاء الاصطناعي أو مخرجاته، ومن الأمثلة على ذلك وضع تقييمات مزيفة للمنتجات.
وقد بدأت بعض المؤسسات الإعلامية في الاستجابة لهذه المخاطر، حيث عينت الإذاعة البافارية في ميونخ مراسلة متخصصة في المساءلة الخوارزمية، للتحقيق في تأثير تكنولوجيا الذكاء الاصطناعي على المجتمع.
وأوضح التقرير أن بعض المبتكرين حاولوا إعادة تصور دور الذكاء الاصطناعي في الصحافة ليس فقط كأداة للإنتاجية، ولكن كعدسة لزيادة الوعي الذاتي.
ففي جامعة فلوريدا، ثمة فريق لاستكشاف كيف يمكن للذكاء الاصطناعي أن يساعد في تحديد أنواع التحيز التي تظهر أثناء إنتاج الأخبار، وتعاون الفريق مع أخصائي لغويات وعلماء حاسوب من الجامعة، لدراسة كيفية صياغة الأخبار الهامة في مختلف وسائل الإعلام.
وخرج الفريق بنتائج أولية اعتبرت أن “الأفعال والصفات المرتبطة بمتظاهري حركة حياة السود مهمة” كانت كلمات نارية مثل “تشعل” و”تنفجر” و”تشعل شرارة” حتى عندما كانت المسيرات سلمية.
وفي الوقت نفسه، استخدمت التغطية الأميركية للاحتجاجات في الجامعات لغة أكثر عاطفية لوصف الخسائر الإسرائيلية مقارنة بمعاناة الفلسطينيين.
وفي ختام تقريرها، أكدت المستشارة بمعهد رويترز لدراسة الصحافة أن القضاء على التحيز قد يكون مستحيلا، لكن يمكن فهم هذه القضايا والتخفيف من حدتها من خلال فرق متعددة التخصصات ذات وجهات نظر واسعة.
المصدر: معهد رويترز للصحافة (Reuters Institute for the Study of Journalism)