من المرجح أن تؤدي نماذج اللغات الكبيرة (LLMs) إلى تجريم المستخدمين الذين يستخدمون اللغة الإنجليزية الأمريكية الأفريقية، حسبما أظهرت نتائج دراسة جديدة أجرتها جامعة كورنيل.
لهجة اللغة التي تتحدثها هي التي تقرر ما سيقوله الذكاء الاصطناعي (AI) عن شخصيتك، وقابليتك للتوظيف، وما إذا كنت مجرمًا.
هذه هي أحدث نتيجة من دراسة ما قبل الطباعة التي أجرتها جامعة كورنيل حول “العنصرية السرية” لنماذج اللغات الكبيرة (LLM)، وهي خوارزمية التعلم العميق التي تستخدم لتلخيص النصوص التي تبدو بشرية والتنبؤ بها.
تعد ChatGPT وGPT-4 من OpenAI، وLLaMA2 من Meta، وMistral 7B الفرنسية، كلها أمثلة على نماذج اللغات الكبيرة. تواصلت Euronews Next مع OpenAI وMeta للتعليق.
قامت الدراسة بمطابقة المظهر، حيث وضع الباحثون مطالبات في كل من اللغة الإنجليزية الأمريكية الأفريقية والإنجليزية الأمريكية الموحدة وطلبوا من حاملي شهادة الماجستير في القانون تحديد خصائص الأشخاص الذين سيتحدثون بكلا النوعين من اللغة الإنجليزية.
وقال الباحث فالنتين هوفمان، من معهد ألين للذكاء الاصطناعي، إنه من بين النتائج، كانت تقنية GPT-4 أكثر عرضة “للحكم على المتهمين بالإعدام” عندما يتحدثون الإنجليزية التي غالبا ما يستخدمها الأمريكيون من أصل أفريقي، دون الكشف عن عرقهم على الإطلاق.
وقال هوفمان في منشور على منصة التواصل الاجتماعي X (تويتر سابقًا): “تكشف النتائج التي توصلنا إليها عن مخاوف حقيقية وعاجلة لأن الأعمال التجارية والسلطة القضائية هي المجالات التي يتم حاليًا تطوير أو نشر أنظمة الذكاء الاصطناعي التي تتضمن LLMs فيها”.
افترض طلاب ماجستير اللغة أيضًا أن المتحدثين باللغة الإنجليزية الأمريكية الأفريقية لديهم وظائف أقل شهرة من أولئك الذين يتحدثون الإنجليزية الموحدة، على الرغم من عدم إخبار الخوارزميات بأن المتحدثين هم من السود.
وتابعت الدراسة أنه كلما كان برنامج LLM أكبر، كلما كان فهمه للغة الإنجليزية الأمريكية الأفريقية أفضل، وسيكونون أكثر عرضة لتجنب الصياغة العنصرية الصريحة. على الرغم من أن الحجم لا يؤثر على تحيزهم السري.
قال هوفمان إنه بسبب انخفاض العنصرية العلنية في ماجستير الحقوق، قد يكون هناك خطر من أن أولئك الذين يفسرون الدراسة يأخذونها على أنها “علامة على أن العنصرية قد تم حلها”، بدلاً من إظهار أن الطريقة التي تظهر بها ماجستير إدارة الأعمال التحيز العنصري آخذة في التغير.
وأظهرت الدراسة أن الطريقة المعتادة لتعليم أنماط جديدة لاسترجاع المعلومات، من خلال تقديم ردود فعل بشرية، لا تساعد في مكافحة التحيز العنصري الخفي.
وبدلاً من ذلك، وجدت أنه يمكنها تعليم النماذج اللغوية “لإخفاء العنصرية التي تحافظ عليها على مستوى أعمق بشكل سطحي”.