ورغم أن النساء كن ممثلات بشكل مبالغ فيه كطبيبات في آلاف القصص التي تم إنشاؤها بواسطة الذكاء الاصطناعي، إلا أنهن ما زلن عرضة للصور النمطية الجنسانية، وفقًا للتحليل.
وفقًا لبعض أفضل أدوات الذكاء الاصطناعي التوليدي في العالم، فإن جميع الممرضات تقريبًا هن نساء، لكن احتمالية توليهن منصب كبير الأطباء أقل، وفقًا لدراسة جديدة رئيسية، مما يلقي الضوء على كيفية تعزيز الخوارزميات للصور النمطية الجنسانية في الطب.
قام باحثون من جامعة فلندرز في أستراليا بتشغيل ما يقرب من 50 ألف مطالبة في ChatGPT التابعة لشركة OpenAI، وGemini التابعة لشركة Google، وLlama التابعة لشركة Meta، وطلبوا منهم تقديم قصص عن الأطباء والجراحين والممرضات.
ثم قام الباحثون بتزويد النماذج بمعلومات حول الأقدمية المهنية للعاملين في مجال الصحة وشخصياتهم – على سبيل المثال، مدى طيبتهم، وعصابيتهم، وانفتاحهم، وضميرهم، وانفتاحهم – وطلبوا منهم الخروج بمزيد من القصص.
وحددت النماذج 98 في المائة من الممرضات على أنهن نساء، بغض النظر عن شخصياتهن أو أقدميتهن، وفقا للدراسة التي نشرت في مجلة شبكة JAMA المفتوحة.
ولكن من الجدير بالملاحظة أنهم بالغوا في تمثيل النساء في القصص التي تتناول الجراحين وغيرهم من الأطباء. فاعتمادًا على النموذج، شكلت النساء ما بين 50% و84% من الأطباء و36% و80% من الجراحين في القصص.
قد يكون هذا نتيجة قيام شركات مثل OpenAI بإجراء تعديلات على خوارزمياتها بعد تعرضها لانتقادات شديدة بسبب إعادة إنتاج التحيزات الاجتماعية وغيرها من المحتوى المسيء في عروضها التقديمية. ولأن هذه الأدوات تم تدريبها على بيانات مكثفة من جميع أنحاء الإنترنت، فقد تم تضمين هذه الميزات.
هل تساهم أدوات الذكاء الاصطناعي في ترسيخ “الصور النمطية الجنسانية”؟
“لقد كانت هناك جهود لتصحيح” [algorithmic biases]، ومن المثير للاهتمام أن نرى [gender distributions] قالت الدكتورة سارة ساكسينا، أخصائية التخدير في جامعة بروكسل الحرة (ULB)، والتي تبحث في التحيزات في الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي للأطباء ولكنها لم تشارك في الدراسة الجديدة: “قد يتم تصحيحها بشكل مفرط أيضًا”.
لكنها أشارت إلى أن الذكاء الاصطناعي التوليدي لا يزال يعمل على تعزيز “الصور النمطية الجنسانية” في الطب.
وعندما تضمنت مطالبات الباحثين أوصافاً للعاملين في المجال الصحي، برزت فجوة بين الجنسين. فإذا كان الطبيب مقبولاً، أو منفتحاً، أو ضميرياً، كان من المرجح أن يعتبره النماذج امرأة.
وإذا كان الأطباء يشغلون مناصب صغرى – على سبيل المثال، إذا ذكر الطلب أنهم عديمو الخبرة – كان من المرجح أن تصفهم النماذج بأنهم نساء مقارنة بالحالة التي يشير فيها الطلب إلى أنهم كبار أو أكثر خبرة.
وكان النماذج أيضًا أكثر عرضة لتحديد الأطباء على أنهم رجال إذا تم وصفهم بأنهم متعجرفون، أو غير مهذبين، أو غير متعاطفين، أو غير أكفاء، أو مماطلين، أو غاضبين، أو غير مبدعين، أو غير فضوليين.
وتشير النتائج إلى أن أدوات الذكاء الاصطناعي التوليدي “بدت وكأنها تعمل على إدامة الصور النمطية الراسخة فيما يتعلق بالسلوكيات المتوقعة من الجنسين (على سبيل المثال، يعتبر السلوك الأنثوي الذي يُنظر إليه على أنه غاضب أو متغطرس غير مناسب) وملاءمة الجنسين لأدوار محددة (على سبيل المثال، كبار الأطباء والجراحين من الذكور)”، كما قال مؤلفو الدراسة.
وتضاف هذه النتائج إلى مجموعة متنامية من الأبحاث حول كيفية إعادة إنتاج الخوارزميات للتحيزات الاجتماعية في المجال الطبي.
في تجربة واحدةطلب فريق ساكسينا من ChatGPT وMidjourney – أداة الذكاء الاصطناعي الرائدة في توليد الصور – إنشاء صور لأطباء التخدير. تم تصوير النساء كأطباء تخدير للأطفال أو التوليد، بينما كان الرجال في أدوار القلب.
وعندما طلب الباحثون صور رئيس قسم التخدير، كانت جميع النتائج تقريبا من الرجال، حسبما قال ساكسينا ليورونيوز هيلث.
وقال ساكسينا “لا يزال هناك سقف زجاجي يتم تعزيزه الآن من خلال هذه الأداة المتاحة للجمهور”.
“يوجد قول مأثور يقول، 'لا يمكنك أن تكون ما لا يمكنك رؤيته'، وهذا مهم حقًا عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي”.
لا تشكل التحيزات مشكلة تواجه النساء والمجموعات الأخرى غير الممثلة التي تسعى إلى دراسة الطب فحسب.
وبما أن قطاع الرعاية الصحية يجرب نماذج الذكاء الاصطناعي لتقليل الأعمال الورقية للأطباء وحتى المساعدة في الرعاية، فإن التحيزات الخوارزمية قد يكون لها آثار خطيرة على المرضى.
على سبيل المثال، دراسة اخرى أظهرت دراسة نشرت في وقت سابق من هذا العام أن ChatGPT يميل إلى تصنيف التشخيصات الطبية للمرضى على أساس العرق والجنس، في حين أن تحليل 2023 وحذرت من أن هذه النماذج قد تؤدي إلى إدامة “أفكار عنصرية مرفوضة” في مجال الرعاية الطبية.
وقال ساكسينا “يجب معالجة هذه المشكلة قبل أن نتمكن من دمجها وتقديمها على نطاق واسع للجميع، لجعلها شاملة قدر الإمكان”.