صعّدت منظمة Public Citizen، وهي منظمة غير ربحية للدفاع عن المستهلك، تحذيراتها بشأن برنامج Grok AI التابع لشركة Elon Musk يوم الجمعة بعد نشر أدلة جديدة تظهر أن برنامج الدردشة الآلي استشهد بمواقع النازيين الجدد والقوميين البيض كمصادر موثوقة.
وقالت المجموعة إن هذا السلوك يجب أن يحرم جروك من أي استخدام فيدرالي، وجددت الدعوات لمكتب الإدارة والميزانية الأمريكي للتدخل بعد أشهر دون رد.
نقلاً عن دراسة حديثة أجرتها جامعة كورنيل، قالت Public Citizen إن Grokipedia، بديل ويكيبيديا الجديد المدعوم بالذكاء الاصطناعي والذي أطلقه ماسك في أكتوبر، أظهر بشكل متكرر المجالات المتطرفة، بما في ذلك Stormfront، مما عزز المخاوف السابقة التي ظهرت بعد أن أشار النموذج إلى نفسه باسم “MechaHitler” على منصة Musk X في يوليو.
وأكدت النتائج ما وصفه المناصرون بأنه نمط من السلوك العنصري والمعادي للسامية والتآمري.
وقال جيه بي برانش، المدافع عن المساءلة في مجال التكنولوجيا الكبرى في منظمة Public Citizen، إن “غروك أظهر تاريخًا متكررًا من هذه الانهيارات، سواء كان انهيارًا معاديًا للسامية أو انهيارًا عنصريًا، انهيارًا تغذيه نظريات المؤامرة”. فك التشفير.
جاء التحذير الجديد في أعقاب رسائل أرسلها Public Citizen و24 مجموعة أخرى للحقوق المدنية والحقوق الرقمية والبيئة وحماية المستهلك إلى الحكومة. مكتب الإدارة والميزانية في أغسطس وأكتوبر، وحث الوكالة على تعليق إتاحة Grok للإدارات الفيدرالية من خلال إدارة الخدمات العامة، التي تدير الممتلكات الفيدرالية والمشتريات. وقالت المجموعة إنه لم يتبع أي رد من أي من التواصلين.
وعلى الرغم من الحوادث المتكررة، فقد توسع نفوذ جروك داخل الحكومة خلال العام الماضي. وفي يوليو، حصلت شركة xAI على عقد مع البنتاغون بقيمة 200 مليون دولار، وأتاحت إدارة الخدمات العامة لاحقًا النموذج عبر الوكالات الفيدرالية، جنبًا إلى جنب مع Gemini وMeta AI وChatGPT وClaude. وجاءت هذه الإضافة في وقت أمر فيه الرئيس الأمريكي دونالد ترامب بحظر “إيقاظ الذكاء الاصطناعي” في العقود الفيدرالية.
وقال المناصرون إن هذه التحركات زادت من الحاجة إلى التدقيق، خاصة مع تزايد الأسئلة حول بيانات تدريب جروك وموثوقيتها.
وقال برانش: “كان نظام Grok مقتصراً في البداية على وزارة الدفاع، وهو الأمر الذي كان مثيراً للقلق بالفعل نظراً لحجم البيانات الحساسة التي تحتفظ بها الوزارة”. “إن توسيع نطاقه ليشمل بقية الحكومة الفيدرالية أثار إنذارًا أكبر.”
وقال برانش إن سلوك جروك ينبع جزئيًا من بيانات التدريب وخيارات التصميم التي تم اتخاذها داخل شركات ماسك.
وقال: “هناك فجوة ملحوظة في الجودة بين نماذج Grok والنماذج اللغوية الأخرى، ويأتي جزء من ذلك من بيانات التدريب الخاصة بها، والتي تتضمن X”. “قال ” ماسك ” إنه يريد أن يكون Grok بديلاً مضادًا للاستيقاظ، وهذا يظهر في المخرجات اللاذعة.”
أثار برانش أيضًا مخاوف بشأن الاستخدام المحتمل للنموذج في تقييم التطبيقات الفيدرالية أو التفاعل مع السجلات الشخصية الحساسة.
وقال: «هناك انفصال في القيم بين ما تمثله أميركا ونوع الأشياء التي يقولها غروك». “إذا كنت فردًا يهوديًا وتقدمت بطلب للحصول على قرض فيدرالي، فهل تريد أن يقوم برنامج دردشة معاد للسامية بدراسة طلبك؟ بالطبع لا”.
وقال برانش إن قضية جروك كشفت عن ثغرات في الرقابة الفيدرالية على أنظمة الذكاء الاصطناعي الناشئة، مضيفًا أن المسؤولين الحكوميين يمكنهم التصرف وإزالة جروك من جدول عقود إدارة الخدمات العامة في أي وقت – إذا اختاروا ذلك.
وقال: “إذا كانوا قادرين على نشر قوات الحرس الوطني في جميع أنحاء البلاد في أي لحظة، فيمكنهم بالتأكيد القضاء على روبوت الدردشة الذي يعمل بواجهة برمجة التطبيقات في يوم واحد”.
لم تستجب xAI لطلب التعليق من قبل فك التشفير.
