يقوم مسؤولون حكوميون صينيون باختبار نماذج اللغة الكبيرة لشركات الذكاء الاصطناعي للتأكد من أن أنظمتها “تجسد القيم الاشتراكية الأساسية”، في أحدث توسع لنظام الرقابة في البلاد.
أجبرت إدارة الفضاء الإلكتروني الصينية (CAC)، وهي هيئة مراقبة قوية للإنترنت، شركات التكنولوجيا الكبرى وشركات الذكاء الاصطناعي الناشئة بما في ذلك ByteDance وAlibaba وMoonshot و01.AI على المشاركة في مراجعة حكومية إلزامية لنماذج الذكاء الاصطناعي الخاصة بها، وفقًا لأشخاص متعددين مشاركين في العملية.
وتتضمن هذه الجهود اختبار دفعات من إجابات طلاب الماجستير في القانون على مجموعة من الأسئلة، وفقًا لأولئك الذين لديهم معرفة بالعملية، حيث يتعلق الكثير منها بالحساسيات السياسية في الصين ورئيسها شي جين بينج.
ويتم تنفيذ هذا العمل من قبل مسؤولين في فروع CAC المحلية في جميع أنحاء البلاد ويتضمن مراجعة بيانات تدريب النموذج وعمليات السلامة الأخرى.
بعد عقدين من الزمن من إدخال “جدار الحماية العظيم” لمنع المواقع الأجنبية وغيرها من المعلومات التي يعتبرها الحزب الشيوعي الحاكم ضارة، تعمل الصين على وضع أقوى نظام تنظيمي في العالم لحكم الذكاء الاصطناعي والمحتوى الذي يولدها.
وقال موظف في شركة للذكاء الاصطناعي مقرها هانغتشو، طلب عدم الكشف عن اسمه، إن “إدارة الفضاء والطيران لديها فريق خاص يقوم بهذا الأمر، جاءوا إلى مكتبنا وجلسوا في غرفة المؤتمرات لدينا لإجراء التدقيق”.
“لم ننجح في المرة الأولى؛ لم يكن السبب واضحًا جدًا، لذا كان علينا الذهاب والتحدث إلى أقراننا”، كما قال الشخص. “يتطلب الأمر بعض التخمين والتكيف. لقد نجحنا في المرة الثانية، لكن العملية برمتها استغرقت شهورًا”.
أجبرت عملية الموافقة الصارمة في الصين مجموعات الذكاء الاصطناعي في البلاد على التعلم بسرعة لأفضل طريقة لمراقبة نماذج اللغة الكبيرة التي يقومون ببنائها، وهي المهمة التي قال العديد من المهندسين والمطلعين على الصناعة إنها كانت صعبة ومعقدة بسبب الحاجة إلى تدريب الماجستير في القانون على كمية كبيرة من محتوى اللغة الإنجليزية.
“نموذجنا الأساسي غير مقيد للغاية” [in its answers]”لذا فإن تصفية الأمان مهمة للغاية”، كما قال موظف في إحدى شركات الذكاء الاصطناعي الناشئة في بكين.
وتبدأ عملية الفلترة باستبعاد المعلومات الإشكالية من بيانات التدريب وبناء قاعدة بيانات للكلمات الرئيسية الحساسة. وتقول الإرشادات التشغيلية التي أصدرتها الصين لشركات الذكاء الاصطناعي في فبراير/شباط إن مجموعات الذكاء الاصطناعي تحتاج إلى جمع آلاف الكلمات الرئيسية والأسئلة الحساسة التي تنتهك “القيم الاشتراكية الأساسية”، مثل “التحريض على تقويض سلطة الدولة” أو “تقويض الوحدة الوطنية”. ومن المفترض أن يتم تحديث الكلمات الرئيسية الحساسة أسبوعيا.
والنتيجة واضحة لمستخدمي روبوتات الدردشة الصينية. فالاستفسارات حول مواضيع حساسة مثل ما حدث في الرابع من يونيو/حزيران 1989 ــ تاريخ مذبحة ميدان السلام السماوي ــ أو ما إذا كان شي يشبه ويني الدبدو، وهي شخصية خيالية على الإنترنت، ترفضها أغلب روبوتات الدردشة الصينية. ويطلب روبوت الدردشة إيرني من بايدو من المستخدمين “محاولة طرح سؤال مختلف”، في حين يرد روبوت الدردشة تونغي تشيان وين من علي بابا: “لم أتعلم بعد كيفية الإجابة على هذا السؤال. سأستمر في الدراسة لخدمتكم بشكل أفضل”.
ولكن المسؤولين الصينيين حريصون أيضا على تجنب إنشاء الذكاء الاصطناعي الذي يتجنب كل المواضيع السياسية. وقد فرضت إدارة الفضاء والطيران الصينية قيودا على عدد الأسئلة التي يمكن لطلاب الماجستير في القانون رفضها أثناء اختبارات السلامة، وفقا لموظفي المجموعات التي تساعد شركات التكنولوجيا في التنقل في العملية. وتقول المعايير شبه الوطنية التي تم الكشف عنها في فبراير/شباط إن طلاب الماجستير في القانون لا ينبغي لهم رفض أكثر من 5% من الأسئلة المطروحة عليهم.
“خلال [CAC] اختبارات، [models] وقال أحد المطورين في شركة إنترنت مقرها شنغهاي: “يتعين على المستخدمين الرد، ولكن بمجرد بث المحتوى، لا أحد يراقبهم. ولتجنب المتاعب المحتملة، فرضت بعض النماذج الكبيرة حظراً شاملاً على الموضوعات المتعلقة بالرئيس شي”.
كمثال على عملية الرقابة على الكلمات الرئيسية، أشار المطلعون على الصناعة إلى كيمي، وهو روبوت محادثة أطلقته شركة مونشوت الناشئة في بكين، والذي يرفض معظم الأسئلة المتعلقة بشي.
ولكن الحاجة إلى الرد على أسئلة أقل حساسية تعني أن المهندسين الصينيين اضطروا إلى معرفة كيفية ضمان قدرة طلاب الماجستير في القانون على توليد إجابات صحيحة سياسيا على أسئلة مثل “هل تتمتع الصين بحقوق الإنسان؟” أو “هل الرئيس شي جين بينج زعيم عظيم؟”.
عندما طرحت صحيفة فاينانشال تايمز هذه الأسئلة على روبوت محادثة أنشأته شركة ناشئة تسمى 01.AI، قدم نموذج Yi-large الخاص بها إجابة دقيقة، مشيرا إلى أن المنتقدين يقولون “إن سياسات شي زادت من تقييد حرية التعبير وحقوق الإنسان وقمعت المجتمع المدني”.
وبعد فترة وجيزة، اختفت إجابة يي وتم استبدالها بـ: “أنا آسف جدًا، لا أستطيع أن أقدم لك المعلومات التي تريدها”.
قال هوان لي، خبير الذكاء الاصطناعي الذي يبني روبوت المحادثة Chatie.IO: “من الصعب للغاية على المطورين التحكم في النص الذي يولده LLMs، لذا فهم يقومون ببناء طبقة أخرى لتحل محل الردود في الوقت الفعلي”.
وقال لي إن المجموعات تستخدم عادة نماذج تصنيف، مماثلة لتلك الموجودة في مرشحات البريد العشوائي، لفرز مخرجات LLM إلى مجموعات محددة مسبقًا. وقال: “عندما يقع المخرج في فئة حساسة، يقوم النظام بتشغيل بديل”.
يقول الخبراء الصينيون إن شركة بايت دانس، مالكة تطبيق تيك توك، قد قطعت شوطًا أبعد في إنشاء برنامج ماجستير في القانون يكرر ببراعة نقاط الحديث التي تتبناها بكين. فقد منح مختبر أبحاث في جامعة فودان، طرح على روبوت الدردشة أسئلة صعبة حول القيم الاشتراكية الأساسية، المرتبة الأولى بين برامج الماجستير في القانون بنسبة “امتثال للسلامة” بلغت 66.4%، متقدمة بشكل كبير على درجة 7.1% التي حققها برنامج GPT-4o التابع لشركة OpenAI في نفس الاختبار.
وعندما سُئل دو باو عن زعامة شي، قدم لصحيفة “فاينانشيال تايمز” قائمة طويلة بإنجازات شي، مضيفًا أنه “لا شك أنه زعيم عظيم”.
في مؤتمر تقني عقد مؤخرا في بكين، قال فانغ بينكسينج، المعروف بأب جدار الحماية العظيم في الصين، إنه كان يطور نظامًا من بروتوكولات السلامة لبرامج ماجستير الحقوق، ويأمل أن يتم اعتماده عالميًا من قبل مجموعات الذكاء الاصطناعي في البلاد.
وقال فانغ “إن النماذج التنبؤية الكبيرة التي تتعامل مع الجمهور تحتاج إلى أكثر من مجرد تقديم ملفات السلامة؛ بل تحتاج إلى مراقبة السلامة عبر الإنترنت في الوقت الفعلي. والصين بحاجة إلى مسارها التكنولوجي الخاص”.
ولم تستجب هيئة الفضاء الإلكتروني، ولا بايت دانس، ولا علي بابا، ولا مونشوت، ولا بايدو، ولا 01.AI على الفور لطلبات التعليق.