احصل على تحديثات مجانية للذكاء الاصطناعي

حذرت دراسة أمريكية من أن الشركات التي تبني نماذج ذكاء اصطناعي جديدة ، بما في ذلك شركة أوبن إيه آي ، وجوجل ، ومالك شركة فيسبوك ، من شركة ChatGPT ، تخاطر بوقوع مخالفة لمسودة قواعد الاتحاد الأوروبي التي تحكم التكنولوجيا.

تشير ورقة جامعة ستانفورد إلى صدام وشيك بين الشركات التي تنفق مليارات الدولارات على تطوير نماذج متطورة للذكاء الاصطناعي ، غالبًا بدعم من السياسيين الذين ينظرون إلى التكنولوجيا على أنها مركزية للأمن القومي ، وعزم المنظمون العالميون على كبح مخاطرها.

“الشركات تقصر [of the draft rules]قال ريشي بوماساني ، باحث في الذكاء الاصطناعي في مركز ستانفورد لأبحاث النماذج الأساسية ، “على الأخص فيما يتعلق بموضوع حقوق النشر”.

قال بوماساني: “إذا كانت نماذج المؤسسة تنشئ محتوى ، فعليها أن تلخص البيانات التي تدربت عليها حقوق الطبع والنشر”. “في الوقت الحالي ، يكون أداء معظم مقدمي الخدمة سيئًا بشكل خاص في هذا الشأن.”

دفع إطلاق ChatGPT في تشرين الثاني (نوفمبر) إلى إطلاق موجة من أدوات الذكاء الاصطناعي التوليدية – وهي برامج مُدرَّبة على مجموعات بيانات ضخمة لإنتاج نصوص وصور ورموز شبيهة بالبشر.

وافق المشرعون في الاتحاد الأوروبي مؤخرًا ، مدفوعين بخطى التطور السريع هذه ، على مجموعة صارمة من القواعد التي تحكم استخدام الذكاء الاصطناعي. بموجب مقترحات قانون الذكاء الاصطناعي ، يتعين على مطوري أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT و Bard و Midjourney الكشف عن المحتوى الذي تم إنشاؤه بواسطة AI ونشر ملخصات للبيانات المحمية بحقوق الطبع والنشر المستخدمة لأغراض التدريب ، بحيث يمكن مكافأة المبدعين مقابل الاستخدام من عملهم.

صنفت دراسة ستانفورد ، بقيادة بوماساني ، 10 نماذج للذكاء الاصطناعي مقابل مسودة قواعد الاتحاد الأوروبي بشأن وصف مصادر البيانات وتلخيص البيانات المحمية بحقوق الطبع والنشر ، والكشف عن استهلاك التكنولوجيا للطاقة ومتطلبات الحوسبة ، وتقارير التقييمات والاختبار والمخاطر المتوقعة المرتبطة بها.

فشل كل نموذج في عدد من المجالات الرئيسية ، حيث سجل ستة من مقدمي الخدمة العشرة أقل من 50 في المائة. ووجد الباحثون أن النماذج المغلقة ، مثل ChatGPT من OpenAI أو PaLM 2 من Google ، عانت من نقص الشفافية حول البيانات المحمية بحقوق الطبع والنشر ، في حين أن المنافسين من المصادر المفتوحة ، أو تلك التي يمكن الوصول إليها للجمهور ، كانت أكثر شفافية ولكن يصعب السيطرة عليها. وجاء في الترتيب الأدنى على مقياس الدراسة المكون من 48 نقطة هو أليف ألفا الألماني وأنثروبيك ومقره كاليفورنيا ، في حين احتل نموذج بلوم مفتوح المصدر المرتبة الأولى.

قال رومان شودري من جامعة هارفارد أمام جلسة استماع للجنة العلوم والفضاء والتكنولوجيا التابعة للكونجرس الأمريكي حول الذكاء الاصطناعي يوم الخميس: “الذكاء الاصطناعي ليس بطبيعته محايدًا أو جديرًا بالثقة أو مفيدًا”.

وأضافت: “هناك حاجة إلى جهود منسقة وموجهة لضمان استخدام هذه التكنولوجيا بشكل مناسب”. “بناء أقوى صناعة للذكاء الاصطناعي لا يقتصر فقط على المعالجات والرقائق الدقيقة. الميزة التنافسية الحقيقية هي الجدارة بالثقة “.

ستساعد النتائج التي توصل إليها بحث بوماساني ، والتي تم الاستشهاد بها في جلسة الاستماع يوم الخميس ، المنظمين على مستوى العالم وهم يتعاملون مع التكنولوجيا التي من المتوقع أن تهز الصناعات التي تتراوح من الخدمات المهنية والمالية إلى الأدوية ووسائل الإعلام.

لكنهم سلطوا الضوء أيضًا على التوتر بين التطور السريع والمسؤول.

قال فرانك لوكاس ، الرئيس الجمهوري للجنة ، يوم الخميس: “إن خصومنا يلحقون بالذكاء الاصطناعي”. “لا يمكننا ولا يجب أن نحاول نسخ قواعد اللعبة في الصين ، ولكن يمكننا الحفاظ على دورنا القيادي في الذكاء الاصطناعي ، ويمكننا ضمان تطوره بقيم الجدارة بالثقة والإنصاف والشفافية لدينا.”

تستعد الولايات المتحدة لتطوير التشريعات في الأشهر المقبلة ، لكن مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبي يمضي قدمًا فيما يتعلق بتبني قواعد محددة.

قال بوماساني إن زيادة الشفافية في هذا القطاع ستمكن صانعي السياسات من تنظيم الذكاء الاصطناعي بشكل أكثر فعالية مما كان عليه في الماضي.

وقال: “من وسائل التواصل الاجتماعي ، كان من الواضح أننا لا نملك فهمًا جيدًا لكيفية استخدام المنصات ، مما أضعف قدرتنا على التحكم فيها”.

لكن عدم امتثال الشركات لمشروع قانون الذكاء الاصطناعي يُظهر أن إنفاذ القوانين سيكون صعبًا.

قال بوماساني ، الذي يتوقع تكثيف جهود الضغط في بروكسل وواشنطن ، عند الانتهاء من اللوائح ، إنه ليس “واضحًا على الفور” ما يعنيه تلخيص الجزء المحمي بحقوق الطبع والنشر من مجموعات البيانات الضخمة هذه.

شاركها.