تفتقر نماذج الذكاء الاصطناعي، التي تكاثرت منذ إطلاق «تشات جي بي تي»، إلى الشفافية في تصميمها، ما يشكل خطراً على التطبيقات التي ترتكز إليها تقنياً، بحسب دراسة أجرتها جامعة ستانفورد.

وبيّن مؤشر جديد وضعه وأجرى حسابات على أساسه باحثون في هذه الجامعة الواقعة في ولاية كاليفورنيا الأميركية، أن الأكثر شفافية بين النماذج الـ10 التي أُخضِعَت للتقويم، هو Llama 2 (لاما 2)، وهو نظام ذكاء اصطناعي أطلقته مجموعة «ميتا» في يوليو الماضي، ويمكن إعادة استخدامه.

لكنّ هذا النموذج لا يوفّر في الواقع إلا 54% من الشفافية المطلوبة، وهي نسبة غير كافية مقارنة بما يجب أن يحققه لكي يكون شفافاً، وفقاً لمعدّي الدراسة.

أما «تشات جي بي تي-4»، وهو المنتَج الرئيس لشركة «أوبن إيه آي» التي تنتج روبوت «تشات جي بي تي» الشهير، والممَوَّلَة من «مايكروسوفت»، فلا تتعدى درجة شفافيته 48%. وحصلت على مراتب أدنى نماذج أخرى تلقى رواجاً، بينها «بالم-2» من «غوغل» و«كلود 2» من «إنثروبيك» (الممولة من أمازون).

وأوضح مدير الأبحاث في جامعة ستانفورد ريشي بوماساني، في بيان، أن درجة الشفافية المطلوب توافرها فيما يسمى «نماذج التأسيس» يجب أن تراوح بين 80 و100%.

شاركها.