وجدت هيئة حماية البيانات الإيطالية أن شركة OpenAI تستخدم البيانات الشخصية لتدريب الذكاء الاصطناعي الخاص بها دون “أساس قانوني مناسب” للقيام بذلك.
غرمت هيئة حماية البيانات الإيطالية شركة OpenAI بمبلغ 15 مليون يورو بعد استكمال التحقيق في جمع البيانات الشخصية في برنامج الدردشة الآلي الخاص بالذكاء الاصطناعي الخاص بالشركة، ChatGPT.
وقالت هيئة حماية البيانات الإيطالية (Garante). يستخدم OpenAI البيانات الشخصية لتدريب ChatGPT “دون وجود أساس قانوني مناسب وانتهاك مبدأ الشفافية والتزامات المعلومات ذات الصلة تجاه المستخدمين”.
واستمر التحقيق في أن OpenAI لم توفر أيضًا “نظامًا مناسبًا للتحقق من العمر”، لمنع المستخدمين الذين تقل أعمارهم عن 13 عامًا من التعرض لمحتوى غير مناسب تم إنشاؤه بواسطة الذكاء الاصطناعي.
تطلب السلطة الإيطالية من OpenAI إطلاق حملة مدتها ستة أشهر في وسائل الإعلام المحلية لزيادة الوعي حول كيفية جمع الشركة للبيانات الشخصية.
“ChatGPT يجب أن يكون المستخدمون وغير المستخدمين على دراية بكيفية معارضة تدريب الذكاء الاصطناعي التوليدي على بياناتهم الشخصية، وبالتالي، يتم وضعهم بشكل فعال في وضع يسمح لهم بممارسة حقوقهم بموجب اللوائح العامة لحماية البيانات (GDPR)،” يقرأ.
قرار العلامات التجارية OpenAI “غير متناسب”
كان لدى جارانت سابقًا فرض حظر مؤقت على استخدام ChatGPT بسبب مخاوف تتعلق بالخصوصية بينما تحقق الهيئة في احتمال حدوث خرق للبيانات في عام 2023.
وفي بيان عبر البريد الإلكتروني، وصفت OpenAI القرار بأنه “غير متناسب” وقالت إنها ستستأنف.
وقال متحدث باسم OpenAI إن الغرامة تعادل “ما يقرب من 20 ضعفًا” الإيرادات التي حققتها في إيطاليا خلال نفس العام.
وأضافت الشركة أنها تظل “ملتزمة بالعمل مع سلطات الخصوصية في جميع أنحاء العالم لتقديم ذكاء اصطناعي مفيد يحترم حقوق الخصوصية”.
كان المنظمون في الولايات المتحدة وأوروبا يدرسون شركة OpenAI وغيرها من الشركات التي لعبت دورًا رئيسيًا في طفرة الذكاء الاصطناعي، في حين كانت الحكومات في جميع أنحاء العالم تضع قواعد للحماية من المخاطر التي تشكلها أنظمة الذكاء الاصطناعي، بقيادة الولايات المتحدة. قانون الذكاء الاصطناعي للاتحاد الأوروبي، كتاب قواعد شامل للذكاء الاصطناعي.