لقد سأل المنظمون الأمريكيون شركة OpenAI عن كيفية التعامل مع احتمالية قيام ChatGPT بإصدار بيانات “خاطئة أو مضللة أو مهينة أو ضارة” حول أشخاص حقيقيين.
صاحب الدردشة، شركة الذكاء الاصطناعي OpenAI ، تخضع مرة أخرى للتحقيق من السلطات الفيدرالية في الولايات المتحدة – هذه المرة بسبب عملها لمنع التكنولوجيا الثورية من إعطاء المستخدمين إجابات خاطئة.
منذ إطلاقه في تشرين الثاني (نوفمبر) ، أشار الكثيرون إلى أنه في حين أن ChatGPT يمكن أن يكون مفيدًا للغاية ، إلا أنه في بعض الأحيان يمكن أن يقدم أيضًا إجابات غير مرتبطة تمامًا أو خاطئة أو غير كاملة.
وقد أقرت شركة أوبن إيه آي بذلك الدردشة ليس معصومًا عن الخطأ ، موضحًا أنه يمكن في بعض الأحيان أن “يهلوس” المخرجات ويختلق الحقائق. باختصار ، يمكن لـ ChatGPT ، مثل أي آلة أو تقنية أخرى ، ارتكاب الأخطاء.
لكن المنظمين الأمريكيين ما زالوا قلقين.
أرسلت لجنة التجارة الفيدرالية (FTC) خطابًا إلى OpenAI هذا الأسبوع ، كما ذكرت صحيفة واشنطن بوست لأول مرة ، تطلب معلومات دقيقة حول كيفية تعامل الشركة مع المخاطر المحتملة لـ ChatGPT “لتوليد بيانات حول أفراد حقيقيين خاطئة ومضللة ومقلقة أو ضار “.
يدعي المنظمون الأمريكيون أن الشركة تعرض السمعة الشخصية والبيانات للخطر ، مما يخالف قوانين حماية المستهلك.
في وقت سابق من هذا العام ، حذر الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، المشرعين الأمريكيين من المخاطر الكامنة في ChatGPT ، قائلاً “إذا ساءت هذه التكنولوجيا ، فقد تسوء تمامًا”.
وطالب الحكومة بالعمل مع شركته “لمنع حدوث ذلك”.
لكن ألتمان أصيب بخيبة أمل بسبب أحدث تحقيق في الشركة. وكتب على تويتر: “إنه لأمر مخيب للآمال للغاية أن نرى طلب لجنة التجارة الفيدرالية يبدأ بتسريب ولا يساعد في بناء الثقة”.
“لقد بنينا GPT-4 [the latest version of ChatGPT] علاوة على سنوات من أبحاث السلامة وقضينا أكثر من 6 أشهر بعد الانتهاء من التدريب الأولي ، مما يجعله أكثر أمانًا وتوافقًا قبل إطلاقه. نحن نحمي خصوصية المستخدم ونصمم أنظمتنا للتعرف على العالم وليس الأفراد “، تابع ، مضيفًا أن الشركة ستستمر في العمل مع لجنة التجارة الفيدرالية للتأكد من أن ChatGPT” آمنة ومؤيدة للمستهلك “.
إن إجابات ChatGPT الخاطئة في بعض الأحيان ليست كل ما سيتم استجواب الشركة المدعومة من Microsoft من قبل السلطات الأمريكية.
تبحث لجنة التجارة الفيدرالية (FTC) أيضًا في كيفية تعامل الشركة مع خصوصية البيانات وكيفية حصولها على البيانات لتدريب روبوت الدردشة الآلي الخاص بها وإبلاغها.
في أبريل، حظرت إيطاليا استخدام ChatGPT بسبب مخاوف تتعلق بالخصوصية ، واستعادتها فقط بعد تقديم مزيد من المعلومات حول سياسة الخصوصية الخاصة بها. كما تمت إضافة أداة للتحقق من عمر المستخدمين.