ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
قام سلسلة طويلة من المتحدثين المرموقين، بدءًا من السير ونستون تشرشل إلى السيدة إيريس مردوخ، بإلقاء محاضرة الرومان السنوية في جامعة أكسفورد، بدءًا من ويليام جلادستون في عام 1892.
ولكن نادرًا ما يتمكن أحد المحاضرين من الإدلاء بمثل هذا التعليق الجذاب كما فعل جيفري هينتون هذا الأسبوع. كلمة الباحث الرائد في مجال الذكاء الاصطناعي بعنوان استفزازي هل سيحل الذكاء الرقمي محل الذكاء البيولوجي؟, واختتم: بالتأكيد، نعم. لكن هينتون رفض الفكرة الشائعة في بعض دوائر التكنولوجيا في الساحل الغربي، والتي تقول إن الإنسانية “عنصرية” إلى حد ما في استمرارها في التأكيد على أولوية جنسنا البشري على الأشكال الإلكترونية من الذكاء. وقال مازحا: “يجب علينا نحن البشر أن نبذل قصارى جهدنا للبقاء هنا”.
اشتهر عالم الكمبيوتر البريطاني الكندي كواحد من رواد تقنيات “التعلم العميق” التي أحدثت ثورة في الذكاء الاصطناعي، مما مكن من إنشاء روبوتات الدردشة التوليدية المستندة إلى الذكاء الاصطناعي، مثل ChatGPT. خلال معظم حياته المهنية في الأوساط الأكاديمية وفي جوجل، كان هينتون يعتقد أن الذكاء الاصطناعي لا يشكل تهديدًا للإنسانية. لكن الباحث البالغ من العمر 76 عامًا يقول إنه شهد “عيد الغطاس” العام الماضي وترك جوجل للتحدث علنًا عن المخاطر.
أدرك هينتون أن نماذج الذكاء الاصطناعي القوية بشكل متزايد يمكن أن تكون بمثابة “عقول خلية”، حيث تتقاسم ما تعلمته مع بعضها البعض، مما يمنحها ميزة كبيرة على البشر. قال لي في مقابلة قبل محاضرته: “هذا جعلني أدرك أنهم قد يكونون شكلاً أفضل من أشكال الذكاء”.
لا يزال يبدو من الخيال أن سطورًا من التعليمات البرمجية البرمجية يمكن أن تهدد البشرية. لكن هينتون يرى خطرين رئيسيين. الأول هو أن البشر السيئين سيعطون الآلات أهدافًا سيئة ويستخدمونها لأغراض سيئة، مثل التضليل الجماعي والإرهاب البيولوجي والحرب السيبرانية والروبوتات القاتلة. وعلى وجه الخصوص، تضع نماذج الذكاء الاصطناعي مفتوحة المصدر، مثل Meta’s Llama، قدرات هائلة في أيدي الأشرار. ويقول: “أعتقد أنه من الجنون تمامًا فتح هذه النماذج الكبيرة مفتوحة المصدر”.
لكنه يتوقع أن النماذج قد “تتطور” أيضًا بطرق خطيرة، مما يؤدي إلى تطوير قصدية للسيطرة. “لو كنت أقدم المشورة للحكومات، لقلت إن هناك احتمالاً بنسبة 10% أن تؤدي هذه الأشياء إلى محو البشرية خلال العشرين عامًا القادمة. أعتقد أن هذا سيكون رقما معقولا.
وقد تعرضت حجج هينتون للهجوم على جبهتين. أولا، يجادل بعض الباحثين بأن نماذج الذكاء الاصطناعي التوليدية ليست أكثر من حيل إحصائية باهظة الثمن وأن المخاطر الوجودية الناجمة عن التكنولوجيا ما هي إلا “خيال خيال علمي”.
يقول الباحث البارز نعوم تشومسكي إن البشر ينعمون “بنظام تشغيل” مثبت وراثيا يساعدنا على فهم اللغة، وهو ما تفتقر إليه الآلات. لكن هينتون يقول إن هذا هراء نظرًا لأن أحدث طراز من طراز GPT-4 من OpenAI يمكنه تعلم اللغة وإظهار التعاطف والتفكير والسخرية. وقال في محاضرته: “إنني أقدم ادعاءً قويًا للغاية بأن هذه النماذج تفهم بالفعل”.
خط الهجوم الآخر يأتي من يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا. يقول LeCun، أحد مؤيدي النماذج مفتوحة المصدر، إن أنظمة الذكاء الاصطناعي الحالية لدينا أغبى من القطط، ومن “غير المعقول” الاعتقاد بأنها تشكل تهديدًا للبشر، سواء عن طريق التصميم أو الافتراضي. “أعتقد أن يان ساذج بعض الشيء. يجيب هينتون: “مستقبل البشرية يعتمد على هذا”.
إن النغمات الهادئة والمدروسة في إلقاء هينتون تتناقض بشكل صارخ مع القدرية القاتمة لرسالته. هل يمكن فعل أي شيء لتحسين فرص البشرية؟ يجيب: “أتمنى أن أعرف”. “أنا لا أبشر بحل معين، أنا فقط أبشر بالمشكلة.”
وقد شجعه استضافة المملكة المتحدة لقمة سلامة الذكاء الاصطناعي في بلتشلي بارك العام الماضي، مما حفز مناقشة السياسة الدولية. لكن منذ ذلك الحين، كما يقول، فإن الحكومة البريطانية “قررت بشكل أساسي أن الأرباح تأتي قبل الأمان”. وكما هو الحال مع تغير المناخ، فهو يشير إلى أن التغيير الجاد في السياسات لن يحدث إلا بعد التوصل إلى إجماع علمي. ويقبل أن هذا غير موجود اليوم. ويضيف هينتون متجهمًا مستشهدًا بالفيزيائي ماكس بلانك: «إن العلم يتقدم في جنازة واحدة في كل مرة».
ويقول إنه يشعر بالارتياح لأن جيلًا شابًا من علماء الكمبيوتر يأخذون المخاطر الوجودية على محمل الجد، ويقترح أن يخصص 30 في المائة من الباحثين في مجال الذكاء الاصطناعي لقضايا السلامة، مقارنة بنحو 1 في المائة اليوم.
ينبغي لنا أن نكون حذرين غريزيًا من الباحثين الذين يستنتجون أن هناك حاجة إلى مزيد من البحث. ولكن في هذه الحالة، ونظراً للمخاطر والشكوك التي تنطوي عليها، فمن الأفضل أن نسارع. الأمر غير العادي في النقاش الدائر حول مخاطر الذكاء الاصطناعي هو الطيف الواسع من وجهات النظر السائدة. نحن بحاجة إلى إيجاد إجماع جديد.