إذن هذه فكرة. بدلاً من المضي قدمًا في التكنولوجيا التي يقول مخترعوها البارزون إنها يمكن أن تمتلك قريبًا القوة لقتل البشر ، ماذا عن عدم المضي قدمًا بها؟

هذه الفكرة المتطرفة مدفوعة بتحذير من الرجل الذي شكل فرقة عمل الذكاء الاصطناعي لرئيس الوزراء. لاحظ مات كليفورد أنه “يمكن أن يكون لديك بالفعل تهديدات خطيرة جدًا للبشر يمكن أن تقتل العديد من البشر ، وليس كل البشر ، ببساطة من حيث نتوقع أن تكون النماذج في غضون عامين.” في الأفكار الثانية ، ربما أبالغ في رد الفعل. كانت ملاحظاته الكاملة أكثر دقة ، وعلى أي حال ، فليس كل البشر. فقط الكثير منهم.

لكن التحذيرات المروعة بالمثل جاءت من شخصيات بارزة في تطويرها ، وكتبت تحت رعاية مركز أمان الذكاء الاصطناعي. في تحذير مقتضب مثير للإعجاب ، شدد أحد المتخصصين في صناعة الذكاء الاصطناعي على أن: “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”. لقد أخذ رؤساء Google DeepMind و OpenAI وعدد لا يحصى من الوقت إجازة من اختراع التكنولوجيا التي يمكن أن تمحو كل حياة البشر لتحذير بقيتنا أنه ، حقًا ، يجب القيام بشيء ما لوقف حدوث ذلك.

وهؤلاء من المفترض أن يكونوا عباقرة؟ عبر حظائر الأواني في إنجلترا ، هناك أي عدد من الرجال الأحمق بعض الشيء الذين اخترعوا آلة جديدة قد تكون رائعة ولكنها قد تحرق منزلهم أيضًا ، وقد تمكن معظمهم من التدرب بأنفسهم على أن الجهاز ربما ليس كذلك فكرة رائعة بعد كل شيء.

هذا هو المكان الذي يخطئ فيه مخترعو الزريعة الصغيرة. ربما بدلاً من معرفة المخاطر التي يتعرضون لها ، فإن ما يحتاجون إليه حقًا هو الحصول على تمويل بقيمة عدة مليارات من الجنيهات الاسترلينية ثم كتابة رسالة إلى المجلس المحلي يحذرون فيها من أنه يجب السيطرة عليهم حقًا.

أدرك ، لأكون جادًا ، أن هناك أشياء عظيمة متوقعة من الذكاء الاصطناعي ، وكثير منها لا ينطوي على محو الجنس البشري. يجادل الكثيرون بأن الذكاء الاصطناعي يمكن أن يلعب دورًا محوريًا في توفير مستقبل خالٍ من الكربون ، على الرغم من أنه ربما يكون هذا مجرد تعبير ملطف للقضاء على الإنسانية.

ولا يقل أهمية عن هذا التقدم الذي تم إحرازه بالفعل. لكن روبوتات الدردشة للذكاء الاصطناعي تقوم بالفعل بتزوير المعلومات – أو “الهلوسة” كما يفضل مطوروها – وليس مخترعوها متأكدين تمامًا من السبب. لذلك يبدو أن هناك حجة لإبطاء وتسوية تلك التجاعيد الصغيرة قبل الانتقال إلى تقنية على مستوى الانقراض ، كما تعلمون.

من النظرة السخية لقادة التكنولوجيا الذين يطالبون بأنفسهم أن يكونوا مقيدين هو أنهم يتحملون المسؤولية وأنهم يمثلون الجهات الفاعلة الأخرى غير المسؤولة التي يقلقون بشأنها. إنهم يرغبون في فعل المزيد ، لكن ، كما ترى ، لا يستطيع الرجال في Google السماح لأنفسهم بالضرب من قبل الرجال في Microsoft.

لذا فإن هذه التحذيرات هي محاولة لزعزعة السياسيين والمنظمين وتحركهم ، وهو ما يعد أمرًا رياضيًا لهم نظرًا لأن قادة العالم لديهم مثل هذا السجل الرائع في الاستجابة بشكل تعاوني وذكاء للتهديدات على مستوى الانقراض. أنا أقصد تعال. لقد ذكروها للكونجرس الأمريكي. لا أعتقد أنه يمكننا أن نطلب المزيد. والحكومة البريطانية الآن في هذه القضية ، الأمر الذي سيكون أكثر اطمئنانًا إذا لم تكن لا تزال تكافح للتعامل مع طالبي اللجوء في أقل من 18 شهرًا.

ولحسن الحظ ، فإن التحذيرات ستصدم الحكومات بالفعل وتحولها إلى إجراءات مفيدة. ربما يؤدي هذا إلى معايير عالمية واتفاقيات دولية ووقف للتطورات القاتلة.

في كلتا الحالتين ، أصبحت ضمائر معلمي الذكاء الاصطناعي واضحة الآن. لقد فعلوا كل ما في وسعهم. وإذا كان في يوم من الأيام ، حوالي عام 2025 ، اكتسبت الآلات بالفعل القدرة على طمسنا – آسف ، الكثير منا – أحب أن أعتقد أنه في الثواني الأخيرة ، سوف يقوم الذكاء الاصطناعي بإرسال استفسار أخير إلى العقول اللامعة التي أخطأت عن قصد في المستقبل بتكنولوجيا يمكن أن تدمرنا دون أن تعرف في تلك المرحلة كيف توقفها عن فعل ذلك.

“لماذا واصلت ، مع العلم بالمخاطر؟” يسأل SkyNet. وفي ثوانيهم الأخيرة يرد العباقرة: “ماذا تقصد؟ وقعنا على بيان “.

تابع روبرت على تويتر تضمين التغريدة وأرسله بالبريد الإلكتروني على [email protected]

يتبع تضمين التغريدة على Twitter للتعرف على أحدث قصصنا أولاً

شاركها.