المعروف باسم الأب الروحي للذكاء الاصطناعي ، يشعر جيفري هينتون بالقلق الآن بشأن التكنولوجيا التي ساعد في إنشائها. بعد العمل مع جوجل
جوجل
لمدة 10 سنوات في مشروع Google Brain ، استقال حتى يتمكن من تحذير الآخرين من مخاطر الذكاء الاصطناعي. مع بكالوريوس في علم النفس التجريبي من جامعة كامبريدج (1970) ودكتوراه في الذكاء الاصطناعي من جامعة إدنبرة (1978) ، قرر الشاب البالغ من العمر 75 عامًا إطلاق صافرة على التكنولوجيا ، مما أثار مخاوف بشأن استخدامها . ويشاركه في مخاوفه مركز أمان الذكاء الاصطناعي ، وهي منظمة مكرسة للحد من المخاطر المجتمعية الناجمة عن الذكاء الاصطناعي. فيما يلي بعض تلك المخاوف.
الخطر الأول: التطبيقات العسكرية
مع تقدم الذكاء الاصطناعي ، سيصبح أكثر ذكاءً ، ومن المحتمل أن يتفوق على العقل البشري. كتطبيق عسكري ، هناك العديد من المخاوف. في حين أن الذكاء الاصطناعي سيسمح باتخاذ قرارات أكثر ذكاءً ويقلل من الخسائر في الحرب ، إلا أنه في الأيدي الخطأ ، فإنه سيخلق ساحة لعب غير متكافئة للغاية بين الخصوم. وبالتالي ، ستهيمن الدولة ذات الذكاء الاصطناعي الأكثر تقدمًا.
الخطر الثاني: التضليل والمعلومات المضللة
لقد تعرضنا جميعًا للخداع أثناء الوباء على وسائل التواصل الاجتماعي. ومع ذلك ، فإن فن المعلومات المضللة والمعلومات المضللة سوف يزدهر مع الذكاء الاصطناعي. سيصبح من الصعب بشكل متزايد معرفة ما هو صحيح وما هو خطأ. ومن ثم ، يمكن للدول التي تمتلك أكثر أنظمة الذكاء الاصطناعي تقدمًا استخدام التكنولوجيا لتضليل مواطنيها أو مواطني دولة معادية. يمكن للسياسيين أيضًا استخدام هذه التكنولوجيا للفوز بالانتخابات. يمكن لدولة ما أن تستخدم الذكاء الاصطناعي للتأثير على الانتخابات في دولة أخرى. والنتيجة هي زيادة مستوى عدم الثقة ، الأمر الذي من شأنه أن يؤدي إلى مزيد من الاضطرابات المدنية. يمكن للذكاء الاصطناعي في الأيدي الخطأ أن يساعد في دفع الأمة إلى حافة الانهيار.
يمكن أن ينتشر خداع الذكاء الاصطناعي في المستقبل على نطاق واسع حيث تستخدمه الشركات والسياسيون لتحقيق أهدافهم. كلما أصبح الذكاء الاصطناعي أكثر تقدمًا ، وإذا أصبح تحقيق الهدف أكثر أهمية من الحقيقة ، فقد يقوض الذكاء الاصطناعي التحكم البشري. في أحد الأمثلة ، وفقًا لمركز أمان الذكاء الاصطناعي ، قامت فولكس فاجن ببرمجة محركاتها لتقليل الانبعاثات فقط عند مراقبتها. اعترفت الشركة بالذنب ووافقت على دفع تسوية بمليارات الدولارات في أوائل عام 2017.
الخطر الثالث: ضياع الوظائف
على مر السنين ، كان هناك العديد من التقنيات التي غيرت الصناعة ماديًا. ومن الأمثلة على ذلك صناعة الخيول والعربات التي تجرها الدواب وتصنيع السيارات. في الحالة الأولى ، ساعدت التكنولوجيا في إنشاء السيارات ، التي حلت محل العربات التي تجرها الخيول باعتبارها وسيلة النقل الأساسية ، مما ترك العديد من العمال عاطلين عن العمل. خلال السبعينيات ، حلت التكنولوجيا محل العديد من عمال المصانع حيث اجتاحت الأتمتة الصناعة. يمكنني بسهولة أن أتخيل يومًا يتم فيه استبدال مصنع يضم 5000 عامل بـ 50 عاملًا ، يعمل بعضهم في غرفة التحكم بينما يحتفظ آخرون بالآلات. لتعظيم الأرباح ، من المرجح أن تخفض الشركات قوتها العاملة. علاوة على ذلك ، يمكن للشركات ذات الذكاء الاصطناعي الأكثر تقدمًا أن تهيمن على صناعتها.
الخطر الرابع: الدكتاتور
يوجد اليوم الكثير ممن يسعون للسلطة والتأثير على كل شيء آخر. في يوم الجمعة ، 1 سبتمبر 2017 ، قال الرئيس الروسي فلاديمير بوتين ، متحدثًا عن الذكاء الاصطناعي ، “من سيصبح قائدًا في هذا المجال سيصبح حاكم العالم”. بعد ذلك بوقت قصير ، غرد إيلون ماسك ، “المنافسة على تفوق الذكاء الاصطناعي على المستوى الوطني (هي) السبب الأكثر ترجيحًا للحرب العالمية الثالثة”.
مع تقدم الذكاء الاصطناعي ، من غير المرجح أن يوافق جميع قادة العالم على اللعب بلطف. وبالتالي ، يمكن أن تصبح التكنولوجيا التي تتمتع بالعديد من الفوائد الرائعة بمثابة تراجع لنا. وستكون كذلك إذا لم نتمكن من تثبيت ضمانات كافية لحماية البشرية.