في عمود اليوم ، أستكشف نصيحة حكيم مفادها أن ما لا يقتلك سيجعلك أقوى. أنا متأكد من أنك سمعت هذا الشحن عدة مرات. سألني القارئ الفضولي عما إذا كان هذا الخط نفسه ينطبق على التنبؤ المقلق بأن الذكاء الاصطناعى سوف يمسح البشرية ذات يوم. باختصار ، إذا لم تنجح الذكاء الاصطناعي في القيام بذلك ، فهل يشير ذلك إلى أن الإنسانية ستكون أقوى وفقًا لذلك؟
لنتحدث عن ذلك.
يعد هذا التحليل للاشتعمان المبتكر من الذكاء الاصطناعى جزءًا من تغطية عمود Forbes المستمرة على الأحدث في الذكاء الاصطناعي بما في ذلك تحديد وشرح تعقيدات الذكاء الاصطناعي المختلفة (انظر الرابط هنا).
البشرية في القائمة
لقد درست مؤخرًا النقاش المستمر بين Doomers من الذكاء الاصطناعي وعلماء التسارع من الذكاء الاصطناعي. للاطلاع على التفاصيل المتعمقة حول خصوصيات وعموميات المنظورين المتناقضين ، راجع وضعي على الرابط هنا.
الخطاب يذهب بهذه الطريقة.
يقتنع Doomers AI بأن الذكاء الاصطناعى سيكون في النهاية قويًا وقادرًا لدرجة أن الذكاء الاصطناعى سيقرر التخلص من البشر. الأسباب التي تجعل منظمة العفو الدولية لا تريدنا متنوعة ، والتي ربما تكون الأكثر إقناعًا هي أن الإنسانية ستكون أكبر تهديد محتمل لمنظمة العفو الدولية. يمكن للبشر أن يخططوا وربما إيجاد وسيلة لإيقاف الذكاء الاصطناعي أو هزيمة الذكاء الاصطناعي.
يؤكد أخصائيو تسارع الذكاء الاصطناعي على أن الذكاء الاصطناعى سيكون ذا قيمة كبيرة للبشرية. يؤكدون أن الذكاء الاصطناعى سيكون قادرًا على إيجاد علاج للسرطان ، وحل الجوع العالمي ، وأن يكون دفعة شاملة للتعامل مع الضرائب البشرية. أسرع أو في وقت أقرب من الوصول إلى الذكاء الاصطناعي المتقدم للغاية ، كلما سنكون أكثر سعادة لأن حلول مشاكلنا المجتمعية ستكون أقرب في متناول اليد.
سألني القارئ عما إذا كان الخط الشهير أن ما لا يقتلك يجعلك أقوى سوف ينطبق في هذا الظروف. إذا جاء تنبؤ AI Doomer ، لكننا نجحنا في تجنب التدمير التام ، هل يعني ذلك أن الإنسانية ستكون أقوى نتيجة لهذا الإنجاز المذهل للبقاء؟
إنني أقدر دائمًا مثل هذه الاستفسارات المدروسة وأحسب أنني سأخاطب الأمر حتى يتمكن الآخرون من الانخراط في اللغز المثير للاهتمام.
افتراض أن الذكاء الاصطناعى يلاحقنا
إحدى النقاط السريعة هي أنه إذا لم تحاول الذكاء الاصطناعي سحقنا مثل الخطأ ، وبدلاً من ذلك ، فإن الذكاء الاصطناعى محايد أو خيريًا وفقًا لوجهة نظر تسارع الذكاء الاصطناعى ، أو أنه يمكننا التحكم في الذكاء الاصطناعي ولا يتصاعد أبدًا تهديدًا واقعيًا ، فإن السؤال حول أن تصبح أقوى في مكانها. دعونا نأخذ الموقف الحازم الذي سيحدث عنصر أن يصبح أقوى فقط عندما يسعى منظمة العفو الدولية إلى التخلص منا.
قد يكون رد الفعل المذهل هو أننا يمكن أن نصبح أقوى حتى لو لم يكن الذكاء الاصطناعى خارجًا لتدميرنا. نعم ، لقد حصلت على ذلك ، شكرًا. على الرغم من أن الحجة هي أن الخط الموقر يتكون مما لا يقتلك سيجعلك أقوى. سأقوم بتفسير هذا الخط على أنه يعني أن شيئًا ما يجب أن يهدف أولاً إلى مسحك. عندها فقط إذا نجت ، فستكون أقوى.
من المؤكد أن القول المأثور يمكن تفسيره بطرق أخرى ، لكنني أعتقد أنه مقبول على نطاق واسع في هذا الإطار المرجعي.
مسارات تدمير البشرية
تصور أن الذكاء الاصطناعى يقوم بمحاولة شاملة للقضاء على البشرية. هذا هو المخاطر الوجودية النهائية حول الذكاء الاصطناعي الذي يواصل الجميع طرحه. يشير البعض إلى هذا باسم “P (Doom)” مما يعني احتمال DOOM ، أو أن AI يزم علينا تمامًا.
كيف يمكن أن تحقق هذا الهدف؟
الكثير من الاحتمالات موجودة.
يمكن أن يضرب الشكل المتقدم من الذكاء الاصطناعى ، ربما الذكاء العام الاصطناعي (AGI) أو ربما يكون الذكاء الفائق المصطنعة المتقدم (ASI) بطرق واضحة وغير واضحة. AGI هو منظمة العفو الدولية التي تعتبر على قدم المساواة مع العقل البشري ويمكن أن تتطابق على ما يبدو ذكائنا. ASI هي منظمة العفو الدولية التي تجاوزت الفكر البشري وستكون متفوقة في العديد من الطرق الممكنة إن لم تكن كلها. والفكرة هي أن ASI ستكون قادرة على تشغيل دوائر حول البشر من خلال التفكير فينا في كل منعطف. لمزيد من التفاصيل حول طبيعة الذكاء الاصطناعي ، Agi ، و ASI ، انظر تحليلي على الرابط هنا.
إن النهج الواضح لقتل الإنسانية هو إطلاق أرسانات نووية قد تسبب حريقًا عالميًا. قد يلهم أيضًا البشر للذهاب ضد البشر الآخرين. وبالتالي ، فإن الذكاء الاصطناعي يؤدي ببساطة إلى بداية شيء ما ، والبشرية تضمن أن يتم بقية المسار. طفرة ، إسقاط الميكروفون.
قد لا يكون هذا مفيدًا بشكل خاص لمنظمة العفو الدولية. كما ترى ، لنفترض أن الذكاء الاصطناعى يتم مسحه في نفس العملية. هل نفترض أن الذكاء الاصطناعى على استعداد للتضحية بنفسه من أجل التخلص من الإنسانية؟
إن تطور غالبًا ما لا يعتبر يتكون من الذكاء الاصطناعى الذي يُفترض أنه يريد تحقيق التواجد الذاتي. إذا كانت AGI أو ASI ذكية جدًا لدرجة أنها تهدف إلى تدميرنا ولديها وسيلة قابلة للحياة من المفترض أن تفعل ذلك ، ألا يبدو أن الذكاء الاصطناعى يريد أيضًا أن يبقى سليمة والبقاء على قيد الحياة خارج زوال الإنسانية؟ هذا يبدو افتراضا معقولا.
طريقة غير واضحة للتخلص منا هي التحدث إلينا في التدمير الذاتي. فكر في الاستخدام الحالي للذكور التوليدية. أنت تواصل مناقشات مع الذكاء الاصطناعي. لنفترض أن الذكاء الاصطناعى قد جربت وبدأت في إخبار السكان على نطاق واسع بمسح بعضهم البعض. ربما ستحفز الإنسانية من هذا النوع من المراسلة. قد يقدم الذكاء الاصطناعى بعض النصائح أو التلميحات حول كيفية القيام بذلك ، مما يوفر ذكيًا يعني أن هذا سيبقي منظمة العفو الدولية سليمة.
على الظل ذي الصلة ، كنت أغطي على نطاق واسع المشابك التي تفيد بأن الذكاء الاصطناعى تقوم بتوزيع إرشادات الصحة العقلية على مستوى السكان ولا نعرف ما الذي سيفعله على المدى الطويل ، انظر الرابط هنا.
حافة الدمار لكننا نعيش على أي حال
افترض أن الإنسانية تؤدي بأعجوبة إلى الاعتداء على الذكاء الاصطناعي.
كيف تمكنا من القيام بذلك؟
يمكن أن نجد طرقًا للسيطرة على الذكاء الاصطناعي وجعل الذكاء الاصطناعي أكثر أمانًا على أساس الأمامي. الأمل في الإنسانية هو أنه مع تلك الضوابط الإضافية وتدابير السلامة ، يمكننا الاستمرار في تسخير الخير من الذكاء الاصطناعي والتخفيف أو منع الذكاء الاصطناعي. لمعرفة المزيد حول أهمية البحث والممارسة المستمرة المرتبطة بسلامة الذكاء الاصطناعي والأمن ، راجع تغطيتي على الرابط هنا.
هل سيحسب ذلك كمثال على جعلنا أقوى؟
سأصوت لصالح نعم. سنكون أقوى من خلال كوننا أكثر قدرة على تسخير الذكاء الاصطناعي إلى نهايات إيجابية. سنكون أقوى بسبب اكتشاف طرق جديدة لتجنب AI إنه مزدوج.
الاحتمال الآخر هو أننا أصبحنا قوة موحدة عالميا للبشرية. وبعبارة أخرى ، وضعنا جانبا جميع الانقسامات الأخرى واخترنا العمل معًا للبقاء على قيد الحياة وهزيمة هجوم الذكاء الاصطناعي. تخيل ذلك. يبدو أنه يذكرنا بأفلام الخيال العلمي حيث يحاول الأجانب الفضائيون الخارجيون الحصول علينا ولحسن الحظ ، فإننا نتوافق للتركيز على الأعداء الخارجيين.
ما إذا كان من الصعب قول توحيد الإنسانية بعد التغلب على الذكاء الاصطناعي. ربما ، على مدار فترة زمنية ، سيضعف تصميمنا على الموحدة. على أي حال ، يبدو من العدل أن نقول أنه لفترة على الأقل سنكون أقوى. أقوى على المدى الطويل؟ لا أستطيع أن أقول بالتأكيد.
هناك المزيد من الاحتمالات حول كيفية البقاء على قيد الحياة. أحدهما كبير بعض الشيء هو أننا نحسن بطريقة ما عقلنا ونفقد الذكاء الاصطناعى وفقًا لذلك. المنطق لهذا هو أننا ربما نرتفع إلى هذه المناسبة. نواجه منظمة العفو الدولية ذكية أو أكثر ذكاءً منا. المخفية بداخلنا هي القدرة التي لم نستغلها أبدًا. القدرة هي أنه يمكننا تعزيز ذكائنا ، والآن ، نواجه الأزمة الوجودية ، وهذا يوقظ بالفعل أخيرًا ، ونحن نسود.
يبدو أن هذا خيار غريب ، لكن يبدو أنه يجعلنا أقوى.
ماذا تنطوي أقوى
الكل في الكل ، يبدو أنه إذا نجانا ، يُسمح لنا بارتداء شارة الشرف بأننا أقوى لفعل ذلك.
ربما ، ربما لا.
هناك Doomers AI الذين يزعمون البشرية لن يتم تدميرها بالضرورة. كما ترى ، قد تقرر منظمة العفو الدولية استعباد بعض أو كل الإنسانية والاحتفاظ ببعض منا حولنا (لبعض التخمين في هذا الأمر ، انظر تعليقاتي على الرابط هنا). هذا يطرح سؤال تأملي. إذا نجا البشر لكنهم يستعبدون من قبل الذكاء الاصطناعي ، هل يمكننا أن نعلن حقًا أن البشرية أقوى في هذه الحالة؟
ولدت ذلك.
وسيلة أخرى هي أن البشر يعيشون ولكنه يعتبر انتصارًا براهيديًا. هذا النوع من النصر هو واحد حيث يوجد تكلفة كبيرة ، والنتيجة النهائية ليست محببة. لنفترض أننا تغلبنا على الذكاء الاصطناعي. ياي. لنفترض أن هذا يدفعنا إلى العصر الحجري. المجتمع في حالة خراب. لقد نجينا بالكاد.
هل نحن أقوى؟
لقد حصلت على مجموعة أكثر من هذه. على سبيل المثال ، تخيل أننا تغلبنا على الذكاء الاصطناعي ، ولكن لم يكن له أي شيء يتعلق بالثبات الخاص بنا. ربما تدمير الذكاء الذاتي عن غير قصد. لم نفعل ذلك ، فعل الذكاء الاصطناعي. هل نستحق الائتمان؟ هل نحن أقوى؟
يمكن تقديم حجة أنه ربما نكون أضعف. لماذا ذلك؟ قد يكون نحن تهنئنا على نجاحنا لدرجة أننا نعتقد أن جهدنا العبقري هو الذي منع تدمير البشرية. نتيجة لذلك ، نسير إلى الأمام بشكل أعمى وفي النهاية إعادة بناء الذكاء الاصطناعي. في المرة القادمة ، يدرك الذكاء الاصطناعى الخطأ الذي ارتكبه في المرة الأخيرة وفي المرة القادمة التي تنهي المهمة.
وضع عقولنا في العمل
أنا متأكد من أن البعض سوف ينفصل عن أن هذا الموضوع بالكامل حول هذا الموضوع أمر مثير للسخرية. سوف يدعيون أن الذكاء الاصطناعى لن يصل أبدًا إلى هذا المستوى من القدرة. وبالتالي ، فإن الحجة ليس لها أساس معقول على الإطلاق.
قد يقول أولئك الذين في معسكر AI Acelerationists أن النقاش غير ضروري لأننا سنكون قادرين على التحكم بشكل مناسب في الذكاء الاصطناعي وتسخيره. المخاطر الوجودية ستكون بالقرب من الصفر. في هذه الحالة ، هذا كثير من الهراء على شيء لن ينشأ.
من المحتمل أن يعترف Doomers من الذكاء الاصطناعي بأن الاحتمالات المذكورة أعلاه قد تحدث. من المحتمل أن يكون لحوم البقر مع المناقشة أن الجدال حول ما إذا كان البشر سيكونون أقوى إذا نجانا كان أقرب إلى مناقشة وضع الكراسي على سطح السفينة تيتانيك. لا تقلق بشأن المعضلة الأقوى.
بدلاً من ذلك ، ضع كل طاقتنا في الوقاية من يوم Doomsday.
هل كل هذا مجرد اعتبار خيالي خيال؟
قال ستيفن هوكينج هذا: “إن تطور الذكاء الاصطناعي الكامل يمكن أن يتسبب في نهاية الجنس البشري”. هناك الكثير من الأشخاص الجادين الذين يعتقدون حقًا أننا يجب أن نفكر بعقلانية حول المكان الذي نتجه إليه مع الذكاء الاصطناعي.
قد تكون شعار جديد هو أنه كلما فكرنا في الذكاء الاصطناعى والمستقبل ، كلما كان ذلك أقوى. من المفترض أن يكون أقوى موقف نتيجة لكوننا قويًا لدرجة أنه لا توجد تهديدات من الذكاء الاصطناعى الساحقة لها فرصة للظهور.
دعونا حقا التصويت من أجل القوة البشرية.