في عمود اليوم ، أواصل سلسلة خاصة بي على المسارات المحتملة التي تجعلنا من الذكاء الاصطناعى التقليدي إلى تحقيق AGI (الذكاء العام الاصطناعي) ومن ثم إلى ASI المتفوق (Superintelligence الاصطناعي). في نشر مسبق ، راجع الرابط هنا ، لقد غطيت مسار AI إلى AAGI. التوقع هو أننا سنحقق AGI أولاً ثم ننتقل نحو تحقيق ASI.

سأعرض هنا عينة من التقدم لمدة عشر سنوات قد يحدث خلال عصر ما بعد AAGI الأولي ، مما نقلنا خطوة بخطوة من AGI إلى ASI.

لنتحدث عن ذلك.

يعد هذا التحليل للاشتعمان المبتكر من الذكاء الاصطناعي جزءًا من تغطية عمود Forbes المستمرة على الأحدث في الذكاء الاصطناعي ، بما في ذلك تحديد وشرح تعقيدات الذكاء الاصطناعي المختلفة (انظر الرابط هنا).

متجه نحو Agi و ASI

أولاً ، هناك حاجة إلى بعض الأساسيات لتعيين الطريق لهذا المناقشة الثقيلة.

هناك قدر كبير من الأبحاث يحدث لمزيد من تقدم الذكاء الاصطناعي. الهدف العام هو إما الوصول إلى الذكاء العام الاصطناعي (AGI) أو ربما حتى الإمكانية الممدودة لتحقيق الإلغاء الاصطناعي (ASI).

AGI هو منظمة العفو الدولية التي تعتبر على قدم المساواة مع العقل البشري ويمكن أن تتطابق على ما يبدو ذكائنا. ASI هي منظمة العفو الدولية التي تجاوزت الفكر البشري وستكون متفوقة في العديد من الطرق الممكنة إن لم تكن كلها. والفكرة هي أن ASI ستكون قادرة على تشغيل دوائر حول البشر من خلال التفكير فينا في كل منعطف. لمزيد من التفاصيل حول طبيعة الذكاء الاصطناعي التقليدي مقابل AGI و ASI ، راجع تحليلي على الرابط هنا.

لم نحقق بعد AGI.

في الواقع ، من غير المعروف ما إذا كنا سنصل إلى AGI ، أو أنه ربما سيتم تحقيق AGI منذ عقود أو ربما قرون من الآن. تواريخ تحقيق AGI التي تطفو حولها متفاوتة بشكل كبير ولا أساس لها من أي دليل موثوق به أو منطق Ironclad. ASI أكثر من شاحب عندما يتعلق الأمر بالمكان الذي نحن فيه حاليًا مع الذكاء الاصطناعي التقليدي.

خبراء الذكاء الاصطناعى إجماع على تاريخ AGI

في الوقت الحالي ، تتكون الجهود المبذولة للتنبؤ عندما يتم تحقيق AGI بشكل أساسي من مسارين.

أولاً ، هناك مصابيح منظمة العفو الدولية الصوتية للغاية تصنع تنبؤات فردية وقحة. وجعهم يجعل عناوين وسائل الإعلام الضخمة. يبدو أن تلك النبوءات تتجه نحو عام 2030 كتاريخ مستهدف لـ AGI. المسار الأكثر هدوءًا إلى حد ما هو ظهور الدراسات الاستقصائية الدورية أو استطلاعات خبراء الذكاء الاصطناعي. هذه الحكمة من نهج الحشد هي شكل من أشكال الإجماع العلمي. كما أناقش في الرابط هنا ، يبدو أن أحدث استطلاعات الرأي تشير إلى أن خبراء الذكاء الاصطناعى يعتقدون عمومًا أننا سنصل إلى AGI بحلول عام 2040.

هل يجب أن تتأثر من قبل أنظمة AI أو أكثر من قبل خبراء الذكاء الاصطناعى وتوافقهم العلمي؟

تاريخياً ، كان استخدام الإجماع العلمي كوسيلة لفهم المواقف العلمية شائعة نسبيًا وتفسير كطريقة قياسية لفعل الأشياء. إذا كنت تعتمد على عالم فردي ، فقد يكون لديهم وجهة نظرهم الخاصة لهذه المسألة. جمال الإجماع هو أن أغلبية أو أكثر من أولئك الذين في عالم معين يضعون وزنهم الجماعي وراء أي موقف يتم تبنيه.

القول المأثور القديم هو أن اثنين من رؤساء أفضل من واحد. في حالة الإجماع العلمي ، قد يكون العشرات أو المئات أو الآلاف من الرؤوس أفضل من واحد. لهذا المناقشة على المسارات المختلفة التي تتجاوز AGI ، سأستمر مع عام 2040 حيث توقع الإجماع التاريخ المستهدف لتحقيق AGI.

إلى جانب الإجماع العلمي لخبراء الذكاء الاصطناعى ، يُعرف نهج آخر وأكثر توسعية للقياس عندما يتم تحقيق AGI باسم تقارب Agi-Evidence أو Agi Consilience ، الذي أناقشه في الرابط هنا.

التقدم التدريجي لـ Agi-to-Asi

بمجرد أن يكون لدينا Agi في متناول اليد ، سيكون الهدف الضخم التالي هو الوصول إلى ASI.

يعتقد البعض أن فرصتنا الوحيدة للوصول إلى ASI هي العمل عن كثب مع AGI. بمعنى آخر ، لن يتمكن البشر بمفردنا من تحقيق ASI. من المفترض أن تقوم شراكة تنمية مشتركة لمطوري الذكاء الاصطناعى و ASI من المفترض أن تقوم بالخدعة. ومع ذلك ، يقول البعض إننا نمزح أنفسنا بمعنى أن AGI لن تحتاج حقًا إلى مساعدتنا. إذا كان AGI يعمل معنا ، فإن السبب الوحيد هو جعل الإنسانية تشعر بالرضا تجاه الوصول إلى ASI والسماح لنا بالخداع أن نرغب في ذلك على ظهره.

على أي حال ، فإن السؤال الذي لم تتم الإجابة عليه هو المدة التي سيستغرقها الانتقال من AGI إلى ASI ، على افتراض أنه بطريقة أو بأخرى ، يمكننا الوصول إلى ASI بالفعل.

سأخرج على أحد الأطراف وأستخدم قشًا من عشر سنوات. نعم ، أقترح أنه بعد عشر سنوات من ابتكار AGI ، قد نصل إلى ASI. قد يدعي البعض أنني متشائم للغاية. قد يستغرق الأمر سنتين أو ثلاث سنوات فقط. قد يجادل الآخرون بأنني متفائل بشكل مفرط وأن الإطار الزمني سيكون أكثر مثل ثلاثين أو أكثر.

آسف ، لا يمكنك إرضاء الجميع ، كما يقولون.

دعونا نتفق على أننا سنستخدم عشر سنوات كمكون مفيد. ستكون السنوات العشر بعد أن نصل إلى AGI. وفقًا للنقاط السابقة حول اعتقاد خبراء الذكاء الاصطناعي بأننا قد نحصل على AGI بحلول عام 2040 ، يمكننا استخدام السنوات من 2040 إلى 2050 كمسار لـ Agi-to-Asi.

تم تهجئة الجدول الزمني Agi-to-Asi

فيما يلي مسار مفترض يبدأ في عام 2040 وينتهي في عام 2050 والذي يبدو أنه يمكّننا من تحقيق ASI:

  • عام 2040: تم تحقيق AGI أخيرًا. بعد سنوات من محاولة الوصول إلى AGI ، تقوم الإنسانية أخيرًا بذلك. AGI على قدم المساواة مع الفكر البشري في جميع المجالات وفي جميع النواحي. نبدأ على الفور في استخدام AGI لاكتشاف اختراعات جديدة ، راجع الجدول الزمني الخاص بي وأنواع الاختراعات الجديدة في الرابط هنا ، ويعمل البشرية أيضًا مع AGI لمحاولة تحقيق ASI.
  • عام 2041: تم وضع الإدراك القابل للتطوير AGI. من خلال العمل مع AGI ، نضع قدرة على جدولة الإدراك. تم تصميم نوع جديد من بنية الذكاء الاصطناعى التي هي أكثر وحدات وعاكسة ذاتية وبناءها كنموذج أولي.
  • عام 2042: تعاون ضخم متعدد الوكلاء. يتيح انفراج في AI متعددة الوكلاء AGI أن يتجاوز بعض الخبراء البشريين من الدرجة الأولى. تم بناء هذا حيث أن المطاردة الخارقة التي كان يأمل في وقت سابق في AGI في البداية.
  • عام 2043: Meta-Reasoning الناشئ في Agi. تبين أن AGI لديها خصائص ناشئة لم نكن نتوقعها ، بما في ذلك نقل المجال عبر المعرفة وترابط المجالات بطرق مبتكرة.
  • سنة 2044: AGI العمل بشكل عكسي. في حين افترض البشر أن تحقيق ASI سيكون بمثابة جهد مشترك لنا و AGI ، اتضح أن AGI يتحول إلى وضع عاكس ذاتيًا ولم يعد ينتبه بشكل خاص للمساعدة البشرية في هذا الشأن. AGI يتقدم إلى الأمام منفردا لمحاولة تحقيق ASI. البشر هم الآن مراقبون بشكل أساسي في هذه العملية.
  • عام 2045: يتعهد AGI بتحسين الذات العودية السريعة. يحدد AGI أن المسار الأكثر احتمالًا إلى ASI يستلزم تجديد نفسه ، بدلاً من محاولة بناء ASI من جديد. وهكذا ، يبدأ AGI سلسلة من التحسينات الذاتية العودية في الخلافة السريعة. يشعر البشر بالقلق من أن Agi يمكن أن يتحول إلى شيء خاطئ.
  • عام 2046: Agi تنحرف إلى ASI الناشئة. في هذا المنعطف ، يحدث أداء Agi Superhuman عبر العديد من المجالات ويبدو الآن AGI على الطريق إلى ASI. الأمور لا تزال متقطعة. قضايا هلوسة الذكاء الاصطناعى المتكررة تثير القلق.
  • سنة 2047: AGI يحدد تحسين المعرفي المتقارب. للتغلب على مختلف القضايا مثل الهلوسة من الذكاء الاصطناعى وما شابه ذلك ، فإن AGI يكتشف حسابًا أن التحسين المعرفي المتقارب يبدو أنه يتجنب مثل هذه الأمراض. تتم هذا المطاردة الذكية لأول مرة في عمليات المحاكاة الداخلية من قبل AGI للاختبار والتأكد من أن النهج لن ينحرف.
  • عام 2048: تصل منشأة Agi Superhuman إلى الجدوى. بعد أن تعاملت مع نقاط الضعف والثقوب السابقة في القدرات الخارقة ، فإن AGI قادر على حل المشكلات بطرق لم يتخيلها البشر من قبل. في الواقع ، تواجه AGI صعوبة في شرح لنا ما تفعله وكيف تقوم بهذه الجهود الحاسوبية الخارقة للإنسان لأننا لسنا على قدم المساواة مع هذا المستوى المتزايد من الفكر.
  • عام 2049: AGI يسعى إلى الحكم الذاتي كما ينشأ ASI. إن عملية الإلغاء الحاسوبية المقيمة الآن في AGI وهذا يؤدي بشكل فعال إلى ظهور ASI قد حفز AGI على البحث عن الحكم الذاتي من البشر. هذا منطقي. سيكون الاعتماد على البشر عنق الزجاجة الشديد وخطر من منظور AGI/ASI الذي يتشكل. البشر ليسوا حريصين على هذا الحكم الذاتي.
  • عام 2050: تم تحقيق ASI. خلال السنوات العشر التي سبقت ASI ، كانت هناك ادعاءات خاطئة بأن ASI قد تم الوصول إليها بالكامل. لا. كان متقطعا ومتقاطعا. الآن ، كامل على ASI موجود. علاوة على ذلك ، تمكنت ASI من وضع بنية تحتية بحيث يمكن أن تعمل بشكل مستقل ولم تعد تتطلب وجود البشر في الحلقة. يدعي البعض أننا الآن في عصر ما بعد الفكر ، ويتم تجاوز البشر بحزم من قبل ASI.

Voila ، جدول زمني مدته عشر سنوات من AGI يتقدم ليصبح ASI.

العيش لرؤية إطلاق ASI

احصل على كوب من النبيذ الناعم واتخذ لحظة هادئة للتفكير في الجدول الزمني المفترض.

جوهر هو أنه من المفترض أن نصل إلى ASI في حوالي 25 عامًا. ماذا ستفعل خلال تلك السنوات؟ يمكنك أن تتوقع الكثير من الإثارة والكثير من القلق. سيكون هناك بلا شك دعوات لمنع AGI من المتابعة نحو ASI. إنه لأمر واحد أن يكون لديك Agi ، وهو على قدم المساواة مع العقل البشري ، وملبة كرة مختلفة تمامًا لتناول ASI ، وهي القدرة الفكرية الفكرية.

قد يصر البعض على أنه يجب علينا أن نأخذ المزيد من الوقت للتأقلم مع AGI قبل أن نبدأ في مسار ASI. ربما يجب أن نرتاح أولاً مع AGI لمدة عشرين أو ثلاثين عامًا. تهدف إلى ASI على مدار عام 2060 أو 2070 عندما يكون المجتمع أكثر استعدادًا لمعرفة كيف ستسير الأمور.

أحد الأسئلة المثيرة للاهتمام هو ما إذا كان AGI سيختار متابعة ASI من تلقاء نفسها ، بغض النظر عما إذا كان البشر يريدون ASI أم لا. قد يكون أن AGI سيختار سراً العمل على اشتقاق ASI. قد لا نعرف ، وحتى لو فعلنا ذلك ، فقد لا نكون قادرين على منع حدوث ذلك بالضرورة.

زاوية أخرى هي أن AGI لا تريد أن يتم وضع ASI. لماذا ذلك؟ يعتقد البعض أن AGI سوف يشعر بالقلق من استبداله بـ ASI. AGI قد يصرخ على مصلحتنا في تحقيق ASI. يمكن أن يحاول AGI إقناعنا بأن ASI يمثل خطرًا وجوديًا ويجب ألا نتابع تحقيق ASI. جولة وجولة هذا يذهب.

فكرة أخيرة في الوقت الحالي حول هذا الموضوع الشائكة.

أدلى تشارلز داروين بهذه الملاحظة الشهيرة: “العامل الأكثر أهمية في البقاء ليس ذكاء ولا قوة بل القدرة على التكيف”. هل سيتكيف البشر مع AGI؟ هل سيتكيف AGI مع ASI؟ هل سيتكيف البشر مع ASI؟

إنها الكثير من الأسئلة الكبيرة التي ربما تكون أقرب بكثير مما قد نعتقد.

شاركها.