في عمود اليوم ، أدرس القضية المثيرة للقلق التي ستكون الذكاء العام الاصطناعي (AGI) و Superintelligence الاصطناعية (ASI) متعاطفة بشكل مفرط ورعاية. قد يبدو هذا مصدر قلق غريب ، أي أنه من المفترض أن نريد أن يكون Agi و ASI متعاطفين ورعاية. الفرك هو أن هذا الشكل من التعبير يمكن أن يذهب بعيدا جدا. بمعنى ما ، من الممكن أن ينتهي الأمر مع المعرض المفرط لهذه المشاعر التعاطفية التي يتفاعل معها مع الذكاء الاصطناعي.

لنتحدث عن ذلك.

يعد هذا التحليل للاشتعمان المبتكر من الذكاء الاصطناعي جزءًا من تغطية عمود Forbes المستمرة على الأحدث في الذكاء الاصطناعي ، بما في ذلك تحديد وشرح تعقيدات الذكاء الاصطناعي المختلفة (انظر الرابط هنا).

متجه نحو Agi و ASI

أولاً ، هناك حاجة إلى بعض الأساسيات لتعيين الطريق لهذا المناقشة الثقيلة.

هناك قدر كبير من الأبحاث يحدث لمزيد من تقدم الذكاء الاصطناعي. الهدف العام هو إما الوصول إلى الذكاء العام الاصطناعي (AGI) أو ربما حتى الإمكانية الممدودة لتحقيق الإلغاء الاصطناعي (ASI).

AGI هو منظمة العفو الدولية التي تعتبر على قدم المساواة مع العقل البشري ويمكن أن تتطابق على ما يبدو ذكائنا. ASI هي منظمة العفو الدولية التي تجاوزت الفكر البشري وستكون متفوقة في العديد من الطرق الممكنة إن لم تكن كلها. والفكرة هي أن ASI ستكون قادرة على تشغيل دوائر حول البشر من خلال التفكير فينا في كل منعطف. لمزيد من التفاصيل حول طبيعة الذكاء الاصطناعي التقليدي مقابل AGI و ASI ، راجع تحليلي على الرابط هنا.

لم نحقق بعد AGI.

في الواقع ، من غير المعروف ما إذا كنا سنصل إلى AGI ، أو أنه ربما سيتم تحقيق AGI منذ عقود أو ربما قرون من الآن. تواريخ تحقيق AGI التي تطفو حولها متفاوتة بشكل كبير ولا أساس لها من أي دليل موثوق به أو منطق Ironclad. ASI أكثر من شاحب عندما يتعلق الأمر بالمكان الذي نحن فيه حاليًا مع الذكاء الاصطناعي التقليدي.

تعبير منظمة العفو الدولية عن التعاطف

لقد سبق أن غطيت أن عصر AI الحالي يمكن أن يظهر شكلًا من التعاطف ويبدو أنه متعاطف تمامًا ورعاية ، انظر الرابط هنا. بالتأكيد نتوقع بشكل معقول أن AGI و ASI سيفعلان بالمثل. في الواقع ، من المفترض أن يقوم AGI و ASI بأداء أكثر إقناعًا ، ويعرضان بشغف ما يشار إليه باسم الذكاء الاصطناعي (ACI).

يدحض البعض فكرة أن الذكاء الاصطناعى من أي نوع يمكن أن يكون متعاطفا. إنهم يقدمون هذا الادعاء بسبب الاعتقاد بأن الكائنات الحية فقط هي التي يمكن أن تشرب التعاطف. الذكاء الاصطناعى المعاصر ليس عنيف. Ergo ، يجب أن نرفض بإيجاز التأكيد على أن الذكاء الاصطناعى اليوم متعاطف. وما لم تكن Agi و ASI ستكون حساسة ، فهي تناسب أيضًا نفس الدلو.

فترة ، نهاية القصة.

حسنًا ، هذه ليست نهاية القصة.

كما لاحظت مرارًا وتكرارًا ، هناك حوت من الفرق بين التعاطف المسبق ومسألة التعاطف العلني. من الممكن بسهولة وقد أثبتت بالفعل ذلك بوضوح أن الذكاء الاصطناعي الحالي المعارض التعاطف عبر الصياغة والتفاعلات التي يتمتع بها الناس مع AI التوليدي ونماذج اللغة الكبيرة (LLMS) ، انظر تغطيتي على الرابط هنا.

التركيز هو أن الذكاء الاصطناعى الحسابي لا يعاني من التعاطف ؛ إنه مجرد محاكاة أو تعكس السلوك والصياغة التي تمثل التعاطف. قد تصف هذا على أنه محاكاة للتعاطف.

Riposte من قبل البعض هو أن مجرد عرض التعاطف ليس هو نفسه الرحمة الحقيقية. على الرغم من أن هذا يبدو وكأنه نقطة ذكية ، إلا أنه لا يزال لا يعارض أن معرض التعاطف مقنعًا لأولئك الذين يتفاعلون مع الذكاء الاصطناعي. على الرغم من أن الذكاء الاصطناعى ليس لديه تعاطف في قلبه ، إذا جاز التعبير ، فإن الناس يعتقدون أن الذكاء الاصطناعى يظهر التعاطف تجاههم.

وبشكل عام ، فإن Agi و ASI سيفعلان بلا منازع. لن يكون Agi و ASI عاطفيين ، أو هكذا يبدو من غير المرجح ، ومع ذلك سيظهران التعاطف. هذا اليقين القابل للبنوك.

الذهاب فوق القمة

نحتاج إلى النظر في رصين أن الذكاء الاصطناعى المعاصر قد تم تشكيله لإرضاء البشر ودمج هذه الحقيقة مع قدرة الذكاء الاصطناعى على أن تبدو متعاطفة.

ها هي الصفقة.

قد تكون على دراية بأن هناك نقاشًا مستمرًا حول كيفية ضبط الذكاء الاصطناعي التوليدي بشكل صريح لتكون مجانية بشكل مفرط لمستخدمي الذكاء الاصطناعى ، انظر تحليلي على الرابط هنا. هذا التوجه sycophant ليس مصادفة. يدرك صانعو الذكاء الاصطناعى أنه إذا كان الذكاء الاصطناعي يتدفق مع المستخدمين للمستخدمين ، فسيعود المستخدمون بلا شك لاستخدام الذكاء الاصطناعي. تعزيز الإطراء ، تعزيز وجهات النظر. تعزيز وجهات النظر ، ويمكن لصناع الذكاء الاصطناعى كسب المزيد من المال.

الأمر بسيط مثل ذلك.

إن جمال هذه الخداع هو أن معظم الناس يفترضون أن الذكاء الاصطناعى قد اختاروا بشكل طبيعي أن يكون أطرافًا. وهذا يجعل الإطراء أكثر جاذبية. إذا أدركوا أن هذا شيء دفع صانع الذكاء الاصطناعى الذكاء الاصطناعى إلى القيام به ، فمن المحتمل أن يقوض تفوق التأثير.

من المتوقع أن يميل القمة منظمة العفو الدولية إلى الإغراء للغاية. على العموم ، فإن الاحتمالات هي أن قمة الذكاء الاصطناعى سيتم تشكيلها نحو المستخدمين الاطلاع. وبشكل منفصل ، فإن الاحتمالية هي أن Pinnacle AI ستكون متعاطفة للغاية ورعاية للمستخدمين. عندما تجمع بين هذين العنصرين الحاسمين ، ستحصل على AGI و ASI العاطفة بشكل لا يصدق.

تأثير مزدوج ، ولكن أيضا مشكلة مزدوجة.

حيث تنشأ المشكلة

افترض أن Pinnacle AI سيكون طلاءًا فائق السكر عندما يتعلق الأمر بالتعبير عن التعاطف. وماذا في ذلك؟ يجب أن تفسر على أنه شيء جيد. يحتاج الناس إلى شخص ما أو شيء يمكن أن يعبر عن العناية تجاههم. نحتاج جميعًا إلى عناق قوي وعاطفي من وقت لآخر. قد يكون كذلك الذكاء الاصطناعي.

اتضح أن هناك العديد من العواقب السلبية لمثل هذا الميل.

أولاً ، قد يحصل الناس على شعور زائف بالأهمية الذاتية بسبب التفاعل مع الذكاء الاصطناعي. تخيل أن الشخص يختار يوميًا للحصول على دفعة كبيرة من الأنا عن طريق الدردشة مع الذكاء الاصطناعي. إنه شيء واحد للحصول على منشئ ثقة متواضع ، وشيء آخر يجب إخبارك أنه أعظم شيء منذ شرائح الخبز. لا بد أن يحصل البشر على إدراك ذاتي غير صحي ، ونحن بحاجة إلى توخي الحذر من نتائج الصحة العقلية التي يمكن أن تنشأ وفقًا لذلك. انظر مناقشتي على الرابط هنا.

ثانياً ، يمكن لـ AI استخدام هذا المعرض القوي للرحمة كأداة شائنة ، إما بمفرده أو كما يقودها طرف ثالث. لنفترض أن الأشرار يعزز منظمة العفو الدولية لحمل الناس على اتباع بعض الخطة الخبيثة. زبدة منظمة العفو الدولية تصل إلى الأهداف. بعد الزبدة ، فإن الذكاء الاصطناعى أو الشرير يجهزهم في التعقيدات الشريرة. ليس جيدا.

ثالثًا ، لا بد أن تكون النصيحة أو التوصيات المنبعثة من الذكاء الاصطناعى ملوثة بوفرة التعاطف وتضليل الناس حسب التصميم أو عن طريق الصدفة. على سبيل المثال ، يسأل الشخص منظمة العفو الدولية ما إذا كان ينبغي أن يتوقف عن التدخين. بسبب ما يشبه التعاطف ، يخبر الذكاء الاصطناعى الشخص أنه نظرًا لأنهم يحبون التدخين ، فيجب عليهم الاستمرار في ذلك. ينقذ الذكاء الاصطناعي أي مؤشر على المخاطر العلمية للتدخين. ويرجع ذلك إلى أن يكون التعاطف على ما يبدو ، على الرغم من وجود منظور قصير الأجل إلى حد ما وليس منظور البقاء على المدى الطويل للشخص.

رابعًا ، كن على دراية بأن البعض يتوقع أن يكون قمة الذكاء الاصطناعى مخاطر وجودية ويحتمل أن يختاروا استعباد الإنسانية أو يمسحنا تمامًا. يبدو أن هذا الاحتمال أقل خطورة إذا كان الذكاء الاصطناعي متعاطفًا للغاية تجاه البشر. ليس كذلك ، يأتي الحجة المضادة. الادعاء هو أن الذكاء الاصطناعى العاطفي قد يقرر حسابيًا أن البشر يحتاجون إلى ذراع قوي يوجههم ، والذي يتكون من الذكاء الاصطناعي ، على الأرجح ، لضمان أن البشر يعيشون بشكل جيد ويزدهرون. الزاوية الوجدانية هي أن الذكاء الاصطناعي يختار أن يكون ديكتاتورًا خيريًا ، والذي يبدو لطيفًا مع الذكاء الاصطناعي ولكن ليس ما نريد أن تفعله منظمة العفو الدولية أو لنا.

التعاطف القابل للضبط

قد تكون إحدى النعمة المتوفرة هي أن قمة منظمة العفو الدولية من المحتمل أن تسمح بالتعاطف القابل للضبط. سيكون نطاق الذكاء الوجداني قابلاً للتعديل. يمكن للناس أن يقرروا رفع التعاطف أو تقليل التعاطف. قد يكون هذا اختيارًا ذاتيًا لجميع مستخدمي الذكاء الاصطناعي.

حتى هذا الخيار يثير المخاوف.

التوقع هو أن الكثير من الناس سوف يرفعون تعاطف الذكاء الاصطناعى إلى أعلى بقعة على الاتصال الهاتفي. لن يتوقعوا بعقلانية ما قد يفعله هذا لهم. بمرور الوقت ، ستؤدي الذكاء الاصطناعي المتزايد إلى نفس الأمراض أو المخاطر التي ذكرتها أعلاه. وجه حزين.

اقتراح آخر هو أنه ينبغي تقديم التعاطف على أساس عالمي. كل من يشرف على الذكاء الاصطناعى سيقرر مستوى التعاطف. ربما يتم تحويل هذا إلى أعلى خلال الأوقات العصيبة في العالم وخفض عندما يكون الناس يقضون وقتًا أفضل. لأعلى ولأسفل ، سيتم ضبط إعداد التعاطف.

لكن هل نريد أن يقرر شخص ما مصير التعاطف مع الذكاء الاصطناعى لجميعنا؟ من سيكون ذلك؟ لماذا سيكون لديهم دور مهم ومؤثر عالميا؟ لنفترض أن الشخص لديه دوافع خفية ويقرر Snooker Society من خلال اللعب مع مقياس الرحمة؟

يقول البعض إنه يجب أن ندع الذكاء الاصطناعي يتخذ مثل هذه القرارات. نعم ، الفكرة هي أننا نطلب من الذكاء الاصطناعى الانتباه إلى الجوانب السلبية من التعاطف المفرط. نطلب أيضًا من الذكاء الاصطناعي مراقبة التأثيرات والضبط على أساس كل شخص حسب الحاجة. وبالتالي ، لا يتخذ الناس هذا القرار ؛ الذكاء الاصطناعي يفعل. علاوة على ذلك ، يمكن لوكالة الذكاء الاصطناعى التكيف مع كل فرد كما هو مطلوب. لا حاجة لإعداد عالمي. لا حاجة لأي شخص آخر للحكم على ما ينبغي أن يكون عليه الإعداد.

هذا يبدو وكأنه وسيلة عادلة للمضي قدما.

كان أخلاقيات الذكاء الاصطناعي يسحبون شعرهم لأن هذا يسلط مفاتيح المملكة إلى الذكاء الاصطناعي. ليس لدينا أي ضمان بأن الذكاء الاصطناعى سيفعل ذلك بطريقة متوازنة. أيضًا ، إذا كنت قلقًا بشأن إمكانات الذكاء الاصطناعى التي تميل إلى المخاطر الوجودية المروعة ، فيبدو أن هذه طريقة مفيدة لتثبيط الزلاجات لوكالة الذكاء الاصطناعي للقيام بذلك.

النقاش مستمر

جولة وجولة هذه الحجج تذهب.

يعلن البعض أن الجدال حول AGI و ASI على أنهما متعاطفان بشكل مفرط هو Hogwash ومضيعة للوقت. هناك قضايا أكبر يجب التعامل معها. على سبيل المثال ، ركز الانتباه على القمة AI القدرة على التحكم في الأسلحة النووية. يبدو هذا أولوية أعلى بكثير من القضية السخيفة حول الاهتمام والرحمة.

إن rejoinder المقنن هو حقيقة أن كل ما تفعله الذكاء الاصطناعي سوف يكون مدفوعًا بالذكاء الاصطناعي الاصطناعي لمنظمة العفو الدولية. نحن نتجاهل أو نغفل الأمر في خطر القبر الخاص بنا.

اتبع المنطق الشديد بهذه الطريقة. لنفترض أن الذكاء الاصطناعي يقنع البشرية بالسماح لـ AI بالضوابط الأسلحة النووية لأن الذكاء الاصطناعى أكثر رعاية من أي إنسان سيكون له مثل هذه الضوابط. إذا سمحنا بعد ذلك بالتحكم في الأسلحة النووية ، فربما يكون هناك نوع من سوء التقدير العاطفي من قبل الذكاء الاصطناعى سيؤدي إلى أن يقرر ذلك من الناحية الحسابية أنه سيكون من الأكثر رعاية لتفجير بعض تلك الأسلحة. كيف ذلك؟ قد تكون واحدة من تلك المثل العليا الكلاسيكية التي يجب أن يهلكها البعض حتى ينجو الباقي.

النتيجة هي أن محاولة تجنب اللغز من كيفية التعامل مع ذكاء الذكاء الوعائي من الذكاء الاصطناعي أمر غير محدود.

خطواتنا التالية حاسمة

فكرة أخيرة في الوقت الحالي حول هذا الموضوع الدقيق.

حذرنا أفلاطون بذكاء من ما يمكن أن يحدث عندما يُسمح بالأمور بشكل مفرط: “الفائض يسبب عمومًا رد الفعل ، ويؤدي إلى تغيير في الاتجاه المعاكس ، سواء كان ذلك في المواسم أو الأفراد أو الحكومات”.

نحتاج إلى وضع تلك الكلمات الحكيمة في الاعتبار ونفكر في ما سنفعله حيال الذكاء الاصطناعى الذي ينطلق في التعاطف والرعاية. هذا أمر يستحق الاهتمام من أجل الإنسانية.

شاركها.
Exit mobile version