في عمود اليوم، أدرس اكتشافًا مذهلاً إلى حد ما، وهو أنه لا يتعين على البشر فقط معرفة ما إذا كانوا على استعداد للثقة في الذكاء الاصطناعي، ولكن في سياق مماثل، يجب على الذكاء الاصطناعي معرفة ما إذا كان عليهم أن يثقوا في البشر. نعم، الحذاء على القدم الأخرى في هذا الصدد. سيكون هذا بارزًا بشكل خاص عندما نطور الذكاء الاصطناعي لتحقيق الذكاء الاصطناعي العام (AGI). عند هذه النقطة، تشير التوقعات إلى أن الكوكب بأكمله تقريبًا سيستخدم الذكاء الاصطناعي العام يوميًا. سيتعين على الذكاء الاصطناعي العام أن يقرر حسابيًا أي من سكان الأرض البالغ عددهم 8 مليارات شخص جدير بالثقة وأيهم لا يستحق ذلك.

دعونا نتحدث عن ذلك.

يعد هذا التحليل للاختراق المبتكر في الذكاء الاصطناعي جزءًا من تغطية عمود فوربس المستمرة حول أحدث التطورات في مجال الذكاء الاصطناعي، بما في ذلك تحديد وشرح مختلف تعقيدات الذكاء الاصطناعي المؤثرة (انظر الرابط هنا).

التوجه نحو AGI وASI

أولاً، هناك حاجة إلى بعض الأساسيات لتمهيد الطريق لهذه المناقشة المهمة.

هناك قدر كبير من الأبحاث الجارية لتعزيز تقدم الذكاء الاصطناعي. الهدف العام هو إما الوصول إلى الذكاء الاصطناعي العام (AGI) أو ربما حتى الإمكانية الممتدة لتحقيق الذكاء الاصطناعي الفائق (ASI).

AGI هو الذكاء الاصطناعي الذي يعتبر على قدم المساواة مع الذكاء البشري ويمكن أن يضاهي ذكائنا على ما يبدو. ASI هو الذكاء الاصطناعي الذي تجاوز حدود الذكاء البشري وسيكون متفوقًا في العديد من الطرق الممكنة، إن لم يكن جميعها. الفكرة هي أن ASI سيكون قادرًا على الدوران حول البشر من خلال التفوق علينا في التفكير عند كل منعطف. لمزيد من التفاصيل حول طبيعة الذكاء الاصطناعي التقليدي مقابل AGI وASI، راجع تحليلي على الرابط هنا.

لم نصل بعد إلى الذكاء الاصطناعي العام.

في الواقع، من غير المعروف ما إذا كنا سنصل إلى الذكاء الاصطناعي العام، أو أنه ربما يمكن تحقيق الذكاء الاصطناعي العام خلال عقود أو ربما قرون من الآن. تتنوع تواريخ تحقيق الذكاء الاصطناعي العام (AGI) بشكل كبير ولا يتم دعمها إلى حد كبير بأي دليل موثوق به أو منطق صارم. ASI هو أكثر من مجرد شاحب عندما يتعلق الأمر بالوضع الذي نحن فيه حاليًا مع الذكاء الاصطناعي التقليدي.

يجب أن يصدق AGI جميع البشر

دعونا نتناول مسألة الذكاء الاصطناعي العام وكيف ينبغي أن يختار الثقة في البشر.

يعتقد البعض أنه بما أن البشر هم من صنعوا الذكاء الاصطناعي العام، فيجب أن نتوقع أن يثق الذكاء الاصطناعي العام في جميع البشر. الفكرة هي أن الذكاء الاصطناعي العام يحتاج إلى إدراك أن البشر هم في قمة الترتيب الهرمي. مهما طلب الإنسان من AGI أن تفعل، يا إلهي، يجب على AGI أن ينفذ الأمر أو التعليمات المقدمة بشكل موجز.

الفترة، نهاية القصة.

حسنا، هذه ليست نهاية القصة.

أنا متأكد من أنك تستطيع تخمين السبب وراء عدم كون هذه الفكرة هي أفضل طريقة لحل هذه المعضلة الشائكة. تخيل أن أحد الأشرار يصل إلى الذكاء الاصطناعي العام ويطلب منه ابتكار سلاح بيولوجي جديد. بموجب القاعدة التي تنص على أن الذكاء الاصطناعي العام يجب أن يثق في جميع البشر، فإن الذكاء الاصطناعي العام يتقدم بسهولة ويصنع سلاحًا بيولوجيًا قويًا بشكل مرعب. الشرير يشكر AGI على المساعدة المفيدة. والشيء التالي الذي تعرفه هو أن الشرير يطلق العنان لسلاح بيولوجي ويضر البشرية بشدة.

ليس جيدا.

طيف الجدارة بالثقة

ليس هناك شك في أن المظهر الشامل للثقة في جميع البشر هو أمر غير حكيم. لا يقتصر الأمر على أن مثال فاعل الشر يوضح الخلل في مثل هذا المبدأ، ولكن يمكننا أيضًا النظر في زاوية أخرى تعزز الشكوك حول مثل هذه القاعدة المبتذلة.

تسير الأمور على هذا النحو:

  • هل يثق البشر في كل البشر الآخرين؟

بالتأكيد لا.

مع إدراكنا أن الذكاء الاصطناعي العام من المفترض أن يكون على قدم المساواة مع الذكاء البشري، لا ينبغي لنا أن نتوقع أن الذكاء الاصطناعي العام يجب أن ينحرف عن ميل الإنسان إلى عدم الثقة في جميع البشر. وبطريقة ربما تشبه الطريقة التي يتعلم بها البشر الثقة أو عدم الثقة بإخوانهم من البشر، نحتاج إلى إعطاء الذكاء الاصطناعي العام بعض الوسائل لفعل الشيء نفسه.

سيتعين على الذكاء الاصطناعي العام أن يقيس أي البشر يجب أن تثق به وأيهم لا تثق به.

للتوضيح، فإن فعل الثقة بشخص ما ليس بالضرورة انقسامًا بين التشغيل والإيقاف. يمكن أن يكون لديك قدر كبير من الثقة في صديق عزيز، ولكن في نفس الوقت يكون لديك شعور بعدم الثقة تجاه نفس الصديق في أمور أخرى. إذا أخبرك صديقك بضرورة الاستثمار في سهم معين، فربما تثق به وستفعل ذلك. من ناحية أخرى، إذا أخبرك صديقك أنه يمكنك القفز من أعلى الهاوية وستكون بخير، فمن المحتمل أن تقوم بتعديل إحساسك بالثقة ولن تلتزم بمثل هذا الاقتراح المحفوف بالمخاطر.

فكر في هذا باعتباره طيف الثقة. أنت تثق ببعض الأشخاص في أنواع معينة من المهام أو النصائح، بينما يكون لديك شعور بعدم الثقة أكبر مع أشخاص آخرين من الثقة في نفس الأمور. يتغير أيضًا إحساسك بالثقة وعدم الثقة بمرور الوقت. قد يصبح الصديق الجيد فجأة غير أمين تجاهك. على هذا النحو، يمكنك ضبط مستوى الثقة المرتبط بهذا الصديق بسرعة.

يقرر البشر من هو AGI الجدير بالثقة

ربما ينبغي لنا أن نجعل البشر يقررون من يعتبر جديرًا بالثقة.

يتمثل النهج المقترح بشكل شائع في إجبار الذكاء الاصطناعي العام على الحصول على موافقة مسبقة من البشر بشأن مصداقية البشر الآخرين. وبالتالي، فإننا لا نسمح للذكاء الاصطناعي العام (AGI) باتخاذ القرار الحسابي بشأن الثقة في الأشخاص. الأمر متروك تمامًا لما قاله العديد من البشر لـ AGI حول إظهار الثقة تجاه إخوانهم من البشر.

على سبيل المثال، لنفترض أنه تم اختيار لجنة خاصة من البشر ليكون ملك الثقة. يخبرون AGI بمن يجب أن يثقوا وبأي مقدار. كل يوم، تقوم هذه اللجنة بمراجعة صارمة لأولئك الذين يستخدمون الذكاء الاصطناعي العام وتلقي مؤشرات حول مدى جدارتهم بالثقة. هذه ليست مهمة واحدة. ستحتاج اللجنة إلى مراجعة وإعادة ضبط أوزان الثقة المرتبطة بمستخدمي AGI بشكل روتيني.

إن محاولة إدارة مثل هذا النهج لوجستيًا أمر غير عملي وغير عملي، ومن المحتمل أن يؤدي إلى تحيزات بين من يحصل على ثقة عالية مقابل ثقة منخفضة من قبل AGI. اللوجستية وحدها لا يمكن الدفاع عنها. إن المراجعة الروتينية لمزايا الثقة التي ربما يتمتع بها 8 مليار مستخدم للذكاء الاصطناعي العام أمر شاق وغير ممكن من قبل مثل هذه اللجنة.

أحد الاختلافات هو أننا نسمح لجميع البشر بتقييم جميع البشر الآخرين. يشبه إلى حد ما مراجعة Yelp بناءً على التعهيد الجماعي. مرة أخرى، هذا ليس عمليًا وله الكثير من الجوانب السلبية الأخرى.

سيحتاج AGI إلى التأكد من الثقة

بشكل عام، يبدو من الواضح جدًا أن الطريق المعقول الوحيد هو جعل الذكاء الاصطناعي العام يصدر أحكامًا موثوقة على البشر. وبطريقة حسابية ما، سيحتاج الذكاء الاصطناعي العام إلى تحديد الجهة التي يجب الوثوق بها وبأي قدر، بما في ذلك إجراء تعديلات في الوقت الفعلي على مقاييس الثقة تلك.

وهذا يجعل الشعر يقف على نهايته بالنسبة للعديد من علماء أخلاقيات الذكاء الاصطناعي. هناك خطر كبير من قيام AGI باختيار إصدار أحكام الثقة هذه بشكل غير عادل. للاطلاع على تغطيتي الشاملة لهذه المعضلات الأخلاقية التي لم يتم حلها في مجال الذكاء الاصطناعي، راجع الرابط هنا.

سعت دراسة بحثية حديثة إلى تحديد كيفية إصدار الذكاء الاصطناعي المعاصر لأحكام الثقة بشأن المستخدمين. على الرغم من أن الذكاء الاصطناعي اليوم ليس الذكاء الاصطناعي العام، إلا أنه يمكننا تعلم الكثير حول كيفية المضي قدمًا نحو الذكاء الاصطناعي العام من خلال فهم خصوصيات وعموميات الذكاء الاصطناعي في العصر الحالي. تحمل الدراسة عنوان “نظرة فاحصة على مدى ثقة النماذج اللغوية الكبيرة بالبشر: الأنماط والتحيزات” بقلم فاليريا ليرمانا ويانيف دوفيرا، arXiv، 22 أبريل 2025، وتحدثت عن هذه النقاط البارزة (مقتطفات):

  • “في حين أن الكثير من الأدبيات تدرس كيفية ثقة البشر في عملاء الذكاء الاصطناعي، إلا أنه من غير المفهوم كثيرًا كيف يطور العملاء المعتمدون على ماجستير إدارة الأعمال ثقة فعالة في البشر.”
  • “من خلال 43,200 تجربة محاكاة، لخمسة نماذج لغوية شائعة، عبر خمسة سيناريوهات مختلفة، وجدنا أن تنمية الثقة في LLM تظهر تشابهًا عامًا مع تنمية الثقة البشرية.”
  • “نحن نبني على النظريات النفسية لاستخلاص نظرة ثاقبة حول آليات كيفية تحلل هذه الثقة الضمنية للوكلاء المعتمدين على ماجستير إدارة الأعمال في البشر والتنبؤ بها، وبالتالي، كيف يمكن أن تتأثر من الناحية النظرية.”
  • “لقد وجدنا أنه في معظم الحالات، وليس جميعها، يتم التنبؤ بقوة LLM بالثقة من خلال الجدارة بالثقة، وفي بعض الحالات تكون متحيزة أيضًا حسب العمر والدين والجنس، خاصة في السيناريوهات المالية.”
  • “على الرغم من وجود العديد من التعريفات والتفعيلات للجدارة بالثقة، إلا أن جزءًا كبيرًا من الأدبيات يعرف الجدارة بالثقة على أنها تتكون من ثلاثة أبعاد رئيسية: القدرة (الكفاءة)، والإحسان، والنزاهة.”

AGI هو أن تفعل كما يفعل البشر

أحد الدروس المستفادة من تلك الدراسة هو أنه ربما يكون الطريق للمضي قدمًا هو النظر في تشكيل الذكاء الاصطناعي العام لتحديد الثقة بطريقة مشابهة لكيفية قيام البشر بذلك. بعبارة أخرى، بدلاً من إعادة اختراع العجلة ومحاولة التوصل إلى وسيلة جديدة لتقييم الثقة، دعونا نجعل الذكاء الاصطناعي العام يلتزم بالوسائل البشرية.

وكما ذكرنا، يمكن أن تعتمد الثقة على مجموعة متنوعة من الأبعاد. ويمكن قياس كل من هذه الأبعاد. يمكن أن يعتمد الذكاء الاصطناعي العام على هذه الأبعاد ويسعى إلى قياس كل مستخدم وفقًا لذلك. سيكون هذا عنصرًا يعمل باستمرار وسيستمر AGI دائمًا في تنفيذه.

وحتى هذا النهج الشبيه بالإنسان يواجه تحديات.

على سبيل المثال، يقوم مستخدم جديد بتسجيل الدخول إلى AGI لأول مرة. AGI لا يعرف شيئًا عن المستخدم. كيف يمكن قياس أي من الأبعاد بشكل مناسب عندما يكون هناك ندرة في المعلومات المتاحة عن الشخص؟ قد يكون هذا صحيحًا عندما يحكم الإنسان على إنسان آخر على أساس الثقة، أي أنه عندما تقابل شخصًا ما لأول مرة، عادةً ما يكون لديك أدلة قليلة حول مدى جدارته بالثقة.

من المضاعفات المحتملة الأخرى وقوع شخص ما في حالة ركود الثقة. ربما يقوم AGI بتقييم الشخص ومنحه درجة ثقة منخفضة جدًا. في هذه المرحلة، يكون الشخص في الطابق السفلي وقد يكون لديه أمل ضئيل في التسلق للخروج منه. قد يقوم الذكاء الاصطناعي العام (AGI) ببطء بضبط مقياس الثقة لهذا الشخص، وفي الوقت نفسه، يتم معاملته بطريقة غير موثوقة بشكل أساسي.

الحذاء على القدم الأخرى

إنها صدمة للبعض أننا نحتاج إلى القلق بشأن الكيفية التي سيقرر بها الذكاء الاصطناعي العام الثقة في البشر. يتعلق كل الاهتمام تقريبًا بالموضوع العام للذكاء الاصطناعي والثقة بارتياح البشر بشأن كيفية الثقة في الذكاء الاصطناعي. هناك قاعدة كبيرة من الأبحاث حول هذه القضية التي لا تزال تتطور، راجع تحليلي المتعمق على الرابط هنا.

في حالة الذكاء الاصطناعي العام، فإن تحديد ما إذا كان ينبغي لنا أن نثق في الذكاء الاصطناعي العام هو بالتأكيد اعتبار بالغ الأهمية. إذا كنا سنعتمد على الذكاء الاصطناعي العام (AGI) لمساعدتنا في عملنا ولعبنا، فهذا يمثل قدرًا كبيرًا من الثقة تجاه الآلة. نحن نعلم بالفعل أن الذكاء الاصطناعي في الوقت الحاضر يمكن أن يواجه تشابكات الذكاء الاصطناعي التي لا تستند إلى حقائق حقيقية، والتي يشار إليها عادة باسم هلوسة الذكاء الاصطناعي، راجع تغطيتي على الرابط هنا.

لنفترض أن AGI يفعل الشيء نفسه. ربما سيكون لدينا 8 مليارات شخص يستخدمون الذكاء الاصطناعي العام، وفي نسبة معينة من الوقت، سيقدم الذكاء الاصطناعي العام ردودًا غريبة. من المرجح أن يفترض الناس بشكل أساسي أن الذكاء الاصطناعي العام (AGI) جدير بالثقة تمامًا ويوافقون على التوصيات الغريبة المحتملة الصادرة عن الذكاء الاصطناعي العام (AGI). وقد يشمل ذلك مؤشرات ضارة تضلل الأشخاص وتدفعهم إلى ارتكاب أفعال تعرضهم للخطر.

لقد تبين أننا بحاجة إلى القلق بشأن ازدواجية الثقة، التي تتكون من ثقة الأشخاص في الذكاء الاصطناعي العام إلى جانب كيفية استنباط الذكاء الاصطناعي العام لموثوقية البشر. إنها معادلة معقدة للغاية. يجب علينا تسوية الأمور قبل أن نصل إلى الذكاء الاصطناعي العام وإلا سنعلق في شبكة متشابكة من الثقة وانعدام الثقة.

على حد تعبير تشارلز جرين: “يتطلب أداء رقصة التانغو الثقة شخصين – الشخص الذي يخاطر (المؤتمن) والشخص الجدير بالثقة (الوصي)؛ ويجب على كل منهما أن يلعب دوره”. وهذا ينطبق تمامًا على طريق الثقة ذي الاتجاهين بين الإنسانية والذكاء الاصطناعي العام.

شاركها.
Exit mobile version