ابق على اطلاع بالتحديثات المجانية

أحد أسوأ كوابيسنا بشأن الذكاء الاصطناعي هو أنه سيمكن الروبوتات القاتلة من مطاردة ساحة المعركة ونشر الموت والدمار الذي تحدده الخوارزميات. لكن العالم الحقيقي أكثر فوضوية بكثير من الكتب المصورة. وكما أظهر القصف الإسرائيلي لغزة، فإننا ربما نتحرك نحو أشكال أكثر خبثاً وخبثاً من عملية صنع القرار الآلي في الحرب.

سلط تقرير مروع نشرته الأسبوع الماضي المجلة الإلكترونية الإسرائيلية +972 الضوء على اعتماد الجيش الإسرائيلي الكبير في وقت مبكر من الحرب على نظام توليد الأهداف الشامل المدعوم بالذكاء الاصطناعي المعروف باسم لافندر، والذي حدد 37 ألف من سكان غزة كمسلحين مشتبه بهم من حماس. ونتيجة لذلك، تعرض العديد منهم للقصف في منازلهم، مما أدى في كثير من الأحيان إلى مقتل عائلاتهم أيضًا.

وقالت مصادر استخباراتية إسرائيلية ساخطة، في مقابلة مع +972، إن النظام لديه معدل خطأ يقدر بـ 10 في المائة، مما أدى إلى تحديد بعض الأهداف بشكل خاطئ للاغتيال. كما زعموا أن جيش الدفاع الإسرائيلي سيسمح بضرب أحد صغار مقاتلي حماس، حتى مع وجود خطر قتل ما بين 15 إلى 20 مدنياً. وارتفعت هذه النسبة من 1 إلى أكثر من 100 بالنسبة لقائد كبير في حماس. وزعموا أن الإشراف البشري على عملية تحديد الهدف الآلي كان في حده الأدنى، وفي بعض الأحيان لم يستمر أكثر من 20 ثانية. وقال أحدهم للمجلة: “من الناحية العملية، لم يكن مبدأ التناسب موجودا”.

وقد اعترض الجيش الإسرائيلي على عدة جوانب من هذا التقرير. وقال الجيش الإسرائيلي في بيان: “خلافا لحماس، فإن الجيش الإسرائيلي ملتزم بالقوانين الدولية ويتصرف وفقا لذلك”. وكان “النظام” عبارة عن قاعدة بيانات استخدمها المحللون البشريون للتحقق من الأهداف المحددة. “بالنسبة لكل هدف، تتطلب إجراءات جيش الدفاع الإسرائيلي إجراء تقييم فردي للميزة العسكرية المتوقعة والأضرار الجانبية المتوقعة”.

الأمر الذي لا جدال فيه هو الخسارة المروعة في أرواح المدنيين في غزة، والتي حدثت في الأسابيع الأولى من الحرب في أعقاب الهجوم القاتل الذي شنته حماس على إسرائيل في السابع من أكتوبر/تشرين الأول. ووفقاً للسلطات الفلسطينية، فقد قُتل 14800 شخص، بما في ذلك نحو 6000 طفل وأربعة000 امرأة. في غزة قبل وقف إطلاق النار المؤقت الذي تم التوصل إليه في 24 نوفمبر/تشرين الثاني عندما كان استخدام اللافندر هو الأكثر استخداما.

إن العديد من جوانب المأساة الإسرائيلية الغزية فريدة من نوعها، فهي وليدة التاريخ المتشابك والديموغرافيا والجغرافيا للمنطقة. لكن إسرائيل هي أيضًا واحدة من أكثر دول العالم تقدمًا من الناحية التكنولوجية، والطريقة التي تشن بها الحرب تغذي الجدل العالمي حول الاستخدامات العسكرية للذكاء الاصطناعي. هذه المناقشة تضع من يسمون بالواقعيين في مواجهة المطلقين الأخلاقيين.

يزعم الواقعيون أن الذكاء الاصطناعي عبارة عن تكنولوجيا ذات استخدام مزدوج ويمكن نشرها بطرق لا تعد ولا تحصى لتحقيق الخير والشر. قليلون، على سبيل المثال، قد يجادلون في استخدامه في الأسلحة الدفاعية، مثل القبة الحديدية الإسرائيلية التي اعترضت هجمات صاروخية متعددة من غزة. لكن يبدو أن نظام لافندر ساهم في معدل “مفرط بشكل كبير” من الأضرار الجانبية التي لا يمكن الدفاع عنها أخلاقيا، كما يقول توم سيمبسون، وهو أستاذ سابق في مشاة البحرية الملكية والآن أستاذ الفلسفة في جامعة أكسفورد.

ومع ذلك، يعارض سيمبسون فرض حظر تام على الأسلحة المستقلة الفتاكة، كما يطالب بعض الناشطين، نظرا لاحتمال استمرار الدول الأقل عدائية في الالتزام بالقانون في استخدامها. ومن شأن تنفيذ أي حظر من هذا القبيل أن يخلق “ثغرة استراتيجية مروعة”. قال لي: “إذا كانت الديمقراطيات الليبرالية تستحق الدفاع عنها، فيجب أن تمتلك الأدوات الأكثر فعالية”.

غالبًا ما يُطلب من الروبوتات، مثل الجنود، القيام بالأعمال المملة والقذرة والخطرة. “إذا كان بإمكاننا إنفاق المال لإنقاذ الدم، فيجب علينا أن نفعل ذلك.”

لكن أنصار المطلقية الأخلاقية يرسمون خطًا أحمر واضحًا عند الاستعانة بمصادر خارجية لتحمل أي مسؤوليات تتعلق بالحياة أو الموت إلى الآلات المعرضة للخطأ. تظهر تجربة نظام لافندر الميل إلى الثقة المفرطة بالكمبيوتر. كما أنه يسلط الضوء على صعوبة إبقاء “البشر على اطلاع” في خضم الحرب.

تقول ماري إلين أوكونيل، أستاذة القانون في جامعة نوتردام والتي تدعم فرض حظر على أنظمة الأسلحة الفتاكة المستقلة، إن الواقعيين يميلون إلى تفضيل إبراز القوة على حماية سيادة القانون. لكنها أخبرتني أن السلطة الفعالة بالنسبة للديمقراطيات الغربية تعتمد على سيادة القانون. “لم تنتصر الولايات المتحدة إلا في حرب واحدة منذ الحرب العالمية الثانية، وهي حرب تحرير الكويت. وتقول: “كانت تلك هي الحرب الوحيدة التي خضناها بشكل قانوني مع الالتزام الكامل بميثاق الأمم المتحدة”.

وهذه أيضاً حجة واقعية ينبغي أن يتردد صداها في إسرائيل، وكذلك في الولايات المتحدة. يجب أن يعتقد الجنود أنهم يقاتلون من أجل قضية عادلة وبطريقة أخلاقية. من الواضح أن أولئك الذين تحدثوا إلى مجلة +972 يتساءلون عن الطريقة التي خاضت بها إسرائيل الحرب. يجب على الإنسانية أن تقود التكنولوجيا، وليس العكس.

[email protected]

شاركها.