رفض قاض في ولاية كاليفورنيا قضية نزاع على السكن في سبتمبر/أيلول بعد أن اكتشف أن المدعين قدموا ما يبدو أنه تزييف عميق تم إنشاؤه بواسطة الذكاء الاصطناعي لشاهد حقيقي. قد تكون هذه القضية من بين أولى الحالات الموثقة لوسائل الإعلام الاصطناعية الملفقة التي يتم تمريرها كدليل حقيقي في قاعة محكمة أمريكية، ويقول القضاة إن النظام القانوني غير مستعد لما هو قادم.

في قضية ميندونيس ضد كوشمان وويكفيلد، لاحظت فيكتوريا كولاكوفسكي، قاضية المحكمة العليا في مقاطعة ألاميدا، وجود خطأ ما في معرض الفيديو. كان صوت الشاهدة مفككًا ورتيبًا، وكان وجهها غامضًا وخاليًا من المشاعر. كل بضع ثوان، كانت ترتعش وتكرر تعبيراتها. ادعى الفيديو أنه يظهر شخصًا حقيقيًا ظهر في أدلة حقيقية أخرى، لكن الشكل 6C كان مزيفًا عميقًا.

رفض كولاكوفسكي القضية في 9 سبتمبر/أيلول. وطلب المدعون إعادة النظر، قائلين إن القاضي اشتبه في أن الدليل تم إنشاؤه بواسطة الذكاء الاصطناعي لكنه فشل في إثباته. ورفضت طلبهم في نوفمبر/تشرين الثاني.

وقد أثار الحادث قلق القضاة الذين اعتبروه نذيرا.

وقال القاضي ستوني هيليوس، رئيس لجنة الاستجابة للذكاء الاصطناعي في الفرع القضائي في مينيسوتا، لشبكة NBC News: “أعتقد أن هناك الكثير من القضاة يخشون من أنهم سيتخذون قرارًا بناءً على شيء غير حقيقي، شيء تم إنشاؤه بواسطة الذكاء الاصطناعي، وسيكون له تأثيرات حقيقية على حياة شخص ما”. يقوم هيليوس حاليًا باستقصاء آراء قضاة الولاية لفهم عدد المرات التي تظهر فيها الأدلة الناتجة عن الذكاء الاصطناعي في قاعات محاكمهم.

الثغرة الأمنية ليست افتراضية. وصف القاضي سكوت شليغل، من محكمة الاستئناف بالدائرة الخامسة في لويزيانا، وهو من أبرز المدافعين عن تبني الذكاء الاصطناعي القضائي والذي يشعر رغم ذلك بالقلق بشأن مخاطره، المشكلة من منظور شخصي. وقال إن زوجته يمكنها بسهولة استنساخ صوته باستخدام برامج مجانية أو غير مكلفة لتلفيق رسالة تهديد. أي قاضٍ يقدم مثل هذا التسجيل سيمنح أمرًا تقييديًا.

وقال شليغل “سوف يوقعون في كل مرة”. “لذلك تفقد قطتك، وكلبك، وبنادقك، ومنزلك، وتفقد كل شيء.”

أثارت القاضية إيريكا يو من المحكمة العليا لمقاطعة سانتا كلارا في كاليفورنيا مخاوف أخرى: يمكن للذكاء الاصطناعي أن يفسد مصادر الأدلة الموثوقة تقليديا. وقالت إن شخصًا ما يمكنه إنشاء سجل ملكية مركبة مزيف وإحضاره إلى مكتب كاتب المقاطعة. من المحتمل ألا يتمتع الموظف بالخبرة اللازمة للتحقق من ذلك وسيقوم بإدخاله في السجل الرسمي. ويمكن للمتقاضي بعد ذلك الحصول على نسخة مصدقة وتقديمها إلى المحكمة.

“والآن، هل يتعين علي، كقاض، أن أتساءل عن مصدر الأدلة الذي كان تقليديا موثوقا به؟” قال يو. “نحن في حدود جديدة تماما.”

وقد بدأت المحاكم في الاستجابة، ولكن ببطء. اقترحت اللجنة الاستشارية لقواعد الإثبات التابعة للمؤتمر القضائي الأمريكي قاعدة فيدرالية جديدة للأدلة 707، والتي من شأنها إخضاع “الأدلة المولدة آليا” لنفس معايير المقبولية مثل شهادة الخبراء. وبموجب القاعدة المقترحة، يجب أن تستند الأدلة الناتجة عن الذكاء الاصطناعي إلى حقائق كافية، يتم إنتاجها من خلال أساليب موثوقة، وتعكس تطبيقًا موثوقًا لتلك الأساليب – نفس إطار دوبيرت المطبق على الشهود الخبراء.

القاعدة مفتوحة للتعليق العام حتى فبراير 2026. لكن عملية وضع القواعد تتحرك بوتيرة غير مناسبة للتكنولوجيا سريعة التطور. ووفقاً للقاضي الفيدرالي المتقاعد بول جريم، الذي ساعد في صياغة أحد التعديلات المقترحة، فإن اعتماد قاعدة الأدلة الفيدرالية الجديدة يستغرق ما لا يقل عن ثلاث سنوات.

وفي غضون ذلك، تتصرف بعض الدول بشكل مستقل. ويتطلب قانون لويزيانا رقم 250، الذي صدر في وقت سابق من هذا العام، من المحامين ممارسة “العناية المعقولة” لتحديد ما إذا كانت الأدلة التي يقدمونها قد تم إنشاؤها بواسطة الذكاء الاصطناعي.

وقال شليغل: “لا تستطيع المحاكم أن تفعل كل شيء بمفردها”. “عندما يدخل عميلك من الباب ويسلمك 10 صور، يجب أن تطرح عليه أسئلة. من أين حصلت على هذه الصور؟ هل التقطتها بهاتفك أو بالكاميرا؟”

تقدم تقنية الكشف مساعدة محدودة. تظل الأدوات الحالية المصممة لتحديد المحتوى الناتج عن الذكاء الاصطناعي غير موثوقة، مع معدلات إيجابية كاذبة تختلف بشكل كبير اعتمادًا على النظام الأساسي ونوع المحتوى. في قضية مندونيس، ساعد تحليل البيانات الوصفية في كشف التلفيق – أشارت البيانات المضمنة في الفيديو إلى أنه تم التقاطه على هاتف iPhone 6، الذي كان يفتقر إلى القدرات التي تتطلبها قصة المدعين. لكن مثل هذه الأدلة الجنائية تزداد صعوبة العثور عليها مع تحسن أدوات التوليد.

تعمل مجموعة صغيرة من القضاة على رفع مستوى الوعي. أنشأ المركز الوطني لمحاكم الولاية ومعهد طومسون رويترز موارد للتمييز بين “أدلة الذكاء الاصطناعي غير المعترف بها” – أي التزييف العميق الذي تم تمريره على أنه حقيقي – من “أدلة الذكاء الاصطناعي المعترف بها” مثل عمليات إعادة بناء الحوادث الناتجة عن الذكاء الاصطناعي والتي تعتبرها جميع الأطراف اصطناعية.

واعترفت خطة عمل الذكاء الاصطناعي لإدارة ترامب، والتي صدرت في يوليو/تموز، بالمشكلة، ودعت إلى بذل الجهود “لمكافحة وسائل الإعلام الاصطناعية في نظام المحاكم”.

لكن في الوقت الحالي، يقع العبء على القضاة الذين قد يفتقرون إلى التدريب الفني لاكتشاف التلفيقات – وعلى إطار قانوني مبني على افتراضات لم تعد قائمة.

وقالت مورا غروسمان، أستاذة الأبحاث في جامعة واترلو والمحامية الممارس التي درست قضايا أدلة الذكاء الاصطناعي: “بدلاً من الثقة ولكن التحقق، يجب أن نقول: لا تثق وتحقق”.

والسؤال الذي يواجه المحاكم هو ما إذا كان التحقق يظل ممكناً عندما تكون أدوات الكشف عن التلفيق في حد ذاتها غير جديرة بالثقة، وعندما تتراوح عواقب الفشل بين الأوامر التقييدية الاحتيالية والإدانات الخاطئة.

شاركها.
Exit mobile version