افتح ملخص المحرر مجانًا

قال مؤتمر نقابات العمال يوم الخميس إن المملكة المتحدة بحاجة إلى قوانين جديدة لحماية العمال الذين يستخدم أصحاب عملهم أدوات الذكاء الاصطناعي لتوظيفهم أو فصلهم أو إدارتهم، محذرا من أن بريطانيا “تخسر السباق” لتنظيم الذكاء الاصطناعي في العمل.

وقالت TUC، وهي منظمة جامعة تضم 48 نقابة عمالية تضم حوالي 5.5 مليون عضو، إن مشروع القانون “الجاهز للانطلاق” يوفر طريقة عملية “لجعل قانون العمل الحالي في المملكة المتحدة مناسبًا لعصر الذكاء الاصطناعي”، حتى مع مضي الاتحاد الأوروبي قدمًا في مشروع القانون. قواعد أكثر طموحًا وشاملة بشأن استخدام الذكاء الاصطناعي.

“يقوم الذكاء الاصطناعي بالفعل بإجراء مكالمات تغير الحياة في مكان العمل. . . وقالت كيت بيل، الأمين العام المساعد لـ TUC: “نحن بحاجة ماسة إلى وضع حواجز حماية جديدة لحماية العمال”، مضيفة: “لا تستطيع المملكة المتحدة تحمل تكاليف التراجع والتحول إلى دولة شاذة على المستوى الدولي”.

وتتطلب مقترحات TUC من أصحاب العمل استشارة العمال قبل تقديم أي أنظمة ذكاء اصطناعي مصممة لاتخاذ قرارات “عالية المخاطر” وشرح كيفية استخدامها. وستكون هناك عملية لفحص الأدوات التي تم شراؤها من الرفوف من الموردين الخارجيين ولإجراء مراجعات منتظمة.

كما أنها ستنشئ حقًا قانونيًا للباحثين عن عمل والعاملين في السعي إلى إجراء تدقيق بشري للقرارات التي يتخذها الذكاء الاصطناعي، وتوفير الحماية ضد الفصل التعسفي من قبل تلك الأنظمة.

هناك بند منفصل من شأنه أن يحظر استخدام تكنولوجيا التعرف على المشاعر – التي وصفها TUC بأنها “علم زائف”.

تتضمن المقترحات أيضًا حق جديد للعاملين في “قطع الاتصال” بالبريد الإلكتروني خارج ساعات العمل المتعاقد عليها – وهو بند من شأنه أن يعكس التدابير التي تم وضعها مؤخرًا في القانون في بلدان أخرى، بما في ذلك فرنسا وأيرلندا.

ويأتي تدخل TUC في الوقت الذي يتزايد فيه قلق المنظمين في المملكة المتحدة بشأن احتمال الضرر الناجم عن التطور السريع للنماذج التي تقوم عليها منتجات الذكاء الاصطناعي مثل ChatGPT من OpenAI.

كانت الحكومة حتى الآن مترددة في تنظيم تطوير ونشر نماذج الذكاء الاصطناعي، خوفا من خنق الابتكار – بدلا من مطالبة الهيئات التنظيمية باستخدام صلاحياتها الحالية. لكن الوزراء يدرسون الآن وضع قيود على أقوى نماذج الذكاء الاصطناعي “للأغراض العامة”.

تهدف مقترحات TUC بشكل أضيق إلى نشر أنظمة الذكاء الاصطناعي في مكان العمل. يعتمد العديد من أصحاب العمل الكبار بالفعل بشكل كبير على الأدوات الآلية لمساعدتهم على اتخاذ قرارات التوظيف والفصل؛ تخصيص ومراقبة العمل؛ وتقييم ومكافأة أداء العمال.

وترى مجموعات الصناعة أن هذه الأدوات تقلل من تكلفة التوظيف ويمكنها أيضًا فتح مسارات وظيفية ومساعدة الموظفين على العمل بكفاءة أكبر.

وقال نيل روس، المدير المساعد للسياسة في TechUK، إن الاتحاد التجاري اتفق مع TUC على الحاجة إلى تنظيم تطبيقات الذكاء الاصطناعي الأكثر خطورة في العمل، لكنه كان قلقًا من أنها “لم تجد بعد التوازن الصحيح لما هو شائع جدًا”. أصبحت التكنولوجيا الآن معززة بالذكاء الاصطناعي”.

عرّف اتحاد النقابات العمالية “المخاطر العالية” بأنها أي قرارات يتم اتخاذها أو دعمها بواسطة الذكاء الاصطناعي والتي يمكن أن يكون لها آثار قانونية على العمال أو الباحثين عن عمل.

وشملت الأمثلة التي قدمتها شركة محاماة حيث قد يتعين على المتدربين اجتياز اختبار تم إجراؤه وتسجيله بواسطة نظام الذكاء الاصطناعي للتأهل؛ وبنك كبير يستخدم نظام الذكاء الاصطناعي لإنشاء تصنيفات الأداء وتحديد المكافآت.

ويمكن أيضًا تغطية الأنظمة المستخدمة لتتبع سرعة العمال وسلامتهم في المستودعات – ومراجعة الأداء والسلوك وفقًا لذلك.

لكن مجموعات الأعمال تشعر بالقلق من أن تعريف التطبيقات “عالية المخاطر” على نطاق واسع للغاية قد يعني إمكانية تغطية أي برنامج للموارد البشرية أو الإدارة، بما في ذلك التقنيات الأساسية. وهذا قد يترك الشركات الصغيرة على وجه الخصوص معرضة لخطر خرق القانون عن غير قصد.

وقالت الحكومة في بيان إنها “تعمل مع الشركات والجهات التنظيمية من أجل التبني الآمن والمسؤول للذكاء الاصطناعي في مكان العمل”.

وأضافت أنها وضعت حزمة دعم بقيمة 10 ملايين جنيه إسترليني لمساعدة المنظمين على “توفير المهارات والخبرات والمؤسسات التي نحتاجها لضمان أن أي تشريع عند تقديمه سيكون في أقصى درجات الفعالية”.

شاركها.