ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الاستشارات الإدارية myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
بينما تقوم الشركات في جميع القطاعات بتجربة الذكاء الاصطناعي، يتعرض المستشارون لضغوط لإتقان التكنولوجيا الجديدة التي يستثمر فيها عملاؤهم. ونظرًا لقدرة التكنولوجيا على أتمتة المهام وتحسين الأنظمة وتعزيز الإنتاجية، يقولون إن عصر الذكاء الاصطناعي سيشهد أيضًا تحول استراتيجي في طرق عملهم.
تقول فيونا تشيرنياوسكا، الرئيس التنفيذي لشركة سورس جلوبال، وهي محللة قطاع استشارية: “من المرجح أن يجعل الذكاء الاصطناعي الشركات أكثر كفاءة وربحية”، من خلال مساعدتها على توفير الوقت في جمع البيانات وتحليلها. ثم هناك فرصة السوق من حيث الخدمات التي يمكن للاستشاريين تقديمها. وتشير إلى أن “هناك اهتمامًا من جانب العملاء بالحصول على دعم خارجي في مجالات مثل المسائل الأخلاقية والتنظيم والمسؤولية القانونية”.
وقد بدأت الشركات الاستشارية الكبرى بالفعل في تطوير الأدوات وتدريب الموظفين على استخدام الذكاء الاصطناعي.
أطلقت شركة ماكينزي منصة Lilli، وهي منصة داخلية تقدم “بحثًا وتجميعًا لمخزون المعرفة الهائل لدى الشركة الاستشارية”، بما في ذلك دراسات الحالة والأبحاث السابقة، مما يوفر الوقت للمستشارين لقضائه مع العملاء.
خصصت شركة إي واي 1.4 مليار دولار في منصتها للذكاء الاصطناعي، EY.ai، التي تجمع بين نموذج لغة كبير خاص بها مع تقنيات أخرى وخبرة بشرية لمساعدة العملاء على تبني الذكاء الاصطناعي – إلى جانب أداة الدردشة الداخلية وتدريب الموظفين. وفي الوقت نفسه، تعمل شركة KPMG مع Microsoft لتطوير أدوات الذكاء الاصطناعي لموظفيها وعملائها.
حتى الآن، قامت شركات الاستشارات – في الأغلب الأعم – بتجربة هذه الأدوات، كما تقول تشيرنياوسكا. لكنها تؤكد على ضرورة أن يكونوا واضحين بشأن سياساتهم المتعلقة باستخدام الذكاء الاصطناعي.
وقد يشمل ذلك إنشاء “ميثاق الذكاء الاصطناعي” أو دليل، على سبيل المثال، لتوجيه الموظفين حول كيفية التعامل مع الذكاء الاصطناعي بما يتماشى مع أخلاقيات الشركة وقيمها. تقول الشركات الاستشارية إنها تقوم ببناء مثل هذه الأطر لمساعدة مؤسساتها على التغلب على المخاطر التنظيمية ومخاطر السمعة – ويمكنها أن تفعل الشيء نفسه بالنسبة للعملاء.
لقد أصبحت هذه المهمة أكثر إلحاحا مع تحرك الحكومات لتعزيز تنظيمها للذكاء الاصطناعي. سعت المملكة المتحدة إلى أن تصبح رائدة عالميًا في مجال التكنولوجيا، وأطلقت مشاورة بشأن الورقة البيضاء الخاصة بتنظيم الذكاء الاصطناعي، والتي تحدد مقترحات تنظيمية “ملائمة للمستقبل” و”مؤيدة للابتكار”.
وفي الاتحاد الأوروبي، في ديسمبر/كانون الأول، اتفقت الدول الأعضاء على شروط قانون الذكاء الاصطناعي التاريخي، والذي سيفرض، عندما يدخل حيز التنفيذ ــ ربما في عام 2026 ــ قواعد صارمة على شركات التكنولوجيا التي تُستخدم أدواتها في أوروبا.
وفي الولايات المتحدة، أصدر الرئيس جو بايدن أمرًا تنفيذيًا بشأن الذكاء الاصطناعي العام الماضي بهدف مماثل.
“لا تتسم صناعة الاستشارات دائمًا بالشفافية فيما يتعلق بالطريقة التي تعمل بها، ولكن هذا مجال يتسم بالشفافية [about how you use AI] يقول تشيرنياوسكا: “سيكون الأمر مهمًا جدًا”.
يعد استخدام أدوات الذكاء الاصطناعي للبحث عن المعلومات أمرًا واحدًا. ولكن إلى أي مدى يجب أن تكون الشركات صريحة فيما يتعلق باستخدام التكنولوجيا لكتابة تقارير العملاء، على سبيل المثال؟ وفقا لبحث أجرته Source Global ونشر في ديسمبر، قال 35 في المائة من العملاء إنهم يريدون أن تكون الشركات منفتحة بشأن أجزاء التقرير التي تم إنتاجها بواسطة الذكاء الاصطناعي. وعندما سئلوا عما إذا كانوا رأوا أي مشاكل تنظيمية عند شراء الأعمال التي تم إنشاؤها بواسطة الذكاء الاصطناعي من الشركات الاستشارية، أشار 43 في المائة أيضًا إلى مخاوف بشأن حماية البيانات والخصوصية.
الشركات على دراية بمخاطر البرامج المعيبة التي يمكن أن ترتكب أخطاء مكلفة. في شهر يناير، على سبيل المثال، قام برنامج الدردشة الآلي التابع لشركة تسليم الطرود DPD بتأليف قصيدة لأحد العملاء حول مدى “عدم فائدة” خدمة التوصيل، قبل تعطيلها.
يقول إميل نوس، الشريك البريطاني في شركة BearingPoint الاستشارية، إن هناك حاليًا الكثير من تطبيقات النماذج اللغوية الكبيرة التي تختبرها الشركات بنشاط.
ويوضح أنه على نطاق واسع، هناك روبوتات دردشة “عامة” وروبوتات دردشة “متخصصة”. يقول ناوس إن الخطأ الفادح الذي حدث في برنامج DPD chatbot يرجع جزئيًا إلى تدريبه على عينة واسعة من المعلومات، مثل برنامج الدردشة العام، في حين أن الروبوت المتخصص، الذي تم تدريبه على البيانات المختارة داخليًا، أكثر أمانًا.
تقول كاتريونا كامبل، مسؤولة التكنولوجيا والابتكار للعملاء في EY في المملكة المتحدة وإيرلندا: “مثل أي تقنية جديدة، تشكل منتجات الذكاء الاصطناعي مخاطر – الكثير منها لا يقتصر على الذكاء الاصطناعي، ولكنه متسق عبر مجموعة التكنولوجيا الخاصة بالمؤسسة، مثل مخاطر الطرف الثالث والمخاطر السيبرانية.”
وتقول إن المخاطر الأكثر تحديدًا للذكاء الاصطناعي تنشأ من الطبيعة التكيفية للتقنيات الخوارزمية التي تقوم عليها الأدوات، مثل “عندما يتم تقديم التحيز خلال مرحلة النمذجة من خلال الارتباطات غير الصحيحة المستمدة من البيانات”.
وللتخفيف من هذه المخاطر، تتجه بعض الشركات الاستشارية نحو اتباع نهج قائم على المبادئ. يقول كامبل إن استراتيجية EY هي تقييم “التحديات الأمنية والمشهد التنظيمي المتنوع”، إلى جانب المخاطر الأخلاقية.