في الأسبوع الماضي ، قلت إن تقرير MIT “Genai Divide” أجبرنا على إعادة التفكير في كيفية قياس تأثير الذكاء الاصطناعي في الأعمال التجارية. إلى جانب معدلات الفشل تكمن قصة أكثر دقة للبقع العمياء القياس. الآن تكشف أحدث استطلاعات جالوب عن مقياس آخر حرج يتطلب اهتمامنا العاجل: الثقة. السباق للانضمام إلى AI Gold Rush أمر مغر ، ولكن بدون ثقة عامة ، ستكون المكاسب عابرة

وفقًا لتقرير جامعة بنتلي عام 2025 ، فإن حوالي ثلث الأميركيين (31 ٪) يثقون الآن في الشركات “كثيرًا” أو “البعض” لاستخدام الذكاء الاصطناعى بمسؤولية ، وهو تحسن ملحوظ من 21 ٪ في عام 2023. وفي الوقت نفسه ، يقول 57 ٪ من الذكاء الاصطناعى يضر بقدر ما يضر ، بزيادة من 50 ٪. يقول واحد وأربعون في المائة من الشركات الثقة “ليس كثيرًا” ، وأكثر من ربع (28 ٪) يقولون “ليس على الإطلاق”. ما يقرب من ثلاثة أرباع يتوقع من الذكاء الاصطناعى أن تقلص الوظائف في العقد المقبل ، وهو اعتقاد لا يتزعزع على مدار ثلاث سنوات من الاقتراع.

هذا ليس أرضًا من المقاومة. لكنها ليست ثقة متينة أيضًا.

هل تقوم الشركات بقياس الأشياء الخاطئة – Again؟

بقدر ما جادل تحليل معهد ماساتشوستس للتكنولوجيا الخاص بي لقياس التأثير الحقيقي لمنظمة العفو الدولية-تكييف اعتماد الظل ، ومكاسب الإنتاجية الدقيقة ، والتحول من أسفل إلى أعلى يغيب عن “معدلات الفشل” الرسمية-فإن التحدي الجديد للأعمال التجارية متشابهة. تتبع الشركات الطيارين أو النشرات الصحفية أو عبارات P&L ، ولكن نادراً ما تشمل المشاعر العامة أو الثقة أو الشفافية كمؤشرات الديمقراطية. ومع ذلك ، فإن أحدث عمليات الاقتراع في جالوب والعام الماضي هذه هي بالضبط ما يتطلبه الجمهور.

الشفافية هي الفائز الهارب عندما يُسأل الأمريكيون كيف يمكن للشركات تخفيف مخاوف الذكاء الاصطناعي. إنه إغراء أقوى للثقة من التعليم ، وأكثر إقناعًا من التنظيم ، وأكثر إلحاحًا من الوعود الغامضة. يقول ما يقرب من ستة من كل عشرة إن الشركات يجب أن تكون شفافة حول كيفية استخدامها لمنظمة العفو الدولية – ومكان اتخاذ القرارات ، ومن تأثرت ، وما يحدث للوظائف ، وحيث يبدأ الرقابة البشرية.

توزيع أرباح الثقة: ليس مجرد أصل علاقات عامة

لماذا يجب أن يهتم قادة الأعمال؟ لأن هذا لا يتعلق فقط بمواكبة المظاهر. يتعلق الأمر بإلغاء تأمين “توزيع الأرباح الثقة” ، وهي فوائد العمل الملموسة التي تتدفق عندما يعتقد العملاء والموظفون أن الذكاء الاصطناعى يحسن خبرتهم ، وليس فقط النتيجة النهائية. الثقة تنعم منحنيات التبني ، ويدفع مشاركة العملاء ، وتساعد على جذب المواهب العليا ، وبشكل متزايد ، تبقي الشركات على الجانب الأيمن من التنظيم.

لكن الثقة ، مثل الإنتاجية ، ليست فضيلة مجردة. يجب تتبعها ومراجعتها وإدارتها. الشركات التي تتعامل مع بناء الثقة كنتيجة تجارية من الدرجة الأولى ، على سبيل المثال ، تحسب درجات الثقة ، وتتبع جهود الشفافية ، وربط الأجر العليا بمقاييس الثقة العامة والقوى العاملة ، هي التي من المرجح أن تجني المكافآت المستدامة من الذكاء الاصطناعي.

الحياد: نافذة ، وليس مكان الراحة

كشفت معهد ماساتشوستس للتكنولوجيا و Gallup عن حقائق متوازية. إن المكاسب القابلة للقياس من الذكاء الاصطناعي – ثرايين ، وفورات في التكاليف ، والكفاءة – ترتكز فقط على نصف القصة. يحدث التحول الأعمق في التحولات الدقيقة لحياة العمل اليومية. إن الارتفاع في الحياد من 50 ٪ إلى ما يقرب من 60 ٪ في عام واحد بالكاد هو سبب للرضا عن الشركات. يمثل نافذة. يبقى الحكم العام حول القيمة الصافية لمنظمة العفو الدولية للاستيلاء. الشركات التي تتصرف الآن لاستخدامها في الذكاء الاصطناعي شفافة ، وتشاركية ، وعلى عادل بشكل واضح ستحصل على تصويت الأرجوحة.

ماذا يجب أن يفعل قادة الأعمال الآن؟

  1. اجعل الشفافية الانعكاسية: نشر سياسات الذكاء الاصطناعي ، وشرح حالات الاستخدام ، وقم بالإبلاغ بانتظام عن كل من الانتصارات والدروس المستفادة.
  2. إشراك الموظفين والعملاء: إشراك كلا المجموعتين بشكل مفيد في محادثات حول أين وكيف ولماذا يتم استخدام الذكاء الاصطناعى.
  3. قياس الثقة: تتبع Track Public and Workforce Trust بنفس الطريقة التي تتبع بها الإيرادات أو وفورات في التكاليف أو رضا العملاء.
  4. حماية الوظائف بالأدلة: أظهر ، وليس فقط أخبر ، كيف ستتغير الوظائف ؛ الذي يحصل على upskilled. وحيث يفتح الذكاء الاصطناعي قيمة جديدة.

غالبًا ما تحجب العناوين الرئيسية حول فشل الذكاء الاصطناعي حقيقة أكثر ثراءً من الابتكار من أسفل إلى أعلى ومصاعد الإنتاجية الهادئة. الآن ، مع نبض Gallup على الجمهور ، من الواضح أن التحدي القادم في العمل ليس فقط القيام بالنيابة عن الذكاء الاصطناعي ، بل ينظر إليه على أنه يفعل ذلك بشكل صحيح. الشركات التي تفوز بلعبة الثقة علانية ، باستمرار ، ومع إثبات ملموس ستكون في رابطة خاصة بهم.

شاركها.