كان لمات يد العون السرية عندما بدأ عمله الجديد في شركة أدوية في سبتمبر.
تمكن الباحث البالغ من العمر 27 عامًا، والذي طلب الكشف عن هويته باستخدام اسم مستعار، من مواكبة زملائه الأكثر خبرة من خلال اللجوء إلى ChatGPT من OpenAI لكتابة الكود الذي يحتاجونه لعملهم.
“جزء منه كان الكسل المطلق. ويقول: “كان جزءًا من ذلك هو الإيمان الحقيقي بأنه يمكن أن يجعل عملي أفضل وأكثر دقة”.
لا يزال مات لا يعرف على وجه اليقين ما إذا كان هذا مسموحًا به. لم يمنعه رئيسه صراحة من الوصول إلى أدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT، لكنه لم يشجعه أيضًا على القيام بذلك – أو وضع أي مبادئ توجيهية محددة بشأن الاستخدامات التي قد تكون مناسبة للتكنولوجيا.
ويقول: “لم أستطع أن أرى سببًا يجعلني أشكل مشكلة، لكنني مازلت أشعر بالحرج”. “لم أرغب في الاعتراف باستخدام الاختصارات.”
كان أصحاب العمل يتدافعون لمواكبة العمال الذين يتبنى الذكاء الاصطناعي التوليدي بوتيرة أسرع بكثير من سياسات الشركات المكتوبة. وجد استطلاع أجراه بنك الاحتياطي الفيدرالي في سانت لويس في آب (أغسطس) أن ما يقرب من ربع القوى العاملة في الولايات المتحدة كانت تستخدم بالفعل التكنولوجيا أسبوعيا، وارتفعت النسبة إلى ما يقرب من 50 في المائة في مجالي البرمجيات والصناعات المالية. كان معظم هؤلاء المستخدمين يلجأون إلى أدوات مثل ChatGPT للمساعدة في الكتابة والبحث، وغالبًا ما تكون بديلاً لـ Google، فضلاً عن استخدامها كأداة ترجمة أو مساعد برمجي.
لكن الباحثين يحذرون من أن الكثير من هذا التبني المبكر كان يحدث في الظل، حيث يرسم العمال مساراتهم الخاصة في غياب مبادئ توجيهية واضحة للشركات، أو تدريب شامل أو حماية للأمن السيبراني. بحلول سبتمبر/أيلول، أي بعد مرور عامين تقريبا على إطلاق ChatGPT، قال أقل من نصف المديرين التنفيذيين الذين شملهم الاستطلاع الذي أجرته شركة قانون التوظيف الأمريكية ليتلر إن مؤسساتهم وضعت قواعد حول كيفية استخدام الموظفين للذكاء الاصطناعي التوليدي.
ومن بين الأقلية التي نفذت سياسة محددة، كان الدافع الأول للعديد من أصحاب العمل هو القفز إلى الحظر الشامل. منعت الشركات، بما في ذلك Apple وSamsung وGoldman Sachs وBank of America، الموظفين من استخدام ChatGPT في عام 2023، وفقًا لـ Fortune، ويرجع ذلك في المقام الأول إلى مخاوف خصوصية البيانات. ولكن مع اكتساب نماذج الذكاء الاصطناعي المزيد من الشعبية والقوة، ويُنظر إليها على نحو متزايد باعتبارها مفتاحا للحفاظ على القدرة التنافسية في الصناعات المزدحمة، أصبح قادة الأعمال مقتنعين بأن مثل هذه السياسات التحريمية ليست حلا مستداما.
يقول جيري جايزلر، كبير مسؤولي أمن المعلومات في شركة وول مارت الأمريكية للبيع بالتجزئة: “لقد بدأنا من كلمة “الحظر”، لكننا لم نرغب في الحفاظ على كلمة “الحظر”. “كنا بحاجة فقط إلى منح أنفسنا الوقت للبناء. . . بيئة داخلية لمنح الناس البديل”.
تفضل Walmart أن يستخدم موظفوها أنظمتها الداخلية – بما في ذلك برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي والذي يسمى “My Assistant” للاستخدام الداخلي الآمن – ولكنها لا تمنع موظفيها من استخدام منصات خارجية، طالما أنها لا تتضمن أي معلومات خاصة أو ملكية. في مطالباتهم. ومع ذلك، فقد قامت بتثبيت أنظمة لمراقبة الطلبات التي يرسلها العمال إلى روبوتات الدردشة الخارجية على أجهزة الشركة الخاصة بهم. يقول جيزلر إن أعضاء فريق الأمن سوف يعترضون السلوك غير المقبول و”يتعاملون مع ذلك الشريك في الوقت الفعلي”.
ويعتقد أن وضع سياسة “غير عقابية” هو أفضل رهان لمواكبة المشهد المتغير باستمرار للذكاء الاصطناعي. “لا نريدهم أن يظنوا أنهم في ورطة لأن الأمن اتصل بهم. نريد فقط أن نقول: “لقد لاحظنا هذا النشاط”. ساعدنا على فهم ما تحاول القيام به ومن المحتمل أن نوصلك إلى مورد أفضل من شأنه أن يقلل المخاطر ولكنه لا يزال يسمح لك بتحقيق هدفك.'
يقول: “أود أن أقول إننا ربما نشهد على الأرجح ما يقرب من الصفر من حالات العودة إلى الإجرام عندما تكون لدينا تلك الارتباطات”.
وول مارت ليست وحدها في تطوير ما يسميه جيزلر “ملعب داخلي مسور” للموظفين لتجربة الذكاء الاصطناعي التوليدي. ومن بين الشركات الكبرى الأخرى، أطلقت شركة ماكينزي برنامجًا للدردشة يسمى Lilli، وأطلقت شركة Linklaters روبوتًا يسمى Laila، وأطلق بنك JPMorgan Chase برنامجًا أقل إبداعًا إلى حد ما يسمى “LLM Suite”.
وتواجه الشركات التي لا تملك الموارد اللازمة لتطوير أدواتها الخاصة المزيد من الأسئلة – ما هي الخدمات، إن وجدت، التي يجب توفيرها لموظفيها، مع خطر الاعتماد المتزايد على منصات خارجية.
تقول فيكتوريا آشر، المؤسسة والرئيسة التنفيذية لوكالة الاتصالات جينجر ماي، إنها حاولت الحفاظ على “نهج حذر” بينما تجاوزت أيضًا “الذعر الأولي” المستوحى من وصول ChatGPT في تشرين الثاني (نوفمبر) 2022.
بدأت شركة GingerMay بفرض حظر شامل ولكنها بدأت في العام الماضي في تخفيف هذه السياسة. يُسمح الآن للموظفين باستخدام الذكاء الاصطناعي التوليدي لأغراض داخلية ولكن فقط بإذن صريح من أحد المسؤولين التنفيذيين. يجب على العمال الوصول إلى الذكاء الاصطناعي التوليدي فقط باستخدام اشتراك الشركة في ChatGPT Pro.
يقول آشر: “إن أسوأ السيناريوهات هو أن يستخدم الأشخاص حساب ChatGPT الخاص بهم، وأنك تفقد السيطرة على ما يتم إدخاله فيه”.
وهي تعترف بأن نهجها الحالي المتمثل في مطالبة الموظفين بطلب الموافقة على كل استخدام فردي للذكاء الاصطناعي التوليدي قد لا يكون مستدامًا لأن التكنولوجيا أصبحت جزءًا أكثر رسوخًا من عمليات عمل الأشخاص. وتقول: “نحن سعداء حقًا بمواصلة تغيير سياساتنا”.
وحتى مع وجود استراتيجيات أكثر تساهلاً، فإن العمال الذين كانوا يستخدمون الذكاء الاصطناعي بشكل خاص لتسريع عملهم قد لا يكونون على استعداد لمشاركة ما تعلموه.
“إنهم يبدون مثل العباقرة. يقول إيثان موليك، أستاذ الإدارة في كلية وارتون بجامعة بنسلفانيا: “إنهم لا يريدون ألا يبدوا مثل العباقرة”.
وجد تقرير نشرته الشهر الماضي خدمة الرسائل في مكان العمل “سلاك” أن ما يقرب من نصف العاملين في المكاتب لن يشعروا بالارتياح عندما يخبرون مديريهم أنهم استخدموا الذكاء الاصطناعي التوليدي – إلى حد كبير لأنهم، مثل مات، لا يريدون أن يُنظر إليهم على أنهم غير أكفاء أو كسالى، أو المخاطرة بالتعرض للخطر. متهم بالغش.
وقال العمال الذين شملهم استطلاع سلاك أيضًا إنهم يخشون أنه إذا علم رؤسائهم بمكاسب الإنتاجية التي تم تحقيقها باستخدام الذكاء الاصطناعي، فإنهم سيواجهون عمليات تسريح العمال، وأن أولئك الذين نجوا من التخفيضات المستقبلية سيتحملون ببساطة عبء عمل أثقل.
ويتوقع جيزلر أنه سيتعين عليه مراجعة نهج وول مارت في التعامل مع الذكاء الاصطناعي بشكل مستمر. ويقول: “بعض سياساتنا السابقة تحتاج بالفعل إلى التحديث لتعكس كيفية تطور التكنولوجيا”.
ويشير أيضًا إلى أن وول مارت، باعتبارها منظمة عالمية كبيرة، تواجه التحدي المتمثل في وضع سياسات تنطبق على العديد من أنواع العمال المختلفة. “نريد أن نتشارك مع مديرينا التنفيذيين، وفرقنا القانونية، وتجارنا رسائل مختلفة كثيرًا حول كيفية استخدامنا لهذه التكنولوجيا عما قد نفعله. [with] يقول: “شخص يعمل في مراكز التوزيع أو متاجرنا”.
كما أن المشهد القانوني المتغير يمكن أن يجعل من الصعب على الشركات تنفيذ استراتيجية طويلة المدى للذكاء الاصطناعي. التشريعات قيد التطوير في مناطق بما في ذلك الولايات المتحدة والاتحاد الأوروبي والمملكة المتحدة، ولكن لا يزال لدى الشركات إجابات قليلة حول كيفية تأثير التكنولوجيا على حقوق الملكية الفكرية، أو مدى ملاءمتها للوائح خصوصية البيانات والشفافية الحالية. تقول ميشيل روبرتس جونزاليس، محامية التوظيف في شركة هوجان لوفيلز: “إن عدم اليقين يدفع بعض الشركات إلى محاولة حظر أي شيء يتعلق بالذكاء الاصطناعي”.
بالنسبة لأولئك الذين يحاولون تطوير نوع ما من الإستراتيجية، تقول روز لوكين، الأستاذة في مختبر المعرفة بجامعة كوليدج لندن، إن “العقبة الأولى” هي ببساطة معرفة من داخل المنظمة هو الأقدر على التحقيق في أنواع الذكاء الاصطناعي التي ستكون مفيدة لعملهم. عمل. تقول لوكين إنها رأت حتى الآن أن هذه المهمة مُسندة إلى الجميع، بدءًا من الرئيس التنفيذي وحتى المتدرب، حيث تقوم الشركات بإجراء تقييمات متباينة إلى حد كبير حول مدى أهمية الذكاء الاصطناعي لأعمالها.
تفاجأت سارة، وهي مساعدة قانونية في مكتب محاماة صغير في لندن، عندما طُلب منها إجراء بحث وتصميم كتاب القواعد حول كيفية استخدام زملائها الكبار للذكاء الاصطناعي. وتقول: “من الغريب أن تصبح هذه وظيفتي”. “أنا حرفيًا أصغر عضو في فريق العمل.”