قدمت مجموعة من المشرعين من الحزبين في مجلس النواب مشروع قانون لإنشاء لجنة وطنية لتنظيم الذكاء الاصطناعي. وتأتي هذه الخطوة بعد أسابيع من المخاوف التي أثارها مجتمع “محكوم الذكاء الاصطناعي” الصاخب ، وهي مجموعة تعتقد أن الذكاء الاصطناعي يشكل مخاطر كبيرة ويمكن أن يؤدي إلى نهاية البشرية. في حين أنه من السهل رسم عمالقة التكنولوجيا في Silicon Valley مثل Microsoft
MSFT
وجوجل
جوجل
بصفتنا نذيرًا بنهاية العالم ، فإن الحقيقة هي أن هذه الشركات وغيرها مثلها قد تكون أفضل فرصة لدينا لإنشاء صناعة ذكاء اصطناعي مزدهرة وأخلاقية.
بمعنى آخر ، الشيطان الذي تعرفه أفضل من الشيطان الذي لا تعرفه. تتمتع هذه الشركات ، كونها في طليعة تكنولوجيا الذكاء الاصطناعي ، بالموارد المطلوبة والخبرة والمصالح المتعلقة بالسمعة على المحك لتوجيه تطوير الذكاء الاصطناعي في اتجاه مفيد وآمن للبشرية. إنهم يقودون الطريق بالفعل في تأسيس أخلاقيات الذكاء الاصطناعي ومبادئ الحوكمة ، لذا فإن إعاقة تطورهم يعني على الأرجح ترك مستقبل هذه التكنولوجيا القوية في أيدي كيانات غير معروفة – ومن المحتمل أن تكون خطيرة للغاية.
بعبارة أخرى ، لا ينبغي لنا القفز على عربة تنظيم الذكاء الاصطناعي حتى الآن. غالبًا ما يُطرح أحد الأسباب هو أن التنظيم المفرط في الولايات المتحدة سيؤدي إلى قيام دول أخرى ، وعلى الأخص الصين ، بأخذ زمام المبادرة في تطوير الذكاء الاصطناعي. إذا اعتقدنا أنها مشكلة أن الذكاء الاصطناعي الخارق المتقدم سوف يقع في أيدي وادي السيليكون ، تخيل ما سيحدث عندما يسيطر عليه نظام استبدادي معروف بممارسات المراقبة الغازية. ومع ذلك ، هناك مجموعة أخرى من الأشخاص الذين يجب أن نكون على قدم المساواة إن لم يكن أكثر قلقًا بشأنهم هم جهات فاعلة ضارة داخل حدودنا.
في الوقت الحالي ، أصبح الكثير منا على دراية بـ ChatGPT من OpenAI و Google’s Bard و LlaMa على Facebook. ولكن قد تكون هناك أيضًا مبادرات غير معروفة للذكاء الاصطناعي تعمل اليوم في سرية. في الواقع ، إذا كان شخص ما رائدًا في تطوير الذكاء الاصطناعي ، فهناك عدد من الأسباب المغرية للعمل في الخفاء.
إذا حقق مبتكر اختراقًا وأعلنه علنًا ، فسوف يتعلم المنافسون عنه بسرعة ويحاولون تقليده ، وربما يقفزون النجاح الأولي. وبالمثل ، يمكن أن تضيع ميزة المحرك الأول إذا كانت “المكافأة” الوحيدة التي تجنيها هي الانتظار لمدة عام للحصول على الموافقة التنظيمية بينما يلحق المنافسون بالركب. من المحتمل أيضًا أن تعد التطورات في مجال الذكاء الاصطناعي بالسيطرة على السوق ، ليس فقط بما في ذلك الأرباح الزائدة لبعض الوقت ولكن أيضًا القدرة على بصمة القيم الخاصة بالفرد على التكنولوجيا ، مما قد يترك إرثًا دائمًا للمبدع لفترة طويلة في المستقبل. لهذا السبب الأخير ، تكون السرية مغرية بشكل خاص إذا كان المبدعون يحملون آراء يجدها المجتمع مثيرة للجدل أو حتى بغيضة.
من يجب أن نخشى أنه سيضع أيديهم على الذكاء الاصطناعي المتقدم؟ قد لا يكون عمالقة التكنولوجيا مثل Google أو Microsoft أو OpenAI هم الذين يتبنون بالفعل أطر عمل منظمة العفو الدولية ومعايير أمان مسؤولة ، ولكن بدلاً من ذلك الأطراف غير المعروفة التي تعمل على الهامش. في مثل هذا الجو التنافسي ، قد يميل الفاعلون السيئون إلى ثني القوانين أو حتى خرقها للحفاظ على الصدارة. وبالتالي ، من المحتمل أن تعيق اللوائح المؤسسات الأخلاقية ، مما يترك المجال مفتوحًا للفاعلين عديمي الضمير.
ضع في اعتبارك أيضًا أن بعض نماذج الذكاء الاصطناعي مفتوحة المصدر موجودة بالفعل في المجال العام ، وقد يكون تنظيمها أو حظرها مستحيلًا الآن بعد أن تم فتح صندوق Pandora هذا بالفعل. القوة الحاسوبية الكبيرة اللازمة لأحدث تقنيات الذكاء الاصطناعي اليوم لن تكون عائقًا إلى الأبد أيضًا. التكنولوجيا تتطور ، والتكاليف تنخفض ، والبيروقراطيات الحكومية دائمًا ما تكون بطيئة في التكيف لمواكبة وتيرة التغيير.
شئنا أم أبينا ، قد تكون التكنولوجيا الكبيرة هي أفضل صديق لدينا. لذلك ، من الضروري أن نشجع المنافسة المفتوحة بين الشركات الأخلاقية بدلاً من خنقها بإفراط في التنظيم. لن تؤدي الهيئات أو اللجان الحكومية الجديدة إلا إلى إبطاء هذه الشركات المبتكرة ، مما يترك أي منافسين محتملين في حالة شريرة للاستيلاء على غنائم سباق الذكاء الاصطناعي.
نريد أن يكون القادة في مجال الذكاء الاصطناعي هم الشركات التي تتمتع بإطار أخلاقي قوي والتزام بالشفافية ، وليس الشركات التي ترغب في ثني القواعد والعمل في الظل. من خلال التسرع في تنظيم الذكاء الاصطناعي ، يمكن أن ينتهي بنا الأمر عن غير قصد إلى منح الميزة لأولئك الذين لا نرغب في الحصول عليها.