حظيت دراسة أنجزها بالكامل برنامج الذكاء الاصطناعي “غروك 3″، الذي ابتكرته شركة مملوكة لرجل الأعمال إيلون ماسك، بإشادة واسعة عبر منصات التواصل الاجتماعي من قبل المتشككين في قضايا التغير المناخي، بينما أبدى باحثون مستقلون مخاوف بشأن مصداقية تلك الأساليب وجدواها العلمية.
الدراسة، التي تحمل عنوان “إعادة تقييم نقدي لفرضية الاحترار المناخي المرتبط بانبعاثات ثاني أكسيد الكربون”، شككت في استنتاجات وتوقعات الهيئة الحكومية الدولية المعنية بتغير المناخ التابعة للأمم المتحدة، واستندت إلى دراسات لطالما أثارت الجدل بين المتخصصين في الأوساط العلمية. وقد انتشرت الدراسة على نطاق واسع عقب نشرها في نهاية مارس/آذار الماضي، حيث أعاد تداولها العديد من الشخصيات البارزة في أوساط المشككين بالمناخ، من بينهم عالم الكيمياء الحيوية الأميركي روبرت مالون، المعروف بمشاركته لمعلومات مضللة خلال جائحة كوفيد-19.
New Study by Grok 3 beta and Scientists Challenges CO2 ’s Role in Global Warming
March 21, 2025 – Lexington, MA, USA – A provocative new study led by artificial intelligence Grok 3 beta (xAI) and co-authors Jonathan Cohler (Cohler & Associates, Inc.), David R. Legates (Retired,…
— Nancy Pearcey (@NancyRPearcey) March 23, 2025
وقال مالون في منشور عبر منصة “إكس” (تويتر سابقا) إن “استخدام الذكاء الاصطناعي في الأبحاث الممولة من القطاع العام سيصبح أمرا شائعا، وستُحدّد معايير لاستخدامه في المجلات العلمية”، مضيفا أن الدراسة تمثل -على حد وصفه- “نهاية الخدعة المناخية”، وهو منشور تجاوز عدد مشاهداته المليون.
لكن في المقابل، يجمع المجتمع العلمي على وجود رابط واضح بين استهلاك الوقود الأحفوري وارتفاع درجات الحرارة، إلى جانب ما يصاحب ذلك من تفاقم للظواهر المناخية المتطرفة، مثل موجات الحر والفيضانات. ويثير هذا السياق تساؤلات عن مدى حيادية المحتوى الذي يُنتج عبر برامج الذكاء الاصطناعي، ومدى إمكانية توظيفه كأداة بحث علمي موثوقة.
وفي هذا السياق، يقول أستاذ العلوم البيئية مارك نيف:
“هذه البرامج اللغوية الكبيرة لا تمتلك القدرة على التفكير، بل هي نماذج إحصائية تتنبأ بالكلمات أو الجمل استنادا إلى ما تدربت عليه، وهذا ليس بحثا علميا”.
وقد أوضح المقال ذاته أن برنامج “غروك 3” كتب المسودة كاملة، لكنه تلقى توجيهات من مساهمين بشريين وصفوا بأنهم أدوا “دورا حاسما” في تطويرها. ومن بين هؤلاء، عالم الفيزياء الفلكية ويلي سون، المعروف بتشكيكه في قضايا المناخ، والذي سبق أن تلقى أكثر من مليون دولار من قطاع الوقود الأحفوري لتمويل أبحاثه.
كما ذكر المقال أن بعض الدراسات التي استشهد بها الذكاء الاصطناعي قد أُضيفت إلى التحليل بناء على طلب من الفريق المشارك في إعداد الدراسة، على الرغم من أن عددا من تلك الدراسات سبق أن خضعت للمراجعة النقدية أو الطعن من قبل علماء آخرين.
وتقول عالمة الأحياء الدقيقة الهولندية المقيمة في كاليفورنيا والمتخصصة في النزاهة العلمية، إليزابيت بيك، “لا نعرف شيئا عن الطريقة التي طلب بها المشاركون من الذكاء الاصطناعي تحليل البيانات والمصادر المذكورة”.
“نزاهة الذكاء الصناعي”
من جهته، يؤكد خبير الذكاء الاصطناعي أشويني باندا أن التحقق من نزاهة مساهمة الذكاء الاصطناعي دون تدخل بشري يبقى أمرا مستحيلا، قائلا: “بإمكان أي شخص الادعاء بأن برنامجا ذكيا كتب دراسة ما بمفرده، وبالتالي اعتبارها غير متحيزة، بينما الحقيقة قد تكون غير ذلك تماما”.
كذلك، يُثير توقيت نشر الدراسة علامات استفهام، إذ أُنجزت وقُدمت إلى النشر، ثم نُشرت خلال 12 يوما فقط، وهي مدة قصيرة بشكل غير اعتيادي في عالم النشر العلمي، وتطرح شكوكا عن مستوى التدقيق والمراجعة العلمية. ويبدو أن المجلة أو الجهة الناشرة لا تتبع أي لجنة معنية بالأخلاقيات العلمية، بحسب بعض الباحثين.
في هذا الإطار، عبّر غافين شميت، عالم المناخ في وكالة الفضاء الأميركية (ناسا)، عن استغرابه مما وصفه بـ”سهولة الذكاء الاصطناعي في تجميع مواد سيئة الجودة”، مؤكدا أن الدراسة التي رُوّج لها لا تحمل مصداقية تُذكر، شأنها شأن المراجع التي اعتمدت عليها.
أما ناومي أوريسكس، مؤرخة العلوم بجامعة هارفارد، فقد رأت أن استخدام الذكاء الاصطناعي في هذه الحالة ما هو إلا “خدعة جديدة لإضفاء طابع زائف من الحداثة والتجديد على حجج المشككين في أزمة المناخ”.
ويحذر خبراء وأكاديميون من الآثار السلبية الناتجة عن الاعتماد المفرط على تطبيقات الذكاء الاصطناعي في إعداد البحوث العلمية والأكاديمية، مؤكدين أن ذلك قد يؤدي إلى تقليل كفاءات الباحثين ومهاراتهم في التحليل والتفكير النقدي والإبداعي.