في عمود اليوم، سأقوم بدراسة بعض الأبحاث المثيرة التي يمكن أن تحسن بشكل واضح كيفية عمل الذكاء الاصطناعي التوليدي ونماذج اللغات الكبيرة (LLMs). إن النهج الجديد الناشئ قد بدأ للتو في التجربة. سيحدد الوقت ما إذا كانت الطريقة ستكون ذات قيمة دائمة.
الجوهر هو هذا. تميل معظم نماذج الذكاء الاصطناعي السائدة إلى التنظيم داخليًا على أساس التمرير. تتدفق النتيجة من مكون إلى آخر. عندما يتم عرض استجابة لك، تكون النتيجة عادة هي فقط ما جاء به المكون الأخير. كل شيء آخر حدث أثناء المعالجة لم يعد يؤخذ في الاعتبار. النتيجة النهائية فقط هي ما يخرج من العملية التوليدية.
تشير دراسة بحثية ذكية إلى أننا قد نكون قادرين على التغلب على بعض المشكلات المتعلقة بانحراف الذكاء الاصطناعي، مثل إنتاج هلوسة أو تشويشات في الذكاء الاصطناعي بشكل مقلق، من خلال إعادة تجهيز ميل التمرير. لنفترض أنه عند الوصول إلى المرحلة النهائية من توليد الاستجابة، قامت آلية إضافية بإعادة النظر في المعالجة التي حدثت في كل مرحلة سابقة. قد تكون هذه الآلية الإضافية قادرة على رؤية الغابة من أجل الأشجار. بمعنى آخر، يمكن استخدام التحليل الحسابي والرياضي للمعالجة في كل مرحلة في النهاية، وذلك لتحديد النتيجة النهائية التي يجب أن تكون عليها حقًا.
دعونا نتحدث عن ذلك.
يعد هذا التحليل لاختراقات الذكاء الاصطناعي جزءًا من تغطية عمود فوربس المستمرة حول أحدث التطورات في مجال الذكاء الاصطناعي، بما في ذلك تحديد وشرح مختلف تعقيدات الذكاء الاصطناعي المؤثرة (انظر الرابط هنا).
عندما يقوم البشر بحل المشكلات
قبل أن أنتقل إلى جانب الذكاء الاصطناعي، أود أن أشارككم تشبيهًا عامًا يسلط الضوء على كيف يمكن للبشر الذين يعملون معًا أن يحاولوا أحيانًا حل مشكلة ما. سيكون هذا التشبيه السريع مفيدًا عندما أناقش آليات الذكاء الاصطناعي الغامضة داخل ماجستير إدارة الأعمال.
افترض أن لديك مجموعة من عشرة أشخاص سيحاولون حل مسألة حسابية بسيطة. سنقوم بترتيب الأشخاص العشرة في تسلسل ونجعل كل منهم يعمل بشكل منفصل على محاولة حل المشكلة. كلهم لديهم نفس المشكلة سلمت لهم.
سيخبر الشخص الأول في الصف الشخص الثاني بالإجابة التي توصل إليها، وهو الشخص الأول. سيخبر الشخص الثاني بعد ذلك الشخص الثالث بالإجابة التي توصل إليها، والتي قد تكون هي نفس إجابة الشخص الأول، أو قد لا تكون كذلك. سيفكر الشخص الثاني فيما إذا كان سيستخدم إجابة الشخص الأول أو يختار تجاوزها والتوصل إلى إجابته المختلفة.
ويستمر هذا بنفس الطريقة، مرارًا وتكرارًا، من شخص إلى آخر. بما أن لدينا عشرة أشخاص، فهذا يعني أن الشخص الأول يخبر الشخص الثاني بالإجابة، والشخص الثاني يخبر الشخص الثالث بالإجابة، والشخص الثالث يخبر الشخص الرابع بالإجابة، وهكذا.
عندما يتلقى أحد الأشخاص في الصف إجابة مقترحة من الشخص الذي سبقه، يمكن للشخص المتلقي أن يقرر ما يجب فعله بها. يمكن للشخص المتلقي استخدام إجابة التسليم هذه، أو قد يتجاهلها. ليس هناك ما يضمن أن إجابة التسليم صحيحة. قد يكون من الخطأ. قد يكون على حق.
النتيجة النهائية لحل المشكلة
تخيل أنك كنت واقفًا في نهاية هذا الصف من الأشخاص ولم تتمكن بسهولة من سماع الإجابة المقترحة من شخص لآخر. يلجأ إليك الشخص العاشر أخيرًا ويخبرك أن الإجابة (مثلًا) هي الرقم 642.
هل تصدق هذه الإجابة؟
أنت تعرف فقط ما يقوله لك الشخص الأخير. هل أخذ هذا الشخص العاشر في الاعتبار الإجابة التي قدمها الشخص التاسع؟ هل نظر الشخص التاسع في الإجابة التي قدمها الشخص الثامن؟ إلخ. ربما قام الشخص العاشر بتلفيق إجابة أو اشتقاقها بنفسه واختار تجاهل إجابة الشخص التاسع تمامًا.
وبالمثل، ربما تجاهل كل شخص في التسلسل الإجابة السابقة المقدمة له تمامًا. يبدو ذلك وكأنه عار شديد. من الممكن أنه على طول الطريق تم حساب إجابة مثل 648، ولنفترض أنها الإجابة الصحيحة، ولكن كل ما تعرفه هو ما قاله لك الشخص العاشر، وهو أن الإجابة المزعومة هي 642.
الرؤية والجمع
فكر للحظة في طبيعة العملية التي وصفتها للتو.
سيكون من الرائع بالتأكيد أن نتمكن بطريقة ما من دمج الإجابات العشر في ابتكار الإجابة النهائية التي تأتي من الشخص العاشر. وهنا ما سنفعله. عندما يأتي الشخص العاشر بإجابته، سنطلب من كل واحد من الأشخاص التسعة الآخرين أن يخبرنا بإجاباتهم.
يمكننا بعد ذلك جمع الإجابات العشر بطريقة نأمل أن تكون إجابة أفضل من الإجابة الوحيدة القادمة من الشخص العاشر. النظر في مثال. لنفترض أننا اكتشفنا إجابة الرقم 648 جاءت من الشخص الأول إلى الشخص السابع، ولم يأت إلا الشخص الثامن والتاسع والعاشر بـ 642. قد نقرر أن الأغلبية هي التي تفوز، بمعنى أنه بما أن أكثر من عشرة قالوا إن الإجابة هي 648 (سبعة منهم فعلوا ذلك)، فسوف نستخدم ذلك كإجابة وننحي جانبًا إجابة 642 (التي قدمها ثلاثة أشخاص فقط).
هناك العديد من الطرق التي يمكننا من خلالها الجمع بين الإجابات المعنية. ربما يكون بعض الأشخاص أكثر موثوقية من الآخرين؛ وبالتالي، فإننا سوف نعطي إجاباتهم وزنا أكبر. وهكذا. ويمكن تصور وسائل عديدة للجمع بين الإجابات العشرة.
الذكاء الاصطناعي التوليدي المعاصر
من خلال تغيير التروس، أود أن أتعمق في طبيعة الذكاء الاصطناعي التوليدي والماجستير في إدارة الأعمال.
يقوم مطورو الذكاء الاصطناعي بصياغة LLM عن طريق مسح النص الموجود عبر الإنترنت. يتطابق نمط الذكاء الاصطناعي مع النص الممسوح ضوئيًا. ونتيجة لمسح ملايين وملايين القصص والروايات والقصائد وما شابه، أصبح الذكاء الاصطناعي قادرًا رياضيًا وحسابيًا على أن يبدو وكأنه يتقن اللغات الطبيعية البشرية مثل اللغة الإنجليزية. يعكس الذكاء الاصطناعي بشكل أساسي الطريقة التي يكتب بها البشر.
يوجد داخل الذكاء الاصطناعي شبكة عصبية اصطناعية (ANN). إنها بنية بيانات واسعة النطاق تحتوي على قيم رقمية. تقوم ANN بالجزء الأكبر من العمل عندما يتعلق الأمر بتمثيل مطابقة النمط للمواد المكتوبة التي تم مسحها ضوئيًا.
بالإضافة إلى ذلك، يرجى العلم أن الشبكة العصبية الاصطناعية (ANN) ليست مثل الشبكة العصبية الحقيقية (NN) الموجودة في دماغك. يستخدم دماغك شبكة معقدة ومعقدة تتكون من خلايا عصبية حية كيميائية حيوية مترابطة. يشير البعض بوقاحة إلى الدماغ البشري على أنه برنامج رطب (وهو عبارة عن تلاعب بالألفاظ على حقيقة أن أجهزة الكمبيوتر تحتوي على أجهزة وبرامج).
تعتبر ANN مبسطة بالمقارنة وهي مجرد تقليد ملهم لبعض جوانب كيفية عمل الدماغ البشري. ANN حسابية ورياضية بالكامل. أذكر هذا للتأكيد على أنه على الرغم من أن الكثيرين في وسائل الإعلام يميلون إلى مساواة الشبكات العصبية الاصطناعية بالشبكات العصبية الحقيقية، إلا أن هذا ليس تناقضًا عادلاً. لمزيد من التفاصيل حول الشبكات العصبية الاصطناعية وكيفية عملها، راجع مناقشتي على الرابط هنا.
الطبقات داخل ANN
تنقسم الشبكة العصبية الاصطناعية واسعة النطاق إلى طبقات، تتكون كل طبقة من العديد من الخلايا العصبية الاصطناعية.
يقرر مطور الذكاء الاصطناعي عدد الخلايا العصبية الاصطناعية التي سيتم تخصيصها لكل طبقة. وبالمثل، يقرر مطور الذكاء الاصطناعي عدد الطبقات التي ستتكون منها الشبكة العصبية الاصطناعية بالكامل. احتوت الأيام الأولى من LLMs على شبكات ANN مع عدد قليل من الطبقات ربما تصل إلى عشرين طبقة. يستخدم الذكاء الاصطناعي التوليدي المعاصر الآن الكثير من الطبقات. على سبيل المثال، يحتوي ChatGPT على 96 طبقة.
دعونا نفكر في كيفية عمل الطبقات مع بعضها البعض. سيتم وصف ذلك على مستوى 30000 قدم وسيقدم فكرة مبسطة عن كيفية حدوث الأعمال الداخلية فعليًا.
لنفترض أنك قمت بإدخال مطالبة في LLM. يتم تغذية الموجه بشكل أساسي في الطبقة الأولى من الشبكة العصبية الاصطناعية. في هذه الطبقة الأولى، ستحدث المعالجة الأكثر بدائية أو ذات المستوى الأدنى للموجه. ستنتج الطبقة الأولى نتيجة واحدة وتمرر تلك النتيجة إلى الطبقة الثانية.
الطبقة الثانية ليس لديها أي رؤية لما حدث داخل الطبقة الأولى. كل ما تستقبله الطبقة الثانية هو مخرجات من الطبقة الأولى. ثم تقوم الطبقة الثانية بالمعالجة الخاصة بها. عند الانتهاء من المعالجة، تمر الطبقة الثانية بالنتيجة إلى الطبقة الثالثة. الطبقة الثالثة ليس لديها رؤية لما حدث في الطبقة الثانية. الطبقة الثالثة لديها مخرجات يتم تغذيتها بها من الطبقة الثانية فقط.
وعلى هذا النحو، استمر في نفس النشاط حتى الوصول إلى الطبقة الأخيرة. تنتج الطبقة الأخيرة نتيجة تصبح بعد ذلك الاستجابة النهائية التي ستشاهدها معروضة لك. ليس لديك أدنى فكرة عما حدث خلال الطبقات البينية. الجانب الوحيد الذي يتم إعلامك به هو النتيجة التي تخرج من الطبقة الأخيرة.
إعادة التفكير في نهج التمرير على طول الطريق
آها، ربما تكون الآن قد قمت بربط النقاط. يمكننا ربط تشبيهي السابق بهذه المعضلة الميكانيكية لماجستير القانون. تلعب الطبقات لعبة التمرير. قد لا يكون هذا النهج هو أفضل لعبة في المدينة.
بدلاً من الاعتماد فقط على الطبقة الأخيرة لإنتاج الاستجابة النهائية، قد يكون من المفيد جدًا دمج الإجابات الأخرى التي تم إنشاؤها على طول الطريق. هناك العديد من الطرق التي يمكننا من خلالها القيام بذلك. الموضوع الرئيسي هو أنه بمجرد وصول الذكاء الاصطناعي إلى الطبقة النهائية أثناء معالجته، يجب علينا تضمين وسيلة لإشراك إجابات الطبقة السابقة الأخرى بطريقة معقولة.
حددت دراسة بحثية هذه الحداثة وأجرت تجارب لمعرفة ما إذا كانت فعالة. تحمل الدراسة عنوان “SLED: فك تشفير تطور اللوجيستات الذاتية لتحسين الواقعية في نماذج اللغات الكبيرة” بقلم جياني تشانغ، دا-تشنغ جوان، سايروس راتشيان، تشون سونغ فيرنغ، هاينريش جيانغ، ييران تشين، arXiv، 19 أغسطس 2025، وتحدثت عن هذه النقاط البارزة (مقتطفات):
- “لقد أظهرت نماذج اللغات الكبيرة (LLMs) قدرات رائعة، ولكن مخرجاتها يمكن أن تكون في بعض الأحيان غير موثوقة أو غير صحيحة في الواقع. إن مسألة الهلوسة تقوض موثوقية وجدارة LLMs في التطبيقات العملية.”
- “ولمعالجة هذه المشكلة، نقدم Self Logits Evolution Decoding (SLED)، وهو إطار عمل جديد لفك التشفير يعزز مصداقية LLMs دون الاعتماد على قواعد المعرفة الخارجية أو الحاجة إلى مزيد من الضبط الدقيق.”
- “من منظور التحسين، يستفيد إطار SLED الخاص بنا من المعرفة الكامنة المضمنة في LLM من خلال مقارنة سجلات المخرجات من الطبقة النهائية مع تلك الموجودة في الطبقات المبكرة. ثم يستخدم نهجًا متدرجًا تقريبيًا لتمكين المعرفة الكامنة من توجيه التحسين الذاتي للمخرجات، وبالتالي تحسين الدقة الواقعية بشكل فعال.”
- “لقد أجرينا تجارب واسعة النطاق عبر مجموعة من دورات LLM، بتكوينات ومقاييس مختلفة. وأظهرت النتائج أن SLED يعمل باستمرار على تحسين الدقة الواقعية في مختلف المهام والمعايير، بما في ذلك مهام الاختيار من متعدد، والتوليد المفتوح، ومهام التفكير المنطقي المتسلسل.”
تراكب مقابل الجراحة الصريحة
يكمن جمال هذا النوع من النهج في أنك لا تحتاج بالضرورة إلى إجراء عملية جراحية عميقة لتعديل التعليمات البرمجية على الطبقات المختلفة وبنية الشبكة العصبية الاصطناعية. لا حاجة إلى القناة الهضمية التعليمات البرمجية أو هياكل البيانات. يمكن الاحتفاظ بالترتيبات المعتادة كما هي. على العموم، يمكنك إضافة قطعة جديدة في نهاية العملية، وذلك بطريقة أقل تدخلاً.
بعض الأفكار النهائية في الوقت الراهن.
هناك قول مأثور معروف بأن رأسين أفضل من رأس واحد. وبطريقة ملتوية، نحن ندرك أنه من خلال الجمع بين لوغاريتمات الطبقة المبكرة مع لوغاريتمات الطبقة النهائية، فإنه يستفيد من العديد من المخرجات المقترحة في كل متماسك مأمول. الاعتقاد المعقول هو أن الإجابة النهائية سوف تستقر حول القيم الفعلية التي تم تشفيرها في الطبقات المبكرة (بافتراض أننا نقوم بالدمج بشكل مدروس). الجواب النهائي هو نتيجة مختلطة.
إنها طريقة مثيرة للاهتمام للتعامل مع المخاوف السائدة من أن طلاب LLM غالبًا ما ينحرفون عن الحقائق الحقيقية وينتجون نتائج خاطئة أو مختلقة.
أتذكر مقولة شهيرة لجيف بيزوس فيما يتعلق بتوسيع آفاقنا عندما يتعلق الأمر بالابتكار: “الطريقة الوحيدة للهروب من الصندوق هي أن تخترع طريقك للخروج”. ما إذا كانت هذه الوسيلة الرائدة للهروب من الطريقة السائدة في تصميم الأجزاء الداخلية لـ LLMs ستساعدنا على تجاوز القيود الحالية للذكاء الاصطناعي أم لا، فهي مسألة مفتوحة. وفي الوقت نفسه، دعونا نحافظ على تدفق هذه الأفكار ونستمر في الابتكار بشكل خلاق.
مرحبًا بك في التفكير خارج الصندوق عندما يتعلق الأمر بتصميم الذكاء الاصطناعي.
