شركة ميسترال الفرنسية الناشئة في مجال الذكاء الاصطناعي، والتي غالبًا ما يتم رفضها باعتبارها المستضعف الأوروبي في مجال يهيمن عليه العمالقة الأمريكيون والشركات الناشئة الصينية، تمكنت للتو من اللحاق بالركب: لقد أسقطت إصدارها الأكثر طموحًا حتى الآن يوم الثلاثاء والذي يمنح المنافسة مفتوحة المصدر فرصة للحصول على المال. (أو لا مال، في هذه الحالة.)

تشتمل عائلة النماذج الأربعة على مساعدين بحجم الجيب إلى نظام متطور يضم 675 مليار معلمة، كل ذلك بموجب ترخيص Apache 2.0 مفتوح المصدر المسموح به. الأوضاع متاحة للعامة للتنزيل، ويمكن لأي شخص لديه الأجهزة المناسبة تشغيلها محليًا أو تعديلها أو ضبطها أو إنشاء تطبيقات عليها.

تستخدم الشركة الرائدة، ميسترال لارج 3، بنية متفرقة من مزيج من الخبراء تقوم بتنشيط 41 مليار فقط من إجمالي 675 مليار معلمة لكل رمز مميز. يتيح لها هذا الاختيار الهندسي الوصول إلى فئات الوزن الحدودية أثناء تشغيل الاستدلال على شيء أقرب إلى ملف تعريف حسابي يضم 40 مليار معلمة.

تم تدريب Mistral Large 3 من الصفر على 3000 وحدة معالجة رسومات NVIDIA H200 وظهر لأول مرة في المركز الثاني بين النماذج مفتوحة المصدر وغير المنطقية على لوحة المتصدرين LMArena.

يحكي التنافس القياسي مع DeepSeek قصة معقدة. وفقًا لمعايير ميسترال، فإن أفضل طراز لها يتفوق على DeepSeek V3.1 في العديد من المقاييس ولكنه يتخلف عن الإصدار الأحدث V3.2 ببضع نقاط على LMArena.

فيما يتعلق بالمعرفة العامة ومهام الاستدلال المتخصصة، فإن عائلة ميسترال تمتلك قدراتها الخاصة. ما يتفوق عليه DeepSeek هو سرعة الترميز الأولية والمنطق الرياضي. ولكن هذا أمر متوقع: لا يتضمن هذا الإصدار نماذج استدلالية، لذلك لا تحتوي هذه النماذج على سلسلة فكرية مدمجة في بنيتها.

نماذج “Ministral” الأصغر حجمًا هي التي تصبح فيها الأشياء مثيرة للاهتمام للمطورين. ثلاثة أحجام – معلمات 3B و8B و14B – كل سفينة مزودة بمتغيرات أساسية وتعليمات. جميع مدخلات الرؤية تدعم أصلاً. لفت نموذج 3B انتباه باحث الذكاء الاصطناعي سيمون ويليسون، الذي أشار إلى أنه يمكن تشغيله بالكامل في متصفح عبر WebGPU.

إذا كنت ترغب في تجربة ذلك، فإن مساحة Hugginface هذه تتيح لك تحميله محليًا والتفاعل باستخدام كاميرا الويب الخاصة بك كمدخل.

يفتح الذكاء الاصطناعي القادر على الرؤية في ملف يبلغ حجمه 3 جيجابايت تقريبًا إمكانيات للمطورين الذين يحتاجون إلى الكفاءة – أو حتى للهواة: الطائرات بدون طيار، والروبوتات، وأجهزة الكمبيوتر المحمولة التي تعمل دون اتصال بالإنترنت، والأنظمة المدمجة في المركبات، وما إلى ذلك.

يكشف الاختبار المبكر عن انقسام الشخصية عبر التشكيلة. وفي اختبار سريع، وجدنا أن جهاز Mistral 3 Large جيد لطلاقة المحادثة. في بعض الأحيان يكون له نمط التنسيق GPT-5 (نمط لغة مماثل وتفضيل للرموز التعبيرية) ولكن بإيقاع أكثر طبيعية.

يعد Mistral 3 Large أيضًا فضفاضًا جدًا من حيث الرقابة، مما يجعله الخيار الأفضل للعب الأدوار السريعة عند الاختيار بين ChatGPT أو Claude أو Gemini.

بالنسبة لمهام اللغة الطبيعية والكتابة الإبداعية ولعب الأدوار، يجد المستخدمون أن متغير تعليمات 14B جيد جدًا، ولكنه ليس رائعًا بشكل خاص. مواضيع Reddit حول مشكلات تكرار علامة r/LocalLLaMA والاعتماد المفرط في بعض الأحيان على عبارات المخزون الموروثة من بيانات التدريب، ولكن قدرة النموذج على إنشاء محتوى طويل تعد ميزة إضافية رائعة، خاصة بالنسبة لحجمه.

أفاد المطورون الذين يقومون بتشغيل الاستدلال المحلي أن النماذج 3B و8B تتكرر أحيانًا أو تنتج مخرجات ذات صيغة معينة، خاصة في المهام الإبداعية.

ومع ذلك، فإن الطراز 3B صغير جدًا بحيث يمكن تشغيله على أجهزة ضعيفة مثل الهواتف الذكية ويمكن تدريبه/ضبطه لأغراض محددة. الخيار المنافس الوحيد في الوقت الحالي في هذه المنطقة المحددة هو الإصدار الأصغر من Google Gemma 3.

اعتماد المؤسسة يتحرك بالفعل. أعلن بنك HSBC عن شراكة متعددة السنوات يوم الاثنين مع ميسترال لنشر الذكاء الاصطناعي التوليدي عبر عملياته. وسيقوم البنك بتشغيل نماذج مستضافة ذاتيا على البنية التحتية الخاصة به، والجمع بين القدرات الفنية الداخلية وخبرة ميسترال. بالنسبة للمؤسسات المالية التي تتعامل مع بيانات العملاء الحساسة بموجب اللائحة العامة لحماية البيانات، فإن جاذبية بائع الذكاء الاصطناعي الذي يقع مقره في الاتحاد الأوروبي بأوزان مفتوحة ليست خفية.

تعاونت Mistral وNVIDIA على نقطة تفتيش مضغوطة NVFP4 تسمح لـ Large 3 بالعمل على عقدة واحدة مكونة من ثمانية من أفضل بطاقاتها. تدعي NVIDIA أن Ministral 3B يصل إلى ما يقرب من 385 رمزًا في الثانية على RTX 5090، مع أكثر من 50 رمزًا في الثانية على Jetson Thor لتطبيقات الروبوتات. وهذا يعني أن النموذج فعال للغاية وسريع في الاستدلال، ويعطي إجابات أسرع دون التضحية بالجودة.

سيتم طرح إصدار محسّن للاستدلال من Large 3 قريبًا، وفقًا للإعلان. وحتى ذلك الحين، يحتفظ DeepSeek R1 والنماذج الصينية الأخرى مثل GLM أو Qwen Thinking ببعض التمايز في مهام الاستدلال الواضحة. ولكن بالنسبة للشركات التي تريد قدرات حدودية، وأوزان مفتوحة، وقوة متعددة اللغات عبر اللغات الأوروبية، والشركة التي لن تخضع لقوانين الأمن القومي الصينية أو الأمريكية، فقد توسعت الخيارات من صفر إلى واحد.

شاركها.
Exit mobile version