>>>> تنبيه gd2md-html: رابط الصورة المضمنة في المصدر الذي تم إنشاؤه وتخزين الصور على الخادم الخاص بك. ملاحظة: قد لا تظهر الصور الموجودة في ملف مضغوط تم تصديره من محرر مستندات Google بنفس الترتيب الذي تظهر به في مستندك. يرجى التحقق من الصور!

—–>

إذا لم تكن مطورًا، فلماذا تريد تشغيل نموذج ذكاء اصطناعي مفتوح المصدر على جهاز الكمبيوتر المنزلي الخاص بك؟

اتضح أن هناك عددًا من الأسباب الجيدة. ومع تحسن النماذج المجانية مفتوحة المصدر أكثر من أي وقت مضى – وسهولة الاستخدام مع الحد الأدنى من متطلبات الأجهزة – فقد أصبح الآن وقتًا رائعًا لتجربتها.

فيما يلي بعض الأسباب التي تجعل النماذج مفتوحة المصدر أفضل من دفع 20 دولارًا شهريًا إلى ChatGPT أو Perplexity أو Google:

  • إنه مجاني. لا توجد رسوم اشتراك.
  • تبقى بياناتك على جهازك.
  • يعمل دون اتصال بالإنترنت، ولا يتطلب الإنترنت.
  • يمكنك تدريب نموذجك وتخصيصه لحالات استخدام محددة، مثل الكتابة الإبداعية أو… حسنًا، أي شيء.

لقد انهار حاجز الدخول. توجد الآن برامج متخصصة تتيح للمستخدمين تجربة الذكاء الاصطناعي دون أي متاعب في تثبيت المكتبات والتبعيات والمكونات الإضافية بشكل مستقل. يمكن لأي شخص لديه جهاز كمبيوتر حديث إلى حد ما القيام بذلك: يمكن لجهاز كمبيوتر محمول أو سطح مكتب متوسط ​​المدى مزود بذاكرة فيديو بسعة 8 جيجابايت تشغيل نماذج ذات قدرة مذهلة، وبعض الطرز تعمل على 6 جيجابايت أو حتى 4 جيجابايت من VRAM. وبالنسبة لشركة Apple، فإن أي شريحة من سلسلة M (من السنوات القليلة الماضية) ستكون قادرة على تشغيل النماذج المحسنة.

البرنامج مجاني، ويستغرق الإعداد دقائق، والخطوة الأكثر رعبًا – اختيار الأداة التي سيتم استخدامها – تتلخص في سؤال بسيط: هل تفضل النقر على الأزرار أو كتابة الأوامر؟

ستوديو LM ضد أولاما

تهيمن منصتان على مساحة الذكاء الاصطناعي المحلية، وتتعاملان مع المشكلة من زاويتين متقابلتين.

يقوم LM Studio بتغليف كل شيء في واجهة رسومية مصقولة. يمكنك ببساطة تنزيل التطبيق وتصفح مكتبة النماذج المضمنة والنقر للتثبيت وبدء الدردشة. تعكس التجربة استخدام ChatGPT، باستثناء أن المعالجة تتم على أجهزتك. يحصل مستخدمو Windows وMac وLinux على نفس التجربة السلسة. بالنسبة للقادمين الجدد، هذه هي نقطة البداية الواضحة.

يستهدف Ollama المطورين والمستخدمين المتميزين الذين يعيشون في المحطة. قم بالتثبيت عبر سطر الأوامر، واسحب النماذج بأمر واحد، ثم قم بالبرمجة النصية أو التشغيل التلقائي بما يرضيك. إنه خفيف الوزن وسريع ويتكامل بشكل نظيف مع سير عمل البرمجة.

إن منحنى التعلم أكثر حدة، ولكن المردود هو المرونة. وهو أيضًا ما يختاره المستخدمون المتميزون من حيث تعدد الاستخدامات وقابلية التخصيص.

تعمل كلتا الأداتين على تشغيل نفس النماذج الأساسية باستخدام محركات تحسين متطابقة. فروق الأداء لا تذكر.

إعداد استوديو LM

قم بزيارة https://lmstudio.ai/ وقم بتنزيل برنامج التثبيت لنظام التشغيل الخاص بك. حجم الملف حوالي 540 ميجا بايت. قم بتشغيل برنامج التثبيت واتبع المطالبات. إطلاق التطبيق.

تلميح 1: إذا سألك أي نوع من المستخدمين أنت، فاختر “المطور”. تقوم الملفات الشخصية الأخرى ببساطة بإخفاء الخيارات لتسهيل الأمور.

التلميح 2: نوصي بتنزيل OSS، نموذج الذكاء الاصطناعي مفتوح المصدر الخاص بـ OpenAI. بدلاً من ذلك، انقر فوق “تخطي” في الوقت الحالي؛ هناك نماذج أفضل وأصغر يمكنها القيام بعمل أفضل.

VRAM: المفتاح لتشغيل الذكاء الاصطناعي المحلي

بمجرد تثبيت LM Studio، سيكون البرنامج جاهزًا للتشغيل وسيبدو كما يلي:

أنت الآن بحاجة إلى تنزيل نموذج قبل أن يعمل برنامج LLM الخاص بك. وكلما كان النموذج أقوى، كلما زادت الموارد التي سيتطلبها.

المورد المهم هو VRAM، أو ذاكرة الفيديو الموجودة على بطاقة الرسومات الخاصة بك. يتم تحميل LLMs إلى VRAM أثناء الاستدلال. إذا لم يكن لديك مساحة كافية، فسينهار الأداء وسيتعين على النظام اللجوء إلى ذاكرة الوصول العشوائي (RAM) الأبطأ للنظام. ستحتاج إلى تجنب ذلك من خلال وجود VRAM كافية للنموذج الذي تريد تشغيله.

لمعرفة مقدار VRAM لديك، يمكنك الدخول إلى مدير مهام Windows (control+alt+del) والنقر فوق علامة التبويب GPU، مع التأكد من تحديد بطاقة الرسومات المخصصة وليس الرسومات المدمجة على معالج Intel/AMD الخاص بك.

سترى مقدار VRAM لديك في قسم “ذاكرة GPU المخصصة”.

على أجهزة Mac من السلسلة M، تكون الأمور أسهل نظرًا لأنها تشترك في ذاكرة الوصول العشوائي (RAM) وذاكرة الفيديو (VRAM). سوف يساوي مقدار ذاكرة الوصول العشوائي (RAM) الموجودة على جهازك VRAM (VRAM) الذي يمكنك الوصول إليه.

للتحقق، انقر على شعار Apple، ثم انقر على “حول”. انظر الذاكرة؟ هذا هو مقدار VRAM لديك.

ستحتاج إلى 8 جيجابايت على الأقل من VRAM. النماذج في نطاق 7-9 مليار معلمة، المضغوطة باستخدام تكميم 4 بت، تتلاءم بشكل مريح مع تقديم أداء قوي. ستعرف ما إذا كان النموذج كميًا لأن المطورين عادة ما يكشفون عنه بالاسم. إذا رأيت BF أو FP أو GGUF في الاسم، فأنت تنظر إلى نموذج كمي. كلما انخفض العدد (FP32، FP16، FP8، FP4)، قل استهلاك الموارد.

لا يتعلق الأمر بالتفاح، ولكن تخيل التكميم كدقة شاشتك. سترى نفس الصورة بدقة 8K أو 4K أو 1080p أو 720p. ستكون قادرًا على فهم كل شيء بغض النظر عن الدقة، ولكن التكبير والانتقائية في التفاصيل سيكشف أن صورة 4K تحتوي على معلومات أكثر من 720 بكسل، ولكنها ستتطلب المزيد من الذاكرة والموارد لعرضها.

ولكن من الناحية المثالية، إذا كنت جادًا حقًا، فيجب عليك شراء وحدة معالجة رسومات جيدة للألعاب مزودة بذاكرة VRAM بسعة 24 جيجابايت. لا يهم إذا كان جديدًا أم لا، ولا يهم مدى سرعته أو قوته. في أرض الذكاء الاصطناعي، VRAM هو الملك.

بمجرد معرفة مقدار VRAM الذي يمكنك النقر عليه، يمكنك معرفة النماذج التي يمكنك تشغيلها من خلال الانتقال إلى حاسبة VRAM. أو يمكنك ببساطة البدء بنماذج أصغر تحتوي على أقل من 4 مليارات معلمة ثم الانتقال إلى نماذج أكبر حتى يخبرك جهاز الكمبيوتر الخاص بك بأنه ليس لديك ذاكرة كافية. (المزيد عن هذه التقنية بعد قليل.)

تنزيل النماذج الخاصة بك

بمجرد أن تعرف حدود أجهزتك، فقد حان الوقت لتنزيل النموذج. انقر على أيقونة العدسة المكبرة على الشريط الجانبي الأيسر وابحث عن النموذج بالاسم.

يعد Qwen وDeepSeek من النماذج الجيدة التي يمكنك استخدامها لبدء رحلتك. نعم، إنهم صينيون، ولكن إذا كنت قلقًا بشأن التجسس عليك، فيمكنك أن تطمئن. عندما تقوم بتشغيل LLM محليًا، لا يترك أي شيء جهازك، لذلك لن يتم التجسس عليك من قبل الحكومة الصينية أو الحكومة الأمريكية أو أي كيانات مؤسسية.

أما بالنسبة للفيروسات، فكل ما نوصي به يأتي عبر Hugging Face، حيث يتم فحص البرنامج على الفور بحثًا عن برامج التجسس والبرامج الضارة الأخرى. ولكن مقابل ما يستحق، فإن أفضل نموذج أمريكي هو Meta’s Llama، لذا قد ترغب في اختياره إذا كنت وطنيًا. (نقدم توصيات أخرى في القسم الأخير.)

لاحظ أن النماذج تتصرف بشكل مختلف اعتمادًا على مجموعة بيانات التدريب وتقنيات الضبط الدقيقة المستخدمة في بنائها. على الرغم من ذلك، لا يوجد شيء اسمه نموذج غير متحيز لأنه لا يوجد شيء اسمه معلومات غير متحيزة. لذا اختر سمك اعتمادًا على مدى اهتمامك بالجغرافيا السياسية.

في الوقت الحالي، قم بتنزيل الإصدارين 3B (الطراز الأصغر والأقل قدرة) والإصدارات 7B. إذا كان بإمكانك تشغيل الإصدار 7B، فاحذف الإصدار 3B (وحاول تنزيل الإصدار 13B وتشغيله وما إلى ذلك). إذا لم تتمكن من تشغيل الإصدار 7B، فاحذفه واستخدم الإصدار 3B.

بمجرد التنزيل، قم بتحميل النموذج من قسم “النماذج الخاصة بي”. تظهر واجهة الدردشة. اكتب رسالة. يستجيب النموذج. تهانينا: أنت تقوم بتشغيل الذكاء الاصطناعي المحلي.

إعطاء النموذج الخاص بك إمكانية الوصول إلى الإنترنت

خارج الصندوق، لا تستطيع العارضات المحليات تصفح الويب. إنهم معزولون حسب التصميم، لذلك سوف تتكرر معهم بناءً على معرفتهم الداخلية. سيعملون بشكل جيد في كتابة القصص القصيرة، والإجابة على الأسئلة، والقيام ببعض البرمجة، وما إلى ذلك. لكنهم لن يقدموا لك آخر الأخبار، أو يخبروك بالطقس، أو التحقق من بريدك الإلكتروني، أو جدولة الاجتماعات لك.

تقوم خوادم بروتوكول السياق النموذجي بتغيير هذا.

تعمل خوادم MCP كجسور بين النموذج الخاص بك والخدمات الخارجية. هل تريد أن يقوم الذكاء الاصطناعي الخاص بك بالبحث في Google، أو التحقق من مستودعات GitHub، أو قراءة مواقع الويب؟ خوادم MCP تجعل ذلك ممكنًا. أضاف LM Studio دعم MCP في الإصدار 0.3.17، ويمكن الوصول إليه من خلال علامة تبويب البرنامج. يعرض كل خادم أدوات محددة — البحث على الويب، والوصول إلى الملفات، واستدعاءات واجهة برمجة التطبيقات (API).

إذا كنت تريد منح النماذج إمكانية الوصول إلى الإنترنت، فإن دليلنا الكامل لخوادم MCP يشرح عملية الإعداد، بما في ذلك الخيارات الشائعة مثل البحث على الويب والوصول إلى قاعدة البيانات.

احفظ الملف وسيقوم LM Studio تلقائيًا بتحميل الخوادم. عند الدردشة مع النموذج الخاص بك، يمكنه الآن استدعاء هذه الأدوات لجلب البيانات المباشرة. لقد اكتسب الذكاء الاصطناعي المحلي الخاص بك للتو قوى خارقة.

نماذجنا الموصى بها لأنظمة 8 جيجابايت

هناك المئات من شهادات LLM المتاحة لك، بدءًا من خيارات جميع المهن وحتى النماذج المضبوطة بدقة والمصممة لحالات الاستخدام المتخصصة مثل البرمجة أو الطب أو لعب الأدوار أو الكتابة الإبداعية.

الأفضل للترميز: Nemotron أو DeepSeek جيدان. لن تذهلك، ولكنها ستعمل بشكل جيد مع إنشاء التعليمات البرمجية وتصحيح الأخطاء، وتتفوق على معظم البدائل في معايير البرمجة. يوفر DeepSeek-Coder-V2 6.7B خيارًا قويًا آخر، خاصة للتطوير متعدد اللغات.

الأفضل للمعرفة العامة والتفكير: Qwen3 8B. يتمتع النموذج بقدرات رياضية قوية ويتعامل مع الاستعلامات المعقدة بفعالية. تستوعب نافذة السياق الخاصة بها المستندات الأطول دون فقدان التماسك.

الأفضل للكتابة الإبداعية: متغيرات DeepSeek R1، ولكنك تحتاج إلى بعض الهندسة السريعة الثقيلة. هناك أيضًا تعديلات دقيقة غير خاضعة للرقابة مثل الإصدار “المحذوف وغير الخاضع للرقابة-NEO-Imatrix” من GPT-OSS من OpenAI، وهو أمر مفيد للرعب؛ أو الكاتب القذر، وهو أمر جيد للشبقية (كما يقولون).

الأفضل لروبوتات الدردشة ولعب الأدوار والخيال التفاعلي وخدمة العملاء: Mistral 7B (خاصة Undi95 DPO Mistral 7B) ومتغيرات Llama ذات نوافذ السياق الكبيرة. يحافظ MythoMax L2 13B على سمات الشخصية عبر المحادثات الطويلة ويكيف النغمة بشكل طبيعي. بالنسبة لألعاب لعب الأدوار الأخرى في NSFW، هناك العديد من الخيارات. قد ترغب في التحقق من بعض النماذج في هذه القائمة.

ل MCP: يعد Jan-v1-4b وPokee Research 7b من النماذج الرائعة إذا كنت ترغب في تجربة شيء جديد. يعد DeepSeek R1 خيارًا جيدًا آخر.

يمكن تنزيل جميع النماذج مباشرة من LM Studio إذا قمت فقط بالبحث عن أسمائها.

لاحظ أن مشهد LLM مفتوح المصدر يتغير بسرعة. يتم إطلاق نماذج جديدة أسبوعيًا، ويطالب كل منها بالتحسينات. يمكنك الاطلاع عليها في LM Studio، أو تصفح المستودعات المختلفة على Hugging Face. خيارات الاختبار لنفسك. تصبح النوبات السيئة واضحة بسرعة، وذلك بفضل الصياغة الغريبة والأنماط المتكررة والأخطاء الواقعية. النماذج الجيدة تبدو مختلفة. هم السبب. إنهم يفاجئونك.

تعمل التكنولوجيا. البرنامج جاهز. ربما يتمتع جهاز الكمبيوتر الخاص بك بالفعل بما يكفي من الطاقة. كل ما تبقى هو محاولة ذلك.

شاركها.
Exit mobile version