18/11/2025
نجحت بتنصيب وتشغيل موديل ذكاء اصطناعي على لابتوبي الشخصي بدون GPU عالي او RAM كبير والجزء الافضل؟ اصبح يعمل بكفاءة وبدون انترنت!
نماذج الذكاء الاصطناعي LLM هي نماذج عملاقة جداً قد تحتاج الى قدرة خزن من ٥٠٠ كيكابايت الى ٢ تيرابايت وRAM يتجاوز ال٤٨ كيكابايت على اقل تقدير وطبعاً GPU عملاق مع بضعة كروت شاشة A100 او H100 على الاقل وهذا كله يجعل كلفة التشغيل عالية جداً (تتجاوز بكثير ال٥٠٠٠ دولار شهريا) وهذا غير مجدي اقتصادياً
حسناً، ما الذي جعل هذا المودل يعمل على CPU خاص بلابتوب MacBook Pro ومعالج M1 مع RAM قريب من 16 كيكابايت وبدون انترنت؟
وهل يمكن ان يعمل على الموبايل؟
تم اختيار مودل عملاق مفتوح المصدر بمعمارية Mixture of Experts (MoE) والتي تقسم الموديل الكبير (الذي ذكرناه سابقاً) الى موديلات فرعية داخل المودل الرئيسي لهذا يمكن اطفاء الموديلات غير المستخدمة والتركيز على اجزاء منه ويتواصل بC++ بشكل مباشر على compiler الخاص باللابتوب ولكن بطريقة تضمن الاداء العالي والاستهلاك الاقل. كما تتطلب قدر صغير جداً من الVRAM
وصيغة هذا الملف هي بالطبع GGUF مع امكانية التحكم بال offloading للـCPU والCaching
واما عما اذا كان من الممكن ان يعمل على الهاتف، فقد رايت مشاريع من هذا النوع ولكن هذا المشروع لا يدعم الهواتف.
ماذا يمكن ان نستفيد منه؟
يمكن لهذا المودل في حال ربطته مع سيرفرات MCP داخلية في اللابتوب ان يقوم بالكثير من الاعمال بدون الحاجة للانترنت وبسرعة لحظية فائقة
فمثلا يمكن ان يقرا ملفاتك وصورك وحافظاتك ويساعدك في اعادة تنظيمها او يكتب لك سكربت ليساعدك في اتمتة المهام بدون انترنت او رقابة او وصول الى بياناتك
ويمكنه ترجمة الرسائل بشكل فوري وتحويل رسائلك الى اللغة التي تريدها بشكل فوري وغيرها من المهام
يمكن تدريب الموديل لكي يستخلص الكتابة من الصور ويفهم ماذا بداخل كل ملف ويعيد تنظيمها
والكثير من المهام الاخرى. نعم ستكون كلفة البرمجة عالية في البداية ولكن بعد هذا تصبح كلفته شبه صفرية ماعدى بعض التحديثات من فترة الى اخرى