نماذج LFM2 اللغوية الضخمة: ثورة في معالجة اللغة الطبيعية على الأجهزة الطرفية

أطلقت شركة Liquid AI جيلها الثاني من نماذج Liquid Foundation Models، والمعروفة باسم LFM2، والتي تمثل نقلة نوعية في عالم الذكاء الاصطناعي على الأجهزة الطرفية (Edge AI). تتميز هذه النماذج بقدراتها المذهلة في معالجة اللغة الطبيعية، مع تحسينات ملحوظة في الأداء والكفاءة، مما يجعلها مثالية للتطبيقات التي تتطلب سرعة عالية واستجابة فورية.

قفزات هائلة في الأداء

تتفوق نماذج LFM2 بشكل كبير على نماذج الجيل السابق، حيث حققت تحسينات ملحوظة في سرعة الاستنتاج والتدريب:

  • سرعة استنتاج مضاعفة: أسرع بمرتين من نموذج Qwen3 على معالجات CPU، مما يجعلها مثالية للتطبيقات التي تتطلب استجابة فورية في الزمن الحقيقي.
  • سرعة تدريب ثلاثية: أسرع بثلاث مرات من جيل LFM السابق، مما يقلل بشكل كبير من تكلفة وتوقيت عملية بناء أنظمة الذكاء الاصطناعي.

هذه التحسينات الهائلة تجعل من نماذج LFM2 خيارًا مثاليًا للأجهزة ذات الموارد المحدودة، مثل الهواتف الذكية، والحواسيب المحمولة، والسيارات ذاتية القيادة، والروبوتات، والأجهزة القابلة للارتداء، والأقمار الصناعية، وغيرها الكثير.

هندسة معمارية هجينة مبتكرة

تعتمد نماذج LFM2 على هندسة معمارية هجينة تجمع بين أفضل ما تقدمه آليات الالتفاف (Convolution) وآليات الانتباه (Attention):

  • هيكل متطور من 16 كتلة: يتكون من 10 كتل التفاف قصيرة المدى ذات بوابات مزدوجة، و 6 كتل من انتباه الاستعلامات المجمعة (GQA).
  • إطار عمل المدخلات الخطية المتغيرة (LIV): يسمح بإنشاء الأوزان بشكل ديناميكي من المدخلات التي تعمل عليها، مما يوحّد آليات الالتفاف، والتكرار، والانتباه، وغيرها من الطبقات.
  • محرك البحث عن الهيكلة العصبية (STAR): تم استخدام محرك STAR من Liquid AI لتقييم قدرات نمذجة اللغة، من خلال أكثر من 50 تقييمًا داخليًا، بما في ذلك استدعاء المعرفة، والتفكير متعدد الخطوات، وفهم اللغات المنخفضة الموارد، واتباع التعليمات، واستخدام الأدوات.

تشكيلة شاملة من النماذج

تتوفر نماذج LFM2 بثلاث أحجام مختلفة:

  • 350 مليون معلمة: مثالية للأجهزة ذات الموارد المحدودة.
  • 700 مليون معلمة: توفر توازنًا بين الأداء وحجم النموذج.
  • 1.2 مليار معلمة: لأداء متقدم في مهام معالجة اللغة الطبيعية المعقدة.

تم تدريب جميع النماذج على 10 تريليون رمز، باستخدام مجموعة بيانات متنوعة تتضمن اللغة الإنجليزية، ولغات متعددة، وشفرة برمجية. وتم استخدام تقنية تقطير المعرفة (Knowledge Distillation) مع نموذج LFM1-7B كنموذج معلم.

أداء متفوق في المعايير

تتفوق نماذج LFM2 بشكل ملحوظ على نماذج أخرى ذات حجم مماثل في العديد من المعايير:

  • LFM2-1.2B: يتنافس مع Qwen3-1.7B على الرغم من امتلاكه 47% أقل من المعلمات.
  • LFM2-700M: يتفوق على Gemma 3 1B IT.
  • LFM2-350M: يتنافس مع Qwen3-0.6B و Llama 3.2 1B Instruct.

كما تُظهر النماذج قدرات محادثة متفوقة في الحوارات متعددة الأدوار، متفوقة على نماذج أخرى مثل Llama 3.2 1B Instruct و Gemma 3 1B IT.

نشر مُحسّن للأجهزة الطرفية

تم تصميم نماذج LFM2 خصيصًا للأجهزة الطرفية، حيث تم تصديرها إلى العديد من أطر الاستنتاج، بما في ذلك PyTorch’s ExecuTorch و llama.cpp. وقد أظهرت الاختبارات على أجهزة مثل Samsung Galaxy S24 Ultra و AMD Ryzen أداءً ممتازًا، مما يجعلها مناسبة لمجموعة واسعة من الأجهزة.

خاتمة

يمثل إطلاق نماذج LFM2 قفزة نوعية في مجال الذكاء الاصطناعي على الأجهزة الطرفية، حيث تتيح سرعة عالية، وإمكانية العمل دون اتصال بالإنترنت، وحماية خصوصية البيانات. وهذا يفتح آفاقًا جديدة للتكامل مع العديد من القطاعات، مثل الإلكترونيات الاستهلاكية، والروبوتات، والأجهزة الذكية، والتمويل، والتجارة الإلكترونية، والتعليم. تُعد نماذج LFM2 تكنولوجيا أساسية للجيل القادم من الأجهزة والتطبيقات التي تعتمد على الذكاء الاصطناعي.

المصدر: MarkTechPost