نماذج OpenReasoning-Nemotron: ثورة في مجال الاستدلال اللغوي من NVIDIA
تُعلن NVIDIA عن إطلاق عائلة جديدة من نماذج اللغات الكبيرة (LLMs) تُعرف باسم OpenReasoning-Nemotron، مصممة لتفوق في مهام الاستدلال المعقدة في مجالات الرياضيات والعلوم و البرمجة. تتكون هذه المجموعة من نماذج بأحجام مختلفة تتراوح من 1.5 مليار إلى 32 مليار بارامتر، وقد تم تقطيرها من نموذج DeepSeek R1 0528 الضخم (671 مليار بارامتر)، محتفظةً بقدرات الاستدلال المتقدمة في نماذج أصغر حجماً وأكثر كفاءة. يُرسّخ هذا الإصدار مكانة NVIDIA كمساهم رائد في النظام البيئي مفتوح المصدر لـ LLMs، حيث توفر نماذج تُحقق أداءً متطورًا مع ترخيص تجاري مرن وإمكانية وصول واسعة عبر منصة Hugging Face.
نظرة عامة على النماذج وهندستها
تعتمد OpenReasoning-Nemotron على استراتيجية تقطير تُنقل قدرات الاستدلال من نموذج DeepSeek R1 الضخم (671 مليار بارامتر) إلى نماذج أصغر حجماً. تُعطي هذه العملية الأولوية لتعميم الاستدلال على التنبؤ بالرموز الخام، مما يسمح للنماذج المدمجة بالأداء بكفاءة في المهام المُعقدة والمنظمة. تُركز بيانات التقطير على الرياضيات والعلوم ولغات البرمجة، مما يُوائم قدرات النموذج مع مجالات الاستدلال الرئيسية.
أنواع النماذج ومواصفاتها
اسم النموذج | عدد البارامترات | الاستخدام المقصود | رابط Hugging Face |
---|---|---|---|
OpenReasoning-Nemotron-1.5B | 1.5 مليار | استدلال أساسي | [رابط] |
OpenReasoning-Nemotron-7B | 7 مليارات | استدلال متوسط، جيد للكود/الرياضيات | [رابط] |
OpenReasoning-Nemotron-14B | 14 مليار | قدرات استدلال متقدمة | [رابط] |
OpenReasoning-Nemotron-32B | 32 مليار | أداء قريب من نماذج الطليعة في المهام المنطقية | [رابط] |
جميع النماذج متوافقة مع بنى المحولات، وتدعم كميّة FP16/INT8، وهي مُحسّنة لأجهزة معالجة رسوميات NVIDIA وإطار عمل NeMo.
معايير الأداء
حققت هذه النماذج درجات جديدة قياسية في اختبارات pass@1 في فئة أحجامها عبر العديد من معايير قياس الاستدلال:
النموذج | GPQA | MMLU-PRO | HLE | LiveCodeBench | SciCode | AIME24 | AIME25 | HMMT فبراير 2025 |
---|---|---|---|---|---|---|---|---|
1.5B | 31.6 | 47.5 | 5.5 | 28.6 | 2.2 | 55.5 | 45.6 | 31.5 |
7B | 61.1 | 71.9 | 8.3 | 63.3 | 16.2 | 84.7 | 78.2 | 63.5 |
14B | 71.6 | 77.5 | 10.1 | 67.8 | 23.5 | 87.8 | 82.0 | 71.2 |
32B | 73.1 | 80.0 | 11.9 | 70.2 | 28.5 | 89.2 | 84.0 | 73.8 |
جميع الدرجات المذكورة هي pass@1 بدون GenSelect.
استخدام GenSelect (الوضع الثقيل)
باستخدام Generative Selection مع 64 مرشحًا (“GenSelect”)، يتحسن الأداء بشكل أكبر، خاصةً في نموذج 32B:
- 32B يحقق: AIME24 89.2 → 93.3، AIME25 84.0 → 90.0، HMMT 73.8 → 96.7، LiveCodeBench 70.2 → 75.3.
هذا يُظهر أداء استدلال ناشئًا قويًا على نطاق واسع.
بيانات التدريب وتخصص الاستدلال
تتكون مجموعة بيانات التدريب من مجموعة فرعية عالية الجودة مُقطّرة من بيانات DeepSeek R1 0528. وتشمل الميزات الرئيسية:
- بيانات استدلال مُعالجة بعناية من مجالات الرياضيات والعلوم وعلوم الحاسوب.
- ضبط دقيق مُحسّن لتعزيز سلاسل الأفكار متعددة الخطوات.
- التركيز على الاتساق المنطقي، وإشباع القيود، والاستدلال الرمزي.
يضمن هذا التحديد الدقيق التوافق القوي مع مشاكل الاستدلال في العالم الحقيقي الموجودة في كل من المجالات الأكاديمية ومجالات تعلم الآلة التطبيقية.
التكامل المفتوح والنظام البيئي
تم إصدار نماذج OpenReasoning-Nemotron الأربعة تحت ترخيص مفتوح وتجاري مرن، مع توفر بطاقات النماذج، ونصوص التقييم، والأوزان الجاهزة للاستنتاج على Hugging Face:
- [رابط OpenReasoning-Nemotron-1.5B]
- [رابط OpenReasoning-Nemotron-7B]
- [رابط OpenReasoning-Nemotron-14B]
- [رابط OpenReasoning-Nemotron-32B]
تم تصميم هذه النماذج للاندماج في إطار عمل NVIDIA NeMo، وتدعم أدوات TensorRT-LLM وONNX وHugging Face Transformers، مما يُسهّل النشر السريع في بيئات الإنتاج والبحث.
حالات الاستخدام الرئيسية
- مُدرّسو الرياضيات وحلّالوا النظريات.
- وكلاء الأسئلة والأجوبة العلمية وأنظمة الاستدلال الطبي.
- مساعدو إنشاء وتصحيح الأكواد.
- الإجابة على الأسئلة متعددة الخطوات باستخدام سلسلة الأفكار.
- توليد البيانات الاصطناعية للمجالات المُنظّمة.
الخاتمة
تُقدم نماذج OpenReasoning-Nemotron من NVIDIA مسارًا عمليًا مفتوح المصدر نحو توسيع نطاق قدرة الاستدلال دون تكاليف حوسبة ضخمة. من خلال التقطير من DeepSeek R1 (671 مليار بارامتر) واستهداف مجالات الاستدلال عالية الأثر، توفر هذه النماذج توازنًا قويًا بين الدقة والكفاءة وإمكانية الوصول. بالنسبة للمطورين والباحثين والشركات التي تعمل على تطبيقات الذكاء الاصطناعي المكثفة منطقيًا، توفر OpenReasoning-Nemotron أساسًا مُقنعًا—خاليًا من التبادلات التي غالبًا ما تصاحب النماذج الاحتكارية أو المُعممة بشكل مفرط.
أسئلة شائعة (FAQs)
س1: ما هي معايير القياس المدعومة؟
GPQA، MMLU-PRO، HLE، LiveCodeBench، SciCode، AIME 2024/25، HMMT فبراير 2025 (pass@1).
س2: كمية البيانات المستخدمة؟
مجموعة بيانات مُقطّرة من 5 ملايين مثال سجل استدلال عبر المجالات، تم توليدها بواسطة DeepSeek-R1-0528.
س3: هل تم استخدام التعلم المعزز؟
لا – تم تدريب النماذج فقط عبر SFT، مما يحافظ على الكفاءة مع تمكين أبحاث التعلم المعزز في المستقبل.
س4: هل يمكنني توسيع نطاق الاستدلال باستخدام GenSelect؟
نعم. يُعزز استخدام GenSelect الأداء بشكل كبير – يقفز نموذج 32B من 73.8 إلى 96.7 على HMMT مع 64 مرشحًا. راجع التفاصيل الفنية.
(جميع الحقوق محفوظة للباحثين في هذا المشروع.)
اترك تعليقاً