نماذج OpenReasoning-Nemotron: التفكير المعزز بالذكاء الاصطناعي من نيفيديا
أطلقت شركة NVIDIA AI مؤخراً مجموعة نماذج لغة كبيرة (LLMs) تُعرف باسم OpenReasoning-Nemotron، مصممة لتفوق في مهام التفكير المعقدة عبر مجالات الرياضيات والعلوم و البرمجة. تتكون هذه المجموعة من نماذج بأحجام مختلفة، تتراوح من 1.5 مليار إلى 32 مليار بارامتر، تم تقطيرها من نموذج DeepSeek R1 0528 الضخم (671 مليار بارامتر)، مما يحافظ على قدرات التفكير العالية لكن بحجم أصغر وكفاءة أعلى. يُبرز هذا الإصدار دور NVIDIA الرائد في النظام البيئي مفتوح المصدر لـ LLMs، حيث تقدم نماذج تُحقق أداءً متقدماً مع تراخيص تجارية مرنة وسهولة الوصول عبر منصة Hugging Face.
نظرة عامة على النماذج وهندستها
تعتمد OpenReasoning-Nemotron على استراتيجية تقطير تُنقل قدرات التفكير من نموذج DeepSeek R1 الضخم إلى نماذج أصغر حجماً. تركز هذه العملية على تعميم القدرة على التفكير بدلاً من مجرد التنبؤ بالرموز، مما يسمح للنماذج الأصغر بالعمل بكفاءة على المهام المعقدة والمنظمة. تُركز بيانات التدريب على الرياضيات، والعلوم، ولغات البرمجة، بما يُلائم قدرات النموذج مع مجالات التفكير الرئيسية.
أنواع النماذج ومواصفاتها
اسم النموذج | عدد المعلمات (مليار) | الاستخدام المقصود | رابط Hugging Face |
---|---|---|---|
OpenReasoning-Nemotron-1.5B | 1.5 | التفكير والاستنتاج الأساسي | [الرابط] |
OpenReasoning-Nemotron-7B | 7 | التفكير متوسطة الحجم، مناسب للكود/الرياضيات | [الرابط] |
OpenReasoning-Nemotron-14B | 14 | قدرات تفكير متقدمة | [الرابط] |
OpenReasoning-Nemotron-32B | 32 | أداء قريب من النماذج المتقدمة في المهام المنطقية | [الرابط] |
جميع النماذج متوافقة مع بنية المحولات، وتدعم كميّة FP16/INT8، وهي مُحسّنة لأجهزة معالجة رسومات NVIDIA وإطار عمل NeMo.
مقاييس الأداء
حققت هذه النماذج نتائج جديدة متقدمة في العديد من معايير قياس التفكير، بناءً على معيار “pass@1”:
النموذج | GPQA | MMLU-PRO | HLE | LiveCodeBench | SciCode | AIME24 | AIME25 | HMMT فبراير 2025 |
---|---|---|---|---|---|---|---|---|
1.5B | 31.6 | 47.5 | 5.5 | 28.6 | 2.2 | 55.5 | 45.6 | 31.5 |
7B | 61.1 | 71.9 | 8.3 | 63.3 | 16.2 | 84.7 | 78.2 | 63.5 |
14B | 71.6 | 77.5 | 10.1 | 67.8 | 23.5 | 87.8 | 82.0 | 71.2 |
32B | 73.1 | 80.0 | 11.9 | 70.2 | 28.5 | 89.2 | 84.0 | 73.8 |
جميع النتائج المذكورة هي لـ pass@1 بدون استخدام GenSelect.
استخدام GenSelect (الوضع المكثف)
باستخدام خاصية الاختيار التوليدي GenSelect مع 64 مرشحاً، تحسّن الأداء بشكل ملحوظ، خاصةً في نموذج 32B:
- AIME24: 89.2 → 93.3
- AIME25: 84.0 → 90.0
- HMMT: 73.8 → 96.7
- LiveCodeBench: 70.2 → 75.3
هذا يُظهر قدرة تفكير طارئة قوية عند التوسع في الحجم.
بيانات التدريب وتخصص التفكير
تُشكل بيانات التدريب مجموعة فرعية عالية الجودة من بيانات DeepSeek R1 0528. وتتميز بـ:
- بيانات تفكير مُعالجة بعناية من مجالات الرياضيات، والعلوم، وعلوم الحاسوب.
- ضبط دقيق مُحسّن لتعزيز سلاسل الأفكار متعددة الخطوات.
- التركيز على الاتساق المنطقي، وإشباع القيود، والتفكير الرمزي.
يضمن هذا التجهيز الدقيق التوافق القوي مع مشاكل التفكير في العالم الحقيقي، سواء في الأوساط الأكاديمية أو مجالات تعلم الآلة التطبيقية.
التكامل المفتوح والنظام البيئي
تم إصدار نماذج OpenReasoning-Nemotron الأربعة برخصة مفتوحة وتجارية مرنة، مع توفر بطاقات النماذج، ونصوص التقييم، والأوزان الجاهزة للاستنتاج على Hugging Face:
- [OpenReasoning-Nemotron-1.5B]
- [OpenReasoning-Nemotron-7B]
- [OpenReasoning-Nemotron-14B]
- [OpenReasoning-Nemotron-32B]
تم تصميم هذه النماذج للعمل مع إطار عمل NVIDIA NeMo، وتدعم TensorRT-LLM و ONNX و Hugging Face Transformers، مما يُسهل نشرها بسرعة في بيئات الإنتاج والبحث.
حالات الاستخدام الرئيسية
- مُعلمين رياضيات وحُلّال نظريات.
- وكلاء أسئلة وأجوبة علمية وأنظمة تفكير طبية.
- مساعدون في توليد الكود وإصلاح الأخطاء.
- الإجابة على الأسئلة متعددة الخطوات.
- توليد بيانات اصطناعية للمجالات المُنظمة.
الخاتمة
تُقدم نماذج OpenReasoning-Nemotron من NVIDIA مساراً عملياً ومفتوح المصدر لتعزيز قدرات التفكير دون الحاجة إلى تكاليف حوسبة ضخمة. من خلال تقطيرها من نموذج DeepSeek R1 (671 مليار بارامتر) واستهداف مجالات التفكير عالية التأثير، تُحقق هذه النماذج توازناً قوياً بين الدقة والكفاءة وسهولة الوصول. فهي تُوفر أساساً قوياً للمطورين، والباحثين، والشركات التي تعمل على تطبيقات الذكاء الاصطناعي القائمة على المنطق، بعيداً عن التنازلات التي غالباً ما تُرافق النماذج الخاصة أو العامة للغاية.
أسئلة شائعة (FAQs)
س1: ما هي معايير القياس المُدعمّة؟
GPQA، MMLU-PRO، HLE، LiveCodeBench، SciCode، AIME 2024/25، HMMT فبراير 2025 (pass@1).
س2: كمية البيانات المُستخدمة؟
مجموعة تقطير مكونة من 5 ملايين مثال سجل تفكير عبر المجالات، تم توليدها بواسطة DeepSeek‑R1‑0528.
س3: هل تم استخدام التعلم المعزز؟
لا – تم تدريب النماذج فقط عن طريق SFT، مما يحافظ على الكفاءة مع تمكين أبحاث التعلم المعزز في المستقبل.
س4: هل يمكنني توسيع نطاق التفكير باستخدام GenSelect؟
نعم. يُعزز استخدام GenSelect الأداء بشكل كبير – يرتفع أداء نموذج 32B من 73.8 إلى 96.7 على HMMT مع 64 مرشحاً. راجع التفاصيل التقنية.
(جميع الحقوق محفوظة للباحثين في هذا المشروع.)
اترك تعليقاً