تحسين قدرات نماذج اللغات الكبيرة من خلال “مدرب ذكي”

مقدمة

تُظهر نماذج اللغات الكبيرة (LLMs) كفاءة عالية في الاستدلال النصي لفهم سياق الوثيقة وتقديم إجابات منطقية حول محتواها. لكن هذه النماذج غالباً ما تعاني من صعوبة في الإجابة على أبسط المسائل الرياضية. فلا يُعد الاستدلال النصيّ الوسيلة الأمثل للتعامل مع المهام الحسابية أو الخوارزمية. وبالرغم من قدرة بعض نماذج اللغات الكبيرة على توليد أكواد برمجية، مثل بايثون، للتعامل مع الاستفسارات الرمزية، إلا أنها لا تعرف دائماً متى تستخدم هذه الأكواد، أو أي نوع من الأكواد يكون الأنسب. وبالتالي، يبدو أن نماذج اللغات الكبيرة تحتاج إلى “مدرب” يُوجهها نحو أفضل التقنيات.

CodeSteer: مساعد ذكيّ لتحسين أداء نماذج اللغات الكبيرة

قام باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) بتطوير “CodeSteer”، وهو مساعد ذكي يُرشد نموذج اللغات الكبيرة على التبديل بين توليد النصوص والأكواد البرمجية حتى يصل إلى الإجابة الصحيحة على الاستفسار. CodeSteer، وهو نموذج لغة كبير أصغر حجماً، يُولّد تلقائياً سلسلة من المطالبات لتوجيه نموذج اللغات الكبير بشكلٍ تكراري. يقوم CodeSteer بمراجعة إجابات النموذج الحالية والسابقة بعد كل جولة، ويقدم توجيهات حول كيفية إصلاح أو تحسين الحل حتى يعتبر الإجابة صحيحة.

النتائج

أظهرت البحوث أن إضافة CodeSteer إلى نموذج لغة كبير أدى إلى زيادة دقته في المهام الرمزية، مثل ضرب الأعداد، ولعب سودوكو، وتكديس الكتل، بأكثر من 30%. كما مكّن هذا النظام نماذج أقل تطوراً من التفوق على نماذج أكثر تقدماً تتمتع بمهارات استدلال محسّنة. يُمكن لهذا التقدم تحسين قدرات حل المشكلات في نماذج اللغات الكبيرة للمهام المعقدة التي يصعب حلها بالاستدلال النصي وحده، مثل توليد مسارات للروبوتات في بيئات غير مؤكدة، أو جدولة الشحنات في سلسلة التوريد الدولية.

منهجية البحث

  • مقارنة الاستدلال النصي مع البرمجة: يوضح الباحثون كيف أن استخدام الأكواد البرمجية، مثل بايثون، يُحسّن من دقة الإجابة في مسائل حسابية بسيطة، على عكس الاعتماد على الاستدلال النصي وحده.
  • CodeSteer كمدرب ذكي: يُشبه الباحثون دور CodeSteer بدور المدرب في الرياضة، حيث لا يتفوق على الرياضي، لكنه يُقدم له توجيهات مفيدة.
  • عملية التوجيه التكراري: يُحدد CodeSteer ما إذا كان النص أو الكود البرمجي أنسب لحل المشكلة، ثم يُولّد مطالبة للنموذج الأكبر، ويُراجع الإجابة، ويُقدم توجيهات لتحسينها حتى الوصول إلى الإجابة الصحيحة.
  • مجموعة البيانات SymBench: نظراً لعدم وجود مجموعات بيانات رمزية مناسبة، قام الباحثون بإنشاء مجموعة بيانات جديدة تسمى SymBench تتضمن 37 مهمة رمزية معقدة.
  • مقارنة الأداء: تفوق CodeSteer على جميع أساليب المقارنة التسع، حيث زاد متوسط الدقة من 53.3% إلى 86.4%.

الاستنتاجات والآفاق المستقبلية

يُمثل CodeSteer نهجاً مبتكراً لتحسين قدرات نماذج اللغات الكبيرة من خلال الاستفادة من قدراتها الذاتية وإضافة القدرة على استخدام البرمجة الذكية. يُخطط الباحثون في المستقبل لتبسيط عملية توجيه CodeSteer التكراري، ودراسة كيفية ضبط نموذج موحد قادر على التبديل بين الاستدلال النصي وتوليد الأكواد، بدلاً من الاعتماد على مساعد منفصل. وقد أشاد خبراء في مجال الذكاء الاصطناعي بهذا البحث، مؤكدين على أهميته في تعزيز تطبيقات نماذج اللغات الكبيرة في مختلف المجالات.

تمويل البحث

حصل هذا البحث على دعم جزئي من مكتب أبحاث البحرية الأمريكية ومعمل MIT-IBM Watson للذكاء الاصطناعي.

المصدر: MIT News