وكيل جوجل للذكاء الاصطناعي MLE-STAR: ثورة في هندسة تعلم الآلة
يُمثّل وكيل هندسة تعلم الآلة MLE-STAR (اختصارًا لـ Machine Learning Engineering via Search and Targeted Refinement)، الذي طوره باحثو جوجل كلاود، قفزة نوعية في مجال أتمتة تصميم وتحسين خطوط أنابيب تعلم الآلة المعقدة. باستخدام بحث واسع النطاق، وتحسين الرمز المُستهدف، ووحدات فحص قوية، يحقق MLE-STAR أداءً غير مسبوق في مجموعة واسعة من مهام هندسة تعلم الآلة، متفوقًا بشكل ملحوظ على وكلاء تعلم الآلة الذاتية السابقين، بل وحتى على أساليب البشر.
تحديات أتمتة هندسة تعلم الآلة
على الرغم من التقدم الكبير الذي أحرزته نماذج اللغات الكبيرة (LLMs) في توليد الأكواد وأتمتة سير العمل، إلا أن وكلاء هندسة تعلم الآلة القائمة تواجه تحديات عدة، منها:
- الاعتماد المفرط على ذاكرة نماذج اللغات الكبيرة: تميل هذه الوكلاء إلى استخدام نماذج مألوفة (مثل استخدام scikit-learn فقط للبيانات الجدولية)، متجاهلةً النهج المتطورة والخاصة بالمهام.
- التكرار الخشن “الكل في آن واحد”: تعدل الوكلاء السابقة النصوص البرمجية بأكملها دفعة واحدة، مما يفتقر إلى الاستكشاف العميق والمُستهدف لمكونات خط أنابيب تعلم الآلة، مثل هندسة الميزات، ومعالجة البيانات الأولية، أو تجميع النماذج.
- سوء معالجة الأخطاء وتسرب البيانات: تكون الأكواد المُولدة عرضة للأخطاء، وتسرب البيانات، أو إغفال ملفات البيانات المُقدمة.
ابتكارات MLE-STAR الأساسية
يقدم MLE-STAR العديد من التطورات الرئيسية مقارنةً بالحلول السابقة:
-
اختيار النموذج المُرشد بالبحث على الويب: بدلاً من الاعتماد فقط على “التدريب” الداخلي، يستخدم MLE-STAR البحث الخارجي لاسترجاع أحدث النماذج ومقاطع الأكواد ذات الصلة بالمهمة ومجموعة البيانات المُقدمة. وهذا يُرسّخ الحل الأولي في أفضل الممارسات الحالية، وليس فقط ما “تتذكره” نماذج اللغات الكبيرة.
-
التحسين المُستهدف المُتداخل: يُحسّن MLE-STAR حلوله من خلال عملية تحسين ذات حلقتين:
- الحلقة الخارجية (التحليل الانحداري): تُجري دراسات التحليل الانحداري على الرمز المُتطور لتحديد مكون خط الأنابيب (إعداد البيانات، النموذج، هندسة الميزات، إلخ) الذي يُؤثر أكثر على الأداء.
- الحلقة الداخلية (الاستكشاف المُركز): يُولّد ويختبر بشكل متكرر الاختلافات فقط لهذا المكون، باستخدام ملاحظات مُهيكلة. يُمكن هذا من الاستكشاف العميق على مستوى المكونات – على سبيل المثال، اختبار طرق استخراج وتشفير الميزات الفئوية على نطاق واسع بدلاً من تغيير كل شيء بشكل أعمى.
-
استراتيجية تجميع ذاتية التحسين: يقترح MLE-STAR، ويُنفذ، ويُحسّن أساليب تجميع جديدة من خلال دمج حلول مرشحة متعددة. بدلاً من مجرد التصويت “الأفضل من بين N” أو المتوسطات البسيطة، يستخدم قدراته التخطيطية لاستكشاف استراتيجيات متقدمة (مثل التراص مع مُتعلمين فائقين مُخصصين أو بحث مُحسّن للوزن).
-
الموثوقية من خلال وكلاء مُتخصصة:
- وكيل تصحيح الأخطاء: يكتشف ويصحح تلقائيًا أخطاء Python (رسائل تتبع الأخطاء) حتى يتم تشغيل البرنامج النصي أو الوصول إلى الحد الأقصى من المحاولات.
- مدقق تسرب البيانات: يُفحص الرمز لمنع المعلومات من عينات الاختبار أو التحقق من صحة العملية التدريبية.
- مدقق استخدام البيانات: يضمن أن البرنامج النصي للحل يُعظم استخدام جميع ملفات البيانات المُقدمة والطرق ذات الصلة، مما يُحسّن من أداء النموذج وقدرته على التعميم.
النتائج الكمية: التفوق على المجال
تم التحقق من فعالية MLE-STAR بدقة على معيار MLE-Bench-Lite (22 مسابقة Kaggle مُتحدية تشمل مهام البيانات الجدولية، والصور، والصوت، والنص):
| المقياس | MLE-STAR (Gemini-2.5-Pro) | AIDE (أفضل خط أساس) |
|---|---|---|
| معدل الفوز بالميدالية | 63.6% | 25.8% |
| معدل الميدالية الذهبية | 36.4% | 12.1% |
| فوق المتوسط | 83.3% | 39.4% |
| الإرسال الصحيح | 100% | 78.8% |
يُحقق MLE-STAR أكثر من ضعف معدل حلول “الميدالية” (أعلى مستوى) مقارنةً بأفضل الوكلاء السابقين. في مهام الصور، يختار MLE-STAR بشكل ساحق الهياكل الحديثة (EfficientNet، ViT)، تاركًا الهياكل القديمة مثل ResNet، مما يُترجم مباشرةً إلى معدلات أعلى في المنافسات. تُساهم استراتيجية التجميع وحدها في زيادة إضافية، لا تقتصر فقط على اختيار الحلول الفائزة بل دمجها.
رؤى تقنية: لماذا يفوز MLE-STAR؟
- البحث كأساس: من خلال سحب أكواد وأوصاف النماذج من الويب أثناء التشغيل، يبقى MLE-STAR أكثر تحديثًا – بما في ذلك أنواع النماذج الجديدة تلقائيًا في اقتراحاته الأولية.
- التركيز المُوجه بالتحليل الانحداري: يُمكّن قياس مساهمة كل جزء من الأكواد بشكل منهجي من إجراء تحسينات “جراحية” – أولاً على الأجزاء الأكثر تأثيرًا (مثل ترميزات الميزات المُستهدفة، والمعالجة الأولية المتقدمة الخاصة بالنموذج).
- التجميع التكيفي: لا يُقَدم وكيل التجميع مجرد متوسطات؛ بل يختبر بذكاء التراص، والمتعلمين الفائقين الانحداريين، والترجيح الأمثل، وأكثر من ذلك.
- فحوصات السلامة الصارمة: يُمكّن تصحيح الأخطاء، ومنع تسرب البيانات، واستخدام البيانات الكامل من الحصول على درجات أعلى بكثير للتحقق من الصحة والاختبار، وتجنب المُزالق التي تُعيق توليد الأكواد العادي من نماذج اللغات الكبيرة.
قابلية التوسعة والتفاعل البشري
MLE-STAR قابل للتوسعة: يمكن للخبراء إضافة أوصاف نماذج متطورة لاعتماد أحدث الهياكل بشكل أسرع. تم بناء النظام على مجموعة أدوات تطوير الوكلاء من جوجل (ADK)، مما يُسهّل تبني المصادر المفتوحة والتكامل في أنظمة وكلاء أوسع نطاقًا، كما هو موضح في الأمثلة الرسمية.
الخلاصة
يُمثّل MLE-STAR قفزة حقيقية في أتمتة هندسة تعلم الآلة. من خلال فرض سير عمل يبدأ بالبحث، واختبار الأكواد من خلال حلقات مُوجهة بالتحليل الانحداري، ودمج الحلول مع التجميع التكيفي، ومراقبة مخرجات الأكواد مع وكلاء مُتخصصة، يتفوق على التقنيات السابقة، بل وحتى العديد من المُنافسين من البشر. تُتيح قاعدة الكود مفتوحة المصدر للباحثين وممارسي تعلم الآلة الآن دمج هذه القدرات المتطورة وتوسيعها في مشاريعهم الخاصة، مما يُسرّع الإنتاجية والابتكار.
يمكنكم الاطلاع على الورقة البحثية، وصفحة GitHub، والتفاصيل التقنية. لا تترددوا في زيارة صفحة GitHub لدينا للحصول على الدروس التعليمية، والأكواد، ودفاتر الملاحظات. تابعونا أيضًا على Twitter، وانضموا إلى مجتمعنا المكون من أكثر من 100 ألف مُشترك في SubReddit الخاص بتعلم الآلة، واشتركوا في قائمتنا البريدية.






اترك تعليقاً