الوسم: منوعات ذكاء اصطناعي
-
إطار عمل متعدد الوسائط VLM-R³: ثورة في معالجة الصور واللغة
إطار عمل VLM-R³ متعدد الوسائط: إعادة تعريف معالجة المعلومات البصرية واللغوية يُعَدّ تطوير القدرة على التفكير متعدد الوسائط في الآلات خطوةً حاسمةً نحو تقليد العمليات المعرفية البشرية. فبدمج المعلومات البصرية واللغوية، تستطيع هذه الأنظمة أداء مهامّ معقدة تتطلب فهماً بصرياً متقدماً، مثل حلّ المسائل الرياضية… قراءة المزيد
-

نماذج العالم المرئية المتقدمة: ميتا تطلق V-JEPA 2 مفتوحة المصدر
نماذج العالم المرئية المتقدمة: ميتا تطلق V-JEPA 2 مفتوحة المصدر يُسعدنا أن نعلن عن إطلاق ميتا لـ V-JEPA 2، وهو نموذج عالمي مفتوح المصدر وقابل للتطوير مصمم للتعلم من مقاطع الفيديو على نطاق الإنترنت، مما يُمكّن من فهم بصري قوي، والتنبؤ بالحالات المستقبلية، والتخطيط بدون… قراءة المزيد
-
تشغيل عدة وكلاء ترميز ذكاء اصطناعي بالتوازي باستخدام Container-Use من Dagger
تشغيل متعدد وكلاء البرمجة بالذكاء الاصطناعي بالتوازي باستخدام Container-Use من Dagger تُعدّ وكلاء البرمجة القائمة على الذكاء الاصطناعي من المساعدين الأساسيين في تطوير البرمجيات. فهذه الأدوات الذاتية أو شبه الذاتية قادرة على كتابة، واختبار، وإعادة هيكلة التعليمات البرمجية، مما يُسرّع بشكل كبير من دورة التطوير.… قراءة المزيد
-

إطار عمل CURE: تطوير متزامن للشيفرة واختبارات الوحدات في نماذج اللغات الكبيرة
إطار عمل CURE: تطوير متزامن للشيفرة واختبارات الوحدات في نماذج اللغات الكبيرة يُقدّم هذا المقال شرحًا مفصلاً لإطار عمل CURE، وهو إطار عمل قائم على التعلم المعزز ذاتي الإشراف، مصمم لتطوير قدرات نماذج اللغات الكبيرة (LLMs) على توليد الشيفرة واختبارات الوحدات لها بشكل متزامن، ودون… قراءة المزيد
-
وكيل ذكاء اصطناعي متعدد الأدوات مع تنفيذ بايثون آمن باستخدام Riza و Gemini
بناء وكيل ذكاء اصطناعي متعدد الأدوات مع تنفيذ آمن لبايثون باستخدام Riza و Gemini في هذا البرنامج التعليمي، سنستفيد من ميزة تنفيذ بايثون الآمن في Riza كحجر أساس لوكيل ذكاء اصطناعي قوي مُعزز بالأدوات في Google Colab. سنبدأ بإدارة مفاتيح API بسلاسة، من خلال أسرار… قراءة المزيد
-

نماذج لغة كبيرة متقدمة من Mistral AI: سلسلة Magistral
نماذج لغة كبيرة متقدمة من Mistral AI: سلسلة Magistral أعلنت شركة Mistral AI مؤخراً عن إطلاق سلسلة Magistral، وهي أحدث سلسلة من نماذج اللغات الكبيرة (LLMs) المُحسّنة للتفكير المنطقي. يمثل هذا الإطلاق خطوة هامة إلى الأمام في تطوير قدرات نماذج اللغات الكبيرة، حيث تركز على… قراءة المزيد
-
تحسين أداء نماذج اللغات الكبيرة: تقنية توفير الذاكرة الديناميكية من NVIDIA
تحسين أداء نماذج اللغات الكبيرة: تقنية توفير الذاكرة الديناميكية من NVIDIA مع تزايد الطلب على المهام التي تتطلب قدرات استنتاجية عالية، أصبح من المتوقع أن تُنتج نماذج اللغات الكبيرة (LLMs) متواليات أطول أو سلاسل استنتاجية متوازية. ومع ذلك، فإن أداء الاستنتاج يقتصر بشدة على مساحة… قراءة المزيد
-
قياس سعة الذاكرة في نماذج اللغات: إطار عمل جديد من ميتا يحدد السعة على مستوى البيت
قياس سعة الذاكرة في نماذج اللغات: إطار عمل جديد من ميتا يحدد السعة على مستوى البيت يُثير سلوك نماذج اللغات الحديثة في حفظ البيانات تساؤلاتٍ جوهرية حول آلية عملها. فمع نماذج ضخمة مثل المحوّلات التي تحتوي على 8 مليارات بارامتر مُدرّبة على 15 تريليون رمز،… قراءة المزيد
-
إيثير0: نموذج لغوي ضخم للتفكير الكيميائي المتقدم
إيثير0: ثورة في مجال التفكير الكيميائي بفضل التعلم المعزز يُعدّ تطوير نماذج اللغات الضخمة (LLMs) خطوةً هائلةً في مجال الذكاء الاصطناعي، حيث تُعزز دقة هذه النماذج بشكل أساسي من خلال زيادة بيانات التدريب والموارد الحاسوبية. ومع ذلك، ومع محدودية البيانات المتاحة، تحول الاهتمام نحو أساليب… قراءة المزيد
-
إطار عمل LlamaRL من ميتا: تعزيز تدريب نماذج اللغات الضخمة عبر التعلم المعزز بكفاءة عالية
إطار عمل LlamaRL من ميتا: تعزيز تدريب نماذج اللغات الضخمة عبر التعلم المعزز بكفاءة عالية يُعدّ التعلم المعزز أداةً قويةً لضبط نماذج اللغات الضخمة (LLMs) لتحسين أدائها وجعلها أكثر ذكاءً. فهذه النماذج قادرة بالفعل على تنفيذ مجموعة واسعة من المهام، بدءًا من تلخيص النصوص إلى… قراءة المزيد
