كشف حقول المتجهات الكامنة عن آليات عمل المُشفرات العصبية الذاتية

تُصمم الشبكات العصبية لتعلم تمثيلات مضغوطة للبيانات عالية الأبعاد، وتُعد المُشفرات العصبية الذاتية (Autoencoders – AEs) مثالاً واسع الانتشار لهذه النماذج. تستخدم هذه الأنظمة بنية مُشفّر-مُفسّر لعرض البيانات في فضاء كامن منخفض الأبعاد، ثم إعادة بنائها إلى شكلها الأصلي. في هذا الفضاء الكامن، تصبح أنماط وميزات بيانات الإدخال أكثر قابلية للتفسير، مما يسمح بإجراء العديد من المهام اللاحقة. وقد تم استخدام المُشفرات العصبية الذاتية على نطاق واسع في مجالات مثل تصنيف الصور، والنمذجة التوليدية، والكشف عن الشذوذ، وذلك بفضل قدرتها على تمثيل التوزيعات المعقدة من خلال تمثيلات أكثر قابلية للإدارة ومنظمة.

التذكر مقابل التعميم في النماذج العصبية

تُشكل مسألة التوازن بين تذكر بيانات التدريب وتعميمها على أمثلة غير مرئية تحديًا مستمرًا مع النماذج العصبية، وخاصةً المُشفرات العصبية الذاتية. هذا التوازن بالغ الأهمية: فإذا حدث فرط في التجهيز (Overfitting)، فقد يفشل النموذج في الأداء على بيانات جديدة؛ وإذا تم التعميم بشكل مفرط، فقد يفقد النموذج تفاصيل مفيدة. يهتم الباحثون بشكل خاص بمعرفة ما إذا كانت هذه النماذج تُشفّر المعرفة بطريقة يمكن الكشف عنها وقياسها، حتى في غياب بيانات الإدخال المباشرة. إن فهم هذا التوازن يمكن أن يساعد في تحسين تصميم النموذج واستراتيجيات التدريب، مما يوفر رؤى حول ما تحتفظ به النماذج العصبية من البيانات التي تُعالِجها.

أساليب الفحص الحالية وحدودها

غالباً ما تُحلل التقنيات الحالية لفحص هذا السلوك مقاييس الأداء، مثل خطأ إعادة البناء، لكن هذه التقنيات لا تكشف سوى سطح المشكلة. تتضمن الأساليب الأخرى إجراء تعديلات على النموذج أو الإدخال للحصول على رؤى حول الآليات الداخلية. ومع ذلك، فإنها عادةً لا تكشف عن كيفية تأثير بنية النموذج وديناميكيات التدريب على نتائج التعلم. وقد دفع الحاجة إلى تمثيل أعمق البحث نحو أساليب أكثر جوهرية وقابلية للتفسير لدراسة سلوك النموذج، تتجاوز المقاييس التقليدية أو التعديلات المعمارية.

منظور حقل المتجهات الكامن: النظم الديناميكية في الفضاء الكامن

قدم باحثون من معهد IST النمساوي وجامعة سابينزا روما طريقة جديدة لتفسير المُشفرات العصبية الذاتية كنظم ديناميكية تعمل في الفضاء الكامن. من خلال تطبيق دالة التشفير-التفسير بشكل متكرر على نقطة كامنة، يقومون ببناء حقل متجه كامن يكشف عن المُجذبات (attractors) – نقاط مستقرة في الفضاء الكامن حيث تستقر تمثيلات البيانات. هذا الحقل موجود بطبيعته في أي مُشفّر ذاتي ولا يتطلب إجراء تغييرات على النموذج أو تدريب إضافي. تساعد هذه الطريقة في تصور كيفية تحرك البيانات عبر النموذج وكيفية ارتباط هذه الحركات بالتعميم والتذكر. وقد اختبروا هذه الطريقة عبر مجموعات بيانات، وحتى نماذج أساسية، موسعين رؤاهم لما يتجاوز المعايير الاصطناعية.

التصوير التكراري ودور الانكماش

تتضمن هذه الطريقة معالجة التطبيق المتكرر لتصوير المُشفّر-المُفسّر كمعادلة تفاضلية منفصلة. في هذا التعبير، يتم رسم أي نقطة في الفضاء الكامن بشكل تكراري، لتشكيل مسار يُعرّف بواسطة متجه الباقي بين كل تكرار ومدخله. إذا كان التصوير منكمشًا – وهذا يعني أن كل تطبيق يُصغّر المساحة – فإن النظام يستقر عند نقطة ثابتة أو مُجذِب. أظهر الباحثون أن خيارات التصميم الشائعة، مثل اضمحلال الوزن (Weight Decay)، وأبعاد عنق الزجاجة الصغيرة، والتدريب القائم على التوسيع، تعزز هذا الانكماش بشكل طبيعي. وبالتالي، يعمل حقل المتجه الكامن كملخص ضمني لديناميكيات التدريب، ويكشف عن كيفية وأين تتعلم النماذج ترميز البيانات.

النتائج التجريبية: المُجذبات تُشفّر سلوك النموذج

أظهرت اختبارات الأداء أن هذه المُجذبات تُشفّر خصائص رئيسية لسلوك النموذج. عند تدريب المُشفرات العصبية الذاتية التلافيفية على MNIST وCIFAR10 وFashionMNIST، وجد أن أبعاد عنق الزجاجة المنخفضة (من 2 إلى 16) أدت إلى معاملات تذكر عالية فوق 0.8، بينما دعمت الأبعاد الأعلى التعميم من خلال خفض أخطاء الاختبار. ازداد عدد المُجذبات مع عدد دورات التدريب، بدءًا من واحد واستقرارًا مع تقدم التدريب. عند فحص نموذج أساسي للرؤية مُدرّب مسبقًا على Laion2B، أعاد الباحثون بناء البيانات من ست مجموعات بيانات متنوعة باستخدام المُجذبات المُشتقة فقط من الضوضاء الغاوسية. عند نسبة ندرة 5٪، كانت عمليات إعادة البناء أفضل بكثير من تلك المُشتقة من أساس متعامد عشوائي. كان متوسط الخطأ التربيعي أقل باستمرار، مما يدل على أن المُجذبات تشكل قاموسًا مضغوطًا وفعالًا للتمثيلات.

الأهمية: النهوض بقابلية تفسير النموذج

يُبرز هذا العمل طريقة جديدة وقوية لفحص كيفية تخزين النماذج العصبية للمعلومات واستخدامها. كشف الباحثون من معهد IST النمساوي وجامعة سابينزا أن المُجذبات داخل حقول المتجهات الكامنة توفر نافذة واضحة على قدرة النموذج على التعميم أو التذكر. تُظهر نتائجهم أنه حتى بدون بيانات الإدخال، يمكن للديناميكيات الكامنة أن تكشف عن بنية النماذج المعقدة وحدودها. ويمكن أن تساعد هذه الأداة بشكل كبير في تطوير أنظمة الذكاء الاصطناعي الأكثر قابلية للتفسير والمتانة من خلال الكشف عن ما تتعلمه هذه النماذج وكيفية تصرفها أثناء وبعد التدريب.

المصدر: MarkTechPost