مقاييس جديدة لدقة التصنيف النصي في أنظمة الذكاء الاصطناعي
مقدمة
تزداد أهمية أنظمة الذكاء الاصطناعي، وخاصةً مصنفات النصوص، في مختلف المجالات، من تقييم مراجعات الأفلام إلى تحليل المعلومات الطبية. لكن كيف يمكننا ضمان دقة هذه التصنيفات؟ يقدم باحثون من مختبر أنظمة المعلومات والقرارات (LIDS) في معهد ماساتشوستس للتكنولوجيا (MIT) نهجًا مبتكرًا لقياس دقة مصنفات النصوص، بالإضافة إلى تحسينها.
منهجية البحث
تعتمد الطرق التقليدية لاختبار مصنفات النصوص على توليد أمثلة اصطناعية تشبه الجمل المصنفة مسبقًا، مع تعديل كلمات محددة لمحاولة خداع المصنف. لكن هذه الطرق تعاني من قصور في تحديد نقاط الضعف الحقيقية للمصنف.
يقدم فريق البحث برنامجًا جديدًا مفتوح المصدر يتكون من جزئين رئيسيين:
- SP-Attack: يُولّد هذا البرنامج جملًا معادية (Adversarial Examples) لاختبار مصنفات النصوص في تطبيقات محددة. يستخدم البرنامج نماذج لغة كبيرة (LLMs) لمقارنة معاني الجمل الأصلية والمعاد صياغتها، لتحديد الجمل التي تغير تصنيفها رغم بقاء معناها ثابتًا.
- SP-Defense: يهدف هذا البرنامج إلى تحسين متانة المصنف من خلال توليد جمل معادية واستخدامها لإعادة تدريب النموذج. يُركز على تحديد الكلمات الأكثر تأثيرًا في تغيير التصنيف، مما يُقلل من حجم البحث اللازم لتحسين دقة المصنف.
نتائج البحث
أظهرت الدراسة أن نسبة ضئيلة من الكلمات (أقل من 0.1% من مفردات النظام) يمكن أن تُسبب ما يقارب نصف حالات تغيير التصنيف. استخدم الباحثون تقنيات تقدير إحصائية متقدمة لتحديد هذه الكلمات، ثم بحثوا عن كلمات ذات صلة لتوسيع نطاق الكلمات المؤثرة.
قارن الفريق أداء البرنامج الجديد مع طرق الاختبار التقليدية. في بعض الاختبارات، خفض البرنامج الجديد معدل نجاح الهجمات المعادية من 66% إلى 33.7%. حتى في الحالات التي كان فيها التحسن طفيفًا (2% فقط)، يبقى هذا التحسن ذا أهمية كبيرة بالنظر إلى عدد التفاعلات الهائل الذي تُجريها هذه الأنظمة.
الخلاصة
يُقدم هذا البحث نهجًا جديدًا لقياس ودقة مصنفات النصوص، مما يُساهم في تحسين دقة هذه الأنظمة في تطبيقات حيوية، مثل منع تسريب المعلومات الحساسة، وتوجيه البحوث العلمية، ومكافحة خطاب الكراهية والمعلومات المضللة. يُعد توفير البرنامج مفتوح المصدر خطوة هامة نحو تعزيز الثقة في أنظمة الذكاء الاصطناعي. وقد نُشرت نتائج هذه الدراسة في 7 يوليو في مجلة Expert Systems.
اترك تعليقاً