إطار عمل شفافية مُستهدفة لأنظمة الذكاء الاصطناعي المتقدمة: مقترح أنثروبيك

مع تسارع وتيرة تطوير أنظمة الذكاء الاصطناعي واسعة النطاق، تتزايد المخاوف بشأن السلامة والإشراف وإدارة المخاطر. وقد طرحت شركة أنثروبيك (Anthropic) إطار عمل للشفافية المُستهدفة، يركز تحديدًا على نماذج الذكاء الاصطناعي المتقدمة (Frontier AI models) – تلك التي تتمتع بأعلى قدرة على التأثير وتُشكل أعلى درجة من المخاطر – مع استبعاد مُطوري البرامج الصغيرة والشركات الناشئة بشكل مُتعمد، لتجنب خنق الابتكار في نطاق واسع من منظومة الذكاء الاصطناعي.

لماذا النهج المُستهدف؟

يعالج إطار عمل أنثروبيك الحاجة إلى التزامات تنظيمية مُتمايزة. فهو يُجادل بأن متطلبات الامتثال الشاملة قد تُثقل كاهل الشركات في مراحلها الأولى، والباحثين المستقلين. وبدلاً من ذلك، يركز المُقترح على فئة ضيقة من المُطورين: الشركات التي تُنشئ نماذج تتجاوز عتبات مُحددة من حيث:

  • الطاقة الحسابية: قدرة المعالجة المستخدمة في تدريب النموذج.
  • أداء التقييم: دقة النموذج وفعاليته في المهام المُحددة.
  • نفقات البحث والتطوير: الميزانية المُخصصة لبناء وتطوير النموذج.
  • الإيرادات السنوية: الدخل السنوي للشركة المُطورة.

يضمن هذا النطاق أن تخضع فقط الأنظمة الأكثر قدرة – وربما الأكثر خطورة – لمتطلبات الشفافية الصارمة.

المكونات الرئيسية لإطار العمل

يتكون إطار العمل المُقترح من أربعة أقسام رئيسية:

1. النطاق

يُطبق إطار العمل على المنظمات التي تُطور نماذج ذكاء اصطناعي متقدمة، والتي لا تُعرّف فقط بحجم النموذج، بل بمجموعة من العوامل، بما في ذلك:

  • حجم الحوسبة: قدرة الحوسبة المستخدمة في التدريب.
  • تكلفة التدريب: المصاريف الإجمالية لتدريب النموذج.
  • معايير التقييم: نتائج النموذج في اختبارات الأداء.
  • إجمالي استثمارات البحث والتطوير: الميزانية المُخصصة للبحث والتطوير.
  • الإيرادات السنوية: أرباح الشركة المُطورة.

من المهم الإشارة إلى أن الشركات الناشئة والمطورين الصغار مُستبعدون صراحةً، باستخدام عتبات مالية لمنع أي عبء تنظيمي غير ضروري. وهذا خيار مُتعمد للحفاظ على المرونة ودعم الابتكار في المراحل الأولى من تطوير الذكاء الاصطناعي.

2. متطلبات ما قبل النشر

العنصر الرئيسي في إطار العمل هو اشتراط أن تُنفذ الشركات إطار عمل التطوير الآمن (Secure Development Framework – SDF) قبل إطلاق أي نموذج ذكاء اصطناعي متقدم مؤهل. تتضمن متطلبات إطار عمل التطوير الآمن الرئيسية ما يلي:

  • تعريف النموذج: يجب على الشركات تحديد النماذج التي يُطبق عليها إطار عمل التطوير الآمن.
  • التخفيف من المخاطر الكارثية: يجب وضع خطط لتقييم المخاطر الكارثية والتخفيف منها، والتي تشمل على نطاق واسع التهديدات الكيميائية والبيولوجية والإشعاعية والنووية (CBRN)، بالإضافة إلى الإجراءات الذاتية للنماذج التي تتعارض مع نوايا المُطور.
  • المعايير والتقييمات: يجب تحديد إجراءات ومعايير تقييم واضحة.
  • الحوكمة: يجب تعيين مسؤول تنفيذي مسؤول للإشراف.
  • حماية المُبلغين عن المخالفات: يجب أن تدعم العمليات الإبلاغ الداخلي عن المخاوف المتعلقة بالسلامة دون انتقام.
  • الشهادة: يجب على الشركات تأكيد تنفيذ إطار عمل التطوير الآمن قبل النشر.
  • حفظ السجلات: يجب الاحتفاظ بإطارات عمل التطوير الآمن وتحديثاتها لمدة خمس سنوات على الأقل.

يعزز هذا الهيكل تحليل دقيق للمخاطر قبل النشر مع دمج المساءلة والذاكرة المؤسسية.

3. متطلبات الشفافية الدنيا

يُلزم إطار العمل الكشف العلني عن عمليات السلامة ونتائجها، مع السماح بالمعلومات الحساسة أو السرية. يجب على الشركات المُشمولة:

  • نشر إطارات عمل التطوير الآمن: يجب نشرها في شكل مُتاح للجمهور.
  • إصدار بطاقات النظام: عند النشر أو عند إضافة قدرات جديدة رئيسية، يجب أن تُلخص الوثائق (مثل “ملصقات التغذية” للنماذج) نتائج الاختبار وإجراءات التقييم والتخفيف.
  • شهادة الامتثال: تأكيد علني على اتباع إطار عمل التطوير الآمن، بما في ذلك وصف أي إجراءات لتخفيف المخاطر.

يُسمح بالتعديلات لحماية الأسرار التجارية أو سلامة الجمهور، ولكن يجب تبرير أي حذف ووضع علامة عليه. يُحقق هذا التوازن بين الشفافية والأمن، وضمان المساءلة دون تعريض النموذج لسوء الاستخدام أو إلحاق الضرر بالميزة التنافسية.

4. الإنفاذ

يُقترح إطار العمل آليات إنفاذ مُعتدلة ولكن واضحة:

  • منع البيانات الكاذبة: يُحظر الكشف المُضلّل عمدًا فيما يتعلق بالامتثال لإطار عمل التطوير الآمن.
  • الغرامات المدنية: يجوز للنائب العام طلب غرامات عن الانتهاكات.
  • فترة علاج مدتها 30 يومًا: تتاح للشركات فرصة تصحيح أوجه قصور الامتثال خلال 30 يومًا.

تُشدد هذه الأحكام على الامتثال دون خلق خطر مُفرط من التقاضي، مما يُوفر مسارًا للتصحيح الذاتي المسؤول.

الآثار الاستراتيجية والسياسية

يُشكل إطار عمل الشفافية المُستهدفة من أنثروبيك اقتراحًا تنظيميًا ومبادرة لوضع المعايير. يهدف إلى وضع توقعات أساسية لتطوير نماذج الذكاء الاصطناعي المتقدمة قبل وضع الأنظمة التنظيمية الكاملة. من خلال ربط الإشراف بالكشوف المُنظمة والحوكمة المسؤولة – بدلاً من القواعد الشاملة أو حظر النماذج – فإنه يُوفر مخططًا يمكن أن تتبناه الجهات المُشرعة والشركات المُناظرة على حدٍ سواء.

يمكن أيضًا تطوير الهيكل النمطي لإطار العمل. مع تغير إشارات المخاطر أو نطاقات النشر أو القدرات التقنية، يمكن مراجعة العتبات ومتطلبات الامتثال دون قلب النظام بأكمله. يُعد هذا التصميم ذا قيمة خاصة في مجال سريع التطور مثل الذكاء الاصطناعي المتقدم.

الخلاصة

يُقدم اقتراح أنثروبيك لإطار عمل الشفافية المُستهدفة أرضية وسطًا عملية بين تطوير الذكاء الاصطناعي غير المُقيد والإفراط في التنظيم. يُلزم المُطورين لأنظمة الذكاء الاصطناعي الأكثر قوة – تلك التي لديها أكبر قدرة على إلحاق الضرر بالمجتمع – بالتزامات ذات مغزى، مع السماح للجهات الفاعلة الأصغر بالعمل دون أعباء امتثال مُفرطة. مع كفاح الحكومات والمجتمع المدني والقطاع الخاص حول كيفية تنظيم نماذج الأساس والأنظمة المتقدمة، يُوفر إطار عمل أنثروبيك مسارًا عمليًا ومتناسبًا وقابلًا للإنفاذ.

المصدر: MarkTechPost