أوبن إيه آي تدخل الشبكات المصنفة لوزارة الدفاع
أعلن سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه آي (OpenAI)، مساء الجمعة، عن توصل شركته إلى اتفاق استراتيجي يسمح لوزارة الدفاع الأمريكية باستخدام نماذج الذكاء الاصطناعي الخاصة بها عبر الشبكات المصنفة (Classified Network) التابعة للوزارة.
يأتي هذا الإعلان في أعقاب مواجهة محتدمة بين وزارة الدفاع — التي أصبحت تُعرف في ظل إدارة ترامب باسم “وزارة الحرب” — وشركة “أنثروبيك” (Anthropic)، المنافس الأبرز لأوبن إيه آي. وكانت الوزارة قد ضغطت على شركات الذكاء الاصطناعي للسماح باستخدام نماذجها في “كافة الأغراض القانونية”، بينما حاولت أنثروبيك وضع خطوط حمراء واضحة تتعلق بالمراقبة الجماعية المحلية والأسلحة ذاتية التشغيل بالكامل.
موقف أنثروبيك وضغوط الموظفين
في بيان مطول صدر يوم الخميس، أوضح داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، أن الشركة لم تعترض أبداً على عمليات عسكرية محددة، لكنها تؤمن بأن الذكاء الاصطناعي يمكن أن يقوض القيم الديمقراطية في حالات معينة. وقد لاقت هذه الرؤية تأييداً داخلياً واسعاً في قطاع التقنية، حيث وقع أكثر من 60 موظفاً من أوبن إيه آي و300 موظف من جوجل خطاباً مفتوحاً يطالبون فيه شركاتهم بدعم موقف أنثروبيك.
تصعيد سياسي وقرارات حاسمة
بعد فشل المفاوضات بين أنثروبيك والبنتاغون، شن الرئيس دونالد ترامب هجوماً حاداً على الشركة عبر وسائل التواصل الاجتماعي، موجهاً الوكالات الفيدرالية بوقف استخدام منتجاتها بعد فترة انتقالية مدتها ستة أشهر. كما اتخذ وزير الدفاع، بيت هيغسيث، خطوات تصعيدية شملت:
- تصنيف شركة أنثروبيك كـ “خطر على سلاسل التوريد”.
- حظر أي مقاول أو مورد يتعامل مع الجيش الأمريكي من إجراء أي نشاط تجاري مع أنثروبيك.
- اتهام الشركة بمحاولة انتزاع “حق الفيتو” على القرارات العملياتية للجيش الأمريكي.
استراتيجية ألتمان: الضمانات التقنية كحل وسط
بشكل مفاجئ، ادعى سام ألتمان أن عقد أوبن إيه آي الجديد يتضمن حمايات تقنية تعالج نفس القضايا التي تسببت في الصدام مع أنثروبيك. وأكد ألتمان على مبدأين أساسيين في الاتفاق:
- حظر استخدام التقنية في المراقبة الجماعية المحلية.
- ضمان المسؤولية البشرية عن استخدام القوة، بما في ذلك أنظمة الأسلحة الفتاكة.
وأشار ألتمان إلى أن أوبن إيه آي ستقوم ببناء “مكدس أمان” (Safety Stack) خاص لضمان عمل النماذج وفقاً للمعايير المحددة، كما سيتم نشر مهندسين من الشركة داخل البنتاغون لضمان سلامة النماذج. وأضاف ألتمان في اجتماع مع الموظفين أن الحكومة لن تجبر الشركة على تنفيذ مهام ترفضها النماذج برمجياً.
توقيت حرج
جاء إعلان ألتمان في توقيت جيوسياسي حساس، تزامناً مع توارد الأنباء عن بدء عمليات عسكرية أمريكية وإسرائيلية في المنطقة، ودعوات سياسية لتغيير النظام في إيران، مما يضع دور الذكاء الاصطناعي في العمليات العسكرية تحت مجهر التدقيق العالمي.
المصدر: TechCrunch








اترك تعليقاً