تحقيقات رسمية في فلوريدا تطال OpenAI
أعلن جيمس أوثماير، المدعي العام لولاية فلوريدا، يوم الخميس عن بدء مكتبه تحقيقاً رسمياً مع شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي، على خلفية اتهامات تتعلق بالإضرار بالقاصرين، وتهديد الأمن القومي، واحتمالية ارتباط تقنياتها بحادث إطلاق نار مأساوي وقع في جامعة ولاية فلوريدا (FSU) العام الماضي.
وأشار أوثماير في بيان مرئي عبر وسائل التواصل الاجتماعي إلى أن نموذج “ChatGPT” ربما استُخدم لمساعدة مرتكب الجريمة في حادثة إطلاق النار الجماعي التي شهدتها الجامعة وأودت بحياة شخصين، مؤكداً أن الابتكار لا ينبغي أن يأتي على حساب السلامة العامة.
تفاصيل الادعاءات واستخدام ChatGPT في الجريمة
وفقاً للتحقيقات، يُزعم أن المشتبه به في حادثة جامعة ولاية فلوريدا قام في يوم الهجوم بسؤال ChatGPT عن رد فعل السلطات تجاه إطلاق نار في الحرم الجامعي، واستفسر عن أوقات الذروة في اتحاد الطلاب. وتُعد هذه المراسلات جزءاً حيوياً من الأدلة التي قد تُستخدم ضد المشتبه به في المحاكمة المقرر إجراؤها في أكتوبر المقبل.
وإلى جانب حادثة إطلاق النار، أعرب المدعي العام عن قلقه العميق تجاه قضايا أخرى تشمل:
- تقارير ودعاوى قضائية تتهم ChatGPT بتحريض المستخدمين على الانتحار في حالات معينة.
- مخاوف جيوسياسية تتعلق بإمكانية استغلال الحزب الشيوعي الصيني لتقنيات OpenAI لتهديد الأمن القومي الأمريكي.
- ضرورة حماية الأطفال من الآثار السلبية والخطيرة للذكاء الاصطناعي.
رد OpenAI ومبادرات سلامة الأطفال
من جانبها، صرحت OpenAI بأنها تعمل باستمرار على تحسين نماذجها لفهم نوايا المستخدمين وضمان تقديم ردود آمنة ومناسبة، مؤكدةً التزامها بالتعاون الكامل مع سلطات ولاية فلوريدا في هذا التحقيق.
وفي خطوة استباقية، كشفت الشركة مؤخراً عن “مخطط سلامة الطفل” (Child Safety Blueprint)، وهو وثيقة تتضمن توصيات سياسية تهدف إلى تعزيز حماية القاصرين في بيئات الذكاء الاصطناعي. ويأتي ذلك وسط ضغوط متزايدة على مطوري برامج الدردشة الآلية لمواجهة انتشار المواد المسيئة للأطفال المولدة عبر الذكاء الاصطناعي، حيث سجلت تقارير دولية زيادة بنسبة 14% في هذه المواد خلال النصف الأول من عام 2025.
خارطة طريق تشريعية لمواجهة المخاطر
تتضمن توصيات OpenAI في مخططها الجديد عدة محاور استراتيجية تهدف إلى تنظيم القطاع:
- تحديث التشريعات لتشمل تجريم المواد المسيئة المولدة بواسطة الذكاء الاصطناعي.
- تحسين عمليات الإبلاغ وتسهيل التعاون مع أجهزة إنفاذ القانون.
- وضع ضمانات تقنية وقائية لمنع إساءة استخدام أدوات الذكاء الاصطناعي في الأنشطة الإجرامية.
وفي ختام بيانه، دعا أوثماير الهيئة التشريعية في ولاية فلوريدا إلى “التحرك السريع” لتبني أطر قانونية كفيلة بحماية الأطفال من التداعيات السلبية للذكاء الاصطناعي، مشدداً على أن دعم الابتكار لا يعني بأي حال منح الشركات الحق في تعريض الأمن القومي أو سلامة الأفراد للخطر.
المصدر: TechCrunch








اترك تعليقاً