إضفاء المعنى على تطبيق التقنيات: بحوث رائدة من معهد ماساتشوستس للتكنولوجيا

تمويل البحوث المبتكرة في الأخلاقيات الاجتماعية والتقنية

أعلن معهد ماساتشوستس للتكنولوجيا (MIT) مؤخراً عن تمويل 15 مشروعاً بحثياً رائداً في مجال تقاطع الحوسبة، والأخلاق، والمجتمع. وقد جاء ذلك ضمن مبادرة “المسؤوليات الاجتماعية والأخلاقية للحوسبة” (SERC) التابعة لكلية شوارزمان للحوسبة في MIT. وقد استقطبت الدعوة لتقديم المقترحات البحثية في الصيف الماضي ما يقارب 70 طلباً، تم اختيار 15 مشروعاً منها لتلقي تمويل يصل إلى 100,000 دولار أمريكي لكل مشروع. وقد ضمت لجنة الاختيار ممثلين من جميع كليات المعهد.

أوضح نيكوس تريشاكيس، نائب عميد SERC وأستاذ إدارة J.C. Penney، أن “SERC ملتزمة بدفع التقدم في تقاطع الحوسبة، والأخلاق، والمجتمع. تهدف المنح البحثية إلى إثارة التفكير الجريء والمبدع حول التحديات والفرص المعقدة في هذا المجال”. وأضاف: “من خلال ندوة MIT لأخلاقيات بحوث الحوسبة، شعرنا بأهمية عدم الاكتفاء بعرض نطاق وعمق البحث الذي يُشكل مستقبل الحوسبة الأخلاقية، بل دعوة المجتمع للمشاركة في الحوار أيضاً”.

كما صرّح كاسبار هير، نائب عميد SERC وأستاذ الفلسفة، قائلاً: “ما نراه هنا هو نوع من الحكم الجماعي للمجتمع حول أكثر الأعمال إثارةً عندما يتعلق الأمر بالبحث في المسؤوليات الاجتماعية والأخلاقية للحوسبة في MIT”.

محاور الندوة: نظرة على أبرز البحوث

نظمت ندوة MIT لأخلاقيات بحوث الحوسبة التي استمرت يوماً كاملاً في الأول من مايو حول أربعة محاور رئيسية:

  • تقنية الرعاية الصحية المسؤولة: ناقشت هذه الجلسات قضايا مثل التحيز الخوارزمي، وخصوصية البيانات، والتحديات الأخلاقية في استخدام الذكاء الاصطناعي في الرعاية الصحية.
  • حوكمة أخلاقيات الذكاء الاصطناعي: ركزت هذه الجلسات على قضايا حوكمة الذكاء الاصطناعي، وتأثيراته على المجتمع، وتطوير إطار أخلاقي لاستخدامه.
  • التكنولوجيا في المجتمع والمشاركة المدنية: تم مناقشة دور التكنولوجيا في تعزيز المشاركة المدنية، ودعم الحوار العام، والتحديات المتعلقة بالوصول العادل للتقنيات.
  • الشمول الرقمي والعدالة الاجتماعية: تناولت هذه الجلسات قضايا الشمول الرقمي، والفجوة الرقمية، وكيفية استخدام التكنولوجيا لمعالجة مشاكل عدم المساواة الاجتماعية.

أمثلة على البحوث الممولة:

1. جعل نظام زراعة الكلى أكثر عدلاً:

شارك ديمتريس بيرتسيمس، نائب عميد التعلم المفتوح، ونائب عميد تحليلات الأعمال، وأستاذ أبحاث العمليات في بوينج، في أحدث أعماله في تحليلات تخصيص زراعة الكلى العادلة والفعالة. تُعد خوارزمية بيرتسيمس الجديدة، التي تدرس معايير مثل الموقع الجغرافي، ومعدل الوفيات، والعمر في 14 ثانية فقط، تغييراً هائلاً مقارنةً بالوقت المعتاد الذي يستغرق ست ساعات. وقد أظهر تعاون بيرتسيمس وفريقه مع شبكة الوحدة الوطنية للمشاركة في الأعضاء (UNOS) نتائج إيجابية ملحوظة في سرعة اتخاذ القرارات المتعلقة بزراعة الأعضاء.

2. أخلاقيات المحتوى الذي يولده الذكاء الاصطناعي على وسائل التواصل الاجتماعي:

استكشف آدم بيرينسكي، أستاذ العلوم السياسية، وجابرييل بيلوكين-سكولسكي، طالبة دكتوراه في قسم العلوم السياسية، آثار الكشف (أو عدم الكشف) عن أي جزء من المنشور تم إنشاؤه بواسطة الذكاء الاصطناعي. وقد أظهرت أبحاثهم أن وضع علامات على المحتوى الذي يولده الذكاء الاصطناعي يؤثر على تصور المستخدمين للمعلومات، وأن نوع العلامة المستخدمة يؤثر بشكل كبير على النتائج.

3. استخدام الذكاء الاصطناعي لزيادة الحوار المدني عبر الإنترنت:

تُركز ليلي تساي، أستاذة العلوم السياسية ومديرة مختبر الحوكمة في MIT، على كيفية بناء منصات حوارية رقمية فعّالة تُمكّن الجميع من المشاركة، مع التركيز على تحسين جودة الحوار عبر الإنترنت. وقد طورت مجموعتها منصة DELiberation.io المتكاملة مع الذكاء الاصطناعي.

4. مركز أبحاث عام يدرس جميع جوانب الذكاء الاصطناعي:

أنشأت كاثرين دي إيجناسيو، أستاذة مساعدة في العلوم والتخطيط الحضري، ونيكو ستيفنز، باحث ما بعد الدكتوراه في مختبر البيانات والحركة النسوية في MIT، “Liberatory AI”، وهو مركز أبحاث عام يُعنى بدراسة جميع جوانب الذكاء الاصطناعي، مع التركيز على دمج أساليب المجتمع واستخدام التصميم التشاركي.

يُظهر هذا العمل البحثي الرائد التزام MIT بتطوير تقنيات مسؤولة أخلاقياً واجتماعياً، ويسلط الضوء على أهمية البحث المتعدد التخصصات في مواجهة التحديات الأخلاقية والاجتماعية التي يطرحها التقدم التكنولوجي.

المصدر: MIT News