خارطة طريق لمستقبل الذكاء الاصطناعي: تحديات وفرص
يرافق هذا المقال خارطة طريق مرئية يمكنكم مشاهدتها وتحميلها [هنا] (أضف الرابط هنا). لماذا تُعدّ خرائط الطريق مهمة؟ تُعتبر خرائط الطريق أداة مفيدة تُمكّننا من النظر إلى المستقبل، والتنبؤ بالمسارات المحتملة المختلفة، وتحديد المجالات التي قد تُمثّل فرصًا أو تحديات. والهدف هو تصور السيناريوهات المختلفة من أجل التحضير، وتجنّب السيناريوهات التي قد تؤدي إلى مستقبل غير مرغوب فيه، أو أسوأ من ذلك، كارثة. كما أنها تمثل تمرينًا لتخيل المستقبل المنشود، وإيجاد المسار الأمثل لتحقيقه.
مقدمة لخارطة الطريق
تُصوّر هذه الخارطة ثلاثة سيناريوهات افتراضية في تطوير نظام ذكاء اصطناعي عام (AGI)، من منظور شركة وهمية (C1). يركّز المقال بشكل رئيسي على سباق الذكاء الاصطناعي، حيث يسعى أصحاب المصلحة إلى الوصول إلى ذكاء اصطناعي قوي، وما يترتب على ذلك من آثار على السلامة. تُحدّد الخارطة القرارات المحتملة التي يتخذها أصحاب المصلحة الرئيسيون في “حالات مختلفة”، والتي تؤدي إلى نتائج متنوعة. تم استخدام ترميز ألوان إشارات المرور لتصور النتائج المحتملة، حيث يُشير اللون الأخضر إلى النتائج الإيجابية، والأحمر إلى النتائج السلبية، والبرتقالي إلى النتائج المتوسطة.
الهدف من هذه الخارطة ليس عرض جميع السيناريوهات الممكنة على المشاهد، بل تقديم بعض الأمثلة الواضحة. تركّز الخارطة بشكل أساسي على الذكاء الاصطناعي العام (AGI)، والذي يُفترض أن يكون له إمكانات تحويلية، وقادر على التأثير بشكل كبير على المجتمع [1].
تتعمّد هذه الخارطة التطرّق إلى بعض السيناريوهات المتطرفة لإثارة النقاش حول دور الذكاء الاصطناعي العام في التحولات الجذرية.
السيناريو الأول: سباق الذكاء الاصطناعي: تطوير ذكاء اصطناعي عام خطير
بافتراض أن إمكانات الذكاء الاصطناعي العام كبيرة جدًا، وأن كونك أول من يخلقها قد يُعطي ميزة غير مسبوقة [2] [3]، هناك احتمال نشر ذكاء اصطناعي عام قبل اختباره بشكل كافٍ. في هذا السيناريو، تُنشئ الشركة C1 ذكاء اصطناعي عام بينما لا يزال الآخرون يتسابقون لإكمال التكنولوجيا. قد يؤدي هذا إلى قلق الشركة C1، ونشر الذكاء الاصطناعي العام قبل ضمان سلامته، وفقدان السيطرة عليه.
ما يحدث بعد ذلك في هذا السيناريو سيعتمد على طبيعة الذكاء الاصطناعي العام المُنشأ. إذا استمر التحسين الذاتي المتكرر للذكاء الاصطناعي العام بسرعة كبيرة بحيث لا يتمكن المطورون من اللحاق به، فسيكون المستقبل خارج أيدي البشرية. في هذه الحالة، بناءً على أهداف وقيم الذكاء الاصطناعي العام، قد يؤدي ذلك إلى سيناريو يوم القيامة، أو نوع من التعايش، حيث يتمكن بعض الأشخاص من الاندماج مع الذكاء الاصطناعي العام وجني ثماره، والبعض الآخر لا يتمكن من ذلك.
ومع ذلك، إذا لم يكن معدل التحسين الذاتي للذكاء الاصطناعي العام أُسيًا، فقد يكون هناك وقت كافٍ لإعادته تحت السيطرة مرة أخرى. قد يبدأ الذكاء الاصطناعي العام في تعطيل الهياكل الاجتماعية والاقتصادية [4]، مما يدفع المجموعات المتضررة إلى التحرك. قد يؤدي هذا إلى نوع من اتحاد سلامة الذكاء الاصطناعي العام، والذي يشمل الشركة C1، والذي يمكن أن يُكرّس لتطوير ونشر تدابير السلامة لإعادة التكنولوجيا تحت السيطرة. لذلك، سيتم إنشاء هذا الاتحاد من الضرورة، ومن المرجح أن يبقى متماسكًا لضمان بقاء الذكاء الاصطناعي العام مفيدًا في المستقبل. بمجرد أن يكون الذكاء الاصطناعي العام تحت السيطرة، يمكن أن يؤدي نظريًا إلى سيناريو حيث يمكن (إعادة) إنشاء ذكاء اصطناعي عام قوي وآمن بشكل شفاف.
ذكاء اصطناعي عام قوي وآمن
يمكن الوصول إلى نتيجة الذكاء الاصطناعي العام القوي والآمن من كلا السيناريوهين 1 و 2 (انظر الرسم التخطيطي). من الممكن أن يدخل نوع من النموذج الأولي للذكاء الاصطناعي العام إلى السوق، وفي حين أنه لن يشكّل تهديدًا وجوديًا، فمن المرجح أن يتسبب في اضطرابات اجتماعية كبيرة وأتمتة معظم الوظائف. قد يؤدي هذا إلى الحاجة إلى شكل من أشكال “الدخل الأساسي العالمي”، أو نموذج بديل يُمكّن من تقاسم الدخل وفوائد الذكاء الاصطناعي العام بين السكان. على سبيل المثال، قد يكون الجمهور قادرًا على المطالبة بحصته في “اقتصاد الذكاء الاصطناعي” الجديد من خلال الآليات التي يوفرها تحالف شامل (انظر أدناه). لاحظ أن دور الحكومات كمقدمي برامج الدعم العام قد ينخفض بشكل كبير ما لم يكن لدى الحكومات إمكانية الوصول إلى الذكاء الاصطناعي العام إلى جانب اللاعبين الاقتصاديين الأقوياء. قد لا تكون الرافعات التقليدية التي تستخدمها الحكومات للحصول على الموارد من خلال الضرائب كافية في اقتصاد الذكاء الاصطناعي الجديد.
السيناريو الثاني: سباق الذكاء الاصطناعي: التركيز على السلامة
في هذا السيناريو، يُنظر إلى الذكاء الاصطناعي العام كأداة قوية، ستمنح خالقها ميزة اقتصادية واجتماعية كبيرة. لا يُعتبر هنا (كما هو الحال أعلاه) بشكل أساسي خطرًا وجوديًا، بل سببًا محتملًا للعديد من الاضطرابات والتحولات في السلطة. يحتفظ المطورون بمعظم الأبحاث سرية، ولا تتجاوز أي تحالفات الائتلافات العامة السطحية، ومع ذلك، يتم بذل الكثير من العمل على سلامة الذكاء الاصطناعي. هناك مساران محتملان يمكن أن يسلكهما هذا السيناريو، وهما نهج تعاوني أو نهج سري.
النهج التعاوني
مع دعوة العديد من الجهات الفاعلة إلى التعاون في تطوير الذكاء الاصطناعي العام، من المرجح أن يتطور نوع من الاتحاد. قد يبدأ هذا كتمرين بناء ثقة مخصص بين عدد قليل من اللاعبين الذين يتعاونون في قضايا السلامة “منخفضة المخاطر”، لكنه قد يتطور إلى هيكل تعاون دولي أكبر لتطوير الذكاء الاصطناعي العام. في الوقت الحاضر، يتم تمهيد الطريق نحو سيناريو إيجابي من خلال مبادرات جديرة بالذكر، بما في ذلك شراكة الذكاء الاصطناعي [5]، والمعهد الوطني للمعايير والتكنولوجيا الذي يعمل على التصميم المتوافق أخلاقياً [6]، ومعهد مستقبل الحياة [7]، والعديد من المبادرات الأخرى. في هذه الخارطة، تُستخدم منظمة افتراضية على نطاق عالمي، حيث يتعاون الأعضاء في الخوارزميات والسلامة (بعنوان “الذكاء الاصطناعي الموحد” على غرار الأمم المتحدة)، كمثال. من المرجح أن يؤدي هذا إلى حالة “الذكاء الاصطناعي العام القوي والآمن” الموصوفة أعلاه، حيث سيتم تكريس جميع المواهب العالمية المتاحة، ويمكنها المساهمة، في ميزات السلامة والاختبار.
النهج السري
يمكن أن يحدث العكس أيضًا، وقد يعمل المطورون بشكل سري، ولا يزالون يقومون بعمل السلامة داخليًا، لكن الثقة بين المنظمات لن تكون قوية بما يكفي لتعزيز الجهود التعاونية. لهذا القدرة على السير في العديد من المسارات المختلفة. تركّز الخارطة على ما قد يحدث إذا ظهرت العديد من أنظمة الذكاء الاصطناعي العام مع أصحاب مختلفين في نفس الوقت، أو إذا كانت الشركة C1 تتمتع باحتكار التكنولوجيا.
أنظمة ذكاء اصطناعي عام متعددة
قد تظهر أنظمة ذكاء اصطناعي عام متعددة في نفس الوقت. قد يكون هذا بسبب “تسريب” في الشركة، أو اقتراب الشركات الأخرى في نفس الوقت، أو إذا تم التخلي عن الذكاء الاصطناعي العام طواعية من قبل مُنشئيه.
لهذا المسار أيضًا إمكانات متنوعة حسب أهداف المُنشئين. قد نصل إلى “حرب أنظمة الذكاء الاصطناعي العام” حيث يُقاتل الجهات الفاعلة المختلفة من أجل السيطرة المطلقة. ومع ذلك، قد نجد أنفسنا في حالة من الاستقرار، مشابهة لعالم ما بعد الحرب العالمية الثانية، حيث يتطور اقتصاد منفصل للذكاء الاصطناعي العام مع العديد من الجهات الفاعلة ويبدأ في العمل. قد يؤدي هذا إلى عالمين متوازيين من الأشخاص الذين لديهم إمكانية الوصول إلى الذكاء الاصطناعي العام، والذين ليس لديهم إمكانية الوصول إليه، أو حتى أولئك الذين يندمجون مع الذكاء الاصطناعي العام ليُنشئوا مجتمعًا من “آلهة” الذكاء الاصطناعي العام. قد يؤدي هذا مرة أخرى إلى زيادة عدم المساواة، أو اقتصاد وفرة، حسب دوافع “آلهة” الذكاء الاصطناعي العام وما إذا كانوا سيختارون مشاركة ثمار الذكاء الاصطناعي العام مع بقية البشرية.
احتكار الذكاء الاصطناعي العام
إذا تمكنت الشركة C1 من الاحتفاظ بالذكاء الاصطناعي العام داخل جدرانها من خلال ثقافة الفريق وتدابير الأمن، فقد تسير الأمور بعدة طرق. إذا كانت الشركة C1 لديها نوايا سيئة، فقد تستخدم الذكاء الاصطناعي العام لغزو العالم، وهو ما يشبه “حرب أنظمة الذكاء الاصطناعي العام” (أعلاه). ومع ذلك، من غير المرجح أن تتمكن المنافسة من مجابهة هذه التكنولوجيا القوية. قد يؤدي ذلك أيضًا إلى حالتي النهاية الأخريين المذكورتين أعلاه: إذا قررت الشركة C1 مشاركة ثمار التكنولوجيا مع البشرية، فقد نرى اقتصادًا وافرًا، وإذا لم تفعل، فمن المرجح أن يكون المجتمع غير متساوٍ للغاية. ومع ذلك، هناك إمكانية أخرى مُستكشفة وهي أن الشركة C1 ليس لديها أي اهتمام بهذا العالم وتستمر في العمل بشكل سري بمجرد إنشاء الذكاء الاصطناعي العام. مع إمكانات التكنولوجيا، يمكن للشركة C1 مغادرة الأرض والبدء في استكشاف الكون دون أن يلاحظ أحد.
السيناريو الثالث: انتقال سلس من الذكاء الاصطناعي الضيق إلى الذكاء الاصطناعي العام
يشهد هذا السيناريو انتقالًا تدريجيًا من الذكاء الاصطناعي الضيق إلى الذكاء الاصطناعي العام. على طول الطريق، يتم بناء البنية التحتية، وتكون تحولات السلطة أبطأ وأكثر تحكمًا. نرى بالفعل الذكاء الاصطناعي الضيق يشغل حياتنا اليومية في جميع أنحاء الاقتصاد والمجتمع، حيث تصبح الوظائف اليدوية آلية بشكل متزايد [8] [9]. قد يؤدي هذا التقدم إلى ظهور اتحاد سلامة الذكاء الاصطناعي الضيق الذي يركز على تطبيقات الذكاء الاصطناعي الضيق. يمكن استخدام هذا النموذج من سلامة/تنظيم الذكاء الاصطناعي الضيق كمساحة بناء ثقة لللاعبين الذين سيشرعون في تطوير الذكاء الاصطناعي العام. ومع ذلك، قد يُستبعد الجهات الفاعلة الذين يسعون فقط إلى الذكاء الاصطناعي العام ويختارون عدم تطوير تقنيات الذكاء الاصطناعي الضيق من هذا المخطط.
مع تزايد أتمتة الوظائف، ستحتاج الحكومات إلى تأمين المزيد من الموارد (من خلال الضرائب أو وسائل أخرى) لدعم الأشخاص المتضررين. قد يؤدي هذا الزيادة التدريجية في الدعم إلى دخل أساسي عالمي، أو نموذج مشابه (كما هو موضح أعلاه). في النهاية، سيتم الوصول إلى
اترك تعليقاً