أصبح من الواضح لكل من يتصفح وسائل التواصل الاجتماعي مؤخراً أن الذكاء الاصطناعي بات حاضراً في كل مكان، لكن المشكلة تكمن في أننا لا نتمكن دائماً من تمييزه عند رؤيته. هذا التحدي المتزايد أدى إلى تصاعد حالة من الإحباط لدى المستخدمين تجاه المحتوى المولد آلياً.

مطالبات بوضع ملصقات توضيحية واضحة

تتعدد الوسائل التي يحاول بها المستخدمون مواجهة تدفق محتوى الذكاء الاصطناعي، وتركز بعض الحلول على تحسين “الملصقات التوضيحية” (Labels) للمحتوى المولد آلياً، خاصة مع صعوبة الوثوق بما نراه. ووفقاً لاستطلاع شمل 2,443 من مستخدمي وسائل التواصل الاجتماعي، أعرب نصف المشاركين (51%) عن اعتقادهم بضرورة وجود ملصقات توضيحية أفضل للذكاء الاصطناعي عبر الإنترنت. وفي المقابل، يرى 21% أنه يجب حظر محتوى الذكاء الاصطناعي تماماً على المنصات الاجتماعية، بينما وجدت فئة صغيرة فقط (11%) أن هذا المحتوى مفيد أو تعليمي أو ترفيهي.

أزمة الثقة في عصر “سورا” و”نانو بنانا”

في عصر الذكاء الاصطناعي، لم يعد “رؤية الشيء” دليلاً على صدقه. فأدوات مثل مولد الفيديو “Sora” من OpenAI ونموذج الصور “Nano Banana” من جوجل يمكنها إنشاء وسائط واقعية للغاية، كما تستطيع برامج الدردشة الآلية صياغة نصوص تبدو وكأنها مكتوبة من قِبل بشر حقيقيين. ولهذا السبب، صرح ربع البالغين الأمريكيين (25%) بأنهم لا يثقون في قدرتهم على التمييز بين الصور والفيديوهات الحقيقية وتلك المولدة بالذكاء الاصطناعي. وتعد الأجيال الأكبر سناً، مثل “جيل الطفرة” (40%) و”الجيل إكس” (28%)، الأقل ثقة في قدراتهم على التمييز.

كيف يتحقق المستخدمون من صدق المحتوى؟

أفاد ما يقرب من ثلاثة من كل أربعة بالغين (72%) أنهم يتخذون إجراءً ما للتأكد من حقيقة الصورة أو الفيديو عندما يساورهم الشك، وكان “الجيل زد” هو الأكثر نشاطاً في هذا السياق بنسبة 84%. وتظل الطريقة الأكثر شيوعاً هي الفحص البصري الدقيق بحثاً عن عيوب أو أخطاء تقنية، وهو ما يفعله 60% من المستخدمين.

ومع ذلك، فإن ابتكارات الذكاء الاصطناعي سلاح ذو حدين؛ فقد تطورت النماذج بسرعة مذهلة، وتخلصت من الأخطاء التقليدية التي كنا نعتمد عليها، مثل “الأصابع الإضافية” في الصور أو أخطاء الاستمرارية في الفيديو. النماذج الأحدث لم تعد تقع في هذه الأخطاء البسيطة، مما يتطلب جهداً أكبر لتحديد الحقيقة من التزييف.

وسائل التحقق البديلة

مع اختفاء المؤشرات البصرية الواضحة، تزداد أهمية طرق التحقق الأخرى. وتتمثل الوسيلتان الأكثر شيوعاً بعد الفحص البصري في: البحث عن الملصقات التوضيحية (30%)، والبحث عن المحتوى في مصادر أخرى عبر الإنترنت مثل المواقع الإخبارية أو عبر البحث العكسي عن الصور (25%). ومن المثير للاهتمام أن 5% فقط من المشاركين يستخدمون أدوات أو مواقع متخصصة في كشف “التزييف العميق” (Deepfake).

مخاطر “نفايات الذكاء الاصطناعي” وسلوك المنصات

يعد انتشار ما يسمى بـ “نفايات الذكاء الاصطناعي” (AI Slop) تحدياً كبيراً، حيث يعتمد وسم المحتوى حالياً بشكل أساسي على إفصاح المستخدمين أنفسهم، أو على خوارزميات المنصات التي لا تزال تعطي نتائج غير دقيقة. وتسمح معظم المنصات الكبرى بمحتوى الذكاء الاصطناعي ما دام لا ينتهك معاييرها العامة، لكن بعضها بدأ في تقديم أدوات للحد منه؛ مثل “بينترست” التي أطلقت فلاتر خاصة، و”تيك توك” التي لا تزال تختبر ميزات مشابهة لمنح المستخدمين القدرة على استبعاد هذا المحتوى من خلاصاتهم.

نصائح تقنية لحماية نفسك من التضليل

أفضل دفاع ضد خداع الذكاء الاصطناعي هو التدقيق القوي والثقة بغريزتك؛ فإذا بدا الشيء غريباً جداً أو مثالياً بشكل مبالغ فيه، فمن المحتمل أنه غير حقيقي. وينصح الخبراء باستخدام أدوات مثل أداة “مبادرة أصالة المحتوى” (Content Authenticity Initiative) التي تدعم أنواعاً مختلفة من الملفات. كما يُنصح بفحص الحساب الذي نشر المحتوى؛ فغالباً ما يتم نشر “نفايات الذكاء الاصطناعي” عبر حسابات وهمية لا تملك متابعين حقيقيين أو تنشر محتوى عشوائياً يفتقر إلى الترابط.

وإذا كنت ترغب في تقليل ظهور هذا المحتوى، يمكنك تفعيل خيارات الفلترة في إعدادات المنصات، أو حتى إيقاف ميزات الذكاء الاصطناعي المدمجة مثل “Apple Intelligence” أو “Meta AI” أو “Gemini” في خدمات جوجل وهواتف بكسل وجالكسي.