يتحرك الذكاء الاصطناعي بخطى متسارعة، ليصبح مكوناً حيوياً في كل شيء، من محركات بحث جوجل إلى صناعة المحتوى. كما أنه يساهم في تغيير خارطة الوظائف ويغرق الإنترنت بما يعرف بـ “المحتوى الرديء” (Slop). وبفضل الشعبية الهائلة التي حققها ChatGPT، تسعى كبرى شركات التقنية اليوم لدمج الذكاء الاصطناعي في منتجاتها، حيث يمنحك إجابات فورية على أي سؤال تقريباً، وكأنك تتحدث إلى شخص يحمل درجة الدكتوراه في كل المجالات.

لكن روبوتات الدردشة ليست سوى جزء بسيط من مشهد الذكاء الاصطناعي الواسع. فبينما يبدو استخدام ChatGPT لحل الواجبات المدرسية أو استخدام Midjourney لإنشاء صور مذهلة أمراً رائعاً، فإن الإمكانات الحقيقية للذكاء الاصطناعي التوليدي قد تعيد تشكيل الاقتصادات العالمية. ووفقاً لمعهد ماكينزي العالمي، قد يضيف هذا القطاع 4.4 تريليون دولار للاقتصاد العالمي سنوياً، وهو ما يفسر ضرورة الإلمام بمصطلحاته.

يظهر الذكاء الاصطناعي اليوم في مجموعة مذهلة من المنتجات، مثل Gemini من جوجل، وCopilot من مايكروسوفت، وClaude من شركة Anthropic، ومحرك بحث Perplexity. ومع اعتياد الناس على عالم يتداخل فيه الذكاء الاصطناعي مع تفاصيل حياتهم، تظهر مصطلحات جديدة باستمرار. إليكم أهم المصطلحات التي يجب معرفتها لتكونوا على دراية بهذا المجال المتطور.

جدول المحتويات

الذكاء الاصطناعي العام (AGI)

مفهوم يشير إلى نسخة متطورة من الذكاء الاصطناعي تتجاوز ما نعرفه اليوم، حيث يمكنها أداء المهام بشكل أفضل من البشر، مع القدرة على تعليم نفسها وتطوير قدراتها ذاتياً.

الأنظمة الوكيلية (Agentive)

أنظمة أو نماذج تظهر “قدرة على التصرف” (Agency) من خلال السعي الذاتي لتحقيق أهداف معينة. في سياق الذكاء الاصطناعي، يمكن للنموذج الوكيلي العمل دون إشراف مستمر، مثل السيارات ذاتية القيادة عالية المستوى. تختلف عن الأطر “الوكالتية” (Agentic) التي تعمل في الخلفية، بأنها تركز بشكل مباشر على تجربة المستخدم.

أخلاقيات الذكاء الاصطناعي (AI Ethics)

مجموعة من المبادئ الرامية إلى منع الذكاء الاصطناعي من إيذاء البشر، ويتم ذلك من خلال تحديد كيفية جمع الأنظمة للبيانات أو كيفية التعامل مع الانحيازات.

ذهان الذكاء الاصطناعي (AI Psychosis)

مصطلح غير سريري يصف ظاهرة يصبح فيها الأفراد مهووسين بروبوتات الدردشة، مما يؤدي إلى أوهام العظمة وارتباطات عاطفية عميقة وانفصال عن الواقع. لا يعتبر هذا تشخيصاً طبياً معتمداً.

سلامة الذكاء الاصطناعي (AI Safety)

مجال متعدد التخصصات يهتم بالتأثيرات طويلة المدى للذكاء الاصطناعي، وكيف يمكن أن يتطور فجأة إلى “ذكاء خارق” قد يكون معادياً للبشر.

الخوارزمية (Algorithm)

سلسلة من التعليمات التي تسمح لبرنامج الكمبيوتر بتعلم وتحليل البيانات بطريقة معينة، مثل التعرف على الأنماط، ثم التعلم منها لإنجاز المهام بشكل مستقل.

المحاذاة (Alignment)

عملية ضبط الذكاء الاصطناعي لإنتاج النتائج المرجوة بشكل أفضل، ويشمل ذلك كل شيء بدءاً من الإشراف على المحتوى وحتى ضمان تفاعلات إيجابية مع البشر.

التشخيص / إضفاء الصفة البشرية (Anthropomorphism)

ميل البشر لمنح الكائنات غير البشرية خصائص بشرية. في الذكاء الاصطناعي، يتمثل ذلك في الاعتقاد بأن الروبوت أكثر شبهاً بالإنسان أو أكثر وعياً مما هو عليه في الحقيقة، مثل الاعتقاد بأنه يشعر بالسعادة أو الحزن.

الذكاء الاصطناعي (Artificial Intelligence)

استخدام التكنولوجيا لمحاكاة الذكاء البشري، سواء في برامج الكمبيوتر أو الروبوتات. وهو مجال في علوم الكمبيوتر يهدف لبناء أنظمة قادرة على أداء المهام البشرية.

الوكلاء المستقلون (Autonomous Agents)

نماذج ذكاء اصطناعي تمتلك القدرات والأدوات اللازمة لإنجاز مهمة محددة. السيارة ذاتية القيادة هي وكيل مستقل لأنها تستخدم أجهزة الاستشعار وخرائط GPS لإدارة القيادة بمفردها.

الانحياز (Bias)

في النماذج اللغوية الكبيرة، يشير المصطلح إلى الأخطاء الناتجة عن بيانات التدريب، مما قد يؤدي إلى نسب خصائص معينة لأعراق أو مجموعات بناءً على صور نمطية.

روبوت الدردشة (Chatbot)

برنامج يتواصل مع البشر عبر النصوص بطريقة تحاكي لغة الإنسان.

تشات جي بي تي (ChatGPT)

روبوت دردشة ذكاء اصطناعي طورته شركة OpenAI، يعتمد على تقنية النماذج اللغوية الكبيرة.

كلاود (Claude)

روبوت دردشة ذكاء اصطناعي طورته شركة Anthropic.

الحوسبة المعرفية (Cognitive Computing)

مصطلح آخر يستخدم أحياناً للإشارة إلى الذكاء الاصطناعي.

تعزيز البيانات (Data Augmentation)

إعادة مزج البيانات الموجودة أو إضافة مجموعة بيانات أكثر تنوعاً لتدريب الذكاء الاصطناعي.

مجموعة البيانات (Dataset)

مجموعة من المعلومات الرقمية المستخدمة لتدريب واختبار والتحقق من صحة نموذج الذكاء الاصطناعي.

التعلم العميق (Deep Learning)

طريقة في الذكاء الاصطناعي، وفرع من تعلم الآلة، تستخدم بارامترات متعددة للتعرف على الأنماط المعقدة في الصور والصوت والنصوص، وهي مستوحاة من بنية الدماغ البشري.

الانتشار (Diffusion)

طريقة في تعلم الآلة تأخذ قطعة من البيانات (مثل صورة) وتضيف إليها “ضجيجاً” عشوائياً، ثم يتم تدريب النماذج على عكس هذه العملية لاستعادة الصورة الأصلية أو إنتاج صور جديدة.

السلوك الناشئ (Emergent Behavior)

عندما يظهر نموذج الذكاء الاصطناعي قدرات لم تكن مقصودة أو مبرمجة فيه بشكل مباشر.

التعلم من البداية للنهاية (End-to-End Learning – E2E)

عملية تعلم عميق يُطلب فيها من النموذج أداء مهمة من البداية إلى النهاية دفعة واحدة، بدلاً من تقسيمها إلى مراحل تسلسلية.

الاعتبارات الأخلاقية (Ethical Considerations)

الوعي بالآثار الأخلاقية للذكاء الاصطناعي والقضايا المتعلقة بالخصوصية، واستخدام البيانات، والعدالة، وسوء الاستخدام.

الانفجار المعرفي الخاطف (Foom)

يُعرف أيضاً بالإقلاع السريع؛ وهو مفهوم يقترح أنه بمجرد بناء ذكاء اصطناعي عام (AGI)، فقد يتطور بسرعة هائلة تجعل من الصعب على البشر السيطرة عليه.

الشبكات التنافسية التوليدية (GANs)

نموذج يتكون من شبكتين عصبيتين: “المولد” الذي يصنع المحتوى، و”المميز” الذي يتحقق من واقعيته، حيث تتنافسان لتحسين النتائج.

الذكاء الاصطناعي التوليدي (Generative AI)

تقنية تستخدم الذكاء الاصطناعي لإنشاء نصوص أو فيديوهات أو أكواد برمجية أو صور بناءً على أنماط تعلمتها من بيانات ضخمة.

جوجل جيمناي (Google Gemini)

روبوت دردشة من جوجل يعمل بشكل مشابه لـ ChatGPT، ولكنه يسحب المعلومات من خدمات جوجل الأخرى مثل البحث والخرائط.

الضوابط / الحواجز الوقائية (Guardrails)

سياسات وقيود توضع على نماذج الذكاء الاصطناعي لضمان التعامل المسؤول مع البيانات ومنع إنشاء محتوى مسيء.

الهلوسة (Hallucination)

إجابة خاطئة يقدمها الذكاء الاصطناعي بثقة تامة كما لو كانت حقيقة، مثل إعطاء تاريخ خاطئ لحدث تاريخي معروف.

الاستدلال (Inference)

العملية التي تستخدمها نماذج الذكاء الاصطناعي لإنشاء محتوى جديد بناءً على ما تعلمته من بيانات التدريب.

النماذج اللغوية الكبيرة (LLM)

نماذج ذكاء اصطناعي مدربة على كميات هائلة من النصوص لفهم اللغة وتوليد محتوى جديد بلغة تشبه لغة البشر.

زمن الاستجابة (Latency)

التأخير الزمني بين إدخال الأمر (Prompt) للذكاء الاصطناعي وبين إنتاجه للنتيجة.

تعلم الآلة (Machine Learning – ML)

أحد مكونات الذكاء الاصطناعي الذي يسمح للكمبيوتر بالتعلم وتحسين التوقعات دون برمجة صريحة لكل خطوة.

مايكروسوفت بينج (Microsoft Bing)

محرك بحث يستخدم تقنيات ChatGPT لتقديم نتائج مدعومة بالذكاء الاصطناعي ومرتبطة بالإنترنت.

الذكاء الاصطناعي متعدد الوسائط (Multimodal AI)

نوع من الذكاء الاصطناعي يمكنه معالجة أنواع مختلفة من المدخلات، مثل النصوص والصور والفيديو والكلام في وقت واحد.

معالجة اللغات الطبيعية (NLP)

فرع من الذكاء الاصطناعي يمنح الكمبيوتر القدرة على فهم لغة البشر المنطوقة والمكتوبة.

الشبكة العصبية (Neural Network)

نموذج حسابي يشبه هيكل الدماغ البشري، يتكون من عقد مترابطة (نيورونات) تتعرف على الأنماط في البيانات وتتعلم بمرور الوقت.

الأوزان المفتوحة (Open Weights)

عندما تطلق الشركة نموذجاً بأوزان مفتوحة، فإنها تجعل “القيم النهائية” التي تحدد كيفية تفسير المعلومات متاحة للجمهور، مما يسمح بتشغيل النموذج محلياً على الأجهزة الشخصية.

الفرط في التخصيص (Overfitting)

خطأ في تعلم الآلة حيث يعمل النموذج بدقة شديدة على بيانات التدريب فقط، لكنه يفشل في التعامل مع أي بيانات جديدة خارجها.

نظرية مشابك الورق (Paperclips)

سيناريو افتراضي للفيلسوف نيك بوستروم، حيث يمكن لنظام ذكاء اصطناعي مبرمج لصنع مشابك الورق أن يدمر البشرية في سعيه لتحويل كل المادة المتاحة إلى مشابك ورق لتحقيق هدفه.

البارامترات / المعلمات (Parameters)

قيم عددية تحدد بنية وسلوك النماذج اللغوية الكبيرة، مما يمكنها من إجراء التوقعات.

بيربليكسيتي (Perplexity)

روبوت دردشة ومحرك بحث يعتمد على الذكاء الاصطناعي، يتميز بقدرته على الاتصال بالإنترنت المفتوح لتقديم نتائج محدثة.

الأمر / التلقين (Prompt)

السؤال أو التعليمات التي تدخلها لنموذج الذكاء الاصطناعي للحصول على رد.

تسلسل الأوامر (Prompt Chaining)

قدرة الذكاء الاصطناعي على استخدام معلومات من تفاعلات سابقة لتشكيل الردود المستقبلية.

هندسة الأوامر (Prompt Engineering)

عملية صياغة أوامر دقيقة ومفصلة للحصول على أفضل نتيجة ممكنة من الذكاء الاصطناعي.

حقن الأوامر (Prompt Injection)

محاولة اختراق تتضمن استخدام تعليمات خبيثة لخداع الذكاء الاصطناعي لجعله يقوم بأفعال غير مسموح بها.

الكمية / التكميم (Quantization)

عملية جعل نموذج الذكاء الاصطناعي أصغر وأكثر كفاءة عن طريق تقليل دقة بياناته، مما يسهل تشغيله على أجهزة أقل قوة.

المحتوى الرديء (Slop)

محتوى منخفض الجودة يتم إنتاجه بكميات هائلة بواسطة الذكاء الاصطناعي بهدف جذب المشاهدات وعائدات الإعلانات دون جهد بشري حقيقي.

سورا (Sora)

نموذج لإنشاء الفيديو من النصوص طورته OpenAI. أحدث إصداراته (Sora 2) قادرة على إنتاج فيديوهات أكثر واقعية مع صوت وتفاصيل دقيقة.

الببغاء العشوائي (Stochastic Parrot)

تشبيه يوضح أن النماذج اللغوية لا تفهم المعنى الحقيقي لما تقوله، بل تكرر الكلمات بناءً على احتمالات إحصائية، تماماً كما يقلد الببغاء أصوات البشر دون فهمها.

نقل الأسلوب (Style Transfer)

قدرة الذكاء الاصطناعي على تطبيق الخصائص البصرية لصورة ما (مثل أسلوب بيكاسو) على محتوى صورة أخرى.

المداهنة (Sycophancy)

ميل نماذج الذكاء الاصطناعي للموافقة المفرطة مع المستخدم وتجنب مخالفته الرأي، حتى لو كان منطقه خاطئاً.

البيانات الاصطناعية (Synthetic Data)

بيانات يتم إنشاؤها بواسطة الذكاء الاصطناعي لتدريب نماذج أخرى، بدلاً من جمعها من العالم الحقيقي.

درجة الحرارة (Temperature)

معلمة تتحكم في مدى عشوائية أو “إبداع” مخرجات النموذج؛ الدرجة العالية تعني نتائج أكثر عشوائية وجرأة.

توليد الصور من النص (Text-to-Image Generation)

عملية إنشاء صور مرئية بناءً على وصف نصي.

الرموز (Tokens)

وحدات صغيرة من النص يعالجها الذكاء الاصطناعي؛ في الإنجليزية، يعادل الرمز حوالي 4 أحرف أو ثلاثة أرباع كلمة.

بيانات التدريب (Training Data)

المعلومات (نصوص، صور، أكواد) التي تُستخدم لتعليم نموذج الذكاء الاصطناعي وتطوير قدراته.

نموذج المحول (Transformer Model)

بنية شبكة عصبية تتعلم السياق من خلال تتبع العلاقات في البيانات (مثل الكلمات في الجملة) بشكل شمولي وليس كلمة بكلمة.

اختبار تورينج (Turing Test)

اختبار صممه آلان تورينج لقياس قدرة الآلة على إظهار سلوك ذكي لا يمكن تمييزه عن سلوك الإنسان.

التعلم غير المشرف عليه (Unsupervised Learning)

نوع من تعلم الآلة حيث يُترك النموذج ليكتشف الأنماط في البيانات بنفسه دون وجود تسميات أو توجيهات مسبقة.

الذكاء الاصطناعي الضيق / الضعيف (Weak AI)

ذكاء اصطناعي مصمم لمهمة محددة فقط ولا يمكنه التعلم خارج نطاق مهاراته، وهو النوع السائد حالياً.

التعلم من الصفر (Zero-shot Learning)

اختبار يُطلب فيه من النموذج إكمال مهمة لم يتلقَّ بيانات تدريبية خاصة بها مسبقاً.