أعترف أنني كنت متشككاً في الذكاء الاصطناعي. كنت أبرمج الحواسيب منذ عام 1982. كان أول حاسوب لي يحتوي على كيلوبايت واحد من ذاكرة الوصول العشوائي، وعند التشغيل، كان يستهلك 300 بايت، تاركاً لي 700 بايت. كنت أعرف بالضبط ما أكتبه، وأين يذهب، وماذا يفعل. كيف يمكن للذكاء الاصطناعي أن يفعل أشياء فوجئ مطوروه باكتشاف أنه قادر عليها؟
ماذا يعني “التفكير” لنموذج نمط الدردشة
يتم تدريب نموذج اللغة الكبير (LLM) على توقع الرموز التالية المعقولة — عادة أجزاء من الكلمات (وحدات رمزية) — بالنظر إلى ما شاهده حتى الآن. يضغط هذا التدريب كميات مذهلة من النصوص إلى مليارات من المقابض الرقمية (الأوزان) داخل شبكة عصبية.
اللغة الطبيعية هي نموذج للكون. عندما أقول “أنا أقود سيارة”، فأنا لا أنتج كلمات فحسب — بل أشفر تمثيلاً منظماً للواقع: فاعل مفرد (“أنا”)، فعل معاصر (“أقود”)، ومفعول به (“سيارة”)، جميعها مرتبطة عبر مسند أو غيابه، يحدد فعلاً يحدث في العالم. بعبارة أخرى، تقسم اللغة التجربة إلى أدوار وعلاقات يمكننا التلاعب بها رمزياً.
هذا جزء كبير من سبب ظهور الذكاء الاصطناعي وكأنه “يفكر”. يتم تدريب نماذج اللغة الحديثة على كميات هائلة من هذه التمثيلات، لتتعلم الأنماط الإحصائية التي تربط الفاعلين والمسندات والأفعال والمفعولات والهياكل الدلالية الأوسع بالمواقف والنوايا والأسباب والنتائج. عندما تولد ردوداً، فهي لا تختبر العالم، لكنها تعمل على هذه النماذج اللغوية المتعلمة بطريقة تشبه الاستدلال — تتنبأ بالفاعل التالي، والمسند المعقول، والمفعول به المناسب للسياق، وكيف يجب أن تتكشف سلسلة من الأفكار. النتيجة هي سلوك يشعرك بأنه تفكير، لأنه مبني على نفس السقالات النحوية والعلائقية (فاعل–فعل–مفعول، منطق المسندات، الأدوار الدلالية) التي يستخدمها البشر لضغط الواقع والاستدلال عليه.
لماذا يمكن أن يبدو مثل الاستدلال
تتراكم عدة تأثيرات لخلق وهم الاستدلال:
- إكمال الأنماط على نطاق واسع. إذا كانت بيانات التدريب تقرن بشكل موثوق “العرض س” مع “التشخيص ص”، يمكن للنموذج إظهار هذا الارتباط دون “وحدة طبية” منفصلة.
- سلوك نمط تسلسل الأفكار (سواء طلبت منه “فكر خطوة بخطوة” أو فعل النظام ذلك ضمنياً) يطيل التدفق الداخلي للرموز قبل رمز الإجابة. المزيد من النص الوسيط يعني المزيد من الفرص لتصحيح المسار — مشابه في التأثير لخربشات العمل المسودة، باستثناء أنه لا يزال تنبؤاً حتى النهاية.
- تدريب المواءمة يعلم النموذج تفضيلات: كن مفيداً، ارفض الطلبات الضارة، اتبع التعليمات. هذا يعيد تشكيل الاحتمالات؛ لا يُنشئ ضميراً.
معاً، يمكن للغة الطلقة بالإضافة إلى الاتساق المحلي أن تقلد الاستدلال المتعمد — حتى عندما يكون ما يحدث حقاً هو تماسك إحصائي ممتد عبر قفزات متعددة.
الهندسة المعمارية في نفس واحد
تقريباً:
- التجزئة الرمزية: نص -> رموز مرقمة
- التضمينات: الرموز -> متجهات في فضاء مشترك
- طبقات المحول: كل موضع يحدث تمثيله بالانتباه إلى الآخرين (هذه هي فكرة “الانتباه” الشهيرة — مزج السياق، وليس وعي دائرة الضوء)
- طبقة الإخراج: لوغاريتمات فوق المفردات -> عينة الرمز التالي
هذا الهيكل مشترك عبر مجموعات من نماذج GPT ذات نمط فك التشفير فقط، وإعدادات المشفر-فك التشفير، والهجائن متعددة الوسائط، إلخ. تختلف التسمية؛ الجوهر مستقر: سياق يدخل، احتمالات تخرج.
معالجة اللغة الطبيعية، اللغة، والحدود
اللغة الطبيعية هي الواجهة العالمية — ليس لأن الحواسيب “تتكلم”، بل لأننا دربنا النماذج على محيطات من كتابات البشرية والنصوص المشتقة من الكلام.
نقاط القوة التي تراها في البرية: التلخيص، الترجمة، الصياغة، مساعدة البرمجة، الأسئلة والأجوبة بنمط البحث عندما تكون الحقائق موجودة في السياق أو ممثلة جيداً في التدريب.
نقاط الضعف التي تستحق أن تضعها في بالك:
- الهلوسة: كذب بطلاقة عندما يبدو المسار التنبؤي معقولاً.
- معرفة قديمة ما لم تملأ الأدوات أو الاسترجاع الفجوات.
- لا ذات متجذرة: لا تراقب العالم باستمرار؛ أي شيء ليس في المطالبات أو الأدوات أو الأوزان الداخلية لا يمكن الوصول إليه.
خلاصة متجذرة
عامل “التفكير” على أنه استعارة مختصرة. الآلية هي تنبؤ قابل للتفاضل بالإضافة إلى الحجم والسقالات والاسترجاع والحواجز الوقائية — ومطالباتك. احترم ما يفعله جيداً؛ تحقق مرتين من أي شيء مهم.
إذا فضلت القول إن الذكاء الاصطناعي يحاكي سلوكاً شبيهاً بالاستدلال، فأنت على أرض صلبة دون أن تفسد ما هو رائع في هذه الأنظمة — أنها تحول التعرض الخام للنصوص إلى آلات لغوية فائقة القدرة.