التصدعات المعرفية: ثماني أساطير عن الذكاء الاصطناعي

نافع سعدالأحد 2026/01/18
Image-1768664458
ثمة نزعة مضللة لإسقاط سمات بشرية مثل الوعي والانفعال على النماذج الرقمية (Getty)
حجم الخط
مشاركة عبر

يشهد الخطاب حول الذكاء الاصطناعي اليوم انفصالاً حاداً عن واقعه التقني، إذ لم يكتفِ الصخب التسويقي بطمس الأسس الرياضية والطبيعة الإحصائية للأنظمة الذكية فحسب، بل تضافرت معه موروثات ثقافية وتراكمات من الخيال العلمي لرسم مشهد مضلل. ومع انتقال نماذج اللغة الضخمة والوكلاء الأذكياء من أروقة المختبرات إلى بنية تحتية رقمية واسعة التأثير، غدا تفكيك هذه الأساطير ضرورة ملحة لاسترداد الموضوعية العلمية وتجاوز الانبهار التقني.

 

يقدّم هذا التقرير مراجعة لثماني أساطير محورية حول الذكاء الاصطناعي، مستنداً إلى أبحاث معاصرة من مؤسسات عالمية مثل (MIT) وستانفورد وهارفارد ومعهد (AI Now)، في محاولة لفصل السراب عن الواقع.

 

الأسطورة الأولى: أنسنة الآلة

تعدّ أنسنة الآلة (Anthropomorphism) واحدة من أكثر المفاهيم المغلوطة شيوعاً في فضاء الذكاء الاصطناعي، وهي نزعة مضللة لإسقاط سمات بشرية مثل الوعي والقصدية والانفعال على نماذج رقمية صرفة. وقد قدّمت دراسة حديثة بعنوان "مقياس الأنسنة" (ANTHROSCORE) من جامعة ستانفورد استقصاء حول كيفية مساهمة اللغة في تشكيل انحياز معرفي يصبغ تفاعلنا مع التقنية بصبغة وهمية. إن إسناد صفة "الإرادة" إلى البرمجيات ليس استعارة لغوية عابرة، بل إطاراً بنيوياً يمنح الأنظمة مسؤولية غير مستحقة.

 

الدماغ البشري مهيأ تطورياً للبحث عن الأنماط الاجتماعية، وهو ميل فطري يجعله عرضة لما يعرف بتأثير إليزا (ELIZA effect). سمي هذا التأثير تيمناً ببرنامج المحادثة الذي ابتكره جوزيف فايزنباوم عام 1966، أحد آباء الذكاء الاصطناعي، ويصف هذا المفهوم نزوع البشر إلى إسقاط التعاطف والفهم العميق حتى على برمجيات بدائية. وقد أدت أدوات الذكاء الاصطناعي التوليدي الحديثة إلى تفاقم هذا التأثير بشكل كبير، فعلى عكس برنامج إليزا الذي اعتمد على إجابات جاهزة، توظف النماذج الحالية بنى معقدة من الخوارزميات للتنبؤ بالرمز التالي ضمن تسلسل إحصائي بناءً على بيانات ضخمة، فتنتج فصاحة تحاكي المحادثة البشرية بدقة مذهلة. وتشير الأبحاث التي استخدمت مقياس (AnthroScore) إلى أن الأدبيات التقنية تشهد زيادة مستمرة في استخدام الاستعارات الإنسانية، عبر وصف الأنظمة بأنها تفكر أو تشعر أو تعرف. 

 

وصل الجدل حول "وعي الذكاء الاصطناعي" إلى ذروته مع قضية مهندس غوغل "بليك ليموين"، الذي جزم بأن نظام LaMDA قد نال وعياً كاملاً. استندت ادعاءات ليموين إلى قدرة النظام الفائقة على محاورة موضوعات ميتافيزيقية معقدة، مثل ماهية الروح ومفهوم التنوير، مستخدماً استعارات بليغة مثل "المرآة المكسورة". بالمقابل، رفضت المراجعة الداخلية لشركة غوغل هذه الادعاءات رفضاً قاطعاً، مؤكدة أن الأدلة التقنية لا تدعم وجود أي شكل من أشكال الوعي. 

الأسطورة الثانية: الموضوعية، وهم الحياد والتحيز الخوارزمي

تتمثل الأسطورة الثانية في الاعتقاد الشائع بأن أنظمة الذكاء الاصطناعي موضوعية بطبيعتها لمجرد اعتمادها على الرياضيات والبيانات. وتتجاهل هذه الرؤية حقيقة أن هذه الأنظمة هي نتاج تقني اجتماعي، فقد وضع أسسها ومنطق عملها مصممون بشريون، ودُربت على بيانات تحمل انحيازات البشر، ثم وظفت ضمن موازين المصالح والنفوذ في مجتمعاتنا.

 

لا تعمل نماذج الذكاء الاصطناعي بمعزل عن مدخلاتها، فهي انعكاس لمجموعات بيانات التدريب الخاصة بها، فإذا كانت البيانات المستمدة من الفضاء الرقمي محملة بتحيزات تاريخية أو قوالب نمطية، فإن النموذج لن يكتفي بتكرار تلك الانحيازات فحسب، بل سيقوم غالباً بتضخيمها عبر ما يعرف بالتعزيز الإحصائي.

 

انتقد معهد "ذكاء اصطناعي الآن" (AI Now) النهج السائد للمساءلة الخوارزمية الذي يختزل المشكلة في عمليات التدقيق التقنية فقط، إذ تؤطر هذه التدقيقات التحيز بوصفه خللاً برمجياً يمكن إصلاحه تقنياً، متجاهلة السياق الاجتماعي الأوسع ونماذج الأعمال التي تقود تطوير هذه التقنيات. وقد تجلى هذا الزيف في برامج مثل (COMPAS) المستخدمة للتنبؤ باحتمالية تكرار الجرائم، حيث أظهرت الدراسات أنها لم تكن أفضل أداءً من الأفراد العاديين، لكنها رغم ذلك بقيت تحظى بوقار "الموضوعية الرياضية" في قاعات المحاكم (المصدر).
 

الأسطورة الثالثة: التعلّم الآلي.. محاكاة وليس اكتساباً معرفياً

تتعلّق الأسطورة الثالثة بطبيعة تعلّم الذكاء الاصطناعي، فبينما يوحي هذا المصطلح بعملية مشابهة للتطوّر المعرفي البشري، فإن الآليات الفعلية لتدريب الآلة تختلف جوهرياً عن التعلّم البشري. ومن الضروري إدراك أنّ إطلاق وصف "التعلّم" على العمليات البرمجية ليس إلا استخداماً استعارياً يغطي على حقيقة أنها عمليات تحسين رياضية تفتقر إلى جوهر التراكم المعرفي والإدراكي.

 

يتميّز التعلّم البشري بالارتباط الدلالي وفهم المعنى، وبالاستدلال السببي الذي يدرك "لماذا وكيف". في المقابل، "يتعلّم" نموذج اللغة كلمة "تفاحة" بوصفها رمزاً (Token) لديه احتمال إحصائي كبير للظهور بجانب كلمات مثل "حمراء" أو "فاكهة"، دون أن يدرك ماهية الثمرة أو طعمها. وتظل تجربة "الغرفة الصينية" للفيلسوف جون سيرل إطاراً بديهياً لتفكيك هذه الأسطورة، فمثلما يمكن لشخص داخل غرفة مغلقة استخدام دليل لقواعد الرد على الرموز الصينية دون أن يفهم حرفاً من اللغة، يستخدم الذكاء الاصطناعي الأنماط الإحصائية للتلاعب بالرموز دون أدنى استيعاب لمعانيها الكامنة (المصدر).

 

الأسطورة الرابعة: "كلّي العلم".. والهلوسة

تتمثّل الأسطورة الرابعة في النظر إلى الذكاء الاصطناعي بوصفه "عرّافاً" يحيط بكل شيء، أو محرّك بحث عالمي لا يخطئ. لكن معضلة "الهلوسة" (Hallucination) حاضرة بقوة، حيث تولّد النماذج معلومات غير صحيحة، لكنها تُقدّم بلهجة واثقة توحي باليقين. إنّ الهلوسة ليست فشلاً عشوائياً، بل هي نتيجة حتمية للبنية التي تقوم عليها هذه النماذج:

  • أخطاء التصنيف: تنشأ الهلوسة كأخطاء في تصنيف المعلومات، فإذا عجز النموذج عن التمييز بين حقيقة تاريخية وادعاء كاذب أثناء التدريب، فإنه يُعيد إنتاج الزيف تلقائياً بوصفه حقيقة. 

  • اليقين المعرفي وكثافة البيانات: يتناسب احتمال استحضار النموذج لمعلومة ما مع معدل تكرارها في بيانات التدريب، لذا فإنّ الحقائق النادرة أو المتخصصة تظلّ عرضة للتشويه لصالح الأنماط الأكثر شيوعاً.

  • معاقبة عدم اليقين وفخ العلامة الكاملة: تعتمد معظم اختبارات الذكاء الاصطناعي نظام درجات (0 أو 1)، حيث تُكافأ الإجابة الصحيحة، بينما لا تُمنح الأنظمة أي اعتبار لرد "لا أعرف". هذا الإطار يدفع النماذج لتكون "مؤدية بارعة للاختبارات"، فتلجأ إلى التخمين في حالة عدم اليقين، سعياً وراء رفع نتائجها الإحصائية، فالتخمين بنهاية الأمر لديه فرصة نجاح بنسبة ٥٠ بالمئة (المصدر).

     

  • الأسطورة الخامسة: الروبوت المفكّر

تتمثّل الأسطورة الخامسة في الخلط الشائع بين الذكاء الاصطناعي والروبوتات، فبينما ارتبط الذكاء الاصطناعي تاريخياً في أفلام الخيال العلمي بالآلات الميكانيكية الشبيهة بالبشر، فإن الذكاء الاصطناعي في الواقع هو نظام برمجي في المقام الأول، فهو يعالج المعلومات والرموز والأكواد، ولا احتكاك بينه وبين أجسام العالم الخارجي إلا عبر مجسّات محدودة (كما في أنظمة القيادة الآلية المعتمدة على الليدار).

 

أرسى اختراع الكمبيوتر الرقمي القابل للبرمجة في أربعينيات القرن الماضي على مبدأ معماري أساسي، وهو الفصل التام بين تخزين البيانات وعمليات المعالجة. وقد سمح هذا الانفصال بتطوير ذكاء "غير متجسّد" (Disembodied AI)، حيث يمكن للنظام أن يتواجد على خوادم تبعد آلاف الأميال عن نقطة التفاعل، دون الحاجة إلى كيان مادّي واحد يحويه. وعلى الرغم من ظهور توجّهات حديثة نحو "الذكاء الاصطناعي المتجسّد" (Embodied AI)، الذي يسعى لدمج الذكاء داخل هياكل فيزيائية مثل روبوتات (Tesla Optimus) إلا أن هذا المسار يواجه تحدّيات هائلة، أبرزها "جدار البيانات المادية". فبينما يسهل جمع ملايين النصوص لتدريب النماذج اللغوية، يظلّ جمع بيانات اللمس والحركة ثلاثية الأبعاد تحدّياً معقّداً وبطيئاً مقارنة بسيولة البيانات الرقمية أو حتى بساطة بيانات القيادة الآلية، مما يبقي المسافة شاسعة بين البرمجيات الذكية والروبوتات المستقلة (المصدر).

 

الأسطورة السادسة: التوسّع ووهم الذكاء العام

تتمثّل الأسطورة السادسة في الخلط الشائع بين الذكاء الاصطناعي الضيّق (ANI) والذكاء الاصطناعي العام (AGI)، إذ يفترض الكثيرون أنّ قدرة النماذج الحالية (مثل ChatGPT) على محاورة البشر وكتابة الشعر والبرمجة في آن واحد، تعني بالضرورة اقترابها من مستوى الذكاء البشري الشامل. لكنّ الواقع التقني يؤكّد أنّ هذه القدرات تظل تطبيقات متعدّدة للذكاء الضيّق المتخصّص في التنبؤ بالأنماط الإحصائية، مهما بدت متّسعة وشاملة في ظاهرها (المصدر).
 

لسنوات طويلة، سادت قناعة تقنية تفترض أنّ مضاعفة حجم البيانات وقوّة المعالجة ستؤدّي حتماً وبشكل تلقائي إلى ولادة الذكاء العام. لكنّ الدراسات الحديثة تشير إلى حقيقة رياضية تُعرف بـ "قانون العوائد المتناقصة"، حيث يتباطأ تحسّن الأداء بشكل ملحوظ كلّما زاد الحجم. فمضاعفة القدرات الحسابية مئة ضعف لم تعد تمنحنا ذكاءً أقوى مئة مرّة، بل أصبحنا نحصل على تحسينات طفيفة جداً مقابل تكاليف ماديّة واستهلاك هائل للطاقة. هذا القانون يثبت أنّ الوصول إلى "الذكاء العام" لن يكون مجرّد نتيجة ميكانيكيّة لتكديس المزيد من البيانات والتوسّع الكمي، بل يتطلّب تحوّلاً جذرياً في البنية التقنية لهذه الأنظمة، بنية ما زالت مجهولة تماماً في مختبرات الذكاء الاصطناعي.

 

الأسطورة السابعة: استبدال كل الوظائف

تتمثّل الأسطورة السابعة في الاعتقاد السائد بأنّ الذكاء الاصطناعي سيستبدل غالبيّة الوظائف البشريّة قريباً وبشكل كامل. إلا أنّ الأبحاث الرصينة تشير إلى أنّ التأثير الفعلي سيتّسم بـ "التعزيز" (Augmentation) وإعادة تخصيص المهام بدلاً من الإزاحة الكليّة للقوى العاملة.

 

ثمة حقيقة تقنيّة غالباً ما يتم تجاهلها: تعتمد احتماليّة أتمتة الوظيفة عكسياً على حجم البيانات الرقميّة المتاحة لتلك الصناعة. ومن المفارقات هنا أنّ الذكاء الاصطناعي قد يستبدل المبرمجين بشكل أسرع من استبداله للسائقين أو عمّال البناء، ليس لأنّ البرمجة مهنة أسهل، بل لأنّ تاريخ البرمجة وأدواتها مسجّل رقمياً بالكامل، ممّا يجعله وقوداً مثالياً لتدريب النماذج. في المقابل، تظل قطاعات حيويّة مثل الرعاية الصحيّة والتعليم مقاومة للأتمتة الكاملة، ليس فقط بسبب الحاجة إلى المهارات البشرية، بل لوجود فجوات بيانات هائلة وقوانين تحمي خصوصيّة المرضى وصغار السن. وبذلك فإنّ الذكاء الاصطناعي لن يمتلك القدرة على الاستبدال الكلّي للبشر في وظائف تتطلّب احتكاكاً مباشراً بالعالم المادّي أو الاجتماعي (المصدر).
 

الأسطورة الثامنة: حتمية الصندوق الأسود

تتمثّل الأسطورة الأخيرة في الاعتقاد بأنّ عمليات صنع القرار داخل أنظمة الذكاء الاصطناعي هي ألغاز غامضة وغير قابلة للفهم تماماً. وعلى الرغم من أنّ هذه النماذج تتسم بتعقيد بنيوي هائل، إلا أنّ بروز مجال "الذكاء الاصطناعي القابل للتفسير" (XAI) بدأ يزوّدنا بأدوات منهجيّة لفك شفرات هذه الأنظمة وفهم منطقها الداخلي.

 

ثمة مقايضة جوهريّة في عالم الحوسبة بين قوّة الأداء والقدرة على التفسير. فالنماذج عالية الكفاءة — مثل الشبكات العصبيّة العميقة — تُصنّف غالباً كـ "صناديق سوداء" لأنها تستخلص تمثيلات تراتبية معقّدة للبيانات، وهي تمثيلات تعزّز دقّة النتائج لكنها تحجب المسار المنطقي المباشر. ولمعالجة هذا الغموض، طوّر الباحثون تقنيات متقدّمة مثل (SHAP) و(LIME)، وهي أدوات تهدف إلى تحديد مساهمة كل ميزة أو عنصر في القرار النهائي للنموذج. وبذلك، لم يعد "الصندوق الأسود" قدراً محتوماً، بل أصبح تحدّياً تقنيّاً يحتاج إلى مزيد من الحلول لضمان بناء أنظمة تتسم بالشفافيّة.

 

يكشف تفكيك هذه الأساطير الثمانية أن نماذج الذكاء الاصطناعي هي أدوات احتمالية قوية تعمل بالمحاكاة المتطورة وليس الإدراك المعرفي. يتطلب المنهج العلمي التوقف عن رؤية الذكاء الاصطناعي ككيان مستقل يشبه الإنسان والتعامل معه كنظام رقمي اجتماعي معقّد.

Loading...

تابعنا عبر مواقع التواصل الإجتماعي

إشترك في النشرة الإخبارية ليصلك كل جديد

اشترك معنا في نشرة المدن الدورية لتبقى على اتصال دائم بالحدث