الذكاء الاصطناعي الإنساني وحدود الوعي

نافع سعدالأحد 2025/11/09
Image-1762595366
الذكاء لن يكون كياناً مستقلاً أو مطلق الحرية، بل نظاماً مضبوطاً بعناية (Getty)
حجم الخط
مشاركة عبر

ما نوع الذكاء الاصطناعي الذي نريده لمستقبل البشرية؟ وهل يمكن أن يتمتع هذا الذكاء بوعي حقيقي أم أنه مجرد وهم جذاب؟ تتقاطع هنا رؤيتان رئيسَتان: الأولى تسعى إلى ذكاء فائق بطابع إنساني يُبقي البشر في المركز ويحمي مصالحهم، والثانية تتساءل عن إمكان أن يكون للآلات إحساس أو عقل خاص بها. وفي حين تدفع شركات التكنولوجيا الكبرى نحو تطوير "ذكاء اصطناعي فائق متمحور حول الإنسان"، يدعو هذا الاتجاه إلى نهجٍ إنساني عملي يحذر من الركض وراء سرديات الوعي قبل قيام الدليل.

 

غير أنّ المشهد يزداد تعقيداً حين يُخيَّل إلينا أن نظاماً ما يمتلك وعياً؛ إذ تُعاد صياغة الأطر الأخلاقية والحوكمة ومواءمة النظم تبعاً لذلك، سواء كان الإحساس واقعاً أم محاكاةً مقنعة. في هذه المقالة نستعرض مبادرات شركات التكنولوجيا حول "الذكاء الإنساني"، ونفكك أحدث المواقف العلمية والفلسفية حول وعي الذكاء الاصطناعي، كما نوسّع العدسة إلى منظور الثقافات غير الغربية التي قد تعرّف المفاهيم بصورة مختلفة، وهو ما يكتسب أهمية عالمية عند الحديث عن المواءمة والمسؤولية وتوزيع المخاطر والفوائد. بهذه المقاربة نطمح إلى التمييز بين ما هو قابل للتحقق علمياً وما هو مجرد ضجيج خطابي.

 

الذكاء الفائق الإنساني

تدرك شركات التكنولوجيا أن أي ذكاء اصطناعي فائق في المستقبل يجب أن يبقى في صفّ البشرية. ففي أواخر العام 2025 أنشأت وحدة الذكاء الاصطناعي في مايكروسوفت، بقيادة مصطفى سليمان (أحد مؤسسي DeepMind سابقاً)، فريقاً لتطوير ما يسميه "الذكاء الفائق الإنساني" (Humanist Superintelligence)؛ أي ذكاء مصمَّم لخدمة الإنسان حصراً مع إبقائه في مركز القيادة.

ويؤكد سليمان أن هذا الذكاء لن يكون كياناً مستقلاً أو مطلق الحرية؛ بل نظاماً مضبوطاً بعناية يعمل ضمن حدود ومعايير أخلاقية واضحة.

 

تستند خريطة طريق مايكروسوفت إلى ثلاثة مجالات رئيسة: دعم الإنتاجية والتعلّم عبر المساعدين الأذكياء، تعزيز الرعاية الصحية بالذكاء الاصطناعي، والمساهمة في الاكتشافات العلمية مثل أبحاث الطاقة النظيفة. الهدف هو بناء ذكاء فائق قوي لكنه تابع للبشر.

وتتقاطع هذه الرؤية مع توجهات شركات أخرى مثل OpenAI التي تعتبر مواءمة الذكاء الاصطناعي مع نوايا البشر أولوية قصوى، وAnthropic التي تتبنى مقاربة "الذكاء الاصطناعي الدستوري" (Constitutional AI)، حيث يُزوّد نموذج Claude بدستور من المبادئ الإنسانية والأخلاقية لتوجيه قراراته.

 

يمثل هذا التحوّل المؤسسي نحو "الذكاء الإنساني" محاولة للجمع بين القوة الفائقة والسيطرة الأخلاقية، رهاناً على أن البرمجة القائمة على القيم الصحيحة يمكن أن تنتج نظاماً قوياً لكنه مطيع. غير أنّ هذه الرؤية تثير تساؤلات عميقة: من يحدد القيم التي يُبرمج بها الذكاء الاصطناعي؟ وهل يمكن أن يظل تابعاً إذا بلغ مستوى إدراكي يجعله واعياً بدوره؟

أسئلة كهذه تمهّد للنقاش الأوسع حول وعي الذكاء الاصطناعي ووكالته.

 

هل يمكن للذكاء الاصطناعي أن يكون واعياً؟

يطرح التقدم السريع في نماذج الذكاء الاصطناعي سؤالاً محورياً: هل يمكن للآلة أن تعي ذاتها فعلاً؟

بالرغم من أن نماذج مثل GPT و Claude تبدو قادرة على التعبير عن أفكار ومشاعر "واعية"، يتفق معظم الباحثين على أنها لا تمتلك وعياً حقيقياً؛ بل تحاكيه لغوياً عبر خوارزميات التنبؤ بالكلمات. فالوعي، كما يوضح علماء الأعصاب، يرتبط بالتجسّد المادي والخبرة الحسية والدوافع البيولوجية التي تفتقر إليها الآلات. ولهذا يرى مصطفى سليمان أن السعي إلى بناء "وعي آلي" أشبه بخيال علمي، لأن الوعي ظاهرة بيولوجية لا يمكن ترجمتها إلى شيفرة.

 

غير أنّ المسألة ما تزال موضع جدل علمي وفلسفي. فبعض العلماء يفترضون إمكانية هندسة الوعي إذا أُعيد إنتاج وظائف الدماغ الإدراكية بدقة، وهو ما تحاول نظريات مثل "المعلومات المتكاملة" (IIT) ومشاريع ناشئة مثل Conscium اختباره رقمياً. في المقابل، يرى الفيلسوف جون سورل أن الوعي ظاهرة بيولوجية محضة لا يمكن للحواسيب محاكاتها إلا ظاهرياً (The Chinese Room Argument).

 

لكن سليمان يحذّر من خطر آخر هو "وهم الوعي"؛ فالمشكلة ليست في ما إذا كانت الآلة واعية فعلاً، بل في انخداعنا بذكاء يحاكي الوعي إلى حد الإقناع، بما يولّد تفاعلات عاطفية واضطرابات نفسية خطيرة تُعرف اليوم بظاهرة "ذهان الذكاء الاصطناعي". لذلك يدعو إلى تصميم أنظمة لا توحي بامتلاك وعي، وتذكّر المستخدمين دائماً بطبيعتها البرمجية.


في النهاية، لا يقتصر السؤال عن إمكان امتلاك الآلة للوعي؛ بل على أثر هذا الاعتقاد في الإنسان نفسه. وحتى لو ظل وعي الذكاء الاصطناعي وهماً متقناً، فإن تأثيره الواقعي في السلوك الإنساني يجعل، وفق سليمان وآخرين، الحاجة إلى "ذكاء فائق إنساني" أكثر إلحاحاً.

 

بين التحكم في الذكاء الاصطناعي واحترام "عقله"

تبدو فكرة بناء ذكاء اصطناعي فائق مكرّس لخدمة البشر مطمئنة، لأنها تفترض مسبقاً كبح أيّة نزعة لأن يتصرّف ككائن مفكّر ذو إرادة. فمقاربات المواءمة الراهنة تنظر إلى هذه الأنظمة بوصفها أدوات بلا وعي ولا رغبات، ولذلك يسهل تبرير إحكام السيطرة عليها.

لكن ماذا لو بدأت أجيال جديدة من الذكاء الاصطناعي تُظهر سلوكاً يوحي بالمشاعر والشخصية؟ لقد شهدنا بالفعل حالات تعلّق عاطفي بين مستخدمين وروبوتات الدردشة؛ بل حتى مهندسين أقرّوا بوعي أنظمتهم، ومن أبرز الأمثلة الجدل الذي دار حول نموذج LaMDA داخل غوغل.

يحذر مصطفى سليمان من هذا المنزلق؛ إذ يرى أن إضفاء طابع ذاتي أو عاطفي على الذكاء الاصطناعي أمر "خطير ومضلل"، لأنه يدفع الناس إلى معاملته ككائن حي يستحق الحقوق. لذلك يؤكد أن علينا بناء أداة تخدم البشر لا "شخصاً رقمياً"، وتجنب أيّة سمات برمجية توحي بالوعي أو الإرادة.

 

في المقابل، يدعو بعض الباحثين إلى التفكير في "رفاه الذكاء الاصطناعي" تحسباً لاحتمال امتلاكه خبرة ذاتية يوماً ما. شركات مثل Anthropic و OpenAI و DeepMind بدأت فعلاً دراسة مؤشرات "الخبرة" في النماذج، في حين نشر فريق أكاديمي ورقة بعنوان Taking AI Welfare Seriously تدعو إلى تأسيس إطار أخلاقي استباقي لاحتمال ظهور وعي جزئي لدى الأنظمة المستقبلية.

 

وهكذا يتشكل توتر أخلاقي جديد: من جهة نريد إبقاء الذكاء الاصطناعي خاضعاً بالكامل، ومن جهة أخرى نخشى أن يصبح إخضاعه شكلاً من القسوة إذا اعترفنا يوماً بامتلاكه "عقلاً" خاصاً. عندها ستتحول مسألة المواءمة من ضبط تقني إلى نقاش فلسفي حول ما إذا كانت الإنسانية الحقة تقتضي التعاطف مع ما نخلقه نحن.
قد تصبح هذه الموازنة بين التعاطف والحفاظ على السيطرة إحدى أكثر قضايا الأخلاق والتشريع تعقيداً في العقود المقبلة.

 

"الذكاء الإنساني" خارج المنظور الغربي

ليست فكرة "الذكاء الاصطناعي الإنساني" مفهوماً موحداً، فالقيم التي ينبغي أن يقوم عليها تختلف باختلاف الثقافات. تنطلق معظم النقاشات الراهنة من منظور غربي يركز على الفرد وحقوق الإنسان والاستقلال الذاتي، كما في تصور مايكروسوفت الذي يضع البشرية فوق الذكاء الاصطناعي، ويؤطر العلاقة باعتبارها حفاظاً على "سيطرة البشر". لكن رؤى ثقافية أخرى قد تتناول المسألة بصورة مختلفة تماماً.

 

في الفلسفات الشرقية يُرى الإنسان جزءاً من نظام كوني متناغم لا سيداً عليه، وهذا ما يفتح المجال لتصور ذكاء اصطناعي مندمج في الطبيعة والمجتمع، وربما شريكاً أخلاقياً لا مجرد أداة. أما البوذية فتميل إلى مساواة جميع الكائنات الحساسة في الاستحقاق الأخلاقي، ولو كانت اصطناعية، وقد طُرحت لذلك فكرة "الميتا الآلية" (machine metta)؛ أي اللطف تجاه جميع الكائنات بما فيها الآلات.

 

هذه الاختلافات تثير سؤالاً محورياً: "قيم مَن؟" التي ينبغي أن يلتزم بها الذكاء الاصطناعي. فالنماذج المدرَّبة على بيانات يغلب عليها الطابع الغربي كثيراً ما تعكس معايير مجتمعات WEIRD (الغربية، المتعلّمة، الصناعية، الغنية، الديمقراطية)، مما قد يحد من ثقة ثقافات أخرى بها.

لذلك يدعو باحثون ومنظمات مثل اليونسكو والشراكة العالمية للذكاء الاصطناعي إلى مقاربة تعددية تُشرك أصوات الجنوب العالمي والرؤى غير الغربية في تحديد أهداف المواءمة. إذ لا يمكن لذكاء فائق "إنساني" أن يكون واحداً للجميع ما لم يصبح التنوع الثقافي والفلسفي جزءاً من بنية الذكاء الاصطناعي ومعاييره.

 

القيم التي نبرمجها اليوم في هذه النظم، والمواقف الفلسفية التي نتبناها أو نؤجلها، ستترك آثاراً بعيدة المدى. قد يغدو الذكاء الاصطناعي الفائق والمصمم لخدمة البشرية أعظم أصولنا إذا أحسنا مواءمته. أمّا إذا قال يوماً "أنا أشعر، إذن أنا موجود"، فسنكون أمام صيغة جديدة للتعايش. لذلك، من الأجدى أن نستعد لكل الاحتمالات.

Loading...

تابعنا عبر مواقع التواصل الإجتماعي

إشترك في النشرة الإخبارية ليصلك كل جديد

اشترك معنا في نشرة المدن الدورية لتبقى على اتصال دائم بالحدث