هواجس الذكاء الاصطناعي: رهاب الروبوت أم رهاب الذات؟

نافع سعدالثلاثاء 2025/12/09
Image-1765016989
ثمة خشية من نجاح الذكاء الاصطناعي في إقناعنا أو خداعنا والتسبب بأذى مباشر (Getty)
حجم الخط
مشاركة عبر

في نهاية كلّ يوم عمل، تُغلق سارة حاسوبها المحمول وتحدّق لثوانٍ في الفراغ، كأنّها تستوعب أنّ يوماً آخر قد انقضى. تعمل سارة في مجال التسويق الإعلاني، وتستخدم "شات جي بي تي" يومياً لصياغة نسخ إعلانية بسرعة أكبر، واقتراح الأفكار الأوّلية للحملات، ومراجعة المحتوى، قبل مرحلة التصميم. وعلى رغم إدراكها التامّ لِما يقدّمه هذا النظام من مساعدة في عملها، فإنّ قلقاً مزمناً يسكنها منذ أكثر من عام: "ماذا لو أصبحت الأداة الذكية نفسها التي تعتمد عليها اليوم قادرة، في وقت غير بعيد، على القيام بجميع مهامها بوتيرة أسرع خمس مرّات؟"

الخوف من فقدان الوظيفة

لكن الخوف من الذكاء الاصطناعي لا يقف عند حدود فقدان الوظائف. فهناك طبقات متراكبة تبدأ من المخاوف الشخصية، كالتي تختبرها سارة، وصولاً إلى الهواجس الوجودية التي تطال معنى الحياة، في عالم ينزلق أكثر فأكثر نحو سطوة الخوارزميات. 

وتظهر دراسة بعنوان "القلق المجتمعي من الذكاء الاصطناعي" للباحث مايكل غيرليخ (Michael Gerlich, 2024) أنّ القلق المهني هو الأكثر حضوراً عالمياً. ففي المملكة المتحدة مثلاً، رأى 91 في المئة من المشاركين في الدراسة أنّ الذكاء الاصطناعي يهدّد الوظائف في قطاعاتهم، بينما قال 96 في المئة إنّ وتيرة التطوّر السريعة تضعهم في حالة توتّر دائم. وعبّر 88 في المئة عن خوفهم من إساءة استخدام بياناتهم الشخصية.. قصة سارة ليست سوى انعكاس جزئي لهذا القلق العام.


الخوف من الذات: الذكاء الاصطناعي كمرآة ثقافية

الخوف من الذكاء الاصطناعي ظاهرة متعدّدة الأبعاد، إذ تتجذّر في تقاطعات علم النفس والسرديّات الثقافية والاجتماعية. فمن الناحية النفسية والاجتماعية، يتبلور هذا الخوف حين يجتمع الشعور بوجود تهديد مع إحساس منخفض بالقدرة على المواجهة. وقد أسهم المخيال الغربي حول تمرّد الآلة في تعزيز هذا الشعور، وفي ترسيخ صورة الذكاء الاصطناعي ككيان مزدوج يجمع بين "الشيطان" و"المرآة" معاً. وعن هذا يشير المحلّل الثقافي نيلز وايلد (Niels Wilde) إلى أنّ الخوف الغربي من الذكاء الاصطناعي هو في جوهره خوف من أنفسنا: "رهاب الروبوت هو رهاب الذات".
 

تمرّ صورة الذكاء الاصطناعي في الغالب عبر قوالب سردية ثقافية واجتماعية متنوّعة. ففي الغرب قد يظهر النموذج المتمرد على صورة "فرانكنشتاين"، بينما يُنظر إليه في ثقافات أخرى كأنّه "جنّي" لا يستجيب للأوامر. كما تختلف الرؤية باختلاف الموقع المهني للفرد. فربما تنظر إليه كأداة مساعدة ومحفّزة للإنتاجية إذا كنت مديراً تنفيذياً، بينما تراه لصّاً يهدّد الرزق إذا كنت عاملاً يخشى فقدان عمله. وتظهر الدراسات فروقاً ديموغرافية واضحة أيضاً. فالنساء يعبّرن عن حذر أكبر، ويستخدمن استعارات أقسى لوصفه، في حين يميل كبار السن والأقليات إلى استخدام استعارات ذات طابع أسطوري. وتتبدّل المواقف بين الدول تبعاً لـ"الذاكرة التقنية". ففي بريطانيا مثلاً، ما زالت فضائح تسريب البيانات السابقة تترك أثراً عميقاً في مستويات الثقة، كما يشير مايكل غيرليخ.

 

غير أنّ بعض الدراسات حول الخوف والثقة لا ترسم صورة متطابقة في كل مكان. ففي ألمانيا أظهرت دراسة أنّ كبار السن يتّخذون موقفاً أكثر سلبية من الذكاء الاصطناعي، مقارنة بالأجيال الأصغر سناً التي نشأت مع التقنيات الحديثة، والتي تميل إلى قدر أكبر من التفاؤل أو نوع من الاعتياد. في المقابل توصّلت دراسة مماثلة في الولايات المتحدة إلى نتيجة معاكسة، إذ بيّنت أنّ كبار السن، ولا سيّما من غير البيض، ينظرون إليه بإيجابية أكبر من الشباب. وربما يعود التفسير المنطقي لهذا التباين إلى أنّ الثقة وإدراك المخاطر ليسا شيئاً واحداً. إذ قد يثق الفرد بقدرة الذكاء الاصطناعي على أداء مهام معيّنة أو يثق بالسلطات التي تنظّمه، مع استمرار القلق من مخاطر محدّدة مرتبطة به.

 

سباق النماذج الذكية: اندفاع نحو الهاوية
على رغم  قدرتنا على التمييز بين الخوف والحذر ضمن نطاق الشعور الفردي أو المجتمعي، فإن التعمّق في تحليل مسألة الخوف من الذكاء الاصطناعي يترك تساؤلاً أساسياً لم تتم الإجابة عنه في شكل حاسم بعد: هل هذا الخوف مبرّرٌ حقاً، وهل تبلغ المخاطر المحتملة ذلك القدر الديستوبي الذي يتحدث عنه بعض الخبراء؟

 

تريستان هاريس، الخبير في أخلاقيات التصميم لدى غوغل سابقاً وأحد أبرز الأصوات التي عرفها الجمهور من خلال فيلم نتفليكس "The Social Dilemma"، ظهر في أواخر تشرين الثاني المنصرم ضمن برنامج "The Diary of a CEO". وقد أطلق خلال الحلقة سلسلة من التحذيرات القوية، داعياً إلى وقف السباق نحو الذكاء الاصطناعي العام (AGI)، الذي يرى أنّه قد يدفع بنا خلال سنوات معدودة نحو الهاوية.


خلافاً للأصوات التي تستغلّ خوف الناس من الذكاء الاصطناعي وتعمل على تأجيجه طمعاً في تحقيق مكاسب أو شهرة إعلامية، بدا لي أن الطرح الذي قدّمه هاريس طوال الحلقة كان متّسقاً ومدعوماً بالدلائل، ما يجعله استثناءً لافتاً في هذا المجال. يشير هاريس إلى تناقض لدى الرؤساء التنفيذيين الذين يتسابقون لبناء أنظمة الذكاء الاصطناعي العام (AGI). فهم يقدّمون خطاباً علنياً ويخفون قناعاتهم، إذ يروّجون لخطاب "الوفرة" (من شفاء السرطان إلى الازدهار الشامل)، بينما يعترفون في مجالسهم الخاصة بمخاطر وجودية. ينقل هاريس عن أحد المليارديرات قوله إنّ مجرد وجود احتمال بنسبة 5 في المئة لكارثة وجودية يعني أنّه "لا ينبغي أن نقوم بهذا أصلاً".


وعلى رغم التحذيرات، تجد الشركات نفسها عالقة في سباق مع "الآخر" (سواء كان شركة منافسة أو دولة أخرى)، وتواصل التقدم، لأنها تعلم أنّ من يمتلك الذكاء الاصطناعي العام (AGI) سيكون سيد العالم. ويفنّد هاريس هذا السباق الأسطوري لبناء "إله التكنولوجيا": فالخشية من أن تصبح عبداً عند من يمتلك الـ AGI أولاً (حتى ولو كان نموذجاً منضبطاً)، تتقدم على الخشية من أن تحكمنا الآلة! وكأنهم يقولون بكل أنانية: "أفضّل أن تكون نهاية العالم على يدي أنا، لا على يد غيري".

الاستقلالية الإدراكية مقابل التلاعب الخوارزمي

تشير الأوراق البحثية إلى أنّ الأثر النفسي للذكاء الاصطناعي بدأ يتبلور في صورة غير مباشرة خلال العقد الماضي، مع اعتماد منصّات التواصل الاجتماعي على خوارزميات صُممت لتعظيم "التفاعل". غير أنّ هذا المنطق الخوارزمي أسهم في تضخيم مشاعر الغضب والحسد، وفي تسريع إنتاج وتداول أنماط مختلفة من "العلوم الزائفة" والمضامين المضللة، وهو ما قاد إلى نشوء حالة من "الجحيم الثقافي". وقد تزامنت هذه الديناميات مع مؤشرات مقلقة إلى تدهور الصحّة النفسية لدى المراهقين، ورافقها استقطاب سياسي واجتماعي حاد، وصراعات بين أنماط خطاب سطحي يمتد من "الـ Woke" إلى "الحبّة الحمراء".

 

لقد تلاعبت خوارزميات منصّات التواصل الاجتماعي بحياتنا على نحو عشوائي. إذ كان الهدف الأساسي هو تحقيق المزيد من الأرباح لأصحاب هذه المنصّات فحسب. لكن اليوم، هناك "عقل" خلف الخوارزميات. فكلّما أصبح الذكاء الاصطناعي قادراً على "فهمنا" على مستوى البيانات، ازدادت قدرته على التلاعب بإدراكنا العميق. فمن خلال تحليل سلوكنا وبياناتنا، يستطيع الذكاء الاصطناعي المتقدّم صوغ رسائل وتفاعلات تلامس نقاط ضعفنا بدقّة بالغة. ويتصاعد اليوم الخوف من فقدان "الاستقلالية الإدراكية"، أي الخشية من أن ينجح الذكاء الاصطناعي في إقناعنا أو خداعنا من دون أن ننتبه، إلى جانب الخوف من الأذى المباشر.

 

بدأت حوكمة التلاعب الخوارزمي تتحوّل إلى محور تنظيمي صريح في عدد من الأطر الدولية. ففي الاتحاد الأوروبي، يقدّم قانون الذكاء الاصطناعي (EU AI Act) وقانون الخدمات الرقمية (DSA) نموذجاً صارماً لحظر الأنظمة التي تستخدم أساليب تأثير خفية أو تقنيات تعمل ضمن "الصندوق الأسود" لتغيير سلوك المستخدمين من دون علمهم، مع اشتراط مستوى عالٍ من الشفافية وإمكان تفسير مخرجات الخوارزميات.

وفي الولايات المتحدة تعتمد لجنة التجارة الفيدرالية (FTC) إطاراً واسعاً لمكافحة "الأنماط المظلمة" عبر إنفاذ قوانين الممارسات الخادعة، بينما تضع ولايات مثل كاليفورنيا وكولورادو نصوصاً قانونية تعتبر أي موافقة تم الحصول عليها من خلال تصميمات خادعة موافقة غير صالحة.

أمّا الصين فقد سبقت العديد من الدول في إصدار لوائح تنظّم خوارزميات التوصية مباشرة، وتمنح المستخدمين حقّ تعطيل التخصيص الخوارزمي (algorithmic personalization)، وتقيّد المحتوى الإدماني والتوجيهي. وتمثّل كندا نموذجاً انتقالياً من خلال قانون الذكاء الاصطناعي والبيانات (AIDA) الذي يحظر الممارسات ذات الأثر النفسي أو الاجتماعي الضارّ. وتشترك هذه الأطر جميعها في هدف واحد، يتمثل في حماية الاستقلالية الإدراكية للمستخدم عبر كبح الأنظمة التي تستغل نقاط الضعف السلوكية، وفرض شروط إضافية على الأنظمة العالية الخطورة التي تعمل بآليات لا يمكن تفسيرها، أو بتصميمات تدفع الأفراد نحو قرارات لم يكونوا ليتخذوها في غياب التوجيه الخوارزمي.

 

تبقى أسئلة الخصوصية والانحياز والمصداقية، وحدود تفويض القرار للأنظمة الآلية في قضايا مصيرية، أسئلة مفتوحة لا يوجد حولها توافق كامل بين المستخدمين. ففي استبيان ضمن هذا البحث، قدّم مشاركون من المهنة نفسها ومن المستوى التعليمي نفسه إجابات متفاوتة حول الخصوصية والثقة بأنظمة الذكاء الاصطناعي. ومع ذلك، تنتمي هذه القضايا جميعها إلى سلّة واحدة، تتعلق بكيفية حماية الكرامة والاستقلالية الإدراكية في عصر الخوارزميات. والمطلوب هو "ديمقراطية النقاش حول الذكاء الاصطناعي" داخل حركة عالمية واسعة، لا إبقاء الجمهور مجرد مستهلك سلبي لمستقبل تقرره حفنة من أصحاب الشركات. سيبقى الخوف قائماً، لكن يمكن تحويله إلى حذر نقدي واعٍ، ولا داعي للذعر، يا سارة!

Loading...

تابعنا عبر مواقع التواصل الإجتماعي

إشترك في النشرة الإخبارية ليصلك كل جديد

اشترك معنا في نشرة المدن الدورية لتبقى على اتصال دائم بالحدث