تتردد عبارة "أخلاقيات الذكاء الاصطناعي" في كل محفل تقني وأكاديمي، لكن كثرة الحديث عنها لم تساعد في تبديد ما يحيط بها من التباس. في المشهد التكنولوجي المعاصر، ليست أخلاقيات الذكاء الاصطناعي في جوهرها نظرية أخلاقية واحدة، بل مجموعة من أدوات الحوكمة التي تترجم القيم الاجتماعية المتنازع عليها إلى وعود تنظيمية وتصنيفات للمخاطر وممارسات تدقيق والتزامات قانونية في بعض الأحيان. وبينما تقدَّم هذه الأطر غالباً كضوابط للقوة، فإنها تعمل كثيراً "كبنية تحتية للمشروعية" (Legitimacy Infrastructure) تهدف إلى استقرار عملية نشر التقنيات الجديدة عبر صياغة مفاهيم مثل الذكاء الاصطناعي "الموثوق" و"المسؤول" بوصفها شروطاً أساسية للابتكار والتبني.
لفهم الحالة الراهنة لأخلاقيات الذكاء الاصطناعي فهماً أدق، لا يكفي التوقف عند قوائم المراجعة الخاصة بالامتثال، بل ينبغي الاشتباك مع الأسئلة الفلسفية الأعمق المتعلقة بالوجود (الأنطولوجيا)، والسلطة المعرفية، والواقع المادي للقوة العالمية.
مشهد الحوكمة: بين المبادئ والممارسة
ينقسم إطار أخلاقيات الذكاء الاصطناعي الحالي إلى ثلاثة مجالات رئيسة.
الأخلاقيات المؤسسية: تعبّر الشركات الكبرى عن الأخلاقيات من خلال بيانات مبادئ تهدف إلى توجيه التطوير الداخلي وطمأنة أصحاب المصلحة الخارجيين. على سبيل المثال، تركّز "Google" على المنفعة الاجتماعية والمساءلة، بينما تجمع "Microsoft" بين المبادئ مثل العدالة والشفافية والمعايير الداخلية. أمّا "OpenAI" فتربط مهمتها باحتمالية الوصول إلى الذكاء الاصطناعي العام (AGI) مع التزام بتوزيع الفوائد على نطاق واسع، في حين ذهبت شركة "Anthropic" إلى أبعد من ذلك بإصدار "دستور" يهدف إلى تشكيل سلوك النموذج بصورة مباشرة.
الأطر التنظيمية: تظهر الأخلاقيات هنا بوصفها إدارة للمخاطر وحماية للحقوق. يركّز قانون الذكاء الاصطناعي الأوروبي على معالجة المخاطر مع تعزيز مفهوم "الذكاء الاصطناعي الموثوق"، بينما ينظّم إطار المعهد الوطني للمعايير والتكنولوجيا (NIST) الحوكمة حول أربع وظائف: الإدارة ورسم خرائط الأنظمة والمخاطر والقياس والتعامل. كما تقدّم منظمات مثل "UNESCO" و"OECD" معايير عالمية تقوم على حقوق الإنسان والإشراف البشري.
النقد الأكاديمي: يلاحظ الباحثون تقارباً في المبادئ مثل الشفافية والعدالة والخصوصية، لكنّهم يرصدون في الوقت نفسه تباعداً كبيراً في التفسير والتنفيذ. ويجادل النقّاد بأنّ "حديث الأخلاقيات" يمكن أن يُستعمَل لنزع الطابع السياسي عن الصراعات البنيوية وتحويل النزاعات العميقة إلى مجرّد مسابقة "أفضل ممارسات" للحوكمة.
السؤال الأنطولوجي: ما هو الذكاء الاصطناعي؟
في قلب الأخلاقيات يبرز سؤال وجودي: كيف ننظر إلى الذكاء الاصطناعي؟ تتعامل معظم نصوص الحوكمة مع الذكاء الاصطناعي بوصفه نظاماً استدلالياً قائماً على الآلة ينتج مخرجات كالتوقّعات أو التوصيات أو القرارات. هذا الإطار ليس محايداً، فهو يدفع أخلاقيات الذكاء الاصطناعي إلى التركيز على المخرجات والضوابط، بدلاً من المعنى أو الفهم أو تشكيل النظام الاجتماعي سياسياً.
تجادل إميلي بيندر وألكسندر كولر بأنّ نماذج اللغة هي في الأساس "متنبّئات سلاسل نصية" (String Predictors) مدرَّبة على الشكل فقط، وبالتالي لا يمكنها، من حيث المبدأ، تعلّم "المعنى" من البيانات النصية وحدها. وحين تتعامل أطر الأخلاقيات مع هذه الأنظمة كما لو كانت وكلاء يتمتّعون بنوع من الفهم، فإنّها تخاطر بسوء تحديد موضوع الحوكمة. فالمشكلة الأخلاقية لا تكمن فقط في ما تنتجه هذه الأداة، بل أيضاً في الكيفية التي تعيد بها تنظيم الممارسة المعرفية، أي في الطريقة التي تدفعنا إلى الوثوق بهذه المخرجات والتعامل معها بوصفها أدلة مقنعة وتفسيرات مقبولة.
السلطة المعرفية والخضوع للقرار
تُظهر الأبحاث التجريبية أنّ الذكاء الاصطناعي لا يساند البشر في اتخاذ القرار فحسب، بل يلعب أيضاً دوراً محورياً في إعادة تشكيل الحكم البشري. يتجلّى ذلك في تحيز الأتمتة (Automation Bias)؛ أي الميل إلى الاعتماد المفرط على النصائح الآلية. غير أنّ العلاقة بين الإنسان والخوارزمية تتسم بالتعقيد، لا بل تبرز فيها اتجاهات متعاكسة.
أحد هذه الاتجاهات هو "تفضيل الخوارزمية" (Algorithm Appreciation)، إذ قد يلتزم الأشخاص بالنصيحة بدرجة أكبر إذا اعتقدوا أنّها صادرة عن خوارزمية لا عن إنسان. أمّا الاتجاه المقابل، فهو "النفور من الخوارزمية" (Algorithm Aversion)، حيث قد يرفض الأشخاص التوقعات الخوارزمية بعد أن يروا أنها تخطئ، حتى لو كان أداؤها الكلّي أفضل من أداء البشر.
تكتسب هذه الديناميات أهمية خاصة لأخلاقيات الذكاء الاصطناعي لأنّ كلا النمطين يمثّل تفاوضاً على السلطة المعرفية. ففي المجالات عالية المخاطر مثل الطب والقطاع المالي والتعليم، يعيد حضور هذه الأنظمة تشكيل ما يدركه البشر كاعتقاد أصيل. وبينما تدعو الأطر التنظيمية إلى "الإشراف البشري"، غالباً ما يُفهم هذا الإشراف كإجراء تنظيمي أو إداري، لا كتحول معرفي يغيّر سيكولوجيا السلطة والمسؤولية.
سياسة المواءمة: أخلاقيات مَن؟
يدفع توجّه "المواءمة" (Alignment)؛ أي ضبط السلوك القيمي لنموذج الذكاء الاصطناعي، إلى جعل الأخلاقيات المضمَّنة صريحة على نحو غير عادي، إذ تُدرَّب النماذج على أهداف مشبعة بالقيم مثل "المساعدة" و"الصدق" و"عدم الإضرار".
لكن المواءمة في جوهرها عملية تجميع للتفضيلات تحت قيود مؤسسية. وسواء كان ذلك عبر إرشادات الفريق البشري المشرف في "OpenAI" أو عبر "دستور" "Anthropic"، فإن الأخلاق المطبَّقة هنا تبدو أشبه بـ"مدوَّنة معيارية منسَّقة" تم اختيار بنودها وترتيب أولوياتها وترجمتها من قِبل منظمات لها مصالح سوقية ومواقع جيوسياسية محدَّدة.
يؤدّي هذا النمط من المواءمة إلى عولمة للمعايير. فإذا كانت هذه "الدساتير" تعتمد على وثائق الحقوق الليبرالية الغربية أو على معايير السلامة الأمريكية، تصبح المواءمة هنا قناة تؤطِّر من خلالها مجموعة صغيرة من الفاعلين الحدود الأخلاقية للتفاعل العالمي مع أنظمة الذكاء الاصطناعي.
الاقتصاد السياسي والظلم المعرفي
لكي تكون أخلاقيات الذكاء الاصطناعي واقعية، لا بدّ أن تواجه الركيزة المادّية والتفاوتات العالمية:
استعمار البيانات: يجادل الباحثون بأنّ مجموعات البيانات ليست مجرّد خزانات تجريبية، بل سجلات منتجة تاريخياً لتمثيل غير متكافئ. وتعدّ الهيمنة اللغوية مؤشراً واضحاً؛ إذ تمثّل اللغة الإنجليزية نحو 41 في المئة من الصفحات التي يرصدها Common Crawl، في حين تظهر كثير من لغات الجنوب العالمي بنسب ضئيلة، مثل العربية التي تمثّل أقل من واحد في المئة فقط.
غسيل الأخلاقيات: في كثير من الأحيان تستخدم لغة "الأخلاقيات" كشعار تسويقي ودرع تحتمي خلفه الشركات لتخفيف الضغوط التي تطالب بسن قوانين وضوابط ملزمة تنظّم عملها في مجال الذكاء الاصطناعي. وتوضح حالة طرد الدكتورة تيمنيت جيبرو من "Google" (على خلفية ورقة بحثية تسلّط الضوء على التحيز في الذكاء الاصطناعي) كيف يمكن لفرق الأخلاقيات المؤسسية أن تصطدم ببنية القوّة داخل الشركة عندما تمس أبحاثها المصالح التجارية الأساسية.
تركيز الحوسبة: يعتمد الذكاء الاصطناعي المتقدّم على نطاق ضيّق من إنتاج الرقائق المتطوّرة. فعلى مستوى المسابك القادرة على تصنيع الأجيال الأعلى من المعالجات المتقدّمة، ما يزال العالم عملياً رهناً بعدد محدود من الشركات التي تحتكر تقنيات الرقائق الأكثر تقدّماً في السوق (5 نانومتر و3 نانومتر). هذا التركّز في البنية التحتية للحوسبة العالية الأداء يعني أنّ القرارات الجيوسياسية أو التجارية لحفنة من الفاعلين تؤثّر مباشرة في ما يعدّ ممكناً أو واقعياً ضمن نقاشات أخلاقيات الذكاء الاصطناعي.
التكلفة المادية: لا يمكن للأخلاقيات أن تبقى مجرّدة في الوقت الذي تعيد فيه أنظمة الذكاء الاصطناعي تشكيل البنية التحتية والمناخ. تُقدِّر وكالة الطاقة الدولية أنّ استهلاك الكهرباء من مراكز البيانات بلغ في السنوات الأخيرة نحو 400–500 تيراواط ساعي، أي ما يعادل تقريباً 1.5 في المئة من الاستهلاك العالمي للكهرباء، مع توقّعات بارتفاعه إلى أكثر من 1,000 تيراواط ساعي بحلول 2030. إن مقاربة أخلاقية تتجاهل سياسات الطاقة تظل مقاربة ناقصة، لأنّها تغفل أحد المحدّدات الرئيسة للأثر البيئي ولعلاقات التبعية الجيوسياسية في آن واحد.
ما تكشفه القراءة النقدية هو أنّ معظم الأطر السائدة في فضاء أخلاقيات الذكاء الاصطناعي تعيد توزيع المسؤولية أكثر مما تعيد توزيع القوّة. فهي تحدّد مَن يجب عليه التوثيق والتدقيق والإشراف، لكنها نادراً ما تمنح المجتمعات المتضرّرة أدوات تمكّنها من رفض نشر النماذج أو المطالبة بجبر الضرر أو إعادة تشكيل الاقتصاد السياسي الذي يقوم عليه الذكاء الاصطناعي. من دون هذه التحوّلات نحو فلسفة العدالة، تبقى أخلاقيات الذكاء الاصطناعي لغة تجميلية تجعل التسارع الصناعي يبدو مسؤولاً أمام الجمهور، بينما تظلّ القوّة الفعلية مركَّزة في يد القلّة.




