"إذا أردت، يمكنني أيضاً إعداد نسخة أكثر جاذبية، مع إحصاءات مختصرة وقوية وتصميم جاهز للإنفوغرافيك... هل ترغب أن أفعل ذلك تالياً؟"
هذه العبارة ليست زلّة تحريرية من "المدن"، بل نصّاً وجد طريقه إلى قرّاء النسخة الورقية من صحيفة "داون" (Dawn) الباكستانية الناطقة بالإنجليزية في شهر تشرين الثاني 2025. فقد نسي المحرّرون في تلك الصحيفة الرائدة إزالة اقتراح ChatGPT من مسودة تقرير اقتصادي حول مبيعات السيارات قبل إرسالها إلى المطبعة. أبعد من الفضيحة، دقّت هذه الحادثة جرس إنذار كشف عن عمق التحديات التي تواجهها كبرى المؤسسات الإعلامية والأكاديمية اليوم.
كواليس الذكاء الاصطناعي
شهدت السنوات الأخيرة دمجاً سريعاً لأدوات الذكاء الاصطناعي التوليدي في سير عمل إنتاج المحتوى، لكن هذا التكامل لم يخلُ من الإخفاقات، فقد "تسرّب" المحتوى الخاطئ المولّد آلياً في حالات عديدة إلى مواد منشورة في صحف ومجلات، بل وشقّ طريقه إلى أروقة الأبحاث الأكاديمية الرصينة التي يُفترض أن تظل محصنة تماماً في وجه "الهلوسة" الرقمية.
تُعدّ واقعة صحيفة "داون" مثالاً نموذجياً على ما يسمّيه بعض الخبراء "كواليس الذكاء الاصطناعي" التي من المفترض ألا يراها الجمهور. فقد كشف ظهور اقتراح ChatGPT كما هو في النسخة المطبوعة أنّ الصحيفة لا تستخدم الذكاء الاصطناعي للتلخيص فحسب، بل تعتمد عليه أيضاً في البحث وصياغة المحتوى من دون مراجعة نهائية لدقة المعلومات. وبالرغم من اعتذار الصحيفة وتوضيحها أنّ الحادثة كانت خرقاً لسياساتها الداخلية بالأساس، إلا أنّها فتحت الباب أمام تساؤلات جدية حول مدى "بشرية" الأخبار التي نقرؤها يومياً.
فضيحة شيكاغو صن تايمز
لم يقتصر الأمر على أخطاء تحريرية في غرف الأخبار أو مجرّد تسرّب اقتراحات من روبوتات الدردشة إلى الصحف، بل امتدّ ليشمل اختلاقاً كاملاً للبيانات. ففي أيار 2025، وزّعت صحيفة "شيكاغو صن تايمز" ملحقاً بعنوان "Heat Index" تضمّن قائمة قراءة صيفية، ليتبيّن سريعاً لعدد من القرّاء أنّ أغلب الكتب المذكورة فيه ليست سوى عناوين وهمية لكتب غير موجودة. فقد احتوت القائمة مثلاً على كتاب Tidewater للروائية إيزابيل الليندي، وكتاب The Last Algorithm لأندي وير، غير أنّ بحثاً بسيطاً أظهر أنّ هذه العناوين لا أثر لها في قائمة النتاج الأدبي لهذين الكاتبين.
لاحقاً، تبيّن أنّ عشرة كتب من أصل خمسة عشر كتاباً جرى ترشيحها في قائمة القراءة الصيفية كانت محض "هلوسة" من الذكاء الاصطناعي. اعترفت الصحيفة بأنّ كاتباً مستقلاً استعان بأداة ذكاء اصطناعي لتوليد المحتوى، وأنّ فريق التحرير لم يقم بالحدّ الأدنى من التحقّق، مثل التأكد من وجود هذه الكتب عبر محركات البحث. هذا النمط من إنتاج المحتوى أُطلق عليه مؤخراً مصطلح "AI Slop" أي نفايات الذكاء الاصطناعي، لوصف المحتوى الذي يُنتج بكميات ضخمة من دون أي اعتبار للجودة أو الحقيقة، وهو ما يهدّد بإغراق الفضاء العام بمعلومات مضلّلة تبدو في ظاهرها كأنّها عمل صحفي محترف.
التزييف الأكاديمي: مراجع من سراب
لم يتوقف مدّ "نفايات الذكاء الاصطناعي" عند حدود الخبر الصحفي اليومي، بل تغلغل في صلب الكتب الأكاديمية التي يُفترض أنها مرجعاً علمياً رصيناً. ففي حزيران 2025، كشف موقع "Retraction Watch" عن فضيحة علمية طالت كتاباً تعليمياً حول تعلّم الآلة صادر عن دار النشر العالمية المرموقة Springer Nature. تبيّن أنّ كتاب Mastering Machine Learning يعجّ بالاستشهادات المفبركة، إذ إنّ ثلثي المراجع التي خضعت لاحقاً للتدقيق كانت إمّا تُحيل إلى أعمال بحثية لا وجود لها، وإمّا تتضمّن أخطاء جسيمة في بيانات المؤلفين وعناوين الأبحاث وتواريخ النشر.
نحن هنا أمام نوع شديد الخطورة من الفبركة الأكاديمية، يزرع في متن الكتب العلمية شبكة من المراجع السرابية التي توهم القارئ بوجود سند معرفي متين لا أثر له في الواقع. هذا السلوك ينسف تماماً مصداقية الكتاب التعليمي، ويحوّل ما يُفترض أن يكون مدخلاً آمناً للعلم إلى مصدر تلوّث معرفي قد يتكرّر أثره في أبحاث لاحقة. وإذا كان الخطأ في الصحافة يُعدّ "إحراجاً" يمكن تخطّيه باعتذار، فإنّ الخطأ في المراجع الأكاديمية يُعدّ مساساً جوهرياً بنزاهة المعرفة العلمية، حيث تبرع أدوات الذكاء الاصطناعي في حياكة أكاذيب مقنّعة عبر دمج أسماء باحثين حقيقيين ومجلات معروفة لنسج أوراق بحثية لا وجود لها إلا في فضاء الاحتمالات اللغوية للنموذج.
ولم تنحصر هذه الظاهرة في الكتب الجامعية، بل امتدّت لتطال الوثائق الرسمية، إذ رُصدت استشهادات مزيفة في مواد عروض تقديمية لـ"مراكز مكافحة الأمراض والوقاية منها" (CDC) في الولايات المتحدة بخصوص اللقاحات. كما كُشف في تقارير حكومية أسترالية عن إحالات مختلقة نُسبت إلى علماء بارزين وآراء ودراسات لم يكتبوها قط. بهذا، يتضح أنّ التزييف قد تسلّل إلى قلب المنظومة الحارسة للحقيقة، محوّلاً الاستشهاد الأكاديمي من برهان على الصدقية إلى ساحة مفتوحة أمام هلوسة الخوارزميات.
لماذا "يهلوس" الذكاء الاصطناعي؟
لتفسير هذه الإخفاقات، ينبغي إدراك أنّ نماذج اللغة الكبيرة (LLMs) ليست محرّكات بحث عن الحقائق، بل هي "أنظمة تنبؤ إحصائية". فعندما يُطلب من الذكاء الاصطناعي إعداد قائمة مراجع، فهو لا يتحقّق من مكتبة رقمية مركزية، بل يحاول أن يتنبأ: "ما هو الشكل النموذجي للمرجع الأكاديمي؟" فيركّب اسم مؤلف يعرفه مع عنوان بحث يبدو مألوفاً في المجال، لتكون النتيجة مرجعاً وهمياً بالكامل.
وتُظهِر الأرقام حجم الأزمة. فقد كشفت دراسة نُشرت في مجلة "Scientific Reports" عام 2023 أنّ ما بين 47 إلى 69 في المئة من الاستشهادات التي يولّدها ChatGPT في السياقات الطبية والعلمية هي استشهاداتٌ مفبركة. والأدهى من ذلك أنّ 87 في المئة من المراجع الحقيقية التي يستشهد بها تحتوي أخطاءً في التفاصيل الدقيقة، مثل أرقام الصفحات أو سنوات النشر، ما يجعل الاعتماد عليه من دون تدقيق بشريّ مكثّف مغامرة معرفية غير مأمونة العواقب. فحتى الآن، ورغم التطوّر الكبير في الذكاء الاصطناعي خلال السنتين الأخيرتين، لا يزال بعيداً كلّ البعد عن أداء دور "مدقّق حقائق" (Fact-Checker) حقيقي بحكم طبيعة بنيته القائمة على التنبؤ الإحصائي.
استراتيجية استعادة النزاهة
إنّ مجابهة هذه الهلوسات الرقمية المتسربة إلى فضاءات المعرفة، تقتضي صياغة استراتيجية متكاملة تجمع بين ميثاق الشرف المهني والابتكار التقني. تنطلق هذه المسيرة من إرساء سياسات واضحة للإفصاح الإلزامي، تُلزم منتجي المحتوى من صحفيين وباحثين بالتصريح عن أي استعانة بالذكاء الاصطناعي وطبيعتها، مع حظر استخدامه كلياً في توليد الوقائع أو المراجع العلمية، فغياب الشفافية يحوّل هذه الأدوات إلى شريك خفي في صناعة المعرفة بعيداً عن الرقابة والمساءلة.
ويتمثل المحور الثاني في إعادة الاعتبار للتدقيق البشري الصارم بوصفه المصفاة الأخيرة قبل النشر، فكل نص مولّد آلياً يجب أن يمر عبر عين بشرية خبيرة قبل بلوغ مرحلة النشر. وكما استخلصت إدارة "صن تايمز" في تعليقها على فضيحة لائحة الكتب الصيفية، فإن الخطأ لا يقع على عاتق الآلة التي لا تملك قرار النشر، بل على البشر الذين تلكؤوا عن المراجعة. فلا بديل عن دور المحرر والمراجع العلمي كحائط صد أخير لرصد الهلوسات قبل تكريسها كحقائق على الورق أو في قواعد البيانات.
بالتوازي، تبرز الحاجة إلى توظيف حلول تقنية مضادّة تقوم على تطوير برمجيات قادرة على مطابقة الاستشهادات الأكاديمية بقواعد البيانات العالمية بشكل فوري، لكشف المراجع السرابية قبل طباعتها أو اعتمادها في الأبحاث. هذه الأدوات لا تعفي الإنسان من مسؤوليته، لكنها تمنحه درعاً واقياً في بيئة معلوماتية تتحرّك بسرعة تفوق قدرة الفحص اليدوي وحده.
كما يظل الرهان الأكبر معقوداً على تعزيز الوعي الرقمي، عبر تدريب الكوادر الأكاديمية والإعلامية على استيعاب حدود الآلة ونقاط ضعفها، والكف عن التعامل مع الذكاء الاصطناعي كمرجع معرفي موثوق، فالمشكلة لا تكمن في التقنية ذاتها بقدر ما تكمن في وهم "عصمتها" الذي قد يتملّك المستخدم.
إنّ النزاهة المهنية والتعامل مع الذكاء الاصطناعي بوصفه أداة مساعدة لا بديلاً عن العقل البشري هو صمّام الأمان الأهم في العصر الرقمي. وتأتي الدروس المستخلصة من عثرات "داون" و"صن تايمز" و"سبرينغر" لتؤكّد أنّ أيّ تنازل عن اليقظة البشرية هو مقامرة بالرصيد الأغلى للمؤسسات، أي ثقة الجمهور. فالحقيقة لا تُولد آلياً، بل تُصنع بجهد بشري مسؤول يقدّم المصداقية على السرعة والإبهار التقني، ويحصّن الوعي ضد الهراء الرقمي الذي قد يبدو وجيهاً في ظاهره، لكنه يفتقر في جوهره إلى أيّ سند معرفي.
