السبت 2025/05/31

آخر تحديث: 12:59 (بيروت)

أسلحة الذكاء الاصطناعي: صندوق أسود وشبكة عصبية مميتة

السبت 2025/05/31
أسلحة الذكاء الاصطناعي: صندوق أسود وشبكة عصبية مميتة
تطور الشركات الإسرائيلية أنظمة تجمع بين تقنيات مختلفة للكشف عن الطائرات المسيرة الصغيرة (Getty)
increase حجم الخط decrease
يشكل التطور السريع لتكنولوجيا المسيرات تحدياتٍ رئيسية لأنظمة الدفاع الجوي ومستخدميها، خصوصاً أن هذه المسيرات أضحت أصغر حجماً وأسرع وأكثر قابلية للتكيف، مع تضمين ميزات تجعل اكتشافها ومواجهتها أمراً صعباً بشكلٍ متزايد.

وبما أن سلاح المسيرات بات يمثّل تهديداً متزايداً للبنية التحتية الحيوية والسلامة العامة والأمن القومي، تتفرد بعض الدول حالياً بتطوير منظومات عسكرية تعمل بالذكاء الاصطناعي والغاية منها الحد من خطر المسيرات وتغيير المعادلات في أرض المعركة، لكن ذلك لا يمنع وجود شكوك حول دقة هذه الأنظمة وعدم تسببها بأخطاءٍ كارثية، وهناك الكثير من الدلائل التي تؤكد احتمالية ارتكاب الذكاء الاصطناعي للأخطاء في ساحات القتال الحقيقية.

منظومات ذكية تتصدى للمسيرات
كان لافتاً ما أعلنته أوكرانيا قبل بضعة أيام عن إدخلها منظومة "سكاي سينتينل" المضادة للمسيرات إلى الخدمة الفعلية ونجاحها في إسقاط طائرات "شاهد" التي تستخدمها روسيا، وتعمل هذه المنظومة الجديدة وهي الموجهة بالرادار من دون تدخل بشري، ولا تحتاج إلى راحة، وتتفاعل فوراً وبدقة مع التهديدات الواردة في أي وقتٍ من النهار أو الليل.

تستخدم هذه المنظومة مدفعاً رشاشاً ثقيلاً قياسياً، متصلاً برادار قادر على رصد الأهداف الصغيرة، ودورانه بزاوية 360 درجة يعني قدرته على التعامل مع الهجمات الآتية من أي اتجاه. وبينما يجد المدفعيون صعوبة في إصابة الأهداف سريعة الحركة، تزعم أن كييف إن "سكاي سنتينل" قادرة على إصابة المسيرات التي تتحرك بسرعة 800 كيلومتر في الساعة، ولا تواجه أي مشكلة مع طائرات "شاهد" الإيرانية التي تصل سرعتها إلى 190 كيلومتراً في الساعة.

في المقابل، وبعد نجاح "القبة الحديدية" الإسرائيلية إلى حدٍ ما في التصدي للمسيرات الكبيرة، تطور الشركات الإسرائيلية حالياً أنظمة تجمع بين تقنيات مختلفة للكشف عن الطائرات المسيرة الصغيرة، مثل نظام الليزر "شعاع الضوء" من شركة "رافائيل"، أو أنظمة توجيه إطلاق نار من شركة "سمارت شوتر"، القادرة على تحديد موقع طائرة مسيرة وإسقاطها.

هل نثق بهذه الأنظمة؟
بيدَ أن تطوير هذه المنظومات الذكية يدفعنا إلى طرح سؤالٍ جوهري حول الدقة التي تتمتع بها أسلحة الذكاء الاصطناعي وإن كان بإمكاننا الوثوق بها كلياً. والجواب ببساطة يتلخص بأن الذكاء الاصطناعي يعمل بنظام حساباتٍ دقيقة ومدخلات خوارزمية، ويحتاج إلى كمياتٍ هائلة من البيانات من أكبر عدد ممكن من المصادر، مثل أجهزة الاستشعار الآلية والكاميرات، ليعمل في بيئات متغيرة. وعندما لا تكون مجموعات البيانات هذه كافية، أو عندما تكون هناك مشكلة في حسابات الذكاء الاصطناعي، وقد ينتج عن ذلك تفاعل متسلسل مدمر. ما يسبب أعطالاً في الاتصالات، وأخطاء في تحديد هوية الأعداء والمدنيين، وغير ذلك الكثير.

وبينما تكون البيانات التي تُجمع في المختبرات لتدريب وتطوير الذكاء الاصطناعي منظمة وكاملة ومدققة ومتسقة، إلاّ أنه في العالم الحقيقي حتى أكثر خوارزميات الذكاء الاصطناعي تقدماً وتعقيداً لا يمكنها أبداً الاستعداد بشكلٍ كامل لسيناريوهات شديدة التعقيد. ويعود ذلك إلى حدٍ كبير إلى مفهوم "انحراف البيانات" عندما تصبح البيانات الدقيقة غير دقيقة بسبب خصائص "الانحراف" في بيئةٍ ما.

معوّقات الذكاء الاصطناعي في العالم الحقيقي
يمتلك الذكاء الاصطناعي ما يُطلق عليه العلماء "الصندوق الأسود"، وهو اسم لشبكته العصبية الغامضة للتعلم العميق التي لا نفهمها تماماً، إذ أننا نعلم كيف يتخذ قراراته، ولكن في بعض التطبيقات، لا نفهم سوى القليل جداً عن السبب.

ومن دون فهمٍ كاملٍ لهذا النظام المعقّد، كيف يمكن للجنود في خضم المعركة الاعتماد بشكلٍ واقعي على فهم الآلة لاتخاذ قرارات الحياة والموت؟ غالباً ما يُتركون أمام خيارين إما الثقة بتوصيات الذكاء الاصطناعي دون فهمها تماماً، أو إعادة النظر فيها.

مجموعات البيانات غير المكتملة وغير الدقيقة تؤدي حتماً إلى ذكاء اصطناعي غير موثوق، وأحد أفضل الأمثلة يأتي من المؤتمر الدولي للتعلم الآلي (ICML) عام 2018، حين قام فريق من العلماء بطباعة سلحفاة ثلاثية الأبعاد، ثم عرضوا طرقاً مختلفة لتفسير خوارزميات الذكاء الاصطناعي لتلك السلحفاة بشكلٍ خاطئ. فقد تراوحت النتائج بين أنظمة قدمت كشفٍ دقيق وأنظمة أخرى صنفت السلحفاة على أنها بندقية.

ويمكن أيضاً خداع الخوارزميات أو إرباكها من خلال تدخلٍ خارجي، وخلال عرض حي أجراه الجيش الأميركي عام 2020، أخطأ جهاز استشعار عسكري مصمّم للتمييز بين المركبات العسكرية والمدنية في تحديد هدفه بدقة، واعتبر أحد المارة والشجرة القريبة منه بأنهما كائنان من النوع ذاته.

وأظهر مجموعة من الباحثين في جامعة "ميشيغان" الأميركية مؤخراً كيف يمكن خداع أنظمة الإدراك القائمة على "الليدار" (تقنية استشعار عن بعد بنبضاتٍ من الضوء) بسهولة، ويمكن إيهامها بعوائق زائفة أو غير موجودة. وكل ما يتطلبه الأمر هو فهم كيفية تفاعل الضوء مع النظام وتوقيت دقيق لتعطيل الحسابات القائمة على المسافة وإدخال بيانات خاطئة.

وهذه الأمثلة المذكورة أعلاه هي خير دليل بأن الاعتماد الكامل على الذكاء الاصطناعي في المعارك دون مراقبة بشرية قد يتسبب بخسائرٍ كبيرة في الأرواح والممتلكات.

increase حجم الخط decrease

التعليقات

التعليقات المنشورة تعبر عن آراء أصحابها