الثلاثاء 2024/05/07

آخر تحديث: 13:30 (بيروت)

"مايكروسوفت" تقترح تدريب الجيش الأميركي بالذكاء الاصطناعي

الثلاثاء 2024/05/07
"مايكروسوفت" تقترح تدريب الجيش الأميركي بالذكاء الاصطناعي
increase حجم الخط decrease
اقترحت شركة "مايكروسوفت" في تشرين الأول/أكتوبر الماضي، استخدام أداة توليد الصور "دال-إي" (DALL-E) التي تطورها شركة "أوبن إيه آي"، لمساعدة وزارة الدفاع الأميركية في تصميم برمجيات لتنفيذ العمليات العسكرية.

وجاء الكشف عن ذلك بعد مرور أشهر قليلة على إنهاء حظر "أوبن إيه آي" استخدام تقنياتها في الأعمال العسكرية، وهو أمر حدث في صمت ولم تكشف عنه الشركة إعلامياً، بل ظهر ضمن مواد داخلية للعرض التقديمي اطلع عليه موقع "ذا إنترسبت".

واستثمرت "مايكروسوفت" أكثر من 10 مليارات دولار في شركة "أوبن إيه آي"، وارتبط اسمها باسم الشركة الناشئة خلال الفترة الماضية فيما يخص تقنيات الذكاء الاصطناعي التوليدي. وتوفر مواد العرض التقديمي الخاصة بالشركة بعنوان "الذكاء الاصطناعي التوليدي في استخدام بيانات وزارة الدفاع" تفاصيل عامة حول كيفية استفادة الوزارة من أدوات وتقنيات تعلم الآلة الخاصة بشركة "أوبن إيه آي" التي تشمل روبوت المحادثة "تشات جي بي تي" ومولد الصور "دال-إي"، في مهام تتفاوت بين تحليل المستندات والمساعدة في صيانة الآلات.

وتم استخراج الوثائق التي قدمتها "مايكروسوفت"، من مجموعة مواد كبيرة عرضت في ندوة تدريبية لوزارة الدفاع الأميركية حول "الإلمام والتثقيف بتقنيات الذكاء الاصطناعي" نظمتها وحدة القوات الجوية الأميركية في لوس أنجلوس في تشرين الأول/أكتوبر 2023. وتضمنت الندوة مجموعة مختلفة من العروض التقديمية من الشركات المتخصصة في مجال تعلم الآلة، بما فيها شركتا "مايكروسوفت" و"أوبن إيه آي" حول ما يمكن أن تقدمه تلك الشركات للجيش الأميركي.

وظهرت الملفات المتاحة للجمهور عبر الموقع الإلكتروني لشركة "أليثيا لابز" (Alethia Labs)، وهي شركة استشارات غير ربحية تساعد الحكومة الفيدرالية في مجال الاستعانة بالتكنولوجيا، واكتشف تلك الملفات الصحافي في "ذا إنترسبت" جاك بولسون. وعملت "أليثيا لابز" بصورة مكثفة مع "بنتاغون" لمساعدته على دمج تقنيات الذكاء الاصطناعي بسرعة في ترسانة أسلحته، ومنذ العام الماضي تعاقدت الشركة مع مكتب الذكاء الاصطناعي المركزي في الوزارة.

وإحدى صفحات العرض التقديمي من "مايكروسوفت" تبرز العديد من الاستخدامات الفيدرالية الشائعة لتقنية "أوبن إيه آي" بما في ذلك استخدامها للأغراض العسكرية. وجاء في إحدى النقاط تحت عنوان "تدريب رؤية الحاسوب المتطورة": "أنظمة إدارة القتال: استخدام نماذج دال-إي لإنشاء صور لتدريب أنظمة إدارة القتال".

وكما يبدو من الاسم، فإن نظام إدارة القتال هو مجموعة برمجيات للقيادة والتحكم تزود القيادات العسكرية برؤية عامة لسيناريو القتال في أرض المعركة، ما يتيح لهم تنسيق عناصر تخص المعارك مثل قذائف المدفعية وتحديد أهداف الضربات الجوية وتحركات الجنود على الأرض. تقترح الإشارة إلى تدريب الرؤية الحاسوبية أن بإمكان الصور التي يولدها نموذج "دال-إي" مساعدة حواسيب "بنتاغون" على رؤية الأوضاع في ساحة المعركة بصورة أفضل، وهي ميزة خاصة لتحديد الأهداف وتدميرها.

ولا توفر ملفات العرض التقديمي تفاصيل أخرى حول كيفية استخدام نموذج "دال-إي" بالضبط في أنظمة إدارة القتال في ساحة المعركة، إلا أن تدريب تلك الأنظمة قد يتضمن إمكانية استخدام "دال-إي" لتزويد "بنتاغون" بـ"بيانات التدريب الاصطناعية" وهي مشاهد تخيلية ومصطنعة تحاكي إلى حد كبير مشاهد العالم الحقيقي.

مثلاً، يمكن عرض كمية كبيرة من الصور الجوية المزيفة، لمدرجات هبوط الطائرات أو صفوف الدبابات، التي ينتجها نموذج "دال-إي" على البرمجيات العسكرية التي صممت لاكتشاف أهداف العدو على الأرض، بهدف تحسين قدرة تلك البرمجيات على التعرف إلى مثل تلك الأهداف في العالم الحقيقي.

وفي مقابلة الشهر الماضي مع "مركز الدراسات الإستراتيجية والدولية"، تصور الكابتن م. كزافييه لوغو، من البحرية الأميركية، تطبيقاً عسكرياً للبيانات الاصطناعية مثل النوع الذي يمكن أن ينتجه "دال-إي" تماماً، مقترحاً إمكانية استخدام تلك الصور المزيفة لتدريب الطائرات من دون طيار على رؤية العالم تحتها والتعرف إليه بصورة أفضل.

وتعمل القوات الجوية الأميركية حالياً على إنشاء نظام إدارة القتال المتطور، وهو الجزء الخاص بها من مشروع وزارة الدفاع الأكبر الذي تبلغ تكلفته عدة مليارات من الدولارات والمسمى "نظام القيادة والتحكم المشترك لجميع المجالات" (JADC2)، الذي يهدف إلى ربط الجيش الأميركي بأكمله معاً لتوسيع نطاق التواصل بين الفروع العسكرية الأميركية وتحليل البيانات المدعومة بالذكاء الاصطناعي، وتحسين القدرة على القتال في نهاية المطاف.

وتتصور الوزارة من خلال المشروع مستقبلاً وشيكاً تتبادل فيه كاميرات الطائرات المسيرة التابعة للقوات الجوية، ورادارات السفن الحربية التابعة للبحرية، ودبابات الجيش، وقوات الجنود على الأرض، البيانات حول العدو بسلاسة لتدميره بطريقة أفضل. وفي 3 نيسان/أبريل الماضي، كشفت القيادة المركزية الأميركية أنها بدأت فعلاً في استخدام عناصر من هذا المشروع في الشرق الأوسط.

ومع تنحية أوجه الاعتراضات الأخلاقية جانباً، فإن فعالية هذا الأسلوب قابلة للنقاش. وقالت هايدي خلاف، مهندسة سلامة تعلم الآلة التي عملت سابقاً مع "أوبن إيه آي": "من المعروف أن دقة النموذج وقدرته على معالجة البيانات بصورة صحيحة تتراجع في كل مرة يتدرب فيها على محتوى من إنتاج الذكاء الاصطناعي".

وأضافت خلاف أن "الصور المولدة من دال-إي أبعد ما تكون عن الدقة ولا تنتج صوراً تعكس الواقع الفعلي حتى لو جرى ضبطها على مدخلات نظام إدارة القتال في ساحة المعركة. لا تستطيع نماذج توليد الصور إنتاج عدد صحيح من الأطراف أو الأصابع البشرية بدقة، فكيف يمكن الاعتماد عليها لتكون دقيقة فيما يتعلق بتفاصيل الوجود الميداني الحقيقي".

وعلقت "مايكروسوفت" في بيان عبر البريد الإلكتروني، أنه رغم عرضها على وزارة الدفاع الأميركية استخدام "دال-إي" لتدريب برمجياتها في ساحة المعركة، فإنها لم تبدأ في تنفيذ الأمر. وأكملت: "هذا مثال على حالات الاستخدام المحتملة التي استندت إلى محادثات مع العملاء حول ما يمكن أن يقدمه الذكاء الاصطناعي التوليدي".

من جهتها، أفادت المتحدثة باسم "أوبن إيه آي" ليز بورغوس، بأنه لم يكن لشركتها أي دور في عرض "مايكروسوفت"، وأنها لم تبرم أي صفقات بيع لأدوات أو تقنيات لصالح وزارة الدفاع. وأضافت: "تحظر سياسات أوبن إيه آي استخدام أدواتنا لتطوير أو استخدام الأسلحة، أو إلحاق الضرر بالآخرين أو تدمير الممتلكات. لم نشارك في هذا العرض التقديمي ولم نجر محادثات مع وكالات الدفاع الأميركية فيما يتعلق بحالات الاستخدام الافتراضية التي يصفها العرض".

وعلقت الباحثة في مجال أخلاقيات التكنولوجيا بجامعة "أوكسفورد" بريانا روزين: "ليس من الممكن إنشاء نظام لإدارة القتال بأسلوب لا يسهم في إلحاق الضرر بالمدنيين، على الأقل بصورة غير مباشرة". وأوضحت روزين، التي عملت في مجلس الأمن القومي في عهد إدارة الرئيس باراك أوباما، أن تقنيات "أوبن إيه آي" ربما تستخدم بسهولة لمساعدة الناس كما يمكن استخدامها لإلحاق الضرر بهم، واستخدامها في هذا الخيار الأخير بواسطة أي حكومة هو خيار سياسي.

وأضافت روزين: "ما لم تحصل شركات مثل أوبن إيه آي على ضمانات مكتوبة من الحكومات بأنها لن تستخدم التقنية لإلحاق الضرر بالمدنيين، وهو أمر غير ملزم قانوناً على الأرجح، لا أرى أي وسيلة تمكن الشركات من الإعلان بثقة أن هذه التقنية لن تستخدم أو يساء استخدامها بأساليب لها آثار عدائية".
increase حجم الخط decrease

التعليقات

التعليقات المنشورة تعبر عن آراء أصحابها