الخميس 2024/04/18

آخر تحديث: 14:24 (بيروت)

هل ساهمت "ميتا" في قتل الفلسطينيين...بدعم برنامج "لافندر" الإسرائيلي؟

الخميس 2024/04/18
هل ساهمت "ميتا" في قتل الفلسطينيين...بدعم برنامج "لافندر" الإسرائيلي؟
increase حجم الخط decrease
أثار رائد الأعمال الأميركي في قطاع التكنولوجيا بول بيغار، أسئلة حول علاقة مزعومة بين شركة "ميتا" المالكة لتطبيق "واتسآب" ونظام الذكاء الاصطناعي الإسرائيلي "لافندر" المستخدم في تحديد أهداف الجيش الإسرائيلي في حرب غزة المستمرة منذ تشرين الأول/أكتوبر الماضي.

وكتب بيغار منشوراً طويلاً عبر مدونته الشخصية أن إسرائيل تقتل الناس لمجرد وجودهم في مجموعات "واتسآب" مع أفراد ينتمون لحركة "حماس" التي أشعل هجومها على جنوب إسرائيل في 7 تشرين الأول/أكتوبر الماضي، الصراع من جديد في المنطقة. مضيفاً أن ذلك الاشتباه بحد ذاته مثير للريبة لأنه لا يكشف عن كيفية حصول إسرائيل أصلاً على تلك البيانات، من دون مشاركتها من طرف "ميتا".

وتقدم "ميتا" تطبيق الرسائل "واتسآب" على أنه خدمة خاصة تشمل التشفير الكامل للرسائل، لكن استخدام الجيش الإسرائيلي لوجود الأفراد في مجموعات "واتسآب" من أجل تغذية نظام "لافندر" يقوض ذلك الادعاء، وقد يجعل "ميتا"، في حال ثبوته، متواطئة في عمليات القتل الإسرائيلية للفلسطينيين في غزة، بشكل يرتقي لانتهاك القانون الإنساني الدولي.

وشن بيغار هجوماً عنيفاً على قادة "ميتا" متهماً إياهم بالتبعية للسياسة الإسرائيلية، مطالباً الشركة العملاقة بتقديم إجابات عن الأسئلة الخاصة بعلاقتها بتل أبيب وببرنامج "لافندر" ومدى التزامها بخصوصية البيانات في "واتسآب" تحديداً.

وبيغار هو واحد من 40 شخصية عاملة في مجال التكنولوجيا، أطلقوا معاً في كانون الثاني/يناير الماضي، مبادرة "التكنولوجيا من أجل فلسطين" من أجل ما سمّوه "إنهاء الدعم التكنولوجي للحرب الإسرائيلية على الشعب الفلسطيني في جميع أنحاء غزة والضفة الغربية، والعمل من أجل فلسطين حرة"، علماً أنه مهندس حاسوب ورائد أعمال أميركي من أصول إيرلندية، أسس شركة "سيركل سي آي" وشغل منصب الرئيس التنفيذي لها. كما ساهم في مشاريع خاصة بشركتي "غوغل" و"تيك توك"، وهو حاصل على درجة الدكتوراه في تحليل لغات البرمجة النصية.

وتم تسليط الضوء على استخدام إسرائيل لنظام الذكاء الاصطناعي "لافندر"، عندما نشرت صحيفة "غارديان" البريطانية مطلع الشهر الجاري، تقريراً قالت فيه إن النظام سمح للمسؤولين العسكريين بقتل أعداد كبيرة من المدنيين الفلسطينيين بدم بارد، خلال الأسابيع والأشهر الأولى من الحرب، تحديداً. فيما رصدت الصحيفة شهادات استخباراتية عن التجارب المباشرة لمسؤولي الاسخبارات الإسرائيلية في استخدام أنظمة التعلم الآلي للمساعدة في تحديد الأهداف خلال الحرب المستمرة في غزة منذ 7 تشرين الأول/أكتوبر الماضي.

وأكدت الشهادات أن نظام "لافندر" لعب دوراً مركزياً في الحرب، حيث قام بمعالجة كميات كبيرة من البيانات لتحديد أهداف محتملة من "صغار المقاتلين" لاستهدافهم بسرعة، وأوضح 4 ممن أدلوا بشهادتهم أنه في مرحلة مبكرة من الحرب، وضع "لافندر" لائحة تضم 37 ألف رجل فلسطيني بتهمة انتمائهم لحركتي "حماس" أو "الجهاد الإسلامي".

وتم تطوير نظام "لافندر" من طرف قسم استخبارات النخبة في جيش الدفاع الإسرائيلي "الوحدة 8200". وأظهرت الشهادات تضارباً في حجم "الخسائر الجانبية" المسموح بها عند مهاجمة أي هدف، وتحدثت عن "هامش سماح" قد يصل إلى قتل 20 مدنياً مقابل إطاحة هدف واحد.

وأوضحت المصادر أن الهجمات التي نفذت بعد تحديد الأهداف من طرف "لافندر" استخدمت فيها ذخائر غير موجهة تعرف باسم "القنابل الغبية"، ما أدى إلى تدمير منازل بأكملها وقتل جميع ساكنيها. وقال أحد ضباط الاستخبارات: "لا تريد أن تضيع قنابل باهظة الثمن على أشخاص غير مهمين، فهي مكلفة للغاية بالنسبة للبلاد، وهناك نقص في تلك القنابل".

وقالت "غارديان" أن استخدام تقنيات الذكاء الاصطناعي يثير مجموعة من الأسئلة القانونية والأخلاقية، ويحدث تحولاً في العلاقة بين الأفراد العسكريين والآلات، فيما عبّر خبراء القانون الدولي عن قلقهم إزاء الحديث عن قبول الجيش الإسرائيلي بنسب أضرار جانبية تصل إلى 20 مدنياً، بالنسبة للمسلحين ذوي الرتب الأدنى. وقالوا أن الجيوش يجب أن تقيم التناسب في كل ضربة على حدة.

في المقابل، ذكر بيان للجيش الإسرائيلي أنه لا يتم استخدام نظام ذكاء اصطناعي لتحديد هوية "الإرهابيين" حسب تعبيره، وأكد أن تلك الأنظمة "مجرد أدوات للمحللين في عملية تحديد الأهداف".

increase حجم الخط decrease

التعليقات

التعليقات المنشورة تعبر عن آراء أصحابها