الثلاثاء 2023/09/19

آخر تحديث: 14:45 (بيروت)

"فراود جي.بي.تي": القراصنة يتبادلون الخبرات عبر الذكاء الاصطناعي

الثلاثاء 2023/09/19
"فراود جي.بي.تي": القراصنة يتبادلون الخبرات عبر الذكاء الاصطناعي
increase حجم الخط decrease
يخشى مراقبون من إمكان أن تسهّل آليات الذكاء الاصطناعي التي باتت متاحة للاستخدام العام قبل نحو سنة، برامج التزوير المنتشرة أصلاً. ويتمثل التهديد الرئيسي الجديد في سهولة نسخ الوجوه والأصوات وتوليد ما يطابقها تماماً.

ويخشى مراقبون من إمكان أن تسهل روبوتات الدردشة وبرامج التزوير القائمة على الذكاء الاصطناعي عمل الجهات الضالعة في الجرائم الإلكترونية وعمليات الاحتيال عبر الإنترنت. وتتمثل عملية "التصيد الاحتيالي" (فيشينغ) بالاتصال بشخص مستهدف وجعله يُدخل البيانات الخاصة به على موقع مقرصن يشبه المواقع الأصلية.

وأوضح جيروم بيلوا، وهو خبير في أمن المعلوماتية في شركة الاستشارات "وايفستون" ومؤلف كتاب عن الهجمات السيبرانية لوكالة "فرانس برس" ان "الذكاء الاصطناعي يسهل ويسرع وتيرة الهجمات" من خلال إرسال رسائل إلكترونية مقنعة وخالية من الأخطاء الإملائية.

ويتبادل القراصنة بذلك خططاً تمكّنهم من توليد رسائل احتيالية محددة الهدف بشكل تلقائي، بواسطة منتديات عبر الإنترنت أو رسائل خاصة. وللتغلب على القيود التي وضعها مقدمو الحلول بشأن الذكاء الاصطناعي، تسوّق مجموعات متخصصة منذ هذا الصيف نماذج لغوية مدربة على إنتاج محتويات خبيثة، على غرار تطبيق "فرود جي بي تي". لكن مازال يتعين إثبات فعاليتها.

ويُعتبر الذكاء الاصطناعي التوليدي واحداً من التهديدات الخمسة الرئيسية التي تهابها الشركات، وفق دراسة حديثة أصدرتها شركة "غارتنر" الأميركية. وتخشى الشركات خصوصاً في هذا المجال تسرب البيانات الحساسة التي يتناقلها موظفوها، الأمر الذي دفع شركات كبرى، ومنها "آبل" و"أمازون" و"سامسونغ" إلى منع موظفيها من استخدام "تشات جي بي تي".

وأوضحت مديرة الأبحاث في "غارتنر" ران شو أن "كل معلومة يتم إدخالها على أداة الذكاء الاصطناعي التوليدي يمكن أن تدخل في مساره التعلّمي، ما يجعل معلومات حساسة أو سرية تظهر في نتائج عمليات بحث مستخدمين آخرين".

وأطلقت شركة "أوبن ايه آي"، المطورة لبرنامج "تشات جي بي تي"، في آب/أغسطس الماضي النسخة المحترفة "تشات جي بي تي انتربريز" التي لا تستعمل الدردشات من أجل التعلّم بغية تطمين الشركات التي تخشى تسريب معلوماتها.

من جهتها، أوصت شركة "غوغل" موظفيها بعدم إدخال معلومات سرية أو حساسة في برنامج الدردشة الآلي الخاص بها، "بارد". ويتمثل التهديد الرئيسي الجديد للذكاء الاصطناعي بسهولة نسخ الوجوه والأصوات وتوليد ما يطابقها تماماً. فمن خلال تسجيل لا تتجاوز مدته بضع ثوان، تسمح بعض الأدوات عبر الانترنت بتوليد نسخة مطابقة تماماً قد يقع ضحيتها الزملاء أو الأقارب.

واعتبر مؤسس شركة "أوبفور انتلجنس" جيروم سايز أن هذه الأدوات قد تُستخدم بسرعة من جانب "مجموعة كاملة من الجهات الضالعة في عمليات احتيال صغيرة، لها وجود فعال في فرنسا وغالباً ما تكون وراء حملات خبيثة تستعمل الرسائل النصية" بهدف الحصول على أرقام البطاقات المصرفية.

وأضاف سايز: "هؤلاء المخالفون الصغار، الذين يكونون بالإجمال من فئة الشباب، سيتمكنون وبسهولة من تقليد الأصوات". وفي حزيران/يونيو، وقعت أم أميركية ضحية احتيال اثر اتصال رجل بها للمطالبة بفدية لقاء تسليمها ابنتها الذي زعم أنها مخطوفة، وعمد الرجل إلى إسماعها ما ادعى أنه صراخ ابنتها الضحية. وانتهى الحادث من دون وقوع أضرار، بعد أن اشتبهت الشرطة في أن الحادثة تشكل عملية احتيال تعتمد على الذكاء الاصطناعي.

وشرح بيلوا أنه بالنسبة للشركات التي باتت على دراية بأساليب احتيالية مستخدمة على نطاق واسع تقوم على انتحال محتالين صفة الرئيس التنفيذي للشركة للحصول على تحويلات مالية، فإن "استخدام مقتطف صوتي أو فيديو مزيف"، من قبل المقرصن "يمكن أن يقلب مسار الأحداث لصالح" الأخير.

ورأى سايز أن "أياً من الهجمات التي نجحت في العام الماضي لا يدفع إلى الاعتقاد بأنها نتيجة استخدام الذكاء الاصطناعي التوليدي". ورغم أن روبوتات الدردشة قادرة على تحديد بعض العيوب وتوليد أجزاء رموز معلوماتية خبيثة، إلا أنها عاجزة عن تنفيذها مباشرة.

وأكمل سايز بأن الذكاء الاصطناعي "سيسمح لأشخاص محدودي الموهبة بتحسين مهاراتهم"، مستبعداً في المقابل أن يتمكن "الذين يبدأون من الصفر من تطوير برامج مشفرة باستخدام تشات جي بي تي".
increase حجم الخط decrease

التعليقات

التعليقات المنشورة تعبر عن آراء أصحابها