آخر تحديث:19:04(بيروت)
الأربعاء 16/05/2018
share

هل تخطى غوغل دوبلكس أخلاقيات الذكاء الاصطناعي؟

المدن - ميديا | الأربعاء 16/05/2018
شارك المقال :
  • 0

هل تخطى غوغل دوبلكس أخلاقيات الذكاء الاصطناعي؟
كشفت شركة "غوغل" العملاقة قبل أيام خلال مؤتمرها السنوي للمطورين، عن ميزة جديدة في مساعدها الرقمي "غوغل أسيستنت" تحمل اسم "دوبلكس"، وكان عرضا مذهلاً لدرجة اعتبر كثيرون أن "دوبلكس" اجتاز بتفوق "اختبار تورينغ"، الذي يحدد ما إذا كان "الذكاء الصناعي" قادرا على التفكير والتحدث مثل الإنسان الطبيعي، لكن في المقابل رأى آخرون أن في ذلك مؤشراً على مستقبل مظلم للذكاء الاصطناعي.


وفي العرض، اتصل المساعد الذكي بمطعم لإجراء حجز، وتحدث مع الموظف بطريقة بشرية كان يستحيل معها على الطرف الآخر أن يعلم أنه يتحدث إلى روبوت. ورغم أن العرض أبهر الحضور، إلا أن موقع "تيك كرنتش" المعني بشؤون التقنية رأى فيه "دليلاً غير مريح" على أن "غوغل" لم تضع في تصورها عندما صممت هذا النظام الآثار الأخلاقية الخطيرة للذكاء الاصطناعي.

من جهته نقل موقع "غيك" المعني بشؤون التقنية، عن الباحث في مختبر الأخلاقيات الرقمية بمعهد أكسفورد للإنترنت ثوماس كينغ قوله: "يبدو أن تجارب غوغل صممت من أجل الخداع، لأن فرضيتهم الرئيسية كانت: هل بإمكانك تمييز هذا عن الشخص الحقيقي؟ وفي هذه الحالة، فإنه لم يتضح لماذا كانت فرضيتهم عن الخداع وليس عن تجربة المستخدم".

وأضاف كينغ: "أنت لا تحتاج بالضرورة إلى خداع الناس لمنحهم تجربة استخدام أفضل بأن يبدو صوتك طبيعياً. لو أنهم اختبروا فرضية: هل هذه التقنية أفضل من الإصدارات السابقة أو جيدة مثل المتصل البشري؟ لما اضطروا إلى خداع الناس في التجربة".

وقد يبدو ذلك مشكلة صغيرة، ولكن هناك مخاوف أخلاقية خطيرة من التجارب، خصوصاً تلك التي يتم إجراؤها على بشر أو تتعلق بهم. فوفقاً لكينغ، حتى لو كانت غوغل لا تنوي خداع الناس يمكن القول أنها كانت مهملة في عدم التأكد من أن التقنية لم تخدعهم، وفي هذه الحالة يجب أن تكون هناك آلية معينة لإخبار الناس بما يتحدثون إليه.

والمشكلة الحقيقية هنا، هي حقيقة أن معرفة من وما الذي تتفاعل معه تغيّر طريقة ردة فعلنا. فهناك عدد لا يحصى من القرارات الصغيرة التي نقوم بها بناء على تلك التلميحات، مثل نغمة الكلام، حيث تتيح لنا التحول والتعاطف بشكل أفضل مع إنسان، وقد تخفف من لهجتك مثلاً إذا أدركت أن الشخص الذي تتحدث معه مرهق أو مر بيوم عصيب.

ويضيف كينغ أنه "إذا بدأت بتمويه الخطوط فقد يتسبب هذا بعدم الثقة في جميع أنواع التفاعلات البشرية حيث سنصبح أكثر إثارة للريبة، فضلا عن استبدال الأشخاص بعملاء لا معنى لهم من الذكاء الصناعي.

ويرى موقع "غيك" أنه رغم هشاشة هذه الحالات، فإنه من المهم في هذه المراحل المبكرة جداً أن نأخذ أخلاقيات الذكاء الاصطناعي بجدية بالغة، نظراً للمخاطر التي لا حصر لها المترتبة على خلق لشبه ذكاء اصطناعي، فإذا أردنا تفادي سيطرة الروبوتات على العالم، يتحتم علينا أخذ هذه المفاهيم على محمل الجد".

شارك المقال :

التعليقات

التعليقات المنشورة تعبر عن آراء أصحابها