حذر خبراء من أن الذكاء الصناعي يمكن استغلاله من قِبل الدول المارقة والمجرمين والإرهابيين، في أغراض خبيثة.
شدد تقرير بعنوان “الاستخدامات الخبيثة للذكاء الصناعي” على الحكومات، ضرورة النظر في فرض قوانين جديدة لتقليل سوء الاستخدام المحتمل لتلك التكنولوجيا، بحسب هيئة الإذاعة البريطانية “BBC“.
وأكد التقرير أنه رغم وجود العديد من التطبيقات الإيجابية للذكاء الصناعي، فإنه يمكن استخدام هذه التكنولوجيا في أمور سلبية.
وقال خبراء إن تحويل الطائرات بدون طيار إلى صواريخ، واستخدام مقاطع الفيديو الزائفة للتلاعب بالرأي العام، والقرصنة الآلية ليست سوى ثلاثة تهديدات ناتجة عن وصول الذكاء الاصطناعي للأيدي الخاطئة.
وقال شاهار أفين، من مركز دراسة المخاطر الوجودية التابع لجامعة كامبريدج، إن التقرير ركز على مجالات الذكاء الصناعي المتاحة الآن، أو المحتمل أن تكون متاحة في غضون خمس سنوات، بدلا من النظر إلى المستقبل البعيد.
وذكر أفين عددا من الاحتمالات التي قد تتحول فيها هذه التكنولوجيا إلى “أغراض خبيثة” في المستقبل القريب.
وأشار إلى تكنولوجيا “ألفا غو”، وهو نظام ذكاء صناعي طورته شركة “دييب مايند” التابعة لغوغل ويمكنها التفوق على لاعبي لعبة “غو” من البشر، ويمكن للمقرصنين استخدامها للكشف عن أنماط البيانات وثغرات الشفرات.
وبحسب الخبير، يمكن لشخص خبيث شراء طائرة دون طيار (درون)، وتزويدها بنظام للتعرف على الوجوه لاستهداف شخص بعينه، كما يمكن برمجة أجهزة الروبوت في مقاطع فيديو “مزيفة” محاكية للواقع بغرض الاستغلال السياسي.
وكذلك يمكن للمقرصنين استخدام المزج الخطابي لانتحال صفة الضحايا.
وقال مايلز برونديج، باحث في معهد مستقبل الإنسانية التابع لجامعة أوكسفورد: “الذكاء الصناعي سيغير نظرة المواطنين والمنظمات والدول للمخاطر — سواء كان ذلك من خلال قيام المجرمين بتدريب الآلات على الاختراق أو “التصيد” على المستويات البشرية للأداء أو القضاء على الخصوصية والمراقبة — ستكون هناك آثار هائلة وواسعة النطاق على الأمن”.
وأضاف: “في الغالب، لا تصل نظم الذكاء الصناعي إلى مستويات الأداء البشري فحسب، بل تفوقها كثيرا”.
وقال سين أو هيجيرتيه، المدير التنفيذي لمركز دراسة المخاطر الوجودية وأحد المؤلفين المشاركين في التقرير: “الذكاء الصناعي غير قواعد اللعبة، وقد تخيل هذا التقرير ما يمكن أن يبدو عليه العالم في السنوات الخمس إلى العشر المقبلة”.
سيريان تلغراف