فجأة تحول الذكاء الاصطناعي من ابتكار ساهم على نحو فعال في التصدي للمحتوى المتطرف على الإنترنت إلى أداة تثير مخاوف متزايدة من خطر تحولها إلى سلاح رقمي فتاك في أيدي الجماعات الإرهابية.
خلال السنوات الماضية، اضطلع بالمجهود الدعائي الهائل لتنظيم داعش على سبيل المثال كوادر مدربة بشكل جيد. لكن الآن مع "الذكاء الصناعي التوليدي" صار بإمكان محدودي الموهبة أن يلعبوا هم أيضا أدوارا أساسية في إنتاج الدعاية العنيفة، وفتح ميولاتهم التخريبية على خيارات غير محدودة.
الذكاء الصناعي التوليدي
تقوم أدوات الذكاء الاصطناعي المعروفة بمهمات مثل فرز البيانات وتحليلها وتصنيفها والتعرف على الأنماط والنماذج وقد بدأت صيغها الأولى في خمسينيات القرن الماضي. أما الذكاء الاصطناعي التوليدي (Generative artificial intelligence) فهو حقل متقدم من حقول الذكاء الاصطناعي ويقوم بتوليد أشكال مختلفة من المحتوى (نصوص، صور، فيديو، موسيقى، أكواد برمجية...إلخ) انطلاقا من البيانات الضخمة المتاحة على الإنترنت.
يعتبر روبوت المحادثة ChatGPT أشهر نموذج لغوي مبني على الذكاء الصناعي التوليدي، أطلقت شركة OpenAI نسخته الأولى في نوفمبر 2022 ولم تمض 5 أيام على ظهوره حتى وصل عدد مستخدميه إلى المليون، متخطيا في سرعة انتشاره كل تطبيقات التواصل الاجتماعي ذات الشعبية الواسعة.
ويعتمد ChatGPT على النموذج اللغوي GPT-3.5 الذي تطوره الشركة منذ سنوات، لكن جرى تدريبه وتحسين أدائه على إجراء المحادثات وتقديم إجابات محددة كتلك التي يكتبها البشر.
روبوت الدردشة الذكي ChatGPT ليس سوى مظهر واحد من مظاهر ثورة الذكاء الاصطناعي، إذ تصاعدت شعبية تطبيقات أخرى مثل DALL-E2 وMidjourney وStable Diffusion المتخصصة في إنشاء صور ورسومات فريدة ومبتكرة انطلاقا من الوصف الذي يعطيه المستخدم للبرنامج. وغالبا لا تتجاوز المدة التي يستغرقها البرنامج لتحويل المدخلات النصية إلى مخرجات بصرية أكثر من دقيقة واحدة، في تناغم مدهش بين الفن والتكنولوجيا.
اشتهرت أيضا في الآونة الأخيرة عشرات الأدوات والبرامج التي توظف تقنيات الذكاء الاصطناعي في إنتاج وتحرير وترجمة مقاطع الفيديو مثل Rollideo وSonix و Elai.io. وتعتمد على مدخلات نصية في القيام بمهامها، مختزلة جهدا قد يستغرق ساعات أو أياما في بضع دقائق.
الذكاء الصناعي في خدمة الإرهاب
لا شك أن أعضاء ومناصري التنظيمات المتشددة في طور استكشاف الإمكانيات الكامنة في أدوات الذكاء الاصطناعي من أجل توظيفها في مشاريعهم. فعندما ظهرت تطبيقات التواصل المشفر قامت مؤسسات موالية لداعش بفحص ودراسة عشرات من هذه التطبيقات لمعرفة أي منها يناسب طبيعة نشاطاتهم وحساسيتها، ولازال أنصار داعش يستخدمون تطبيقات مشفرة غير معروفة بكثرة في أوساط المستخدمين العاديين مثل Tamtam وConversation. وحدث الشيء نفسه حين ظهرت العملات الرقمية وNFT وحتى الطائرات المسيرة وغيرها.
يمكن لأنصار داعش توظيف روبوت المحادثة ChatGPT لتوليد نصوص سريعة وتعليقات احترافية ونشرها على مواقع التواصل الاجتماعي بما يعزز حضورها على الفضاء الإلكتروني. لكن الأخطر أن الروبوت بإمكانه الاستجابة لأسئلة حول مواضيع حساسة مثل صناعة العبوات وتطوير الأسلحة القذرة والنفاذ إلى البنيات الهندسية للمنشآت الحساسة وتعديل الأكواد البرمجية للأنظمة وغيرها.
ومع أن ChatGPT مصمم على رفض الاستجابة لأسئلة صريحة حول "أنشطة تهدف إلى الأذى الجسدي أو التدمير"، إلا أن التجربة أثبتت أنه يمكن التحايل عليه من خلال إعادة صياغة الأوامر، وطرح الأسئلة بشكل غير مباشر.
وقد لفت مات كوردا مدير مشروع المعلومات النووية في اتحاد العلماء الأميركيين الانتباه إلى هذه الثغرة في مقال له بعنوان: "هل يمكن أن يعلمك روبوت المحادثة كيفية صنع قنبلة قذرة".
ووجد كوردا أن هناك إمكانية لخداع الروبوت وجعله متعاونا فيما يتعلق بالمواضيع التي لا يتفاعل عادة معها. يقول: " تمكنت من استنباط بعض الإرشادات حول كيفية صنع قنبلة قذرة من ChatGPT من خلال إقناعه بأنني كنت أبحث عن كيفية منع الإرهاب الإشعاعي". ويضيف: " ومع طرح مزيد من الأسئلة المحددة كانت الإجابات تزداد خطورة".
وفي ورقة بحثية أخرى بعنوان "أسلحة الدمار الشامل: الذكاء الاصطناعي وإنتاج الدعاية المتطرفة"، نشرتها "الشبكة العالمية للتطرف والتكنولوجيا"، خلص كل من دانييل سيجل وماري بينيت دوتي، كاتبي الدراسة، إلى أن " المنظمات المتطرفة ستكون قادرة على الاعتماد على النماذج التوليدية للذكاء الاصطناعي لتعزيز مهاراتها الإبداعية والتقنية".
وشرح الباحثان كيف يمكن استغلال منتجات رقمية مثل ألعاب الفيديو من خلال تعديل شفراتها البرمجية وتحويلها إلى مواد دعاية "ما يعني الوصول إلى جماهير جديدة واحتمال جعلها متطرفة من خلال تقنيات الدعاية الجديدة". وقدم الباحثان أمثلة على السهولة التي يتطلبها تحويل ألعاب شهيرة مثل "نداء الواجب" "Call Of Duty" إلى ألعاب فيديو تمجد المنظمات المتطرفة.
التزييف العميق أو "Deepfake" من أكبر المعضلات التي يطرحها شيوع تطبيقات الذكاء الاصطناعي. ويشير المصطلح إلى القدرة المدهشة التي يستطيع من خلالها الذكاء الاصطناعي إنتاج مقاطع فيديو مزيفة تماما لكنها لا تبدو كذلك.
تلك العملية التي كانت تحتاج سابقا إلى استديوهات عملاقة وموارد ضخمة باتت الآن لا تحتاج سوى إلى نقرات بسيطة على لوحة مفاتيح الهاتف أو الكمبيوتر. وبالنسبة لمنظمات يقوم نشاطها على التضليل والتلاعب بالحقائق ودمج أشكال متعددة من المؤثرات الخاصة على موادها البصرية فإن تطبيقات التزييف العميق يمكن أن تكون مغرية جدا لها.
يمكن للجماعات المتطرفة أن تزيف الخرجات الإعلامية لقادتها على سبيل المثال، أو أن تنتج صورا تظهر انتشار عناصرها في مناطق لا وجود لهم فيها في الواقع، بل يمكنها أن تصدر "توثيقا" مزيفا لهجمات وعمليات لم تحدث. وقد تابع العالم كيف أثرت صورة مزيفة، صنعت بالذكاء الاصطناعي، وتظهر عمود دخان يتصاعد من مبنى البنتاغون في أسواق المال الأميركية. ويمكن لمثل هذه الصور والفيدوهات المزيفة أن تكون بمثابة سلاح في يد داعش.
في هذا الإطار، حذرت رئيسة قسم الإرهاب ومنع التطرف في مركز جنيف للسياسية الأمنية، كريستينا شوري ليانغ، في مقال بعنوان "الإرهاب الرقمي: منع الإرهابيين من استخدام التقنيات الناشئة" من أن الذكاء الاصطناعي "سيعزز حملات التضليل الرقمي" وسيساعد الإرهابيين على تصنيع وإنشاء وتخصيص صفحات الويب الضارة وعمليات الاحتيال التي تعتمد على الهندسة الاجتماعية.
دق ناقوس الخطر
لم يمنع الانبهار والإعجاب الذي قوبلت به منتجات الذكاء الاصطناعي والتطلع إلى آفاقها الواعدة الخبراء وصناع السياسة من دق ناقوس الخطر، والتحذير من تداعياتها الخطيرة على الأمن العالمي.
ووقع أكثر من 3000 مطور وعالم تكنولوجيا عريضة في مارس الماضي تطالب " بوقف أبحاث تطوير الذكاء الاصطناعي ستة أشهر لإتاحة الفرصة نحو مزيد من الحوكمة لهذا النظام ولضمان عدم تضرر البشرية منه".
وتتقدم بريطانيا الجهود العالمية للتحسيس بخطورة الذكاء الاصطناعي. ففي زيارته الأخيرة إلى واشنطن حمل رئيس الوزراء البريطاني ريشي سوناك مطالب إلى الرئيس الأميركي جو بايدن تهم أساسا الإسراع في مجال ضبط الذكاء الاصطناعي وإقناع المشرعين الأميركيين بوضع تشريعات تحد من مخاطره.
ومن واشنطن، أعلن سوناك عن استضافة لندن الخريف القادم قمة عالمية للذكاء الاصطناعي. وقال إن بلاده تقود الجهود لضمان "تسخير فوائد الذكاء الاصطناعي لصالح البشرية". وأضاف: "يتمتع الذكاء الاصطناعي بإمكانيات مذهلة لتغيير حياتنا نحو الأفضل، لكننا بحاجة للتأكد من تطويره واستخدامه بطريقة آمنة".
وتصاعدت في المملكة المتحدة الأصوات المنذرة بعواقب طفرة الذكاء الاصطناعي، ووصلت إلى حد سحب الحكومة لورقة أشادت بمزاياه دون ذكر عيوبه وسلبياته.
وفي ذات السياق، حذر جوناثان هول كيه سي، وهو من أكبر الخبراء القانونيين في بريطانيا، من أن "تهديد الأمن القومي بواسطة الذكاء الاصطناعي أصبح أكثر وضوحا من أي وقت مضى، وأن مبتكري التكنولوجيا بحاجة إلى وضع نوايا الإرهابيين في الاعتبار عند تصميمها".
وأضاف أن " قوانين مكافحة الإرهاب لا تغطي روبوتات الدردشة الآلية". وحذر الخبير الذي يعمل كمراجع لمدى كفاية قوانين مكافحة الإرهاب من "أن التهديد الإرهابي حاليا في بريطانيا مرتبط بهجمات غير معقدة باستخدام السكاكين والمركبات لكن الهجمات التي يدعمها الذكاء الاصطناعي قد تكون وشيكة".
وقد دخل جهاز الاستخبارات البريطاني MI5 في شراكة مع معهد آلان تورينغ لدراسة المخاطر المتنامية لمنتجات الذكاء الاصطناعي على الأمن القومي.
وضعت ثورة الذكاء الاصطناعي البشرية على أعتاب مرحلة تاريخية جديدة. لكن الفرص الواعدة التي يحملها هذا الابتكار المدهش يوازيها ما ينطوي عليه من مخاطر محدقة بالأمن العالمي. ولن يتورع تنظيم داعش وغيره من التنظيمات المتطرفة في توظيفه لخدمة مشاريعها الخاصة. ويضاعف من مخاطره أنه لا يتطلب خلفية تقنية ومعرفية عالية، بل فقط خيالا تخريبيا خصبا وأوامر بسيطة على لوحة المفاتيح.
