مثبت في الرئيسيةمنوعات

الذكاء الاصطناعي والتزييف العميق .. هل هو اتجاه جديد في إنتاج الدعاية الموالية لتنظيم داعش الإرهابي؟

‌شعاع نيوزحيثما توجد أداة، وُجِدَت طريقة لإساءة استخدامها. فمنذ أكثر من عام، كان البعض يجمع طرقًا خاطئة لاستخدام الذكاء الاصطناعي، بدءًا من الاستخدامات ذات المآخذ الأخلاقيَّة، مرورًا بالاستغلال في الإضرار بسمعة الآخرين، ووصولًا إلى المخاطر التي تهدد القطاعات المصرفية والاستقرار الاجتماعي وحتى الأمن القومي.

من هنا يلزمنا معرفة ما يمكن عن استخدام تقنيات الذكاء الاصطناعي (AI) والتزييف العميق (deepfake) تحسُّبًا لاستغلالها من جانب جماعات إرهابية أو داعميها، لذا نشير إلى أن الذكاء الاصطناعي يمكن تعريفه على أنه: “علم يهتم بصناعة آلات تقوم بتصرفات يعتبرها الإنسان تصرفات ذكية”، أو كما عرفه راسل بيل -أحد العاملين في هذا المجال- على أنه محاولة “جعل الآلات العادية تتصرف كالآلات التي نراها في أفلام الخيال العلمي”. فالذكاء الاصطناعي إذًا هو: علم هدفه الأول جعل الحواسيب وغيرها من الآلات تكتسب صفة الذكاء ويكون لها القدرة على القيام بأشياء كانت حتى عهد قريب حصرًا على الإنسان – كالتفكير، والتعليم، والإبداع، والتخاطب.”

وبالنظر إلى الإطار التاريخي نجد أن “الذكاء الاصطناعي هو نظام علمي بدأ رسميًّا في عام ١٩٥٦م في كلية دارتموث في هانوفر بالولايات المتحدة الأمريكية، وذلك إبان انعقاد مدرسة صيفية نظمها أربعة باحثين أمريكيين، هم: جون مكارثي، ومارفن مينسكي، وناثانييل روتشستر، وكلود شانون. ومنذ ذلك الحين، نجح مصطلح «الذكاء الاصطناعي» وأخذ في الانتشار أكثر فأكثر بمرور الوقت. استهدف الذكاء الاصطناعي في البداية محاكاةَ كل واحدة من مختلف قدرات الذكاء باستخدام الآلات، سواء كان ذكاء بشريًّا، أو حيوانيًّا، أو نباتيًّا، أو اجتماعيًّا، أو تصنيفًا تفريعيًّا حيويًّا. وقد استند هذا النظام العلمي أساسًا إلى افتراض مفاده أن جميع الوظائف المعرفية، ولا سيما التعلم، والاستدلال، والحساب، والإدراك، والحفظ في الذاكرة، وحتى الاكتشاف العلمي، أو الإبداع الفني، قابلة لوصف دقيق لدرجة أنه يمكن برمجة حاسوب لاستِنساخها. ومنذ نهضة الذكاء الاصطناعي في عام ٢٠١٠م، صار من الممكن استغلال البيانات الضخمة عبر تقنيات التعلم العميق، وباتت تطبيقات الذكاء الاصطناعي تؤثر في جميع القطاعات تقريبًا، وخاصة في الصناعة، والبنوك، والتأمين، والصحة، والدفاع. “

وقد أدى تطـوير الذكاء الاصطناعي (AI) إلى زيادة أخطار التزييف العميـق (deepfake) زيادة كبيرة؛ إذ يمكن حاليًا لخوارزميات الذكاء الاصطناعي إنشاء وسائط يصـعب تمييزها عـن الصور الحقيقية، أو مقاطع الفيديو، أو التسجيلات الصوتية. ويقصد بالتزييف العميق: “التقنية التي تستخدم الذكاء الاصطناعي لتبديل الوجوه، أو إنتاج نسخة رقمية لشخص ما.” وقد شهد العالم في السنوات الماضية ارتفاعًا في استخدام تقنية التزييف العميـق، فقد زاد محتوى التزييف العميـق عبر الإنترنت بنسبة ٩٠٠٪ بين عامي ٢٠١٩م و٢٠٢٠م حسب بيانات مركز المعلومات ودعم اتخاذ القرار التابع لمجلس الوزراء المصري، ومن المتوقع أن ترتفع نسبة إنشاء المحتوى عبر الإنترنت صناعيًّا بحلول عام ٢٠٢٦م بنسبة تصل إلى ٩٠٪ من المحتوى عبر الإنترنت.

تؤثر تقنية التزييف العميق في القطاعات المصرفية، والاستقرار الاجتماعي، وحتى الأمن القومي؛ وتعرض حياة الآخرين وخصوصياتهم للخطر. كما يستغلها البعض في عمليات الابتزاز، وتقويض نتائج الانتخابات، وحملات التضليل الإعلامي، والتلاعب باستطلاعات الرأي العام أو نشر أخبار كاذبة في بعض الحالات.

وفي دراسة أعدها فريق إيطالي معني بقضايا الإرهاب الأمني وإدارة حالات الطوارئ (ITSTIME)، أوضح الباحثون أن أنصار تنظيم داعش الإرهابي كانت تقدم مواد دعائية للتنظيم مدعومة بالذكاء الاصطناعي وبتقنية التزييف العميـق، إلا إنه تعذر تحديد أيٍّ منها داخل المحادثات والقنوات الخاصة التابعة لبنية الاتصالات لدى التنظيم الإرهابي، وهي البنية التي تشكل الملاذات الآمنة للتنظيم عبر الإنترنت.

وأوضحت الدراسة أنه بعد الهجوم الإرهابي على قاعة كروكوس سيتي في موسكو في ٢٦ من مارس 2024م([6]) دخل مستخدم إلى الخادم الحاسوبي الخاص بتنظيم داعش الإرهابي على إحدى المنصات الخاصة الرقمية ونشر فيديو مُعد بالذكاء الاصطناعي في غرفة النقاش الرئيسة.

منذ ذلك اليوم حتى الأول من مايو ٢٠٢٤م، نُشرت خمسة مقاطع فيديو دعائية مختلفة باستخدام تقنيات الإنتاج نفسها، على الرغم من وجود بعض الاختلافات الرسومية وأخرى في المحتوى. ويُعد ذلك حتى الآن أبرز مثال على استخدام أنصار تنظيم داعش الإرهابي للذكاء الاصطناعي، كما يُعد الهجوم على قاعة كروكوس سيتي في موسكو المصدر الرئيس للإلهام الذي أدى إلى إنتاج هذه الفيديوهات؛ فقد شكل الهجوم الإرهابي المادة الدعائية الخاصة بالفيديو الأول. وتم تقديم الهجوم باعتباره “بداية جديدة” في الرسالة الصوتية التي أصدرها المتحدث باسم التنظيم، وأضافت الدراسة أن هذه اللحظة قد أشعلت ما قد يكون عصرًا جديدًا لمشغلي وسائل الإعلام الموالية لتنظيم داعش الإرهابي.

تناولت الدراسة المذكورة نظرة في كيفية استخدام أنصار داعش الذكاءَ الاصطناعي لنشر المواد الدعائية الرسمية للتنظيم. ومن خلال تحليل المحتوى، يتبين أن محتوى الفيديوهات قد أُعد من خلال الدعاية الرسمية لتنظيم داعش الإرهابي، الذي عُرض على شكل نشرة إخبارية باللغة العربية قدمتها شخصية أُعدت باستخدام الذكاء الاصطناعي، أو قرأها «مذيع مستنسخ» إن صح التعبير. وعلى وجه التحديد، كان نتيجة ذلك إنشاء نسخة إلكترونية من نشرات الأخبار التي تنشرها وسائل الإعلام التابعة لتنظيم داعش الإرهابي.

وعلاوة على ذلك، فإن استخدام المواد الدعائية للتنظيم واختيار مشاركة الفيديوهات داخل بيئة تُعد آمنة يؤكد استعداد التنظيم للتباهي بهذا المحتوى. وبعبارة أخرى، يعد هذا الأمر محاولة واضحة للترويج لعلامة أو أداة دعائية جديدة. وأضافت الدراسة، أن العنصر الوحيد المفقود في هذه الفيديوهات هو “البيعة الرقمية”، التي عادة ما تُقدَّم بوصفها شريطًا نصيًّا. ومع ذلك، لا يُستبعد غياب هذا العنصر في النشرات المستقبلية؛ ذلك بأن الدُّور الإعلامية الأخرى أعلنت في الماضي عن ولائها بعد ترسيخ مواقعها عبر الإنترنت**.**

وباستطلاع المدة منذ ٢٦ من مارس إلى ٤ من أبريل ٢٠٢٤م، قام المستخدم -الموالي لتنظيم داعش الإرهابي- بإنتاج ونشر مقاطع باللغة العربية (اثنان مدتهما ٩٠ ثانية وواحد مدته ٦٠ ثانية). ومن الملفت للانتباه، استخدام ثلاث طرق مختلفة من الذكاء الاصطناعي لإنتاج المقاطع المصورة، هي:

-إنشاء شخصية (المتحدث/المذيع)
-إنشاء الملفات الصوتية؛ وفيها استُخدِم استخدام الذكاء الاصطناعي لتحويل النص إلى كلام من أجل إلقائه بالنبرات واللغة المحدَّدين مسبقًا (أي بالعربية).
-حركة الشفاه واتصالها بالملف الصوتي.

يمثل الفيديو الأول “استعراضًا صحفيًّا جهاديًّا؛ أي قراءة في الصحف والأخبار الخاصة بتنظيم داعش الإرهابي عن الهجوم على موسكو، بينما يقدم الفيديو الثاني والثالث مراجعة صحفية لعمليات تنظيم داعش الإرهابي في الشرق الأوسط وإفريقيا.

كما يظهر في (الشكل ١) -لقطة شاشة مأخوذة من الفيديو المعني- لبيان أن الشخصية الأولى التي أُعدت بواسطة الذكاء الاصطناعي ترتدي زيًّا عسكريًّا، فيما يرتدي المتحدث ملابس مدنية تقليدية في المقطعين الآخرين (الشكل ٢)

الشكل ١ (من اليمين): شخصية مدنية مصطنعة بالذكاء الاصطناعي.

الشكل ٢: شخصية عسكرية مصطنعة بالذكاء الاصطناعي.

يظل العنصر الوحيد الثابت في المقاطع هو عنصر المحتوى؛ أي تبني الهجمات الإرهابية والبيانات الرسمية كصور متراكبة ، ويقرأ الصوت الاصطناعي النص المكتوب. جدير بالذكر أن المستخدِم (في ما عدا الفيديو الأول) يوقِّع الفيديوهات الأربعة الأخرى بشعار يستحضر اسمه على المنصة، ما يعني أنه متطوع، ويشكل منصة إعلامية خاصة به. وتقدم هذه المقاطع خدمة “الاستعراض الصحفي الرقمي / قراءة صحفية رقمية” لعمليات تنظيم داعش الإرهابي في الشرق الأوسط وجنوب الصحراء الكبرى باستخدام الذكاء الاصطناعي، وذلك على الرغم من مشاركة المواد الرسمية للتنظيم دون سواها. كما قام المستخدم بجمع جزء من هذه المواد، وخاصة الأخبار الحربية، ولصقها في الفيديو. علاوة على ذلك، يشير تصميم الفيديو إلى محاكاة أسلوب شبكات الأخبار التلفزيونية العالمية، مثل “سي إن إن”، و”بي بي سي”. وفي أسفل يمين الشاشة، يتم تركيب نص قصير، مصحوب بشعار التنظيم الإرهابي.

وتابعت الدراسة، أنه على الرغم من أن المقاطع الخمسة تعد شكلاً جديدًا لإنتاج الوسائط المتطورة، فإنه من الجدير بالذكر الإشارة إلى أنه باستثناء الفيديو الأول المؤرخ في ٢٦ من مارس ٢٠٢٤م، تُظهِر بعض المواد اختلافات كبيرة من حيث التسلسل الزمني والجغرافي، وتشير المواد المؤسسية المقدمة في المقاطع إلى عمليات تنظيم داعش الإرهابي الأحدث، في حين أن بعض الصور تعود إلى عام ٢٠٢٢م و٢٠٢٣م، وحتى عام ٢٠١٧م. وعلى سبيل المثال، تعود الصور في الفيديو الثاني إلى عامي ٢٠٢٣م و٢٠١٧م (واحدة منها لا يمكن تحديد هويتها لأن شخصياتها عامة للغاية)، أما في المقطع الثالث فتعود الصور إلى عامي ٢٠٢٢م و٢٠٢٣م.

وقد أسفرت التعليقات على هذه المقاطع من الموالين للتنظيم الإرهابي عن قيام المستخدم بطمس معالم وجه المتحدث (المذيع المصطنع)، مسوغين ذلك بحرمة التجسيد، الأمر الذي يدل على أن الذكاء الاصطناعي لم يسلم هو أيضًا من الشبهات العقائدية، ومن الأفكار الأصولية الجامدة التي تحل لها ما تشاء، وتحرم ما تشاء.

الشكل 3: صورة “للتصحيح” الذي نفذه المستخدم بطمس معالم وجه المتحدث!

وتختتم الدراسة بتوضيح كيفية منع عصر جديد من دعاية تنظيم داعش الإرهابي كما يلي:

‌الخطوة الأولى للتحقق من وجود موجة محتملة من المشغلين الإعلاميين المجهزين بالذكاء الاصطناعي هي “تحليل المحتوى”. وبمجرد تحديد المواد المستخدمة، يمكن استهداف سلسلة توريد الصور والأخبار.

الخطوة الثانية هي ضرورة اجتهاد مقدمي الذكاء الاصطناعي، والإشراف الداخلي، وسياسات الوصول، في سبيل منع إنتاج محتوى إرهابي داخل المنصات. لقد مكنتنا دراسة الدعاية التي نشرتها وشاركتها المنظمات الإرهابية (مثل داعش) من تحديد عناصر متكررة محددة مثل: المحتوى، والزخارف المرئية، والتعبيرات، التي يمكن استغلالها لتدريب أنظمة الذكاء الاصطناعي التي تهدف إلى التعرف على الأنماط الإرهابية.

واليوم، ثمة أهمية متزايدة -بل ملحّة- لاستخدام الذكاء الاصطناعي القادر على التعرف على الأنماط الإرهابية والإبلاغ عنها. وكلما زادت درجة دقة التزييف العميق، كان من الصعب على الذكاء البشري أن يحدد مقدار التلاعب بالمحتوى، الأمر الذي يؤكد أن مكافحة هذ النوع الجديد من التكنولوجيا -فيما يخص مكافحة الإرهاب- ينبغي أن تكون بالوسيلة ذاتها، أي الكشف عن المحتوى الدعائي الإرهابي باستخدام الذكاء الاصطناعي. ولا يغض ذلك من أهمية أية وسائل أخرى كاشفة.

وختامًا، معلوم أن الهدف من نشر تلك المقاطع هو الترويج لتنظيم داعش الإرهابي، وعرض الأخبار في صورة نشرة الأخبار من خلال المادة الإعلامية للأجهزة الصحفية التابعة للتنظيم الإرهابي. وتُعد هذه الآلية الجديدة خيارًا متعمدًا “لتسريع وتسهيل نشر المعلومات والمواد الدعائية لجمهور غربي أوسع”، كما جاء في الدراسة المنشورة في الشبكة العالمية للتطرف والإرهاب (GNET). كما أن هذه الفيديوهات الدعائية للتنظيم الإرهابي لا تمثل برنامجًا إخباريًّا (نشرة إخبارية) مستحدثة كليًّا بالذكاء الاصطناعي فحسب، ولا هي طريقة لإنشاء ونشر مواد دعائية لصالح التنظيم فقط، بل هي أيضًا تجربة تكنولوجية جديدة قد تفتح الأبواب أمام طريقة جديدة للتجنيد في المستقبل.

المصدر : مرصد الازهر لمكافحة التطرف 

([1]) عادل عبد النور، مدخل إلى عالم الذكاء الاصطناعي، مدينة الملك عبد العزيز للعلوم والتقنية، المملكة العربية السعودية، ٢٠٠٥، صـ ٧.

([2]) غابريال غاناسيا، الذكاء الاصطناعي: بين الأسطورة والواقع، انظر: ‌ الذكاء الاصطناعي: بين الأسطورة والواقع ‌

([3]) الذكاء الاصطناعي ومخاطر التزييف العميق، مركز المعلومات ودعم اتخاذ القرار، مجلس الوزراء المصري، القاهرة، ٢٠٢٣، صـ ١.

([4]) الذكاء الاصطناعي: هل تنجح برامج رائدة في الكشف عن التزييف العميق؟ – BBC News عربي ‌

([5]) الذكاء الاصطناعي ومخاطر التزييف العميق، صـ ٢.

([6]) للمزيد يمكن الرجوع إلى مقال مرصد الأزهر في هذا الصدد بعنوان: “داعش”… متى ينتهي كابوس التنظيم الأكثر دموية؟” انظر: https://www.azhar.eg/observer/تفاصيل-الجماعات-المتطرفة/ArtMID/14424/ArticleID/81299/داعش-متى-ينتهي-كابوس-التنظيم-الأكثر-دموية؟
This text was copied from: https://www.azhar.eg/observer/%D8%AA%D9%81%D8%A7%D8%B5%D9%8A%D9%84-%D8%A7%D9%84%D8%B1%D8%A6%D9%8A%D8%B3%D9%8A%D8%A9/ArtMID/14464/ArticleID/83365/%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%88%D8%A7%D9%84%D8%AA%D8%B2%D9%8A%D9%8A%D9%81-%D8%A7%D9%84%D8%B9%D9%85%D9%8A%D9%82-%D9%87%D9%84-%D9%87%D9%88-%D8%A7%D8%AA%D8%AC%D8%A7%D9%87-%D8%AC%D8%AF%D9%8A%D8%AF-%D9%81%D9%8A-%D8%A5%D9%86%D8%AA%D8%A7%D8%AC-%D8%A7%D9%84%D8%AF%D8%B9%D8%A7%D9%8A%D8%A9-%D8%A7%D9%84%D9%85%D9%88%D8%A7%D9%84%D9%8A%D8%A9-%D9%84%D8%AA%D9%86%D8%B8%D9%8A%D9%85-%D8%AF%D8%A7%D8%B9%D8%B4-%D8%A7%D9%84%D8%A5%D8%B1%D9%87%D8%A7%D8%A8%D9%8A%D8%9F

مواضيع ذات صلة

زر الذهاب إلى الأعلى