يتزايد تأثير برامج الذكاء الاصطناعي على الأمن الإلكتروني، حيث يتم استخدامها لأغراض سلبية تشمل الجرائم الإلكترونية، وأخرى إيجابية لتعزيز الأمن السيبراني.
وتساعد هذه البرامج المبرمجين والمختصين في عالم البرمجة على تعزيز قدرات الاختراق وابتزاز الضحايا، فيما تساعد أيضا على تعزيز برامج الحماية والأمن لمكافحة الفيروسات والهجمات.
وأثار التبني الأخير لبرامج الذكاء الاصطناعي مخاوف كبيرة بشأن الأمن السيبراني بسبب الطرق العديدة التي يمكن للمجرمين استخدامها في هجماتهم وتحقيق الربح، وفقا لتقرير مطول نشره موقع “تالوس”، الاثنين.
وأشار التقرير أيضا إلى أن المبرمجين والعاملين لدى جهات إنفاذ القانون يمكنهم استخدام برامج الذكاء الاصطناعي لتعزيز الأمن السيبراني والتصدي للأنشطة غير المشروعة.
ولفت إلى أن العقد الماضي شهد اعتمادا متزايدا واستخداما مكثفا للتعلم الآلي (ML) والذكاء الاصطناعي (AI) من قبل العديد من الجهات والمؤسسات الحكومية والخاصة.
وفي ظل هذا التطور الهائل، تطرح تساؤلات عن كيفية استغلال المجرمين لبرامج الذكاء الاصطناعي وابتزاز الضحايا للحصول على الأموال، وأبرز السبل المتاحة لمواجهتهم.
أعمال خبيثة
وتساعد هذه البرامج المستخدمين على إنشاء نصوص برمجية وتعديل الصور، وعلى تبسيط عمليات المجرمين، وجعلها أكثر كفاءة وتطورا وقابلية للتوسع مع السماح لهم بالتهرب من الاكتشاف.
وتشمل الأعمال الخبيثة للمجرمين نشر المعلومات المضللة، وتعديل الصور بهدف الابتزاز الجنسي، وإنشاء برامج ضارة وخبيثة، وفقا لمتخصصين بقطاع التكنولوجيا والأمن السيبراني.
ويسهل التقدم السريع في تقنيات الذكاء الاصطناعي عمل المحتالين لابتزاز ضحاياهم، بمن فيهم الأطفال، من خلال التلاعب بالصور البريئة وتحويلها إلى محتوى إباحي مزيف، وفق لما نقله تقرير لموقع “أكسيوس” عن خبراء نشر في يونيو الماضي.
ويرى الخبير التكنولوجي، سلوم الدحداح، أن المجرمين يستغلون برامج الذكاء الاصطناعي لمساعدتهم في صناعة برامج ضارة وخبيثة.
ويقول في حديثه لموقع “الحرة” إن “المجرمين يستغلون الذكاء الاصطناعي لكتابة برامج الفدية، التي تشكل خطرا، حيث يقومون بالاستيلاء على معلومات معينة ويطلبون المال مقابل فك التشفير عنها، أو يقومون بحذفها”.
وأضاف أن “هناك من يقوم أيضا باستغلال صور العائلات، وتركيبها وتعديلها، لابتزاز الضحايا جنسيا أو مقابل الحصول على المال، بحيث أنهم يقومون بتغيير الخلفية مثلا، بحيث تصبح الصورة غير واقعية”.
التصدي للجرائم الإلكترونية
وفيما يتعلق بالتأثير الإيجابي للذكاء الاصطناعي على الأمن السيبراني، فإنه يساعد في مواجهة الأنشطة غير المشروعة، من خلال تطوير أدوات وتكتيكات واستراتيجيات جديدة لتحليل البيانات، والتنبؤ بالهجمات، وفقا لتقرير تالوس.
وتساعد هذه البرامج على تحديد واكتشاف التهديدات والوقاية منها، بالإضافة إلى إثراء التحليلات التنبؤية.
ويقول الدحداح، إنه “للحد من الجرائم الإلكترونية، يجب على سبيل المثال تعزيز آليات التحقق من الصور، بحيث أن برامج الذكاء الاصطناعي قبل استقبال أو قبول أي صورة يجب أن تتحقق من هوية المستخدم ومن أصحابها (الصور) الحقيقيين”.
وتابع “توجد اليوم برامج للتحقق من صحة الصور الفوتوغرافية، وتمييزها عن الصورة المزيفة أو المعدلة”.
تطورات مبهرة
وشهدت تقنيات الذكاء الاصطناعي في الآونة الأخيرة تطورات مبهرة جعلت الصور التي تنتجها تبدو شديدة الواقعية، ولاقت رواجا واسعا على مواقع التواصل الاجتماعي، مما أثار تساؤلات بشأن سبل كشفها، وفقا لفرانس برس.
وألمحت الوكالة نقلا عن خبراء إلى أنه توجد طرق لتمييز الصور الحقيقية عن تلك المزيفة.
وتتيح بعض برمجيات الذكاء الاصطناعي، مثل “دال-إي”، “ميدجورني” و”ستايبل ديفيوجن” و”كرايون”، توليد صور بمجرد إدخال بعض الكلمات المفتاحية باللغة الإنكليزية مثل (رائد فضاء يركب حصانا على كوكب المريخ)، وذلك باستخدام قواعد بيانات ضخمة.
تمييز الصور
لكن كيف يمكن أن نميز هذه الصور؟ بعض مستخدمي مواقع التواصل يلجؤون إلى تطبيقات الذكاء الاصطناعي لإنتاج أعمال فنية أو صور على سبيل الفكاهة، لكن آخرين يستخدمون هذه الأدوات لإنتاج صور مرتبطة بأحداث سياسية.
من بين هذه الصور الرائجة عبر مواقع التواصل الاجتماعي واحدة تعود للقاء الرئيس الصيني، شي جين بينغ، بنظيره الروسي، فلاديمير بوتين، في 20 مارس 2023، ومجموعة أخرى لمشاهد متخيلة تظهر الرئيس الفرنسي إيمانويل ماكرون يجمع النفايات.
وغالبا ما يعمد صانعو هذه الصور للإشارة إلى أنها نتاج برامج ذكاء اصطناعي، لكنها سرعان ما تنتشر خارج سياقها، ويصدق البعض أنها حقيقية.
وهناك أدوات عدة لكشف حقيقة هذه الصور، وأخرى قيد التطوير، إلا أن النتائج التي تقدمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحفيو فرانس برس.
ويشرح ديفيد فيشينغر، المهندس المتخصص في الذكاء الاصطناعي في جامعة فيينا للتكنولوجيا لفرانس برس، أن عمل الذكاء الاصطناعي لا يقوم على مجرد اقتطاع أجزاء من صور لإعادة تركيبها، إذ “يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثم يعيد استخدامها لتوليد صورة جديدة تماما”.
وبدوره يوضح، فينسنت تيراسي، أحد مؤسسي شركة Draft&Goal الناشئة التي تطور أداة خاصة بالجامعات، تكشف المحتوى المنتج عبر الذكاء الاصطناعي، أن برامج الذكاء الاصطناعي تخلط الصور المتاحة لها في قاعدة البيانات ثم تفككها لتعيد بناء مشهد جديد تماما، لا يمكن تتبع العناصر المستخدمة في صناعته.
ولهذه الأسباب لا يمكن لمنصات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.
لكن ماذا عن البيانات الوصفيّة (Metadata) التي تعتبر بطاقة تعريفية للصورة ويمكن أن تتضمن معلومات عن أصلها؟
“للأسف لا يمكن الاعتماد على هذه البيانات لأنها تحذف مباشرة عند تحميل الصورة على مواقع التواصل”، بهذه العبارة تجيب الأستاذة في جامعة فريديريك -2 في نابولي والمتخصصة في الذكاء الاصطناعي، أناليزا فيردوليفا، على سؤال فرانس برس.
وينصح خبراء بـ”العودة إلى مصدر الصورة، وتحليلها والبحث عن علامة مائية (ووتر مارك)، والتدقيق في نقاط الصورة (pixels)، والبحث عن تشوهات، والنظر إلى الخلفية”.
وبالإضافة إلى كل ذلك يمكن أن تتضمن الصور المولّدة باستخدام الذكاء الاصطناعي عناصر قد لا تكون مشوهة إلا أنها تشكل بوجودها خطأ منطقيا، لذلك يجب اتباع المنطق السليم عند التدقيق في صورة موضع شك.