الذكاء الاصطناعيالرئيسية

الإباحية وبرامج الذكاء الاصطناعي التوليدي

هاشتاق عربي

قد تكشف “التكنولوجيا المغيرة للحياة” (Life-changing technology) أو ما يعرف بـ”بالتكنولوجيا المزعزعة” (disruptive technology) تطورات جديدة يشهدها عالمنا، ولكن هذه التطورات لن تكون من دون ضريبة قد تطال المستخدمين والمجتمعات المختلفة.

ومن بين أبرز هذه التقنيات الجديدة، تكنولوجيا الذكاء الاصطناعي التوليدي (Generative AI) والتي أصبحت قادرة على التفاعل مع المستخدمين، وتوليد محتوى مكتوب ومسموع ومرئي أكان صورة أو حتى كمقاطع فيديو والتي تكون قادرة على محاكاة الواقع بطريقة كبيرة.

وقد تكون هناك استخدامات عملية لا حصر لها في “الذكاء الاصطناعي التوليدي” من خلال إنشاء تصاميم جديدة وتحسين العمليات الإبداعية المختلفة، ولكن سيسارع البعض في استغلال هذه التكنولوجيا في صناعة المواد “الإباحية”.

وفي منتصف مارس الجاري، نشر رجل الأعمال الأميركي، إيلون ماسك، تغريدة جديدة مرفقة بصورة “ميم” أشار من خلالها إلى مستقبل الإباحية مع الذكاء الاصطناعي.

ويظهر في الصورة شبح الموت، ممثلا للإباحية، ممسكا منجله الملطخ بالدماء، وهو يطرق بابا يحمل اسم “الذكاء الاصطناعي التوليدي”، وتظهر خلفه دماء تسيل من أبواب مفتوحة أخرى، حملت أسماء الفيديوهات المنزلية وقنوات الكابل والإنترنت.

ويلمح ماسك على ما يبدو إلى أن المحتوى الإباحي سوف يغزو عالم الذكاء الاصطناعي ويستغله، مثلما فعل مع عالم الإنترنت والتلفزيون، وأنه قد يلقى مصيرا مشابها في المستقبل.

الذكاء الاصطناعي، خرج من أروقة المختبرات ومن صفحات روايات الخيال العلمي، ليصبح جزءا من حياتنا اليومية، يساعدنا في تسهيل التنقل في المدن وتجنب زحمة المرور، وصولا إلى استخدام مساعدين افتراضيين لمساعدتنا في أداء المهام المختلفة.

ولكن أستاذ الذكاء الاصطناعي، أشرف النجار، يكشف أن “نماذج الذكاء الاصطناعي التوليدية المختلفة لديها القدرة على إحداث ثورة في صناعة المواد الإباحية من خلال إنشاء محتوى واقعي للغاية، وقابل للتخصيص بناء على ما يفضله أو يرغبه الزائر لمثل هذه المواقع وذلك من خلال استخدام خوارزميات متقدمة وتقنيات التعلم العميق”.

ويشرح في حديث لموقع “الحرة” أن “استخدام هذه التقنيات لا يقف عند إنشاء صور أو مقاطع فيديو جديدة أو مزيفة فقط بل يتعداه إلى دمجها مع تقنية الواقع الافتراضي والمعزز من أجل توفير تجربة إباحية تفاعلية قريبة من الواقع”.

وأضاف أنه “يمكن لنماذج الذكاء الاصطناعي التوليدية، التي تستخدم خوارزميات التعلم العميق، إنشاء مواد إباحية جديدة من خلال تحليل الكم الهائل من المحتوى الإباحي المتاح على الشبكة العنكبوتية، وأنماط التعلم والأنماط المرئية والمسموعة، والتدريب عليها من أجل إنشاء صور أو مقاطع فيديو أو حتى محتوى تفاعلي مخصص لتلبية احتياجات المستخدم حسب ما يفضله”.

كايت آيزاكس، مواطنة بريطانية ناشطة من أجل سحب المحتويات الإباحية المنتجة بدون الحصول على موافقة من موقع “بورنهاب”، تحدثت لشبكة “بي بي سي” في أكتوبر الماضي، كيف أنها “انهارت” حين نشر فيديو إباحي “فائق الواقعية” يستخدم وجهها على تويتر.

جميع من لهم صور على الإنترنت قد تطالهم أخطار الذكاء الاصطناعي، ولكن النساء قد تشكل هذه التكنولوجيا “كابوسا لهن”، ما يجعلهن عرضة أكثر للاستهداف، فيما يشير خبراء إلى أن المشاهير قد يكونوا الأكثر عرضة بالاستهداف بهذه التقنيات، خاصة في ظل توفر صور ومقاطع كثيرة لهم على الإنترنت.

الإباحية و”التزييف العميق”

خبير في الأمن السيبراني والتحول الرقمي، رولان أبي نجم، يوضح أن برامج الذكاء الاصطناعي التوليدي ليست بمعزل عن استغلالها في صناعة المقاطع “الإباحية والتي ترتكز بشكل كبير على التزييف العميق أكانت لتوليد مقاطع الفيديو أو حتى لتوليد الصور”.

والتزييف العميق (Deep fake) يعتبر أحد أشكال الذكاء الاصطناعي الذي يعتمد على قاعدة بيانات من الصور والمقاطع المصورة بهدف إنشاء صور أو مقاطع “مقنعة خيالية” بالصوت والصورة.

ويشرح في حديث لموقع “الحرة” أنه عادة ما تستغل هذه الصناعات، مثل “الإباحية”، أحدث ما تتوصل إليه التقنيات “بحيث يتم وضع صور لأشخاص محددين ضمن هذه المقاطع، أو كما حصل في إحدى الدول الأوروبية حيث قبضت السلطات على مبرمج يقوم بتوليد مقاطع باستخدام صور للأطفال، والتي أصبحت متوفرة بشكل كبير على شبكات التواصل الاجتماعي”.

وتابع بقوله: “إن الأمر أصبح بسيطا جدا، فالمحتوى الإباحي موجود، والصور متوفرة على السوشيال ميديا، وكل ما عليهم اختيار الصورة والمقطع لتوليد مقطع جديد”.

أربعة أوجه تستغل فيها الإباحية الذكاء الاصطناعي

الخبير التقني الرئيس التنفيذي لمجموعة “ستاليون” للذكاء الاصطناعي، سامر عبيدات، حدد أربعة أوجه يمكن من خلالها أن تستغل صناعة المواد الإباحية برمجيات وتطبيقات الذكاء الاصطناعي التوليدي، والتي تضم:

أولا، توليد محتوى جديد، إذ يشير عبيدات إلى أنه يمكن استخدام الذكاء الاصطناعي لإنشاء محتوى إباحي جديد عن طريق توليد صور أو مقاطع فيديو غير موجودة من قبل وبشكل آلي.

كما يمكن أن يحسن من جودة المحتوى، ويقول عبيدات إنه يمكن استخدام الذكاء الاصطناعي لتحسين جودة الصور ومقاطع الفيديو الإباحية من خلال تعزيز الدقة والوضوح.

ثالثا، تخصيص المحتوى: قد يستخدم الذكاء الاصطناعي تخصيص المحتوى الإباحي بناء على تفضيلات المستخدمين، مما يسهل من عملية الإدمان على المحتوى، وفق ما يراه عبيدات.

أما رابعا يقول عبيدات إنها الاستخدامات المظلمة، وأوضح أنه يمكن استغلال الذكاء الاصطناعي لإنتاج محتوى إباحي باستخدام التزييف العميق، بحيث يتم استبدال وجه شخص ما دون إذنه بوجه آخر في مقاطع فيديو إباحية، هذا يعتبر انتهاكا خطيرا للخصوصية ويمثل تهديدا للأمان الشخصي والسمعة.

الجانب المظلم للذكاء الاصطناعي التوليدي

الخبير الاقتصادي المتخصص في قطاع الاتصالات وتكنولوجيا المعلومات، وصفي الصفدي، قال إنه “رغم الكثير من فوائد التطور التكنولوجي بما فيها الذكاء الاصطناعي، يبقى هنالك الجانب المظلم منه، والذي ما إذا استغل بشكل سيء في الصناعات المختلفة فإنه سيؤدي إلى الاستغلال السيء لهذه التكنولوجيا المتطورة”.

ويوضح في رد على استفسارات موقع “الحرة” أن “المشكلة ليست في تكنولوجيا الذكاء الاصطناعي ذاتها، بل في قدرتها على إيجاد وصناعة محتوى مكتوب أو مسموع أو أو مرئي، من خلال ما يعرف باسم الذكاء الصناعي التوليدي، لقدرته على محاكاة قدرة الإنسان الإبداعية في إنشاء المحتوى، والذي قد يعتبر المحتوى الإباحي جزءا منه”.

ويشرح الصفدي أن “قدرة الذكاء الاصطناعي تتطور نتيجة الكم المعرفي والعلوم التي باستطاعته الوصول إليها وتحليلها واستخدامها لإيجاد أي محتوى وهي قدرة تفوق قدرات البشر، ناهيك عن قدرته على إنشاء شخصيات وتقليد الأصوات والحركات والتي يمكن استخدامها بشكل مسيء للشخصيات التي تم تقليدها أو تزييفها بشكل منافٍ للأخلاق والأعراف”.

ووصفت مجموعة “يوراجيا غروب” لتحليل أخطار هذه التقنيات الذكاء الاصطناعي التوليدي بـ”أسلحة البلبلة الشاملة”، وفق تقرير لوكالة فرانس برس.

وأقرت الشركة البريطانية الناشئة “إيليفن لابز” التي تطور أداة لاستنساخ الأصوات بفضل الذكاء الاصطناعي، في فبراير أنها ترصد “عددا متزايدا من الاستخدامات التعسفية” لبرنامجها.

وقد يقود انتشار التزوير الفائق الواقعية إلى ما وصفته وكالة الشرطة الأوروبية “يوروبول” بـ”حرب نهاية العالم المعلوماتية”، وفق سيناريو يكون فيه العديد من الأشخاص عاجزين عن التمييز ما بين الواقع والتخييل ومعرفة ما هي مصادر الأنباء الموثوقة.

مخاطر الذكاء الاصطناعي التوليدي

الأكاديمي النجار يتخوف من “المحاذير الأخلاقية والمخاطر الكبيرة التي قد تثيرها هذه التقنية، مثل انتهاكات الخصوصية واستغلال التزييف العميق وتعزيز السلوك الجنسي غير السوي”.

ويرى أن المخاطر المرتبطة باستخدام هذه النماذج التوليدية الذكية لإنشاء مثل هذا المحتوى كبيرة ولا تقف عند انتهاك الخصوصية ” بل تتعداه إلى الابتزاز والتهديد وتشويه السمعة، فمثلا من السهولة بمكان استخدام صور الأفراد دون موافقتهم في إنتاج محتوى إباحي عن طريق التزييف العميق أو استخدام هذه المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي للمضايقة والابتزاز المادي والمعنوي”.

وأضاف النجار أن “انتشار هذه الصور أو المقاطع المفبركة قد تؤدي إلى تشويه الحقائق ونشر المعلومات المضللة والمدمرة. ناهيك عن بعد اجتماعي حيث يمكن لهذا النوع من المحتوى أن يسهم بشكل كبير في زيادة معدلات الإدمان والتأثير السلبي على الصحة النفسية و العقلية والعاطفية والاجتماعية للأفراد” وتابع أن مثل هذا المحتوى قد “يساعد في الترويج لمفاهيم جنسية غير صحية وغير سوية مما يسهم في تشويه تصور العلاقة السوية بين الجنسين”.

وهذا ما أكده خبراء في القطاع بأن مبتكري هذه المحتويات تخطوا أدوات رصدها، موضحين أنهم يعملون بدون كشف هوياتهم بواسطة تقنيات الذكاء الاصطناعي التي كانت تتطلب فيما مضى مهارات متخصصة غير أنها باتت متاحة بصورة واسعة وبكلفة متدنية، وفق تقرير لوكالة فرانس برس.

انتهاك الخصوصية وآثار مستمرة

الخبير التقني عبيدات يتخوف من أن انتهاك الخصوصية قد يكون في مقدمة مخاطر هذه التكنولوجيا، إذ أنها ستستخدم صورا للأفراد قد تكون موجودة على الإنترنت من أجل توليد صور أو مقاطع إباحية تظهرهم من دون أي إذن منهم.

ويشير إلى أن البعض قد يستغل هذه التكنولوجيا لإنتاج “مواد إباحية غير قانونية أو محظورة، مثل المحتوى الإباحي المرتبط بالأطفال أو تلك التي تظهر أفعالا عنيفة أو جرائم جنسية”.

ولن تتوقف مخاطر هذه التقنية عند انتهاك الخصوصية، إذ أن هذا الأمر قد يؤدي إلى “زيادة انتشار المحتوى المزيف مثل مقاطع الفيديو التزييف العميق، مما يجعل من الصعب تحديد مصداقية المصادر ويعرض سمعة الأفراد للخطر”، بحسب تعبيره.

وبات انتشار “التزييف العميق” يطرح تحديا كبيرا على صعيد التضليل الإعلامي، إذ يستخدم الذكاء الاصطناعي للقيام بواسطة التلاعب الرقمي بتبديل وجه بوجه آخر في فيديو أو تزوير كلام شخصية بصورة واقعية إلى حد مدهش، بحسب فرانس برس.

وتابع عبيدات أن هذا الأمر قد تنتج عنه “آثار نفسية واجتماعية” للأشخاص الذين يتعرضون لتزييف مقاطع مرتبطة بهم، ناهيك “إلى زيادة التأثير السلبي على الصحة النفسية والعلاقات الاجتماعية للأفراد الذين يتعرضون له”.

ويتفق أبي نجم مع هذا الرأي، ويحذر من المخاطر التي قد ترتبط في الابتزاز للمراهقين أو للاشخاص، بما سيولد مشاكل مالية ونفسية للبعض.

وأضاف أنه في عصرنا الحال، أصبح الإنترنت “أشبه بقاعدة بيانات مفتوحة للصور والفيديوهات والتي يمكن أخذ صورة أي شخص منها وصوته لاستخدامها في صناعة مقاطع مصورة أخرى تظهره بالصوت والصورة في مقاطع غير حقيقية، يتم استغلال برمجيات الذكاء الاصطناعي لتوليدها”.

وذكر أبي نجم أن نشر مثل هذه المقاطع قد يكون من الصعب تتبعه أحيانا إذ يمكن “نشرها عبر المواقع الإباحية، أو يمكن تداول هذه المقاطع بشكل مباشر عبر تطبيقات التراسل المختلفة”.

مخاطر التطور التكنولوجي

ويؤكد الخبير التقني عبيدات أنه على الرغم من أن “مخاطر التزييف العميق هي من أبرز المخاطر المتعلقة باستخدام الذكاء الاصطناعي في مجال الإباحية، إلا أن هناك مخاطر أخرى مرتبطة بالتطور التكنولوجي في هذا المجال”.

وذكر أن هذه المخاطر ترتبط بـ”التلاعب بالمشاعر، إذ تتيح تقنيات الذكاء الاصطناعي للمنتجين والموزعين استغلال التفضيلات والعواطف الفردية من خلال تقديم محتوى إباحي مخصص، مما يمكن أن يؤدي إلى الإدمان والاستغلال”.

ناهيك عن إشكاليات الخصوصية ومنح الإذن، فقد يؤدي إنشاء محتوى إباحي باستخدام الذكاء الاصطناعي “إلى تجاوز حدود الموافقة والإذن من قبل الأفراد الذين يظهرون في هذا المحتوى، ويمكن أن ينجم عن ذلك مشاكل قانونية وأخلاقية”، إضافة إلى أن ستتيح من “قدرة قراصنة الإنترنت والجهات المخترقة على اختراق واستغلال البيانات الشخصية والصور الخاصة للأفراد”.

وأوضح عبيدات أن إساءة استخدام هذه البرمجيات قد يؤدي إلى “تعزيز التنميط الجنسي والأفكار المسبقة الموجودة حول الجنس والجنسانية، مما يؤثر على تصور الجنس والعلاقات بين الجنسين بشكل سلبي”.

التوازن بين التقدم التكنولوجي وحماية حقوق الأفراد

في فبراير الماضي، حذر المفوض السامي لحقوق الإنسان في الأمم المتحدة، فولكر تورك، من أن التقدم الذي أحرز مؤخرا في مجال الذكاء الاصطناعي يمثل خطرا بالغا على حقوق الإنسان، داعيا إلى وضع “محاذير فعالة”.

وأعرب تورك في بيان حينها عن “قلقه الكبير إزاء قدرة التقدم الأخير في مجال الذكاء الاصطناعي على إلحاق الضرر.. كرامة الإنسان وكل حقوق الإنسان في خطر كبير”.

ووجه المسؤول الأممي “دعوة عاجلة إلى الشركات والحكومات من أجل أن تطور سريعا محاذير فعالة”.

بدوره دعا الأكاديمي النجار إلى ضرورة “دراسة وتنظيم استخدام الذكاء الاصطناعي لتحقيق التوازن بين التقدم التكنولوجي وحماية الحقوق الفردية والقيم المجتمعية”.

وأكد أن “التشريع الخاص بتنظيم تكنولوجيا الذكاء الاصطناعي يعد ضروريا لحماية الخصوصية، وضمان الأمن والأمان، وتحديد المسؤولية القانونية، فمن خلال تنظيم جمع البيانات وتخزينها واستخدامها، يمكن للتشريعات حماية خصوصية الأفراد وتعزيز نشر ثقافة الذكاء الاصطناعي المتسقة مع منظومة الأخلاق. علاوة على ذلك، يمكن لهذه التشريعات أن تفرض المساءلة القانونية فيما يتعلق بأنظمة الذكاء الاصطناعي”.

وحضت عشرات الدول بينها الولايات المتحدة والصين في فبراير الماضي على وضع تنظيمات لتطوير الذكاء الاصطناعي واستخدامه في المجال العسكري، محذرة من “عواقب غير مرغوب فيها”.

وأعرب نص وقعته أكثر من 60 دولة، عن مخاوف متعلقة بـ”مسألة الانخراط البشري” إضافة إلى “انعدام الوضوح على صعيد المسؤولية” و”العواقب غير المقصودة المحتملة”.

ويوضح النجار أن “التشريعات والقوانين تساهم في توفير توازن بين الابتكار والتنمية التكنولوجية من جهة وحماية حقوق الإنسان والمصالح المشروعة من جهة أخرى، فعلى سبيل المثال تساعد التشريعات في نشر الأمن والسلامة عن طريق كبح الاستخدام الضار لهذه التقنية ووضع معايير واضحة للاستخدام الصحيح وموائمتها للقيم المجتمعية المقبولة، فهي بمثابة ضمان لبناء مبادئ وقيم أخلاقية تحترم حقوق الإنسان والكرامة والقيم الأساسية للمجتمعات”.

وتابع النجار “لعل التأطير القانوني لاستخدام هذه التقنية يمهد الطريق لتحديد المسؤولية ومن ثم المساءلة عندما يقع ضرر ما. ولا بد من متابعة تطوير هذه التشريعات لمواكبة النمو المطّرد للذكاء الاصطناعي. كذلك فإن التشريعات تقوم على تعزيز ثقافة الابتكار والحماية الفكرية من خلال تهيئة بيئة مستقرة ومستدامة مما يزيد من الفوائد مع تقليل المخاطر كلما أمكن ذلك”.

وتعتزم دول عديدة وضع تشريعات لهذا القطاع، ويحتل الاتحاد الأوروبي موقعا مركزيا في جهود تنظيم هذه التقنيات الجديدة مع العمل على مشروع قانون يعرف بـ”إيه أي أكت” أو “قانون الذكاء الاصطناعي” قد تنتهي صياغته نهاية العام الحالي أو مطلع 2024، على أن يدخل حيز التنفيذ بعد بضع سنوات.

وفي الولايات المتحدة، يدعو عدد من أعضاء الكونغرس إلى تشكيل مجموعة عمل متخصصة في مراقبة هذا النوع من التزوير، غير أنهم يواجهون معارضة شديدة من ناشطين من أجل الحقوق الرقمية يحذرون من أن هذه التدابير قد تكبح الابتكار أو تحد من حرية التعبير.

وأعلنت الحكومة البريطانية في نوفمبر أنها تعتزم حظر تشارك الفيديوهات الإباحية المنتجة بواسطة “التزييف العميق” التي تعدّ بدون موافقة الضحايا.

هل تشريعات “الذكاء الاصطناعي” هي الحل؟

ويؤكد الخبير الصفدي أن الذكاء الاصطناعي مثله مثل غيره من التكنولوجيا المتطورة “يجب على الدول والمنظمات والمؤسسات تفعيل دور تشريعي ورقابي على كافة أدوات التكنولوجيا لما تشكله من خطر على البشرية اذا ما استغلت بشكل مخالف للقوانين والاعراف الدولية للحد من الاستخدامات الضارة للبشرية”.

ويحدد الخبير التقني عبيدات سبعة أمور يجب أن تتناولها التشريعات لتنظيم تكنولوجيا الذكاء الاصطناعي:

الخصوصية وحماية البيانات: تشريعات تحمي حقوق الأفراد فيما يتعلق بالخصوصية والبيانات الشخصية، وتنظم كيفية جمع وتخزين ومعالجة واستخدام هذه البيانات.
الأمن السيبراني: تعزيز قوانين الأمن السيبراني لمواجهة التهديدات المرتبطة بتكنولوجيا الذكاء الاصطناعي وضمان حماية المستخدمين والشركات من الاختراقات والهجمات.
المسؤولية والمعايير الأخلاقية: تحديد المسؤوليات القانونية للمطورين والمستخدمين والمؤسسات المتعلقة بالذكاء الاصطناعي، بالإضافة إلى تطبيق معايير أخلاقية للتقليل من التحيز وضمان الشفافية والنزاهة.
حماية حقوق الملكية الفكرية: إنشاء تشريعات لحماية حقوق الملكية الفكرية الخاصة بتكنولوجيا الذكاء الاصطناعي والابتكارات والتطبيقات المتعلقة بها.
التزييف العميق والمحتوى المزيف: تنظيم استخدام التكنولوجيا لإنشاء المحتوى المزيف والتزييف العميق وفرض عقوبات على من ينتج أو ينشر هذا المحتوى.
تنظيم الاستخدام في مجالات حساسة: وضع قواعد واضحة بشأن استخدام الذكاء الاصطناعي في مجالات حساسة، مثل الإباحية والتطبيقات العسكرية والطبية والتنبؤ بالجريمة.
ضمان التنمية المستدامة، وعدم وضع عقبات أمام التطور التقني.
تحديات أمام تشريعات الذكاء الاصطناعي

ويرى أبي نجم أنه تتواجد عدة مشاكل فيما يتعلق بالتشريع للذكاء الاصطناعي أولها “أن تطبيقات وبرمجيات الذكاء الاصطناعي تسبق كثيرا من المؤسسات التشريعية، إذ أن أكبر تحد هو التسارع الكبير الذي تشهده هذه التقنية والذي يختلف كل يوم”، مضيفا “أننا نحن كمتخصصين وخبراء في هذا المجال نواجه مشكلة أحيانا بعدم قدرتنا على ملاحقة التطورات المختلفة في هذا القطاع”.

وأضاف أن ثاني هذه المشاكل أنه “حتى لو وجدت تشريعات لهذا القطاع، لا يزال هناك ضعف لدى الجهات القانونية والقضائية في تنفيذ هذه القوانين التي تحتاج لمتخصصين على دراية تكنولوجية من أجل فهمها، وتمييز تقنياتها المختلفة مثل الخوارزميات والتزييف العميق وغيرها من الأمور”.

وثالث هذه المشاكل، بحسب أبي نجم، تحديدها في مناطق جغرافية محددة “حيث أن كل دولة ستوجد تشريعا خاصا بها ضمن مساحتها، في الوقت الذي قد يكون فيه تطبيق هذه التكنولوجيا عابرة للدول، فكثيرا ما شهدنا اتهامات دولية بين واشنطن وموسكو وبكين ترتبط بالأمن السيبراني”.

وكانت الصين قد أعلنت، مطلع يناير الماضي، دخول قانون جديد حيز التنفيذ ينظم قطاع التزوير الفائق الواقعية، ويفرض على الشركات الصينية التي توفر هذا النوع من الأدوات الحصول على الهوية الحقيقية لمستخدميها.

كما يلزم القانون إدراج إشارة على المحتويات المنتجة بواسطة “التزوير فائق الواقعية”، أو “التزييف العميق” لتفادي “أي التباس”.

واعتبرت الهيئة الناظمة للإنترنت الصينية أن التزييف العميق يطرح “أخطارا على الأمن القومي والاستقرار الاجتماعي” إذا لم يتم ضبطه وتنظيمه.

ماذا يمكن أن تفعل إذا كنت أحد ضحايا التزييف العميق؟
إذا كنت أحد ضحايا التزييف العميق بمحتوى إباحي أو غيره، هناك أربع خطوات عليك القيام بها لمواجهة هذا الأمر، بحسب تقرير لشبكة بي بي سي:

أولا، جمع الأدلة، من المهم تحميل نسخة من مقاطع الفيديو، وتاريخ تحميلها، والمواقع التي نشرت الفيديو، وأي أسماء أو عناوين تشير إلى شخصية المستخدم.

ثانيا، قم بالتبليغ عن الحساب على المنصة التي نشرت المقطع، واحتفظ بنسخة من البلاغ الذي قدمته.

ثالثا، تواصل مع الجهات الأمنية، وقم بتسجيل شكوى رسمية حول جميع ملابسات القصة.

رابعا، تواصل مع الجهات الرسمية التي قد تعطيك الدعم والمشورة حول طريقة التعامل مع هذا الأمر.

مقالات ذات صلة

زر الذهاب إلى الأعلى