الذكاء الاصطناعيالرئيسية

كيف يؤثر الذكاء الاصطناعي على الانتخابات؟

هاشتاق عربي

مع زيادة استخدام شبكات التزييف أدوات الذكاء الاصطناعي لخدمة مخططاتها الرامية إلى التضليل وتغيير الحقائق، كثف حقوقيون ونشطاء تحركاتهم للضغط على شركات التكنولوجيا الكبرى، لابتكار وسائل فعالة تكافح خطر الأكاذيب التي يغذيها الذكاء الاصطناعي على انتخابات مقررة في أكثر من 60 دولة حول العالم.

ودفعت أكثر من 200 مجموعة مدنية وحقوقية بمذكرة إلى عدد من شركات التكنولوجيا الكبرى، مثل “غوغل” و”ميتا” و”أكس”، تدعو فيها إلى تبني “سياسات أكثر هجومية” يمكن أن توقف موجة الدعاية السياسية المضللة، وإلى زيادة التصدي لشبكات التضليل، بحسب صحيفة واشنطن بوست الأميركية.

ونقلت الصحيفة عن نورا بينافيديز، كبيرة المستشارين في مجموعة الحقوق الرقمية “فري برس”، قولها، إن “هذا العام سيشهد انتخابات عدة حول العالم، وتعد منصات التواصل الاجتماعي إحدى أهم طرق نشر المعلومات، ولذلك تحتاج الشركات إلى زيادة إجراءات سلامة النظام الأساسي”.

دعاية سياسية
طالبت المذكرة شركات التكنولوجيا بتعزيز سياساتها بشأن الإعلانات والدعاية السياسية، وشددت على ضرورة حظر التزييف العميق ووضع علامة على أي محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.

وتطرقت الصحيفة إلى الشكاوى التي يبديها سياسيون وناشطون من أن التزييف والأكاذيب التي يغذيها الذكاء الاصطناعي تلاحقهم على الدوام.

وأشارت إلى أن المدافعين ظلوا يحذرون من أن ارتفاع المقاطع الصوتية ومقاطع الفيديو التي ينتجها الذكاء الاصطناعي، يؤدي بالفعل إلى ارتباك في الانتخابات في جميع أنحاء العالم.

وعلى سبيل المثال، رفض سياسيون أدلة يحتمل أن تكون دامغة بنظر بعض مستخدمي التكنولوجيا، مثل مقاطع فيديو تظهرهم وهم ينتقدون خصومهم، إذ ثبت أن كثيرا من تلك النماذج والفيديوهات مزيفة بالذكاء الاصطناعي.

وبناءً على انتشار مثل هذه النماذج، يؤكد خبراء على أن “مخاطر الذكاء الاصطناعي يمكن أن تؤدي إلى ضرر حقيقي في الديمقراطيات المتقلبة سياسيا”.

تحركات احترازية
بدورها، تشير شركات تكنولوجيا مثل “ميتا” و”غوغل”، إلى أنها تعمل على إنشاء أنظمة لتحديد المحتوى الناتج عن الذكاء الاصطناعي، باستخدام مجموعة من الوسائل مثل العلامة المائية.

وفي الأسبوع الماضي، قالت “ميتا” إنها “ستوسع سياسة وضع العلامات الخاصة بالذكاء الاصطناعي، ليتم تطبيقها على نطاق أوسع من الفيديو والصوت والصور”.

وفي المقابل، استعبد خبراء أن تتمكن شركات التكنولوجيا، من اكتشاف كل المحتوى المضلل الناتج عن الذكاء الاصطناعي في شبكاتها، أو إصلاح الخوارزميات الأساسية التي تجعل بعض هذه المنشورات تنتشر على نطاق واسع في المقام الأول.

وبحسب الصحيفة ذاتها، انتقدت المذكرة شركات التكنولوجيا “لإضعافها السياسات والأنظمة التي تهدف إلى مكافحة المعلومات السياسية المضللة على مدى العامين الماضيين”، ودعتها إلى أن تكون أكثر شفافية بشأن البيانات التي تدعم نماذج الذكاء الاصطناعي الخاصة بها.

وعلى سبيل المثال، تساهلت شركة “أكس” في تطبيق بعض قواعدها ضد المعلومات المضللة، وسمحت للمتشددين اليمينيين بالعودة إلى المنصة.

وتشير الصحيفة إلى أن “ميتا” تقدم للمستخدمين خيار إلغاء الاشتراك في برنامج التحقق من الحقائق الخاص بالشركة، وقالت إن “ذلك يسمح للمشاركات المفضوحة باكتساب المزيد من الاهتمام في خلاصات الأخبار”.

في المقابل، تراجع موقع يوتيوب عن سياسة تحظر مقاطع الفيديو التي تروج بشكل خاطئ لفكرة أن انتخابات العام 2020 سُرقت من الرئيس الأميركي السابق، دونالد ترامب، بينما بدأت “ميتا” في السماح بمثل هذه الادعاءات في الإعلانات والدعاية السياسية.

ونقلت الصحيفة عن فرانسيس هاوغين، من شركة ميتا، قولها: “إن الأمر ليس خارج نطاق الاستحالة، وسنرى المزيد من المعلومات الخاطئة المقنعة في شكل التزييف العميق”.

وأضافت “حتى لو لم نكن على استعداد لتصديق أن العنف يمكن أن يحدث في الولايات المتحدة على نطاق واسع، فإن البلدان ذات الديمقراطيات الأكثر هشاشة معرضة بنفس القدر لكل هذه التلاعبات”.

ولفت عدد من النشطاء إلى أنه “إذا لم تكثف شركات التكنولوجيا جهودها، فإن الدعاية الخطيرة على وسائل التواصل الاجتماعي يمكن أن تؤدي إلى التشدد والتطرف أو العنف السياسي”.

مقالات ذات صلة

زر الذهاب إلى الأعلى