في 1964، نشرت صحيفة “نيتشر” ورقة بحثية بعنوان “الأوبئة والشائعات”، وظف فيها عالما الرياضيات، دي جي دالي ودي جي كيندل، النماذج المستخدمة لدراسة انتشار الأمراض لاختبار كيفية انتشار الشائعات. تم تقسيم الناس إلى مجموعات، أولئك “المعرضون” للشائعة، وأولئك “المصابون” بالفعل ويقومون بنشرها، وأولئك الذين توقفوا عن نقل الشائعة، ووصفوا بأنهم “أموات أو منعزلون أو محصنون”.
إن صورة الأدمغة المصابة بالزيف هي صورة قوية. وبعد أكثر من نصف قرن، فإننا نتعامل مع شائعات عبر الإنترنت تنتشر مثل الطاعون. السؤال هو، هل يمكننا إعاقة موجات الانتقال المفرطة هذه، تماما كما نفعل مع انتشار الفيروسات؟
في 2020، اندمج السؤالان عندما حذرت منظمة الصحة العالمية من “وباء المعلومات” المضللة حول كوفيد. وقالت إن الأخبار الكاذبة “تنتشر أسرع وأسهل من هذا الفيروس”.
بعد فترة وجيزة، كشف جوليان كوك من جامعة جينا في ألمانيا أنه وضع هذا للاختبار، حيث طبق نموذج دالي وكيندل على نظرية المؤامرة الحالية. كانت نماذج كوك محاكية لكيفية انتشار شائعة كاذبة حول انتشار فيروس كورونا على موقع تويتر خلال الأشهر الستة الأولى من 2020 ووجد “الأنماط الشبيهة بالموجات” نفسها مثل انتشار فيروس كورونا في العالم الحقيقي.
ودرس أيضا آثار اثنين من الإجراءات المضادة المستخدمة لوقف تدفق المعلومات الزائفة. ووجد أنه، في المراحل الأولى من الانتشار، كان مدققو الحقائق فاعلين للغاية في إيقاف المحتوى الزائف، لكن سرعان ما يفقد هذا فاعليته إذا تم تطبيقه بعد فوات الأوان. أما الطريقة الثانية، وهي حذف التغريدات، فقد أظهرت تأثيرا متوسطا على انتشار الشائعة، لكنها كانت أقل حساسية للوقت.
في 2018، وجدت جيون شين من جامعة فلوريدا أيضا أن الشائعات الزائفة تميل إلى “التحور” والظهور مجددا بأشكال تشبه الأموات الأحياء “الزومبي”، تماما مثل الفيروسات. وبعد أن درست لمدة 13 شهرا خلال الانتخابات الرئاسية الأمريكية لـ2012، تتبعت دورة حياة 17 شائعة سياسية شعبية تم تداولها على موقع تويتر.
أخبرتني شين أن الشركات حاولت منذ حينها تخفيف المشكلة من خلال محاولة إبطاء حركة المحتوى. على سبيل المثال، قدم تويتر أدوات مثل “اقتباس التغريدة”، أو الطلب من المستخدم قراءة مقال قبل إعادة التغريد. “حتى مجرد مطالبتهم بالتوقف والتفكير بأمر ليكتبوه، يجعلهم أقل عرضة لمشاركة المعلومات المضللة”. في مراحل الاختبار المبكر، قال موقع تويتر إنه وجد المستخدمين ينقرون على المقالات التي يفكرون في مشاركتها 40 في المائة أكثر إذا طلب منهم قراءة الرابط”. بعبارة أخرى، يمكن للتغييرات البسيطة في التصميم أن تساعد على إعاقة “الانتشار الفائق” عبر الإنترنت.
هذا ما تقترحه فرانسيس هوجن، عالمة البيانات ومبلغة مخالفات فيسبوك. حيث تتهم الشركة بتأجيج الكراهية والمعلومات المضللة عبر خوارزمياتها، مدعية أنها تقدم بشكل منهجي الأرباح على الناس، ولا سيما أولئك الذين هم خارج الولايات المتحدة. في مقابلة مع صحيفة “فاينانشال تايمز”، قالت هوجن إنه يمكن جعل المنصة أكثر أمانا دون لمس المشرفين على المحتوى أو موظفي فيسبوك المحتوى الذي ينشئه المستخدمون، أو اتخاذ قرارات مسيسة بشأن ما يبقى على الإنترنت. تقول، “إن البحث الذي يجريه موقع فيسبوك لفصل كثير مما أسميه حلول “المحتوى المحايد”. الأمر لا يتعلق باختيار الأفكار الجيدة والسيئة، بل يتعلق بجعل نشر توزيع الأفكار أكثر أمانا.
قد تتضمن حلول إبطاء نقل المحتوى إلى ما تدعوه هوجن “مستوى بشري” تعديلات على التصميم مثل الحد من حجم المجموعات “كما فعل تطبيق واتساب”، أو مطالبة المستخدمين بنسخ الروابط ولصقها (بدلا من مجرد النقر على “مشاركة”) إذا تجاوزت سلسلة النشر أكثر من أصدقاء الأصدقاء على الموقع. ردا على ذلك، قال فيسبوك إن الشركة استخدمت هذه الطريقة باعتدال لكنها وصفتها بأنها “غير عملية” لأنها تقلل من جميع المحتويات، سواء أكان من المحتمل أن تكون مسيئة أم حميدة، بالقوة نفسها.
تبدو هذه التغييرات صغيرة، لكن وفقا لهوجن، أظهرت الأبحاث الداخلية أنها يمكن أن تبطئ جزءا من المحتوى بشكل جذري. وقالت، “قد يؤدي ذلك إلى نقص في الأرباح 1 أو 0.5 في المائة، لكن هذا له التأثير نفسه في المعلومات المضللة مثل برنامج التحقق من صحة المعلومات التابع لجهة خارجية بالكامل… وهو يعمل بجميع اللغات”. مشيرة إلى نتائج البحث الداخلي الذي تم إجراؤه أثناء وجودها في الشركة.
تتعارض أساليب كسر الدوائر هذه بشكل صارخ مع نموذج العمل الأساس لجميع منصات الوسائط الاجتماعية، التي أعطت الأولوية للمشاركة والنمو على جميع المقاييس الأخرى. لكنها قد تكون ضرورية للتماسك الاجتماعي وصحة الجمهور.
لم يوقف علماء الأوبئة فيروس كورونا حتى الآن، لكن تم اختبار الأدوات اللازمة للقيام بذلك ويجري تنفيذها. ويحسن موقع فيسبوك صنعا بتدوين هذه الملاحظة.