أخبار الشركاتالرئيسية

ما تأثير تقليص شركات التكنولوجيا للعمالة على سياسات الحماية والأمان؟

هاشتاق عربي

شارك هذا الموضوع:

في أعقاب الانتخابات الرئاسية الأمريكية لعام 2016، خضعت العديد من الشركات التكنولوجية إلى التدقيق، بسبب تأثيرها الهائل في المستخدمين والمجتمع والانتخابات، ما دفعها إلى اتخاذ عدة ضمانات.

حرصت شركات التكنولوجيا الكبرى على جلب موظفين يركّزون على التدقيق في المعلومات المتعلقة بالانتخابات، واستبعاد الآراء المتطرفة عبر الإنترنت، كما شكّل البعض فرقاً أخلاقية للذكاء الاصطناعي واستثمروا في مجموعات إشرافية، وساعدت هذه الفرق بالفعل على تعزيز سياسات الأمان الجديدة.

لكن خلال الأشهر القليلة الماضية، ألغت شركات التكنولوجيا الكبيرة عشرات الآلاف من الوظائف، منها هذه الفرق المعنية بالمتابعة والإشراف على سياسات الأمان.

قلّص موقع “تويتر” وظائف الفرق التي تركّز على قضايا الأمن والسياسة العامة وحقوق الإنسان عندما تولى إيلون ماسك المنصب العام الماضي.

وفي الآونة الأخيرة، سرحت منصة البث المباشر “تويتش”، المملوكة لشركة “أمازون”، بعض الموظفين المسؤولين عن متابعة الذكاء الاصطناعي، وغيرها من أعمال الثقة والسلامة، كما ألغت “مايكروسوفت” فريق تطوير منتجات الذكاء الاصطناعي الأخلاقي.

ورجحت “ميتا”، الشركة الأم لتطبيق “فيسبوك”، إمكانية استبعاد الموظفين العاملين في أدوار غير فنية كجزء من أحدث جولة لتسريح الموظفين.

أثارت موجة تقليص الوظائف وتسريح الموظفين تساؤلات بين البعض داخل وخارج الصناعة حول التزام وادي السيليكون بتوفير حماية واسعة النطاق، فضلاً عن حماية المستخدم في وقت يظل فيه الإشراف على المحتوى والمعلومات المضللة مشكلةً يصعب حلها، بينما وجّه البعض أصابع الاتهام إلى ماسك الذي تزعم هذه القرارات بعد استحواذه على “تويتر”.

قالت كاتي بول، مديرة مجموعة أبحاث السلامة على الإنترنت “ذا تيك ترانسبيرنسي بروجيكت”، “إن الخطوة الأولى كانت من نصيب تويتر الذي شجع الآخرين على اتخاذ هذه القرارات”.

أدى التوقيت دوراً مهماً في تعقيد الأمور، إذ جاء إلغاء هذه الوظائف في الوقت الذي يطرح فيه أباطرة التكنولوجيا عدداً من التقنيات الحديثة مثل الذكاء الاصطناعي، والواقع الافتراضي، وكلاهما أثار الذعر والمخاوف بشأن تأثيرهما المحتمل على المستخدمين.

قال جيفين ويست الأستاذ المساعد في كلية المعلومات في جامعة واشنطن لـ “سي إن إن”، “إن السباق يحتدم بين الشركات التكنولوجية رغبةً في الوصول إلى القمة في ما يخص الذكاء الاصطناعي؛ لذلك فالتخلص من هذه الفرق يعتبر قرارا سيئا خاصة عندما نكون على أعتاب بعض التكنولوجيات التحويلية المخيفة مثل الذكاء الاصطناعي وروبوتات الدردشة”.

عندما سرح ماسك الآلاف من موظفي “تويتر”، شمل ذلك المسؤولين عن الأمن وموثوقية الموقع، والسياسة العامة وقضايا حقوق الإنسان.

منذ ذلك الحين، أعرب الموظفون السابقون والمستخدمون والخبراء، بمن في ذلك الرئيس السابق لسلامة الموقع، يويل روث، عن مخاوفهم من أن تسريحات “تويتر” يمكن أن تقوّض قدرته على التعامل مع الإشراف على المحتوى.

من جهتهم، يشعر بعض الموظفين السابقين في “تويتش”، بالقلق الآن بشأن الآثار التي يمكن أن تحدثها عمليات التسريح الأخيرة على قدرتها على مكافحة خطاب الكراهية والمضايقات والتعامل مع المخاوف الناشئة من الذكاء الاصطناعي.

قال موظف مسرح من “تويتش” اعتاد العمل مع فريق قضايا السلامة، إن “الشركة استعانت أخيرا بمصادر خارجية لمواجهة تقارير المحتوى المخالف، ما يشعرني بتقبلهم لفكرة تقليص فِرق الثقة والأمان”.

وتحدث موظف سابق آخر في “تويتش”، شرط عدم الكشف عن هويته، بأن تقليص عمليات المراقبة للذكاء الاصطناعي قد يكون سيئا على المدى الطويل.

وأضاف “أن المشكلات ستظهر الآن، خاصة بعد أن أصبح الذكاء الاصطناعي جزءاً من مجتمع الإنترنت، لذلك ستصبح قضايا السلامة والأمن والأخلاق أكثر انتشاراً”.

أثارت “مايكروسوفت” الجدل أيضاً بعدما سرحت فريق المتابعة الأخلاقية لمنتجات الذكاء الاصطناعي كجزء من عمليات التسريح الجماعي.

في بيان قالت “مايكروسوفت” إن الفريق أدى دورا رئيسيا في تطوير سياسات الذكاء الاصطناعي المسؤولة وممارساتها، مضيفة أن جهوده مستمرة منذ عام 2017.

وأوضحت الشركة أنه حتى مع التسريحات، “فإن لدينا مئات الأشخاص للعمل على هذه المشكلات، بما في ذلك فرق الذكاء الاصطناعي المسؤولة الجديدة والمخصصة التي نمت بشكلٍ ملحوظ خلال هذا الوقت”.

مقالات ذات صلة

زر الذهاب إلى الأعلى