تعتزم شركة Meta التابعة لمارك زوكربيرغ المضُي قدماً في خطط مثيرة للجدل لاستخدام ملايين المنشورات على FacebookوInstagram في المملكة المتحدة لتدريب تقنيات الذكاء الاصطناعي، في ممارسة محظورة فعلياً بموجب قوانين الخصوصية في الاتحاد الأوروبي.
وقالت Meta إنها “تفاعلت بشكل إيجابي” مع مكتب مفوض المعلومات بشأن الخطة، بعد أن أوقف مقترحات مماثلة في يونيو/حزيران في المملكة المتحدة والاتحاد الأوروبي.
وجاء التوقف بعد أن حذر مكتب مفوض المعلومات، شركات التكنولوجيا من احترام خصوصية المستخدمين عند إنشاء الذكاء الاصطناعي التوليدي، بحسب الموقع الإلكتروني لصحيفة الغارديان.
وأوضح مكتب مفوض المعلومات يوم الجمعة، أنه لم يقدم موافقة تنظيمية على الخطة، ولكنه سيراقب التجربة بدلاً من ذلك بعد أن وافقت Meta على إجراء تغييرات في نهجها.
ويشمل ذلك تسهيل إلغاء المستخدمين لخيار السماح بمعالجة منشوراتهم لأغراض الذكاء الاصطناعي.
وقد أبدى نشطاء حماية الخصوصية، بما في ذلك منظمة “Open Rights Group” ومنظمة “None of Your Business” قلقاً بشأن هذه الخطط.
عندما طرحت الخطط لأول مرة، اتهمت منظمة “Open Rights Group” شركة Meta بـ “تحويلنا جميعاً إلى موضوعات تجارب غير طوعية (ومجانية) لمختبراتها”.
إلى جانب منظمة “None of Your Business”، حثت مكتب مفوض المعلومات والاتحاد الأوروبي على حظرها.
لا تزال الخطط معلقة في أوروبا، اتهمت Meta الاتحاد الأوروبي بإعاقة تطوير الذكاء الاصطناعي من خلال رفض السماح باستخدام منشورات مواطني الاتحاد الأوروبي لتدريب الذكاء الاصطناعي.
ولكن يوم الجمعة، أكدت شركة Meta أنها ستستأنف خططها لاستخدام المنشورات المشتركة علناً لتدريب نماذج الذكاء الاصطناعي لمستخدمي Facebook وInstagram في المملكة المتحدة.
وقالت شركة Meta إنها لن تستخدم الرسائل الخاصة أو أي محتوى من الأشخاص الذين تقل أعمارهم عن 18 عاماً.
في بيان، قالت Meta: “يعني ذلك أن نماذج الذكاء الاصطناعي التوليدي لدينا ستعكس الثقافة والتاريخ والمصطلحات البريطانية، وأن الشركات والمؤسسات البريطانية ستتمكن من استخدام أحدث التقنيات. نحن نبني الذكاء الاصطناعي في Meta ليعكس المجتمعات المتنوعة حول العالم، ونتطلع إلى إطلاقه في المزيد من البلدان واللغات في وقت لاحق من هذا العام”.
وقال ستيفن ألموند، المدير التنفيذي للمخاطر التنظيمية في مكتب مفوض المعلومات: “لقد أوضحنا أن أي منظمة تستخدم معلومات مستخدميها لتدريب نماذج الذكاء الاصطناعي التوليدية يجب أن تكون شفافة بشأن كيفية استخدام بيانات الأشخاص.
وأضاف: “يجب على المنظمات وضع ضمانات فعالة قبل البدء في استخدام البيانات الشخصية لتدريب النماذج، بما في ذلك توفير مسار واضح وبسيط للمستخدمين للاعتراض على المعالجة”.
المصدر: CNBC عربية