الذكاء الاصطناعيالرئيسية

هل تعد “غوغل” نموذج أخلاقي يحتذى به في الذكاء الاصطناعي؟ 

هاشتاق عربي

شارك هذا الموضوع:

تتوسع تطبيقات الذكاء الاصطناعي باستمرار، وفي كل القطاعات وعلى شتى الأصعدة، وهو ما يفتح آفاقا جديدة للبشرية وطرقا مختلفة في العمل والحياة عن طريق الحلول التقنية المبتكرة التي يقدمها الذكاء الاصطناعي للوصول إلى مستقبل متصل رقميا، حيث تعمل الآلات والبشر معا لتحقيق نتائج مبهرة لم تكن ممكنة من قبل.

ولكن هذا المستقبل المزدهر يحتاج أولا -وقبل كل شيء- إلى تحديد إستراتيجية أخلاقية للتعامل مع الذكاء الاصطناعي، بحيث تعظم هذه الإستراتيجية الفوائد وتقلل من السلبيات التي من الممكن أن تترافق مع تطبيق هذه التكنولوجيا المتطورة.

وفي الحقيقة، فإن وضع إستراتيجية أخلاقية للتعامل مع الذكاء الاصطناعي شيء، وتنفيذ هذه الإستراتيجية وتطبيقها على أرض الواقع شيء آخر مختلف تماما، فهناك العديد من الشركات التكنولوجية الكبرى التي تتباهى بأنها تملك منظومة أخلاقية شاملة للتعامل مع الذكاء الاصطناعي، وخصصت أقساما كاملة لذلك، ووظفت كبار العلماء من أجل هذا الهدف، ولكن عند التطبيق على أرض الواقع اختلف الحال، ولم تلتزم هذه الشركات بالإستراتيجيات التي وضعتها لنفسها، ولعل أكبر مثال على ذلك هو شركة “غوغل” (Google).

غوغل بين النظرية والتطبيق
عملت شركة غوغل لسنوات طويلة على تقديم نفسها بوصفها مؤسسة مسؤولة في التعامل مع الذكاء الاصطناعي بصورة أخلاقية تراعي مصالح عملائها في أنحاء العالم كافة، ووظفت في مراكز ومختبرات أبحاثها علماء وأكاديميين مرموقين، مشهود لهم في هذا المجال، كما نشرت الشركة العديد من الأوراق البحثية الرائدة في طرق التعامل مع الذكاء الاصطناعي، وشاركت في أكبر المؤتمرات العالمية المتخصصة في هذا المجال.

ومع كل ذلك، فإن سمعة الشركة قد تضررت بشدة في الفترة الأخيرة بطريقة لا رجعة فيها، حيث تكافح الشركة الآن من أجل إقناع الناس والحكومات بطرق تعاملها “الأخلاقية” الجيدة مع كمية البيانات الضخمة التي تملكها، بحسب موقع “ذا فيرج” (The Verge) المتخصص بالتقنية.

فلقد أثار قرار الشركة فصل العالمتين تيمنيت جيبرو ومارغريت ميتشل -وهما اثنتان من كبار باحثيها في مجال أخلاقيات الذكاء الاصطناعي، وكانتا تدرسان الجوانب السلبية لمحرك بحث غوغل الشهير- موجات كبيرة من الاحتجاجات داخل الشركة العملاقة وخارجها.

وسجل علماء وأكاديميون استياءهم الشديد من هذا القرار التعسفي بطرق مختلفة، فقد انسحب اثنان منهم من ورشة عمل كانت تنظمها غوغل، ورفض عالم ثالث منحة مقدارها 60 ألف دولار من الشركة، وتعهد رابع بعدم قبول أي تمويل منها في المستقبل.

كما استقال اثنان من كبار المهندسين في الشركة احتجاجا على معاملة جيبرو وميتشل، وتبعهما مؤخرا أحد كبار موظفي الذكاء الاصطناعي في غوغل وهو مدير الأبحاث سامي بنجيو الذي أشرف على مئات الموظفين العاملين في هذا المجال في الشركة، وفق ما ذكر التقرير السابق لموقع ذا فيرج.

ودفع فصل غوغل لجيبرو وميتشل الآلاف من موظفي الشركة للاحتجاج، وكانت العالمتان قد دعتا في وقت سابق إلى مزيد من التنوع والشمول بين طاقم البحث في غوغل، وأعربتا عن قلقهما من أن الشركة بدأت في فرض رقابة على الأوراق التي تنتقد منتجاتها.

وقال سكوت نيكوم، الأستاذ المساعد في جامعة تكساس الذي يعمل في مجال الروبوتات والتعلم الآلي، “إن ما حدث يجعلني أشعر بقلق عميق حول التزام غوغل بالأخلاق والتنوع داخل الشركة، وما يقلق أكثر هو أنهم أظهروا استعدادا لقمع العلم الذي لا يتوافق مع مصالحهم التجارية”.

من جهته، قال ديب راجي، الأستاذ في مؤسسة موزيلا الذي يعمل في مجال أخلاقيات الذكاء الاصطناعي، “إنه يضر بالتأكيد بمصداقيتهم في مجال العدالة وأخلاقيات الذكاء الاصطناعي”.

وكانت هناك أسئلة كثيرة قد أثيرت في السابق حول الأخلاقيات التي تتعامل بها غوغل مع الكم الهائل من البيانات التي تجمعها من مليارات البشر في العالم، وطريقة جمعها لهذه البيانات وكيفية توظيف الشركة لهذه البيانات لتحقيق مليارات الدولارات من الأرباح في كل عام على حساب المستخدمين، هذا إضافة إلى العديد من قضايا الاحتكار وسوء استخدام السلطة التي رفعت ضدها في دول عديدة من العالم.

كل هذا يعيد طرح مسألة الأخلاق في التعامل مع الذكاء الاصطناعي الذي تستخدمه غوغل وغيرها من عمالقة التكنولوجيا لتحقيق المزيد من القوة والسلطة لها.

وفي الحقيقة، من حيث الجانب النظري لدى غوغل منظومة شاملة لإدارة أخلاقيات التعامل مع الذكاء الاصطناعي، وكانت من أهم الشركات في العالم التي تبنت مثل هذه المنظومة حيث أنشأت قسما متخصصا لهذا الغرض عام 2018، كما ذكرت صحيفة “واشنطن بوست” (Washington Post) الأميركية.

ووضعت غوغل مجموعة من الأهداف التي تريد تطبيقها، وتسعى إلى تنفيذها خلال تعاملها مع الذكاء الاصطناعي، وننقلها لكم كما وردت في موقع الشركة:

أن تكون مفيدة اجتماعيا
إن الانتشار الواسع للتكنولوجيات الجديدة يمس المجتمع ككل بشكل متزايد، وسيكون للتقدم في الذكاء الاصطناعي آثار مختلفة في مجموعة واسعة من المجالات، بما في ذلك الرعاية الصحية والأمن والطاقة والنقل والتصنيع والترفيه.

وعند النظر في الاستخدامات المحتملة لتقنيات الذكاء الاصطناعي، سيؤخذ في الاعتبار مجموعة واسعة من العوامل الاجتماعية والاقتصادية مع مواصلة العمل، حيث تعتقد الشركة أن الفوائد المتوقعة تتجاوز بشكل كبير المخاطر والجوانب السلبية المحتملة، وتضيف أنها ستسعى جاهدة لإتاحة معلومات عالية الجودة ودقيقة باستخدام الذكاء الاصطناعي، مع الاستمرار في احترام المعايير الثقافية والاجتماعية والقانونية في البلدان التي تعمل فيها.

مكافحة التحيز
يمكن لخوارزميات الذكاء الاصطناعي ومجموعات البيانات أن تعكس التحيزات غير العادلة أو تعززها أو تقللها، وتقول الشركة إنها تدرك أن التمييز بين التحيزات العادلة وغير العادلة ليس أمرا سهلا، ويختلف عبر الثقافات والمجتمعات. وتقول إنها ستسعى إلى تجنب التأثيرات غير العادلة على الأشخاص، لا سيما تلك المتعلقة بالخصائص الحساسة مثل العرق، والجنس، والجنسية، والدخل، والتوجه الجنسي، والقدرة، والمعتقد السياسي أو الديني.

السلامة والأمان
تؤكد غوغل أنها ستواصل تطوير وتطبيق ممارسات قوية تراعي مبادئ السلامة والأمان، وتتجنب النتائج غير المقصودة التي قد تؤدي للضرر، مضيفة أنها ستصمم أنظمة الذكاء الاصطناعي الخاصة بها لتكون حذرة بشكل مناسب، وتسعى إلى تطويرها وفقا لأفضل الممارسات في أبحاث السلامة، كما ستختبر تقنيات الذكاء الاصطناعي في بيئات مقيدة وتراقب تشغيلها في أثناء العمل.

المسؤولية تجاه الناس
تقول غوغل إنها ستصمم أنظمة الذكاء الاصطناعي بحيث توفر فرصا مناسبة للتعليقات والتفسيرات ذات الصلة مع ضمان حق الاستئناف للمستخدمين، وستخضع تقنيات الذكاء الاصطناعي لدى الشركة للتحكم البشري المناسب.

ضمان الخصوصية
تؤكد الشركة احترام مبادئ الخصوصية عند تطوير تقنيات الذكاء الاصطناعي الخاصة بها واستخدامها، وأنها ستعطي الفرصة للمستخدمين للموافقة على جمع البيانات مع احترام خصوصيتهم، كما تقول إنها ستوفر الشفافية المناسبة والتحكم في استخدام البيانات التي يتم جمعها.

التمسك بأعلى معايير التميز العلمي
يتجذر الابتكار التكنولوجي في التزام المنهج العلمي والصرامة الفكرية والنزاهة والتعاون. والأدوات التي يوفرها الذكاء الاصطناعي الذي لديه القدرة على فتح مجالات جديدة للبحث العلمي في كثير من المجالات الهامة، مثل البيولوجيا والكيمياء والطب والعلوم البيئية. وتطمح غوغل إلى مستويات عالية من التميز العلمي عبر عملها على تطوير الذكاء الاصطناعي، وتؤكد أنها ستشارك بشكل مسؤول المعارف التي تحصل عليها من خلال نشر المواد التعليمية وأفضل الممارسات والأبحاث التي تمكن المزيد من الأشخاص من تطوير تطبيقات مفيدة للذكاء الاصطناعي.

الإتاحة للاستخدام المفيد
هناك العديد من التقنيات لها استخدامات متعددة، وتقول غوغل إنها -من جهتها- ستعمل على الحد من التطبيقات التي قد تكون ضارة أو مسيئة، كما ستقوم بتقييم الاستخدامات المحتملة لتقنيات الذكاء الاصطناعي المختلفة بحيث تكون مفيدة للمستخدمين.

خطوات بناء إستراتيجية أخلاقية للتعامل مع الذكاء الاصطناعي
كل ما سبق من أهداف هو شيء جيد ولا أحد يستطيع أن يقول عكس ذلك، ومع ذلك حين جاء الأمر للتطبيق فإن النتيجة كانت مختلفة في كثير من الأحيان، لذلك فإن السؤال هو: كيف يمكن للمرء التأكد من أن الذكاء الاصطناعي يتماشى مع نماذج الأعمال والقيم الأساسية التي تتبعها مثل هذه الشركات؟

يستلزم الذكاء الاصطناعي المسؤول إنشاء أنظمة تلتزم بالإرشادات الأساسية التي تميز بين الاستخدامات المسموح بها والاستخدامات غير المشروعة، بحيث تكون أنظمة الذكاء الاصطناعي شفافة، ومتمحورة حول الإنسان، وقابلة للتفسير، ومفيدة اجتماعيا حتى يتم اعتبارها ذكاءً اصطناعيا مسؤولا.

تحدد الباحثة والكاتبة، برانجيا بانداب، 5 خطوات أساسية لبناء وتطبيق أي إستراتيجية أخلاقية للتعامل مع الذكاء الاصطناعي، وذلك في مقالة لها نشرتها منصة “إنتربرايز توك” (EnterPriseTalk) وهي:

ابدأ من القمة
لا يزال كثير من مديري الشركات غير مدركين لكيفية بناء ذكاء اصطناعي مسؤول وتطبيقه داخل شركاتهم ومؤسساتهم، وهنا يجب توعية القادة بشأن مبادئ الذكاء الاصطناعي الجدير بالثقة، حتى يتمكنوا من اتخاذ موقف واضح إزاء أخلاقيات هذا الذكاء، وضمان امتثاله للقوانين واللوائح المعمول بها.

تقييم المخاطر
يجب فهم المخاطر التي قد تترافق مع تطبيقات هذه التقنية الجديدة، وذلك نظرا لأن الذكاء الاصطناعي تكنولوجيا ناشئة، ولم يتم تحديد القوانين والتعليمات والمعايير الخاصة للتعامل معه بشكل نهائي في مختلف دول العالم، وذلك لصعوبة تحديد المخاطر والتهديدات التي قد يمثلها، ومن هنا فإن إجراء تقييم مستمر للمخاطر التي قد يشكلها تطبيق هذه التكنولوجيا هو أمر ضروري وبالغ الأهمية.

حدد خط الأساس
يجب دمج عمليات الذكاء الاصطناعي الجديرة بالثقة في نظام إدارة الشركة، وهنا يجب تحديث السياسات التي تتبعها الشركة بهدف التأكد من أن تطبيق الذكاء الاصطناعي في العمل لا تنتج عنه أي نتائج سلبية تؤثر على حقوق الإنسان داخل وخارج المؤسسة، وكذلك لحل أي مشاكل قد تظهر في هذا السياق مستقبلا، وهو ما يتطلب تبني سياسة امتثال موثوقة تحتوي على مزيج من الضمانات التقنية وغير التقنية لضمان الحصول على أفضل النتائج.

زيادة الوعي على مستوى الشركة
يجب على الشركات تثقيف موظفيها بشأن الآثار القانونية والاجتماعية والأخلاقية للتعامل مع الذكاء الاصطناعي، ويجب شرح المخاطر المرتبطة بالذكاء الاصطناعي، وكيفية تقليل هذه المخاطر. وفي هذا السياق، فإن عقد ورش العمل التدريبية حول أخلاقيات التعامل مع الذكاء الاصطناعي ستكون أكثر أهمية من التركيز على قواعد الامتثال الجامدة التي توزعها الشركات على موظفيها.

الطرف الثالث
نادرا ما يتم بناء نظام ذكاء اصطناعي من قبل شركة أو مؤسسة واحدة، هناك دائما أطراف أخرى تدخل في هذه العملية، وهنا فإن من الأهمية بمكان كبير أن تلتزم هذه الجهات والمؤسسات الخارجية بإستراتيجية الشركة الأخلاقية للتعامل مع الذكاء الاصطناعي، يجب أن تكون هناك التزامات متبادلة بين مختلف المؤسسات التي تعمل على النظام، وذلك لضمان موثوقية هذه التكنولوجيا، وهذا يتضمن إجراء عمليات تدقيق على الموردين تشمل كيفية تعاملهم مع الآثار الضارة المحتملة على حقوق الإنسان.

شبكة الجزيرة

قناة تلفزيونية إخبارية حكومية تابعة لشبكة الجزيرة الإعلامية، تأسست في 1 نوفمبر 1996، ويقع مقرها في العاصمة القطرية الدوحة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى