الذكاء الاصطناعيالرئيسية

هل يستطيع الذكاء الاصطناعي كشف المشاعر البشرية من خلال تعابير الوجه؟

هاشتاق عربي - مادهوميتا مورجيا

شارك هذا الموضوع:

خلال معظم العام الماضي، كان الطلاب في مدرسة True Light College، وهي مدرسة ثانوية للبنات في كولون في هونج كونج، يحضرون دروسا من المنزل. لكن على عكس معظم الأطفال في جميع أنحاء العالم الذين أجبروا على التعليم المنزلي أثناء الوباء، تتم مراقبة الطلاب في المدرسة أثناء جلوسهم على مكاتبهم. عيون غير وامضة تفحص تعابير وجه كل طفل من خلال كاميرات أجهزة الكمبيوتر التي لديهم.

تنتمي العيون إلى برنامج يسمى 4 Little Trees، وهو برنامج ذكاء اصطناعي يدعي أن بإمكانه قراءة مشاعر الأطفال أثناء تعلمهم. هدف البرنامج هو مساعدة المعلمين على جعل التعليم عن بعد أكثر تفاعلا وتخصيصا من خلال الاستجابة لردود فعل الأطفال الفردية في الوقت الحقيقي.

تعمل خوارزمية برنامج 4 Little Trees من خلال قياس الحركات الدقيقة للعضلات على وجوه الفتيات، وتحاول التعرف على مشاعر مثل السعادة والحزن والغضب والمفاجأة والخوف. تقول الشركة المنتجة للبرنامج: إن الخوارزميات تنتج تقارير مفصلة بشأن الحالة العاطفية لكل طالب، ويمكنها أيضا قياس الدافع والتركيز. حيث تنبه الطلاب لاستعادة انتباههم عندما يتشتتون.

تقول فيكي ليم المؤسسة للشركة وهي معلمة سابقة: إن الخوارزمية تقرأ مشاعر الأطفال بشكل صحيح بنسبة 85 في المائة من الوقت. وأضافت ليم أن شعبية البرنامج انتشرت خلال الوباء، حيث زاد عدد المدارس التي تستخدم برنامج 4 Little Trees في هونج كونج من 34 إلى 83 خلال العام الماضي.

يستخدم برنامج 4 Little Trees واحدة من عائلة من الخوارزميات الجديدة التي يدعي مبتكروها أنها تستطيع التعرف على المشاعر البشرية والحالة الذهنية، مثل التعب والتوتر والقلق، من خلال تحليل تعابير الوجه والإيماءات الدقيقة وتتبع العين ونغمات الصوت.

هذه التكنولوجيا هي تطور طبيعي لأنظمة التعرف على الوجه التي تتعرف على الأفراد لكنها أكثر انتشارا -حيث تدعي أنها لا تفهم كيف يشعر شخص ما في الوقت الحالي فحسب، لكنها تقوم أيضا بتحليل نواياه والتنبؤ بشخصيته، بناء على التعابير العابرة.

تعمل مئات الشركات حول العالم على تكنولوجيا تحليل المشاعر في محاولة لتعليم أجهزة الكمبيوتر كيفية التنبؤ بالسلوك البشري. يقدم جميع شركات التكنولوجيا الأمريكية العملاقة، بما في ذلك “أمازون” و”مايكروسوفت” و”جوجل” تحليلا أساسيا للمشاعر، بينما تقوم الشركات الأصغر مثل Affectiva وHireVue بتصميمه لقطاعات معينة مثل السيارات والمعلنين وشركات التوظيف.

استخدمت ديزني البرنامج لاختبار ردود فعل المتطوعين على مجموعة من أفلامها مثل Star Wars: The Force Awakens وZootopia. تريد شركات السيارات مثل فورد وبي إم دبليو وكيا موتورز استخدامه لتقييم تأهب السائق. واختبرته شركات التسويق مثل Millward Brown لقياس مدى استجابة الجمهور على إعلانات عملاء مثل كوكا كولا وإنتل.

وقد بدأت منذ الآن تتسلل إلى الأماكن العامة أيضا. حيث تلقت أنظمة التعرف على المشاعر تمويلا لاستخدامه من قبل شرطة لينكولنشاير في المملكة المتحدة للتعرف على الأشخاص المشبوهين، بينما نشرت الكاميرات في السابق في ميدان بيكاديلي في لندن لتحليل ردود الفعل العاطفية للأشخاص تجاه الإعلانات على اللوحات الإعلانية الكبيرة.

في حين أنه تم تجريب التكنولوجيا لعدة أعوام، إلا أنها أصبحت أكثر تطورا الآن فقط. تم تركيب الكاميرات التي تدعم التعرف على المشاعر في شينجيانج المنطقة الشمالية الغربية الصينية حيث يحتجر نحو مليون شخص معظمهم من مسلمي الإيجور في معسكرات الاعتقال. قال لي شياويو، خبير الشرطة وكادر الحزب في مكتب الأمن العام في مدينة ألتاي في شينجيانج، لصحيفة فاينانشيال تايمز في عام 2019 إن التكنولوجيا نشرت في الأغلب في الجمارك “لتحديد المشتبه بهم الجنائيين بسرعة من خلال تحليل حالتهم العقلية”.

بغض النظر عن التطبيق، فإن الهدف واحد: جعل البشر أقل غموضا وأسهل تنبؤا على نطاق واسع. في الوقت الذي يعمل فيه الموظفون والطلاب عن بعد أثناء فيروس كورونا، تزدهر الأعمال: من المتوقع أن تتضاعف صناعة التعرف على المشاعر تقريبا من 19.5 مليار دولار عام 2020 إلى 37.1 مليار دولار بحلول عام 2026، وذلك وفقا لشركة أبحاث السوق Markets and Markets.

كيت كروفورد، المؤسسة المشاركة لمعهد AI Now Institute في جامعة نيويورك والباحثة في الآثار الاجتماعية للذكاء الاصطناعي، تقول: “أثناء الوباء، كانت شركات التكنولوجيا تقدم برامجها للتعرف على المشاعر كوسيلة لمراقبة العاملين والطلاب عن بعد. كان يتم تسويق أدوات مماثلة لبرنامج 4 Little Trees لتوفير المراقبة للعاملين عن بعد، وتستخدم منذ الآن في مقابلات العمل عن بعد. سيكون لاكتشاف المشاعر تأثير كبير في العالم من أماكن العمل إلى المدارس إلى الأماكن العامة”.

مشاعر عالمية؟

في الوقت الذي تطرح فيه الشركات والحكومات بحماس برامج التعرف على المشاعر للجمهور يشير النقاد إلى عيب كبير في التكنولوجيا: بالنسبة لكثير من العلماء، لا توجد أدلة تذكر تثبت أنها تعمل بشكل دقيق. تشير الأبحاث في مثل هذه الخوارزميات إلى أنه في حين أنها قد تكون قادرة على تحليل تعابير الوجه، إلا أن ذلك لا يترجم بالضرورة إلى ما يشعر به أو يفكر فيه الشخص حقا، أو ما يخطط للقيام به بعد ذلك.

في مراجعة بتكليف من جمعية العلوم النفسية عام 2019، طلب من خمسة علماء بارزين من هذا المجال فحص الأدلة المتوافرة. على مدار عامين بحث المراجعون في أكثر من 1000 دراسة مختلفة لتكنولوجيا التعرف على المشاعر. ووجدوا أنه يتم التعبير عن المشاعر بعدة طرق، ما يجعل من الصعب الاستنتاج على نحو موثوق كيف يشعر شخص ما من خلال مجموعة بسيطة من حركات الوجه.

كتبت ليزا فيلدمان باريت عالمة النفس في جامعة نورث ويسترن وواحدة من المراجعين، “تظهر البيانات أن الأشخاص في المتوسط يتجهمون بنسبة تقل عن 30 في المائة من الوقت عندما يكونون غاضبين. لذلك، فإن التجهم … وهو تعبير عن الغضب -هو واحد من بين كثير من التعابير. هذا يعني أن في أكثر من 70 في المائة من الوقت، لا يتجهم الأشخاص عندما يكونون غاضبين. علاوة على ذلك، غالبا ما يتجهمون عندما لا يكونون غاضبين”.

وقال العلماء الخمسة: إنه “لم يكن من الممكن بثقة استنتاج السعادة من ابتسامة، أو الغضب من التجهم أو الحزن من العبوس، كما يحاول كثير من التكنولوجيا الحالية القيام به عند تطبيق ما يعتقد بشكل خاطئ أنه الحقائق العلمية”.

تلك الحقائق العلمية التي تشير إليها باريت وزملاؤها، التي تشكل أساس كثير من برامج التعرف على المشاعر، هي في الأغلب عمل رجل واحد -عالم النفس الأمريكي بول إيكمان. في الستينيات، سافر إيكمان إلى بابوا غينيا الجديدة لإجراء سلسلة من التجارب لإثبات فرضيته أن جميع البشر، بغض النظر عن الثقافة أو الجنس أو المنطقة الجغرافية أو الظروف، يظهرون المجموعة المكونة نفسها من ستة مشاعر عالمية: الخوف، الغضب، الفرح، الحزن، الاشمئزاز، المفاجأة.

كان هذا الإطار يستخدم من قبل عدد من الشركات لتدريب الآلات على لغة المشاعر البشرية. تقول كروفورد: “كثير من أوراق البحث في مجال تعلم الآلة تستشهد بأعمال إيكمان كما لو أن فئاته غير إشكالية، وغالبا ما تتجاهل القضايا الأكثر تعقيدا مثل السياق والتكييف والعلاقات والثقافة نظرية المشاعر العالمية تناسب الأدوات.

لا يزال إيكمان، البالغ من العمر الآن 87 عاما ومتقاعد، يدافع عن أبحاثه لكنه يزعم أنه يساء استخدامها من قبل شركات تحاول بناء منتجات تجارية. يقول، مشيرا إلى الشركات المدفوعة بالربح وليس العلم، “لا أفكر كثيرا في الأبحاث الأخيرة، لم يتم تكرارها ويبدو أنها مدفوعة أيديولوجيا. لم يثبت بعد أنه يمكن تدريب الخوارزميات بشكل دقيق كأدوات لقياس تعابير الوجه. يستغرق الأمر من الإنسان 50 – 100 ساعة ليتدرب على نظام التحليل لدينا بطريقة موثوقة ومتسقة”.

باستثناء القياسات، يقول إن الشركات بحاجة إلى الاستثمار في الأبحاث لإثبات الروابط بين التعابير والسلوك. “قياس تعابير الوجه ببساطة لا يخبرك ما إذا كان تفسيرك له في تلك الحالة صحيحا أم لا. معظم ما كنت أراه كان ما أدعوه معتقدات علمية زائفة -لم تكن الشركات تجري الأبحاث لتظهر أن تفسير القياسات كان صحيحا”.

ويضيف “إذا أخبرتك أنك قمت للتو بتنشيط عضلة الفينتاليس فماذا يعني ذلك؟ حسنا، هذا يعتمد على وقت قيامك بذلك، ومن أنت، أنت بحاجة إلى دليل. عليك فصل القياسات عن الأهمية أو المغزى”.

مشكلة استنتاج النية، وفقا لمنتقدي التكنولوجيا، هي أنها تؤدي إلى اتخاذ قرارات مليئة بالأخطاء ومتحيزة في المجالات شديدة الحساسية مثل التعليم والشرطة والتوظيف ومراقبة الحدود.

“في أي وقت تريد فيه استخدام نظام آلي لاتخاذ القرارات، فأنت بحاجة إلى بيانات التدريب. وهذا يجب تصنيفه من قبل شخص ما -شخص ما يجب أن يصدر الأحكام حول ما يعنيه كل تعبير من تعابير الوجه”، كما يقول سوريش فنكاتاسوبرامانيان، العالم في مجال تعلم الآلة في جامعة يوتا المختص في التحيز والتمييز، وهو عضو في مجلس الأخلاقيات التابع للشركة الناشئة الأمريكية للتوظيف بالذكاء الاصطناعي HireVue حتى وقت استقالته أواخر عام 2019. وأضاف، “ليست لدينا مؤشرات موثوقة لذلك. مما لا شك فيه أن بإمكاننا رسم إشارات معينة حول ما أشعر به، لكن إذا لم أكن أبتسم، فهذا لا يعني أنني لست سعيدا. لذلك هناك كثير من الضجيج في النظام”.

إعادة إنتاج التحيز

التوظيف هو أحد المجالات حيث التحيز في نظام الذكاء الاصطناعي العاطفي قد يكون محفوفا بالمخاطر بشكل خاص. هذه الخوارزميات تتتبع تعابير وجه الباحثين عن عمل لاستخلاص استنتاجات حول قابليتهم للتوظيف، بما في ذلك تقييمهم من حيث الجدارة، الاجتهاد، الذكاء العاطفي، القدرة المعرفية. الشركات في هذا المجال تشمل HireVue وHuman القائمة في لندن، التي تعمل برامجها على تحليل التطبيقات القائمة على الفيديو. تزعم HireVue أن لديها أكثر من 700 زبون، بما في ذلك أصحاب العمل الكبار مثل جنرال موتورز وهيلتون ودلتا، لنظامها القائم على الذكاء الاصطناعي. شركة Human تعد يونيليفر من بين عملائها.

لكن يعتقد النقاد أن استخدام الذكاء الاصطناعي بهذه الطريقة يمكن أن يجعل التحيزات الموجودة بالأصل في البيانات المستخدمة لتدريب هذه الخوارزميات دائمة.

على سبيل المثال، قام فريق من المراسلين في الإذاعة العامة البافارية باختبار برنامج الذكاء الاصطناعي التابع لشركة Retorio، الشركة الناشئة للتوظيف بالذكاء الاصطناعي في ميونيخ، ووجد أن الخوارزمية استجابت بطريقة مختلفة للمرشح نفسه في ملابس مختلفة، مثل النظارات والحجاب. قالت الشركة إن هذا يرجع جزئيا إلى أنه كان قد تم تدريب نظام التقييم القائم على الفيديو بناء على طريقة تصور مجموعة مختارة من موظفي التوظيف البشر للباحثين عن عمل وشخصياتهم، لذلك كانت الخوارزمية تعيد إنتاج المشاعر الغريزية والتحيزات الفطرية لأولئك البشر.

يعتقد فنكاتا سوبرامانيان أن الخلل الأساسي في مخرجات أنظمة تتتبع المشاعر هو أن الآلات لا تستطيع تعديل سلوكها كما يفعل البشر. يقول، “عندما تتفاعل مع شخص وتخطئ بشأن مشاعره، يمكنك الحصول على رد فعل وتقوم بتعديل نموذجك الداخلي بسرعة كبيرة. لكن الآلة لا تستطيع القيام بذلك، حيث تقوم ببناء نموذج من بعض البيانات وتوسع نطاقه ليشمل آلاف الأشخاص الآخرين، وليس لديها القدرة على التعديل في اللحظة نفسها إذا أساءت قراءة ما قلته”.

في عام 2019، قدم مركز معلومات الخصوصية الإلكترونية غير الربحي في الولايات المتحدة شكوى ضد HireVue إلى لجنة التجارة الفيدرالية بسبب ممارسات تجارية غير عادلة من خلال استخدام البيانات البيومترية وخوارزميات سرية بطريقة تسبب ضررا كبيرا وواسع النطاق. وقد ادعوا أن أدوات الذكاء الاصطناعي غير مثبتة، وتقوم على التدخل وعرضة للتحيز.

في يناير، أعلنت HireVue أنها لن تستخدم تحليل الوجه بعد الآن لإجراء تقييمات الوظائف، وأوصت شركات التوظيف بالذكاء الاصطناعي الأخرى بالقيام بالشيء نفسه. قالت إنها “استنتجت أنه بالنسبة للأغلبية العظمى من الوظائف والصناعات، فإن التحليل المرئي يرتبط بالأداء الوظيفي بشكل أقل بكثير من ارتباطه بالعناصر الأخرى في تقييمنا الخوارزمي”.

لكن ستستمر الشركة باستخدام لغة المتقدمين للوظائف كوسيلة لتقييم قابليتهم للتوظيف التي قالت إنها تتمتع بقوة تنبؤية كبيرة. وأضافت: “لا ترى خوارزمياتنا قدرة تنبؤية إضافية كبيرة عند إضافة بيانات غير لفظية إلى بيانات اللغة”.

هناك انتقاد آخر واسع النطاق للتعرف على المشاعر من قبل الخوارزميات وهو أنه غير قابل للتطبيق عالمياً؛ يعبر الأشخاص من ثقافات مختلفة عن مشاعرهم بطرق فريدة. أندرو ماكستاي، الأستاذ في جامعة بانجور في ويلز، قضى نصف عقد من الزمن في استكشاف تكنولوجيات الذكاء الاصطناعي العاطفية وكيف كان يتم استخدامها.

يقول “فرضية وجود ستة مشاعر أساسية هي إشكالية بشكل عميق، وهي وجهة نظر تتمحور حول الغرب. يتفق علماء النفس على أن المشاعر هي تصنيف اجتماعي يطبق على الحالات النفسية”.

إيكمان نفسه درس الاختلافات الثقافية في طريقة التعبير عن المشاعر، حيث أظهر في تجربة رائدة في أواخر الثمانينيات أن هناك اختلافات بين طريقة تفاعل الطلاب الأمريكيين واليابانيين تجاه أفلام العنف. وجد أن الاختلافات كانت تستند إلى ما إذا كان هناك شخص من ثقافتهم موجود في الغرفة نفسها أم لا. يقول إيكمان إنه بالنسبة للطلاب في جامعة كاليفورنيا في بيركلي، لم يكن هناك أي اختلاف في ردود أفعالهم سواء كان هناك أمريكي آخر في الغرفة نفسها أم لا، لكن بالنسبة للطلاب اليابانيين، “كان هناك اختلاف كبير. لا سيما إذا كان شخص في مركز متسلط، فإنهم يظهرون مجموعة مختلفة تماما من التعابير”.

ويضيف: “كان اليابانيون يتبعون قواعدهم الخاصة حول من يمكنه إظهار المشاعر لمن، ومتى يمكن إظهارها. يتعلم الناس في كل ثقافة في العالم تلك القواعد، حول المشاعر التي يمكن عرضها ومتى”.

مشكلة الخصوصية

رغم المخاوف بشأن الدقة الحالية وتحيزات الذكاء الاصطناعي العاطفي، فإن كثيرا من العلماء واثقون من أن التكنولوجيا ستتحسن لأن البيانات المستخدمة لتدريب الخوارزميات أكثر ملاءمة للتطبيقات، ومع بدء الشركات في تصميم حلول خاصة بكل بلد.

يقول ماك ستاي إن الشركات تستخدم منذ الآن الوعي الثقافي كوسيلة لتمييز منتجاتها. ويقول: “إمباث، شركة في طوكيو، ترى فرصة حقيقية في السوق لأنها تدرك أن الناس يقومون بالتعبير عن المشاعر بشكل مختلف، والسلوك مختلف في اليابان والمملكة المتحدة، وهناك مستويات مختلفة من القبول من حيث الدرجة التي يجب أن تكون عليها المشاعر”.

وفي الوقت نفسه، تستخدم 4 Little Trees ومقرها هونج كونج الوجوه الصينية لتدريب أنظمة مراقبة الطلاب، لتحسين الدقة المحلية. يقول ماكستاي: “أعتقد أننا سنشهد مزيدا من الشركات الناشئة والشركات التي تقاوم فكرة أن التعبيرات عالمية، والشركات تجد فرصا محلية لتفسير السكان المحليين والسياق المحلي”.

لكن حتى لو أصبحت خوارزميات تعبيرات الوجه دقيقة للغاية، فإن كثيرا من النقاد يتساءلون عما إذا كان ينبغي للآلات أن تتخذ قرارات بشأن كيفية تفاعل البشر، خاصة دون إذننا. تمت معالجة هذه المسألة المتعلقة بحق الشخص في الخصوصية فيما يتعلق بمشاعره من خلال لوائح الذكاء الاصطناعي المقترحة من الاتحاد الأوروبي التي نشرت الشهر الماضي. عرف الاقتراح تكنولوجيات التعرف على المشاعر على أنها عالية المخاطر ودعا إلى موافقة صريحة من الذين يتم استخدامها فيهم.

يقول كروفورد: “بعد البحث في التاريخ والأسس العلمية المهتزة لهذه الأدوات، أنا مقتنعة بضرورة تنظيمها بقوة. في كثير من الحالات، لن نعرف المدى الكامل لعدد الشركات التي تستخدم هذه الأدوات، حيث يتم استخدامها غالبا دون إفشاء شفاف أو موافقة الموظف”.

إيكمان، الأب المؤسس لتفسير المشاعر، يتفق معها في هذا الرأي. يقول: “مشاهدة تعبيرات وجه شخص هي انتهاك للخصوصية، خاصة إذا تم ذلك دون علمه. أعتقد بشدة أنه يجب إصدار قوانين تحظر تسجيل تعبيرات الوجه، فضلا عن تفسيرها أو قياسها، دون موافقة مستنيرة”.

فايننشال تايمز

صحيفة بريطانية دولية تتحدث عن الأعمال، يتم نشرها في لندن، تم تأسيسها في عام 1888 من قبل جيمس شيريدان وأخوه.

مقالات ذات صلة

أترك رداً

زر الذهاب إلى الأعلى