الذكاء الاصطناعيالرئيسية

ما المخاطر التي يجلبها الذكاء الاصطناعي؟

هاشتاق عربي

شارك هذا الموضوع:

يدور نقاش واسع حول المخاطر التي ربما يجلبها معه الذكاء الاصطناعي، لا سيما النوع الخارق Superintelligence، الذي تطرق إليه بيل غيتس في مقالة أخيرة له. إذ رأى غيتس أن ذلك الضرب من الذكاء سيضطلع بكل ما يستطيع العقل البشري النهوض به، إنما من دون أي حدود عملية مفروضة على حجم ذاكرته أو سرعة عمله. وحينها، سنكون إزاء تغيير عميق. من جهة أخرى، قدَّمَ الفيلسوف وعالم الكمبيوتر السويدي في “جامعة أكسفورد” نيك بوستروم تأملات فكرية كلاسيكية حول الخطر الذي قد ينطوي عليه ذلك الذكاء. وقد تخيّل ذلك الأستاذ الجامعي روبوتاً فائق الذكاء، برمجه مطوروه بهدف يبدو في ظاهره غير مؤذ، ألا وهو تصنيع مشابك الورق. وفي النهاية، يحول الروبوت العالم بأسره إلى مصنع عملاق لمشابك الورق.

وثمة مثل أشد إثارة للقلق يتمثل في حقيقة باتت تترك تأثيرها على مليارات الأشخاص حول العالم. إذ يهدف “يوتيوب” إلى زيادة وقت المشاهدة إلى أقصى حد، ويوظف لهذا الغرض خوارزميات توصية بالمحتوى مستندة إلى الذكاء الاصطناعي. قبل عامين، بدأ علماء الكمبيوتر والمستخدمون يلاحظون أن خوارزمية ذلك الموقع الإلكتروني بدت كأنها تحقق هدفها [زيادة وقت المشاهدة] عبر التوصية بمحتوى متطرف ومتآمر. أفادت إحدى الباحثات أنها بعدما شاهدت لقطات من تجمعات حملة الرئيس الأميركي السابق دونالد ترمب، عرض “يوتيوب” عليها بعد ذلك مقاطع فيديو مملؤة بتشدقات حول “تفوق العرض الأبيض، وإنكار “الهولوكوست” ومحتويات مزعجة” أخرى.

ربما لم يقصد مهندسو “يوتيوب” نشر التطرف بين الناس. ويتمثل أحد الجوانب الرئيسة للمشكلة في أن البشر لا يعرفون غالباً الأهداف التي ينبغي منحها لأنظمة الذكاء الاصطناعي لدينا، لأننا أصلاً لا نعرف ما الذي نريده.

في مقال مطول ومثير للاهتمام، يتحدث الموقع الإلكتروني “كوانتا ماغازين” عن السبل إلى تجنب مثل تلك المزالق، مشيراً إلى شروع عدد من الباحثين في تطوير طريقة جديدة تماماً لبرمجة الآلات الذكية المفيدة. وتتشابه تلك الطريقة مع أفكار البروفيسور في بحوث الكمبيوتر ستيوارت راسل، مؤلف كتاب “الذكاء الاصطناعي: نهج حديث”Artificial Intelligence: A Modern Approach المستخدم في أكثر من 1500 جامعة حول العالم.

في رأي راسل، ستقود مطالبة الآلة بتحسين وظائفها المتصلة بالمكافأة إلى ذكاء اصطناعي غير متوازن، ذلك أنه من المحال تضمين الأهداف، والأهداف الفرعية، والاستثناءات، والمحاذير كلها في وظيفة المكافأة وتحديد أهمية كل منها بشكل صحيح، أو حتى معرفة أي منها صحيح. وفي وقت لا ينفك فيه ذكاؤها عن الارتفاع، سيكون إعطاء أهداف للروبوتات “المستقلة” محفوفاً بالمخاطر، ذلك أنها ستخلو من أي رحمة في سعيها وراء الوظيفة الخاصة بالمكافأة، وستحاول منعنا من إيقاف تشغيلها.

استناداً إلى ذلك، فبدلاً من أن تسعى الآلات إلى تحقيق أهدافها، الأجدى بها، بحسب ذلك التفكير الجديد، أن تسعى إلى إرضاء التفضيلات البشرية، بمعنى ضرورة أن يكون هدفها الوحيد التعمق في التعرف إلى ماهية تفضيلاتنا. في كتابه الأخير “ذكاء اصطناعي متوافق مع البشر”Human Compatible، وضع راسل أطروحته في شكل ثلاثة “مبادئ للآلات النافعة” أي التي يتوقع مطوروها منها أن تحقّق “أهدافنا” وليس “أهدافها”. ويذكر ذلك بالقوانين الثلاثة للروبوتات التي صاغها مؤلف الخيال العلمي الشهير إسحاق أسيموف في العام 1942.

[توفي الكاتب الأميركي أسيموف في 1992 عن عمر 72 سنة. واشتهر بوضع ثلاثة مبادئ للروبوت هي أن يحمي البشر ولا يؤذيهم بأي شكل كان، ويطيع البشر في كل شيء إلا ما يتعارض مع المبدأ السابق، ويحمي نفسه بكل وسيلة إلا إذا تعارضت مع المبدأين السابقين].

ويرد في نسخة راسل عن المبادئ الثلاثة للروبوتات ما يلي،

1- الهدف الوحيد للآلة هو التحقيق الأمثل للتفضيلات البشرية.

2- يجب أن تكون الآلة في الأساس غير مُتيقِّنة من ماهية تلك التفضيلات.

3- مصدر المعلومات الأساسي للتفضيلات البشرية هو السلوك البشري.

على مدى السنوات القليلة الماضية، تعاون راسل وفريقه مع مجموعات من البحاثة في “جامعة ستانفورد” و”جامعة تكساس” وغيرهما، على أمل تطوير طرق مبتكرة تحمل أنظمة الذكاء الاصطناعي على استكشاف تفضيلاتنا، من دون الحاجة إلى تحديدها.

وتتولى تلك المختبرات تعليم الروبوتات السبل إلى تعلم تفضيلات البشر ممن لم يعبروا عنها قط، ويمكنها حتى ابتكار سلوكيات جديدة تساعد في حل الغموض البشري.

هكذا تفهم الانسان

منذ سنوات طويلة، أدرك راسل أن وظيفة الروبوتات لا يجب أن تكون تحقيق أهداف مثل زيادة وقت المشاهدة أو صنع مشابك الورق، بل أن تحاول ببساطة تحسين حياتنا.

في ذلك الصدد، يشار إلى أن “التعلّم المعزز” reinforcement learning يشكّل مجموعة فرعية من التعلم الآلي يتعلم فيه نظام الذكاء الاصطناعي من طريق التجربة والخطأ. هكذا، يتعلم الذكاء الاصطناعي تحسين وظيفة المكافأة الخاصة به، مثل درجاته في اللعبة، نظراً إلى أنه يجرب سلوكيات عدة، ثم “يستنتج” السلوكيات التي يتوجب عليها تعزيزها كي يحصل على مزيد من وظيفة المكافأة.

وفق الموقع الإلكتروني “كوانتا ماغازين”، فقد شرع راسل منذ عام 1998 بالتعاون مع مساعده أندرو إنغ، في صنع ما يسمى نظام “التعلم المعزز المعكوس”inverse reinforcement learning . في حين يحدد نظام “التعلم المعزز” أفضل الأفعال الواجب اتخاذها لتحقيق هدف ما، يفك “نظام التعلم المعزز المعكوس” شيفرة الهدف الأساسي عند إعطائه مجموعة من الأفعال. بل إن راسل ذهب أبعد من ذلك وراح يشتغل مع مساعديه على تطوير نوع جديد من “التعلم المعزز المعكوس التعاوني” بمعنى تمكين الروبوت والإنسان العمل معاً لمعرفة التفضيلات الحقيقية للإنسان في “ألعاب المساعدة” المختلفة.

تتناول إحدى الألعاب التي طوروها، وإسمها “لعبة إيقاف التشغيل”، واحدة من أكثر الطرق وضوحاً التي ربما تنحرف فيها الروبوتات المستقلة عن تفضيلاتنا الحقيقية، وهي أن تلجأ الآلات إلى تعطيل مفاتيح إيقاف التشغيل الخاصة بها. في كتابه، “ذكاء اصطناعي متوافق مع البشر”، يرى راسل أن مشكلة إيقاف التشغيل تمثل “جوهر مشكلة التحكم في الأنظمة الذكية. إذا لم نتمكن من إطفاء أي آلة لأنها ستمنعنا، فنحن في مأزق حقاً. وإذا استطعنا، ربما أمكننا أيضاً أن نتحكم فيها بطرق أخرى أيضاً”.

في سياق موازٍ، يعكف “مختبر سكوت نيكوم” في “جامعة تكساس” على تشغيل خوارزميات التفضيل والتعلم في روبوتات فعلية. حينما يشاهد “جيميناي”، روبوت له ذراعين موجود في ذلك المختبر، إنساناً يضع شوكة على يسار طبق في عرض توضيحي لإعداد الطاولة، لا يعرف في البداية إذا كان مكان الشوكة إلى يسار الأطباق دائماً. تسمح الخوارزميات الجديدة لـ “جيميناي” بتعلم النمط بعد بضعة عروض توضيحية.

سلوك البشر ليس عقلانياً

وفي المقابل، يشير راسل إلى وجود نوعين من التحديات، “أحدهما يتمثل في حقيقة أن سلوكنا بعيد عن أن يكون عقلانياً إلى حد أنه من الصعب جداً إعادة بناء تفضيلاتنا الأساسية الحقيقية”. ستحتاج أنظمة الذكاء الاصطناعي إلى التفكير في التسلسل الهرمي للأهداف الطويلة والمتوسطة والقصيرة المدى، أي كل تلك التفضيلات والالتزامات التي لا تعد ولا تحصى التي نلتزم بها. إذا كانت الروبوتات ستساعدنا (وتتجنب ارتكاب أخطاء جسيمة)، فعليها أن تشق طريقها حول الشبكات الغامضة لمعتقداتنا اللاواعية ورغباتنا غير المفصلة.

يكمن التحدي الثاني في أن تفضيلات الإنسان تتغير. إذ تتبدل أفكارنا على مدار حياتنا، بل بصورة مستمرة وفق مزاجنا أو الظروف المتغيرة، لذا ربما يجد الروبوت صعوبات بالغة في اكتشافها. ونسأل، ماذا عن العدد المهول من البشر الذين سيولدون في المستقبل، كيف ستأخذ الآلات تفضيلاتهم في عين الاعتبار؟ أضف إلى ذلك، أن أفعالنا لا ترقى أحياناً إلى مُثُلنا. حتى أن الناس يحملون قيماً متضاربة في وقت واحد.

وعلى غرار الروبوتات، نحاول نحن أيضاً تحديد تفضيلاتنا. شأن أفضل ذكاء اصطناعي ممكن، نسعى نحن أيضاً، على الأقل بعضنا، إلى فهم شكل الخير. وبالتالي، ربما قد تبقى أنظمة الذكاء الاصطناعي، على غرار البشر، عالقة إلى الأبد في دوامة طرح الأسئلة.

كذلك تضم قائمة مخاوف راسل مشكلة رئيسة ثالثة تتمثل في تفضيلات الأشخاص الأشرار. فما الذي يمنع الروبوت من العمل على إشباع غايات مالكه الشرير؟ تميل أنظمة الذكاء الاصطناعي إلى إيجاد طرق للالتفاف حول المحظورات مثلما يجد الأثرياء ثغرات في قوانين الضرائب.

وفي مشهدية أكثر قتامة، يجوز لنا أن نسأل عن الشر الموجود فينا جميعاً. في ذلك الصدد، يبدو راسل متفائلاً. وفق رأيه، يستطيع المبرمجون الحد من الخيارات المؤذية، حتى لو احتاجوا مستقبلاً إلى خوارزميات إضافية وبحوث أكثر، والنهج نفسه ربما يكون مفيداً في “طريقة تنشئة أطفالنا”. بكلمات أخرى، عند تعليم الروبوتات كيف تكون جيدة، ربما نجد طريقة لتعليم أنفسنا الخير أيضاً.

مقالات ذات صلة

زر الذهاب إلى الأعلى