الذكاء الاصطناعيالرئيسية

هل بلغ الذكاء الاصطناعي مرحلة الاستغناء كليا عن الحكم البشري؟

هاشتاق عربي

هل يستبدل الذكاء الاصطناعي وظائف البشر؟ هل تغني أنظمة الذكاء الاصطناعي عن التدخل البشري في اتخاذ القرارات؟ وغيرها من الأسئلة التي أثيرت بعد حادثة مقتل طفلة في اليابان بسبب التعنيف على يد والدتها في الوقت الذي أكد فيه نظام إلكتروني يعتمد على الذكاء الاصطناعي أنها آمنة.

واعترفت السلطات اليابانية مؤخرا أنها سمحت لأنظمة “الذكاء الاصطناعي” بالتأثير على قراراها فيما يتعلق بعدم توفير الحماية لها والحضانة الوقائية لطفلة توفيت لاحقا وهي في رعاية والدتها بسبب التعنيف.

وقال مسؤول ياباني إن بيانات أنظمة الذكاء الاصطناعي يجب أن تكون “للاطلاع فقط” مؤكدا على أهمية “استخدام الحكم البشري في عملية اتخاذ القرار النهائي”.

وفي تفاصيل القصة، تولت الشرطة حالة فتاة، تبلغ من العمر أربع سنوات، في مدينة تسو، وأدارتها من خلال برنامج ذكاء اصطناعي، أطلق في عام 2020.

وحدد البرنامج حالة الطفلة بأنها تحتاج ما معدله “39 في المئة” من الحماية اللازمة، وأظهرت والدة الفتاة استعدادا للاستجابة لمشورة خبراء توجيه الطفل.

ونتيجة لذلك، لم يضع المسؤولون الفتاة في الحجز المؤقت لإجراء مزيد من التحقيقات في الكدمات الظاهرة على جسدها.

لكن الفتاة توفيت، وأظهرت التحقيقات الأولية أن موظفي مركز الحماية لم يقوموا بزيارة العائلة للاطمئنان على حال الطفلة، فيما تحتجز الأم، البالغة من العمر 42 عاما، للاشتباه بتسببها بأذى جسدي للابنة، أدى إلى وفاتها.

هل يستطيع الذكاء الاصطناعي أخذ دور الإنسان؟

الخبير الاقتصادي والمتخصص في قطاع الاتصالات وتكنولوجيا المعلومات، وصفي الصفدي، قال إن أنظمة الذكاء الاصطناعي التي وصلنا إليها حاليا “تفتقر إلى الإبداع والذكاء العاطفي ومهارات حل المشاكل اللازمة لاتخاذ القرارات مثل تلك التي يتخذها البشر والتي قد تنطوي على مشاعر وفراسة الشخص”.

وأوضح في اتصال هاتفي مع موقع “الحرة” أن علينا أن “ندرك حقيقة أن أنظمة الذكاء الاصطناعي تتم برمجتها بأهداف محددة، والتي تؤثر وتحد من قدرته على اتخاذ القرارات التي تصب في مصلحة الجميع، وبالتالي فهي ليست حلا سحريا لكل شيء”.

وأضاف الصفدي أن مسؤولية الاستخدام الأمثل لهذه الأنظمة “تقع على عاتق المستخدم الإنسان، وهو من يجب أن تقع عليه المسؤولية القانونية والأخلاقية لمخرجات وقرارات الذكاء الاصطناعي”، إذ أن هدفها التسهيل على الإنسان وليس أخذ دوره.

وأشار إلى أن هذه الأنظمة بالنهاية تعتمد على “خوارزميات تتم تغذيتها بالبيانات، وأي انحراف مقصود في تزويد البيانات ستنشأ عنه مخرجات قد تكون معيبة، ولا تخدم الهدف الحقيقي من تطوير النظام إنما قد تخدم أهداف القائمين عليه أو مشغليه”، مؤكدا أن هذه الأنظمة ليست لاستبدال الأشخاص إنما لتوفر حالة “تكاملية بين الإنسان والآلة”.

وضاعف ممثلو الأمم المتحدة وكذلك القادة والخبراء مؤخرا الدعوات لوضع لوائح حتى لا تعرّض هذه التقنيات الجديدة البشرية للخطر.

وتبنى مجلس حقوق الإنسان التابع للأمم المتحدة، الجمعة، بالتوافق قرارا يدعو المجتمع الدولي إلى اتخاذ تدابير وقائية ورقابية فيما يتعلق بالذكاء الاصطناعي، وفق وكالة فرانس برس.

ويحث القرار على تعزيز “شفافية” أنظمة الذكاء الاصطناعي وضمان أن البيانات المخصصة لهذه التكنولوجيا “تجمع وتستخدم ويتم تشاركها وتخزينها وحذفها” بطرق تتوافق مع حقوق الإنسان.

وحض جيفري هينتون، الذي يوصف بأنه “عرّاب الذكاء الاصطناعي”، في يونيو، الحكومات على التدخل لضمان ألا تسيطر الآلات على المجتمع.

وكان هينتون قد تصدر العناوين، في مايو، عندما أعلن استقالته من غوغل بعد عقد على انضمامه إليها، للتحدث بحرّية أكبر عن مخاطر الذكاء الاصطناعي عقب فترة وجيزة من إطلاق برنامج الدردشة “تشات جي بي تي” الذي أسر مخيلة العالم.

وقال هينتون: “قبل أن يصبح الذكاء الاصطناعي أكثر ذكاء منا، أرى أنه ينبغي تشجيع الأشخاص الذين يطورونه على بذل الكثير من الجهد لفهم كيف يمكن أن يحاول سلبنا السيطرة”.

وأضاف “الآن هناك 99 شخصا يتمتعون بذكاء كبير يحاولون جعل الذكاء الاصطناعي أفضل، وشخص واحد ذكي جدا يحاول معرفة كيفية منعه من تولي السيطرة، وربما عليكم أن تكونوا أكثر توازنا”.

أسباب فشل بعض أنظمة الذكاء الاصطناعي

ويرى خبير الأمن السيبراني والتحول الرقمي، رولان أبي نجم، أن “أنظمة الذكاء الاصطناعي لا تعني التخلي عن القرار البشري أو الذكاء الإنساني”.

وأضاف في حديث لموقع “الحرة” أن غالبية أنظمة الذكاء الاصطناعي، حتى لو استخدمت منذ سنوات، يجب اعتبارها “تحت التجربة” وأن نتائجها ليست نهائية إنما هي قيد التطوير والتحسين.

ويشرح أن أنظمة الذكاء الاصطناعي تخطئ وتصيب اعتمادا على البيانات التي يتم تزويدها بها، والخوارزمية التي تعمل بموجبها، وعوامل أخرى قد تتسبب في نتائج خاطئة، مشيرا إلى أن حجب بعض البيانات أيضا وعدم تقديم معلومات صحيحة للنظام قد لا يوفر النتائج المتوقعة.

من جانبه، يقول الخبير التقني الرئيس التنفيذي لمجموعة “ستاليون” للذكاء الاصطناعي، سامر عبيدات، إنه رغم استخدام بعض الأنظمة التي تعتمد على الذكاء الاصطناعي إلا أنها “لا تزال في بداياتها، ومن الطبيعي أن نرى بعض المشاكل والتحديات”.

وأضاف في رد على استفسارات موقع “الحرة” أن “المطورين والعلماء المتخصصين يعملون بشكل حثيث من أجل تطوير أنظمة الذكاء الاصطناعي التي لن يتم تحديد احتياجات التطوير فيها إلا بعد الاستخدام الفعلي لها، ولهذا سنرى ونسمع عن الكثير من المشاكل التقنية التي قد تحدث، ولكنها جزء هام من عملية التطور”.

اكتشف عامة الناس الإمكانات الهائلة لأنظمة الذكاء الاصطناعي، في نهاية عام 2022، مع إصدار شركة “أوبن إيه آي” الأميركية منشئ المحتوى التحريري “تشات جي بي تي” الذي يمكنه تحرير مقالات أو قصائد أو إنجاز ترجمات في ثوان.

لكن انتشار صور منشأة عبر تطبيقات ذكاء اصطناعي مثل “ميدجورني” على الشبكات الاجتماعية، والتي تعد أكثر واقعية من الصور الحقيقية، كشف مخاطر الذكاء الاصطناعي في التلاعب بالرأي العام ومخاطره على الديمقراطية.

ونظرا لما تنطوي عليه الأنظمة الذكاء الاصطناعي من تعقيد تقني كبير، فهي تبهر بقدر ما تثير القلق. فإن كانت قادرة على إنقاذ أرواح من خلال القفزة النوعية في تشخيص الأمراض، يتم في المقابل استغلالها أيضا من قبل الأنظمة الاستبدادية لممارسة رقابة جماعية على المواطنين، بحسب فرانس برس.

هل يستبدل الذكاء الاصطناعي البشر؟

اعتبرت منظمة التعاون والتنمية في الميدان الاقتصادي أن الذكاء الاصطناعي ستكون له “بدون شك انعكاسات ملحوظة على سوق العمل، ولكن حتى الآن يؤثر بشكل أساسي على جودة الوظائف أكثر منه على معدلات التوظيف”، وفق ما نقلته فرانس برس.

وأشارت المنظمة في “توقعات التوظيف 2023” إلى الشكوك الكبيرة المحيطة بالآثار الحالية والمستقبلية للذكاء الاصطناعي خاصة على صعيد الوظائف. ولفتت إلى أن التكنولوجيا ستؤثر على “كافة قطاعات الخدمات تقريبا وكل المهن” وأن “سرعة التطور المسجلة غير مسبوقة”.

ويرجح عبيدات أنها “مسألة وقت، من عامين إلى خمس سنوات، حتى نرى استبدالا للبشر بشكل كامل في بعض الوظائف”، خاصة مع أنظمة الذكاء الاصطناعي التوليدي التي دخلت في مجال الإبداع التي كانت حكرا على البشر، إذ أصبحنا نرى الصور والنصوص والفيديوهات والموسيقى التي تم تطويرها باستخدام التكنولوجيا بالكامل.

ودعا إلى ضرورة أن ينتبه صناع التشريعات إلى أهمية إيجاد قوانين تتيح الاستمرار في تطوير أنظمة الذكاء الاصطناعي من دون وضع سقوف تحد من قدرتها على الإبداع، ولكن في الوقت ذاته، يجب أن يكون “الإنسان محورا لهذه الصناعة الجديدة” حتى نتفادى موجة استبدال واسعة للوظائف حول العالم.

الخبير أبي نجم يعتقد “أننا ما زلنا في مرحلة بعيدة عن استبدال الذكاء الاصطناعي للإنسان”، خاصة وأن الطفرة التي حدثت خلال الأشهر القليلة الماضية كان سببها أنظمة “الذكاء الاصطناعي التوليدي، والتي ما زالت في بداياتها وترتبط بموضوع البيانات المتوفرة لها، وتدريب أنظمتها عليها”.

وأشار إلى أنه بعض الوظائف قد تبقى حكرا على الإنسان ولكن أنظمة الذكاء الاصطناعي يمكن أن تسهلها، مثل الوظائف في القطاع الطبي، فعلى سبيل المثال خلال جائحة كورونا كانت هناك آراء متضاربة من متخصصين حول اللقاح لمكافحة الفيروس، وكل فريق يقدم أدلة هو على قناعة فيها، متسائلا “في مثل هذه الحالة أي من هذه الآراء عليك أن تغلب عندما تزودها لأنظمة الذكاء الاصطناعي؟”.

ووافق البرلمان الأوروبي، في يونيو، على مشروع لتنظيم الذكاء الاصطناعي، ويأمل الاتحاد الأوروبي في الانتهاء قبل نهاية العام من أول لائحة في العالم تهدف إلى تنظيم وحماية الابتكار في هذا القطاع الاستراتيجي.

وكان رئيس شركة “أوبن إيه آي”، سام ألتمان، قد أعلن، في يونيو الماضي، معارضته فرض قيود صارمة على الفور من شأنها أن تعيق التطور السريع لتكنولوجيا الذكاء الاصطناعي، لكنه شدد على الحاجة إلى رقابة مؤسسية على المدى الطويل.

وقال إنه يدرك خطورة تواجد “ذكاء خارق غير منظم”، قائلا إنه “شيء قد نضطر إلى مواجهته في العقد القادم، وهو ليس وقتا طويلا بالنسبة لمؤسسات العالم للتكيف مع شيء ما”.

وكرر اقتراح “أوبن إيه آي” بتشكيل “منظمة عالمية” معنية “بقوة وتقنيات الكمبيوتر … يمكن أن يكون لها إطار عمل لترخيص النماذج ومراجعة سلامتها واقتراح الاختبارات المطلوب اجتيازها”.

عوامل يجب أخذها بالحسبان

الخبير الصفدي يؤكد أن “مستقبل الذكاء الاصطناعي في التفرد بصنع القرار غير مؤكد”، إذ هناك حاجة “لمزيد من التطور والتثبت من عوامل لتحديد المدى الذي سيحل فيه الذكاء الاصطناعي محل عمليات صنع القرار البشرية”.

وحدد ستة عوامل أساسية يمكنها أن تلعب دورا هاما في زيادة الاعتماد على الذكاء الاصطناعي بما “قد يغني عن التدخل البشري”، والتي تضم:

عمليات البحث والتطوير في مجال الذكاء الاصطناعي، والتي ستساهم وتدفع في إحداث اختراقات قد تعزز التوجه للاعتماد على قراراتها بدلا من البشر.
تطوير المبادئ التوجيهية الأخلاقية والقانونية، سيكون أمرا هاما من أجل الحد من المخاطر المحتملة وتحديد المساءلة ومستوياتها.
قبول وثقة الأفراد والشركات والحكومات والمؤسسات باعتماد الذكاء الاصطناعي كبديل للبشر باتخاذ القرارات وتنفيذها.
توافر بيانات ضخمة دقيقة وموثوقة، إذ لا يكفي تزويد أنظمة الذكاء الاصطناعي بالبيانات، بل يجب أن تكون صحيحة.

البنية التحتية المتقدمة في الدول، والتي ستحدد ما إذا كانت قوية بما يكفي لدعم تطوير تقنيات الذكاء الاصطناعي ونشرها.

التطورات في الخوارزميات، والتي تعتبر حجر الأساس في معالجة البيانات للوصول إلى النتائج المرجوة.
واعتبرت منظمة التعاون والتنمية في الميدان الاقتصادي، أن “للعمل الاجتماعي والحوار دورا رئيسيا” في مواجهة مخاطر الذكاء الاصطناعي، لا سيما من خلال وضع القوانين أو من خلال “تشجيع أرباب العمل على تقديم التدريب”، وأيضا عبر “دعم العمال والشركات في التحول نحو الذكاء الاصطناعي”.

وتهيمن على قطاع الذكاء الاصطناعي شركات الإنترنت الأميركية العملاقة، مثل مايكروسوفت، المساهم الرئيسي في شركة “أوبن إيه آي” وميتا وغوغل.

مقالات ذات صلة

زر الذهاب إلى الأعلى