الرئيسيةتكنولوجيا

خبراء يحذرون من عصر مظلم بسبب الذكاء الاصطناعي

هاشتاق عربي

يرى خبراء في مجال التكنولوجيا أن مخاطر كبيرة للذكاء الاصطناعي بدأت في الكشف عن نفسها، وهو ما يشير إلى أهمية اعتبار أن هذا هو الوقت المناسب لإعداد قوانين ولوائح جديدة بشأن هذه التكنولوجيا سريعة التطور.

وحذر أحد الخبراء القانونيين من أن الذكاء الاصطناعي يمكن أن يكون إيذاناً بـ “عصر مظلم جديد” في العصر الحديث، أو فترة من “التدهور المجتمعي” إذا أصبحت هذه الصناعة الجديدة نسبياً غير منظمة إلى حد كبير.

وقال أستاذ القانون في جامعة كورنيل للتكنولوجيا، فرانك باسكوال: “إذا سمح لهذا الشيء (الذكاء الاصطناعي) بالهروب، دون تنظيم ودون تعويض لأولئك الذين يستخدم عملهم، فهو في الأساس عصر مظلم جديد”، بحسب موقع Business Insider.

وأضاف: “إنه يمثل مرحلة ما قبل عصر مظلم جديد أو نوع جديد من الإلغاء الكامل لحوافز خلق المعرفة في العديد من المجالات – وهذا أمر مقلق للغاية”.

ومع تزايد شعبية أدوات الذكاء الاصطناعي مثل ChatGPT التابعة لشركة أوبن إيه آي OpenAI، وGemini التابع لغوغل Google، قال الخبراء إن المشهد غير المنظم إلى حد كبير لوسائل التواصل الاجتماعي بعد ما يقرب من ثلاثة عقود يجب أن يكون بمثابة قصة تحذيرية للذكاء الاصطناعي.

الأعمال المحمية بحقوق الطبع والنشر
إحدى القضايا الرئيسية التي برزت خلال الفترة الأخيرة تتمثل في استخدام الأعمال المحمية بحقوق الطبع والنشر لتدريب هذه التكنولوجيا الجديدة.

ورفع المؤلفون والفنانون البصريون ومنصات الأخبار ومبرمجو الكمبيوتر بالفعل دعاوى قضائية ضد شركات الذكاء الاصطناعي مثل شركة OpenAI المدعومة من مايكروسوفت Microsoft، بحجة أن أعمالهم الأصلية تم استخدامها لتدريب أدوات الذكاء الاصطناعي دون إذنهم.

وعلى الرغم من عدم وجود قانون فدرالي موحد يتناول استخدام الذكاء الاصطناعي في الولايات المتحدة، أصدرت بعض الولايات بالفعل تشريعاتها الخاصة بشأن استخدام الذكاء الاصطناعي. ويستكشف الكونغرس أيضاً طرقاً لتنظيم هذه التكنولوجيا.

وقال باسكوال إن تنظيم الذكاء الاصطناعي يمكن أن يمنع عديداً من المشكلات التي قد تمهد الطريق لما يسمى بـ “ديناميكية العصر المظلم الجديد”.

وأضاف: “إذا استمرت مصادرة الأعمال المحمية بحقوق الطبع والنشر دون تعويض أو مراقبة، فمن المرجح أن يعاني عديد من المبدعين من المزيد من الإحباط ونقص التمويل في نهاية المطاف لأن الذكاء الاصطناعي يتفوق عليهم بشكل غير عادل أو يغرقهم فعلياً”.

وقال باسكوال إن الكثيرين سوف ينظرون إلى المحتوى الآلي منخفض التكلفة على أنه “هدية الوفرة.. حتى يصبح من الواضح أن الذكاء الاصطناعي نفسه يعتمد على المدخلات المستمرة للأعمال التي ينشئها الإنسان من أجل التحسين والبقاء ملائماً في عالم متغير”.

وتابع قائلاً: “في تلك المرحلة، قد يكون الوقت قد فات لإعادة تنشيط الصناعات الإبداعية التي أصبحت تحتضر بسبب الإهمال”.

التضليل والخداع
يشعر أستاذ القانون بجامعة بوفالو، مارك بارثولوميو، أيضًا بالقلق بشأن الذكاء الاصطناعي في المستقبل، ليس فقط من أجل طغيانه على مساهمات البشر، لكن أيضاً بسبب مخاوف التضليل والخداع.

وقال بارثولوميو إن الذكاء الاصطناعي “ينتج الكثير من المحتوى – من الأعمال الفنية إلى النسخ الإعلانية إلى مقاطع فيديو TikTok – لدرجة أنه يطغى على مساهمات البشر الحقيقيين”، لكنه الآن يشعر بقلق أكبر بشأن استخدام الذكاء الاصطناعي لتوزيع معلومات مضللة، وإنشاء مقاطع سياسية وإباحية عميقة، وخداع الناس.

وحذر بارثولوميو من أن العواقب المترتبة على عدم وجود تنظيم شامل للذكاء الاصطناعي قريباً، تشمل المعلومات المضللة المتعلقة بالانتخابات، وانتشار التزييف العميق، والاحتيال على الناس من المحتالين الذين يستخدمون الذكاء الاصطناعي لمحاكاة أصوات الآخرين.

ورغم اعتقاد بارنولوميو بأن وجود الكثير من اللوائح في وقت مبكر جداً يمكن أن يخنق “تكنولوجيا جديدة واعدة مثل الذكاء الاصطناعي”، لكنه قال: “رأيي الشخصي هو أن المخاطر كافية الآن لأننا بحاجة إلى الدخول (لعصر الذكاء الاصطناعي) ويكون لدينا على الأقل بعض اللوائح المحددة للتعامل مع الأشياء التي أعتقد أننا ندرك بالفعل أنها مشاكل حقيقية”.

وأضاف: “ليس الأمر وكأن الذكاء الاصطناعي سوف يذبل ويموت إذا وضعنا قوانين حقيقية تنص على أنه لا يمكنك استخدام الذكاء الاصطناعي في التزييف العميق السياسي”.

التمهل في إصدار القوانين
تعد قوانين الملكية الفكرية الأميركية المتعلقة بانتهاك حقوق الطبع والنشر وحقوق الدعاية على مستوى الدولة من بين الأطر القانونية الرئيسية المستخدمة لتنظيم الذكاء الاصطناعي في البلاد.

لكن أستاذ القانون في كلية الحقوق بجامعة كولورادو، هاري سوردن، يرى أن هناك ضرورة لوضع قوانين فدرالية جديدة تحكم الذكاء الاصطناعي على وجه التحديد، وفي نفس الوقت حذر من التسريع بالقيام بذلك.

وقال سوردن، وهو أيضاً المدير المساعد لمركز CodeX للمعلوماتية القانونية بجامعة ستانفورد: “نحن سيئون حقاً في التنبؤ بكيفية ظهور هذه التقنيات والمشكلات التي تنشأ”. “أنت لا تريد أن تفعل ذلك بسرعة أو بشكل سياسي أو عشوائي”.

أخذ العبرة من وسائل التواصل الاجتماعي
أكد كل من بارثولوميو وباسكوال أن الافتقار إلى التنظيم حول وسائل التواصل الاجتماعي واللمسة الخفيفة التي اتخذها المشرعون إلى حد كبير منذ بداية انطلاق هذه الوسائل يجب أن يكون بمثابة درس عندما يتعلق الأمر بالتعامل مع الذكاء الاصطناعي.

وقال بارثولوميو: “إنها قصة تحذيرية”، موضحاً: “لقد انتظرنا طويلاً حتى نضع أيدينا على وسائل التواصل الاجتماعي، وقد تسبب ذلك في بعض المشاكل الحقيقية”.

ومع ذلك، قال: “لم نتمكن بعد من إيجاد الإرادة السياسية لفعل أي شيء حيال ذلك”.

وأضاف باسكوال أنه عندما ظهرت وسائل التواصل الاجتماعي لأول مرة، لم يتوقع الناس حقاً “مدى سوء إساءة استخدامها، واستعمالها كسلاح من الجهات الفاعلة السيئة”.

لكن سوريدن يرى أن المناقشات المبكرة بشأن تنظيم وسائل التواصل الاجتماعي فشلت إلى حد كبير في التنبؤ بالقضايا الرئيسية الأخرى المتعلقة بهذه الوسائل والتي يشعر الكثيرون بالقلق بشأنها اليوم ويعتبرونها أكثر أهمية.

وقال إن ذلك يشمل كيفية تأثير وسائل التواصل الاجتماعي على الصحة العقلية للشباب، ونشر المعلومات المضللة والمعلومات الخاطئة.

وأضاف أن القدرة على تنظيم وسائل التواصل الاجتماعي اليوم موجودة، لكن ليس من الواضح ما هي الحلول القانونية الفعالة للمشكلات المجتمعية التي نشأت عنها.

وتابع سوردن: “نحن، كمجتمع، لا نكون دقيقين في كثير من الأحيان في التنبؤ بالقضايا في وقت مبكر كما نحب أن نعتقد”.

قد يؤدي إلى نشوب حروب
لا يقتصر التحذير من الذكاء الاصطناعي غير المنظم على الولايات المتحدة فقط، حيث أصدرت أكبر شركة اتصالات في اليابان “نيبون تلغراف آند تليفون”، وأكبر صحيفة في نفس الدولة “يوميوري شيمبون” ورقة بحثية في أبريل/ نيسان الماضي بشأن مقترح مشترك يتعلق بتشكيل الذكاء الاصطناعي التوليدي، بحسب مجلة Fortune الأميركية.

وقالت المؤسستان إنه إذا سمح للذكاء الاصطناعي بالمرور دون رادع، فقد يؤدي ذلك إلى انهيار المجتمع، وإنه من المتوقع أيضاً أن تعمل التكنولوجيا على تحسين إنتاجية العمل إلى درجة معينة.

وحثت المؤسستان السلطات على مراجعة القوانين المحيطة بالتكنولوجيا، وقالتا إن الذكاء الاصطناعي له بالفعل آثار سلبية على المستخدمين.

وجاء في الورقة البحثية: “إذا سُمح للذكاء الاصطناعي التوليدي بالمرور دون رادع، فقد تتضرر الثقة في المجتمع ككل مع تزايد عدم ثقة الناس ببعضهم البعض وفقدان الحوافز لضمان الأصالة والجدارة بالثقة”. “هناك قلق من أنه، في أسوأ السيناريوهات، يمكن أن تنهار الديمقراطية والنظام الاجتماعي، مما يؤدي إلى نشوب حروب”.

ودعت المؤسستان الحكومة اليابانية إلى اتخاذ الإجراءات اللازمة، بما في ذلك إقرار القوانين التي تحمي الانتخابات والأمن القومي وقوانين أقوى لحقوق النشر، وأشارتا إلى أنه مع إدراكهما أن أي إصلاحات قانونية ستستغرق وقتًا، دعت المؤسستان وسائل الإعلام والقادة الصناعيين في البلاد إلى إدخال قواعد تحيط بنشر تقنيات الذكاء الاصطناعي.

وبحسب المجلة، وصلت اليابان، مثل الولايات المتحدة، إلى طريق مسدود فيما يتعلق بتنظيم الذكاء الاصطناعي، بينما صدق الاتحاد الأوروبي بالفعل على اتفاقية مؤقتة تحدد قواعد الذكاء الاصطناعي والتي يمكن أن تحدد الطريقة التي ستتصرف بها الدول الأخرى بعد ذلك.

ويضع قانون الذكاء الاصطناعي، كما يطلق عليه، قواعد لعدد من الصناعات، من الخدمات المصرفية إلى النقل، بالإضافة إلى مبادئ توجيهية حول كيفية استخدام جهات إنفاذ القانون للذكاء الاصطناعي في واجباتها. كما يتم تناول كيفية بناء نماذج لغوية كبيرة، وذلك لحماية الخصوصية الفردية وأسرار الشركات.

المصدر: CNBC عربية

مقالات ذات صلة

زر الذهاب إلى الأعلى