أخبار الشركاتالرئيسية

“أوبن إيه آي” تُركّز على تقييم مخاطر الذكاء الاصطناعي لمنع الكوارث البيولوجية

هاشتاق عربي

في خطوة لافتة نحو تعزيز الأمان الرقمي، كشفت شركة OpenAI عن إطلاق نظام مراقبة جديد يُعنى بمتابعة أحدث نماذجها للذكاء الاصطناعي “O3” و”o4-mini”، وذلك في إطار جهودها لمنع إساءة استخدام هذه التكنولوجيا في التهديدات البيولوجية والكيميائية.

وقالت “OpenAI”، في تقرير السلامة الذي نُشر مؤخراً، إن النظام الجديد يهدف إلى كشف أي محاولات للحصول على إرشادات قد تُستخدم في تنفيذ هجمات بيولوجية أو كيميائية، وهو ما يمثل تطوراً لافتاً في مجال الحماية الاستباقية.

وأضافت الشركة أن النموذجين الجديدين يُعدّان أكثر تطوراً من الإصدارات السابقة، وهو ما يطرح تحديات ومخاطر إضافية، خصوصاً مع تزايد قدرتهما على الاستجابة لأسئلة شائكة تتعلق بإنتاج مواد بيولوجية خطرة، بحسب تقرير نشره موقع “تك كرانش” واطلعت عليه “العربية Business”.

ولهذا السبب، استحدثت “OpenAI” ما وصفته بـ”نظام المراقبة المنطقي”، والذي يعمل على رصد المحفزات والمضامين المتعلقة بالأسلحة البيولوجية والكيميائية، ويوجّه النماذج لرفض أي استجابة تنتهك السياسات الصارمة للمحتوى.

وبحسب ما أفادت به “OpenAI”، أمضى فريق “القبعة الحمراء” التابع لها نحو ألف ساعة في تحليل وتوثيق المحادثات غير الآمنة، وقد أظهرت النتائج أن النظام الجديد رفض 98.7% من المطالبات المصنّفة على أنها خطيرة.

رغم هذا الإنجاز، أقرت الشركة بأن هناك ثغرات محتملة، خاصةً مع المستخدمين الذين قد يغيّرون أسلوب الطرح للتحايل على آليات الحظر.

لذلك، ما زالت الشركة تعتمد جزئياً على الرقابة البشرية في مراقبة التفاعلات.

وتؤكد “OpenAI” أن نماذجها لا تزال دون مستوى الخطر العالي، إلا أن القدرات المتنامية لنموذجي O3 وo4-mini في المجالات الحساسة تضعهما تحت الرقابة المستمرة، لا سيما مقارنة بالنماذج السابقة مثل GPT-4 وo1.

وفي إطار تدابيرها الاحترازية، أوضحت الشركة أنها تعتمد آليات مشابهة لضبط محتوى الصور في GPT-4o، وتحديداً لمنع إنشاء محتوى استغلالي ضار.

لكن وعلى الرغم من هذه الخطوات، يعبّر بعض الباحثين عن مخاوفهم من أن وتيرة السلامة قد لا تواكب تسارع التطوير، خصوصاً مع غياب تقرير السلامة لنموذج GPT-4.1، الذي أطلقته الشركة مؤخراً، وسط تساؤلات حول مدى جهوزيته.

مقالات ذات صلة

زر الذهاب إلى الأعلى