الذكاء الاصطناعيالرئيسية

“تشات جي بي تي” قد يكشف أسرار المؤسسات

هاشتاق عربي

شارك هذا الموضوع:

حذر تقرير صادر عن “تيم 8” (Team8)، وهي شركة رأسمال مغامر مقرها إسرائيل، من أنَّ الشركات التي تستخدم أدوات الذكاء الاصطناعي التوليدي مثل “تشات جي بي تي” (ChatGPT)، قد تُعرّض معلومات العملاء السرية والأسرار التجارية للخطر.

قال التقرير، الذي قُدّمت نسخة منه إلى “بلومبرغ نيوز” قبل إصداره، إنَّ الاعتماد واسع النطاق على برامج الدردشة الآلية وأدوات الكتابة الجديدة بالذكاء الاصطناعي، قد يجعل الشركات عرضة لتسرب البيانات ومقاضاتها أمام المحاكم. والخوف الأكبر هو أن تُستغل برامج الدردشة الآلية من قبل القراصنة للوصول إلى معلومات الشركة الحساسة، أو اتخاذ إجراءات ضد مصلحة الشركة. وهناك أيضاً مخاوف من أنَّ المعلومات السرية التي يتم إدخالها إلى روبوتات الدردشة الآن، يمكن استخدامها من قبل شركات الذكاء الاصطناعي في المستقبل.

تتسابق شركات التكنولوجيا الكبرى، بما في ذلك “مايكروسوفت” و”ألفابت”، لإضافة قدرات الذكاء الاصطناعي التوليدي بهدف تحسين روبوتات الدردشة ومحركات البحث، وتدريب نماذجها على البيانات المأخوذة من الإنترنت، لمنح المستخدمين تطبيقاً شاملاً للإجابة عن استفساراتهم. وقال التقرير إنَّه إذا جرى دعم هذه الأدوات ببيانات سرية أو خاصة؛ فسيكون من الصعب للغاية محوها.

تهديد المعلومات الحساسة
قال التقرير: “قد يؤدي استخدام المؤسسات للذكاء الاصطناعي التوليدي إلى الوصول للمعلومات الحساسة، والملكية الفكرية، وأكواد المصادر، والأسرار التجارية، والبيانات الأخرى، والتلاعب فيها من خلال إدخال المستخدم البيانات مباشرة على التطبيق، أو واجهة برمجة التطبيقات، بما في ذلك معلومات العميل، أو المعلومات الخاصة والسرية”. ويصنّف التقرير هذه المخاوف على أنَّها “عالية الخطورة”، لكنَّه وصف المخاطر بأنَّه “يمكن التحكم بها” إذا توفّرت ضمانات مناسبة.

شدّد تقرير “تيم 8” على أنَّ الاستفسارات الموجهة لروبوتات الدردشة، لا يتم إدخالها في نماذج اللغات الكبيرة لتدريب الذكاء الاصطناعي، على عكس التقارير الأخيرة التي تشير إلى أنَّ مثل هذه المطالبات يمكن أن يراها الآخرون.

تابع مؤلفو التقرير: “حتى وقت كتابة هذه السطور، لا تستطيع نماذج اللغات الكبيرة تحديث نفسها في الوقت الفعلي، وبالتالي؛ لا يمكنها تقديم البيانات التي أدخلها شخص ما رداً على استفسارات شخص آخر، وهو الأمر الذي من شأنه أن يثير القلق بشكل كبير. مع ذلك؛ قد لا ينطبق هذا بالضرورة على تدريب الإصدارات المستقبلية من هذه النماذج”.

مشكلات عالية الخطورة
حدّد التقرير ثلاث مشكلات أخرى “عالية الخطورة” في دمج أدوات الذكاء الاصطناعي التوليدية، وشدّد على التهديد المتزايد للمعلومات التي تتم مشاركتها أكثر وأكثر من خلال تطبيقات الأطراف الخارجية. وكانت “مايكروسوفت” قد أدرجت مؤخراً بعض ميزات روبوتات الدردشة المدعومة بالذكاء الاصطناعي “تشات بوت” في محرك البحث التابع لها “بينغ” وأدوات “مايكروسوفت 365”.

قال التقرير: “على سبيل المثال، يمكن أن توفر تطبيقات الأطراف الخارجية التي تستفيد من واجهة برمجة تطبيقات الذكاء الاصطناعي التوليدي، إمكانية الوصول إلى البريد الإلكتروني ومتصفح الويب الخاص بالمستخدمين إذا اختُرقت، بل قد تسمح للقراصنة باتخاذ إجراءات نيابة عن المستخدم”.

لفت التقرير أيضاً إلى أنَّ هناك “مخاطر متوسطة”، تتمثل في أنَّ استخدام الذكاء الاصطناعي التوليدي يمكن أن يؤدي إلى زيادة التمييز، أو الإضرار بسمعة الشركة، أو تعريضها لإجراءات قانونية بسبب قضايا حقوق النشر.

الأمن السيبراني والذكاء الاصطناعي
شاركت آن جونسون، نائبة رئيس شركة “مايكروسوفت”، في صياغة التقرير، كما استثمرت “مايكروسوفت” مليارات الدولارات في شركة “أوبن إيه آي”، مطوِّرة “تشات جي بي تي”.

قال متحدّث باسم “مايكروسوفت”: “تشجع الشركة على إجراء مناقشات شفافة حول المخاطر الإلكترونية المتطورة باستمرار في مجتمعات الأمن السيبراني والذكاء الاصطناعي”.

يُذكر أنَّ عشرات من كبار مسؤولي أمن المعلومات في الشركات الأميركية، ساهموا في التقرير. وجرى اعتماد تقرير “تيم 8” أيضاً من قبل مايكل روجرز، الرئيس السابق لوكالة الأمن القومي الأميركية وإدارة الأمن السيبراني الأميركية.

بلومبرغ الشرق

اقتصاد الشرق مع بلومبِرغ هي أحد الخدمات الإخبارية الناطقة بالعربية والمتخصصة بتوفير الأخبار والقصص الاقتصادية من حول العالم، والتي تتبع الشرق للأخبار التي انطلقت في 11 نوفمبر 2020 لتقديم تغطيات إخبارية من حول العالم باللغة العربية.

مقالات ذات صلة

أترك رداً

زر الذهاب إلى الأعلى