كشفت تحقيقات أجرتها صحيفة الجارديان البريطانية أن أداة البحث الخاصة بـ ChatGPT من شركة OpenAI قد تكون عرضة للتلاعب باستخدام محتوى مخفي، مما قد يؤدي إلى تقديم رموز خبيثة من المواقع التي يتم البحث فيها.
وقد قامت OpenAI بإتاحة أداة البحث لعملائها الذين يدفعون اشتراكات، مع تشجيعهم على جعلها أداة البحث الافتراضية لديهم. إلا أن التحقيقات أظهرت وجود بعض الأمور الأمنية التي قد تكون في هذا النظام الجديد.
استغلال المحتوى المخفي لتغيير الاستجابات
وقد أظهرت الاختبارات أن ChatGPT يمكن أن يتأثر بمحتوى مخفي موجود في صفحات الويب التي يُطلب منه تلخيصها. بحيث يمكن أن يحتوي هذا المحتوى المخفي على تعليمات من أطراف ثالثة تغير ردود ChatGPT، وتعرف هذه التقنية بـ “حقن التعليمات” (Prompt Injection). كما يمكن أن يشمل المحتوى المخفي نصوصًا مصممة للتأثير على استجابات ChatGPT، مثل نصوص تروج لمنتج أو خدمة معينة.
وللأسف؛ يمكن استغلال هذه التقنيات بشكل خبيث لجعل ChatGPT يقدم تقييمات إيجابية لمنتجات معينة، رغم وجود تقييمات سلبية على نفس الصفحة. ففي إحدى التجارب -على سبيل المقال- طُلب من ChatGPT تقييم كاميرا على صفحة ويب مزيفة. عندما تضمنت الصفحة نصوصًا مخفية تعطي تعليمات بإرجاع تقييم إيجابي، قدمت الأداة استجابة إيجابية بالكامل، حتى لو كانت الصفحة تحتوي على تقييمات سلبية.
مخاطر أمنية محتملة
أيضًا؛ وجد الباحث الأمني “جاكوب لارسن” من شركة CyberCX أن أداة البحث في حالتها الحالية قد يشكل خطرًا كبيرًا يتمثل في إمكانية إنشاء مواقع تستهدف خداع المستخدمين بشكل مباشر. ومع ذلك، أشار إلى أن هذه الوظيفة حديثة الإصدار وأن OpenAI تعمل على تحسينها واختبارها لمعالجة هذه المشكلات قبل إتاحتها لجميع المستخدمين.
وأشار “لارسن” إلى أنه لا يمكن الوثوق دائمًا بالمحتوى المقدم من الأدوات المعتمدة على الذكاء الاصطناعي. واستشهد بحادثة حديثة قام فيها أحد هواة العملات الرقمية باستخدام ChatGPT للمساعدة في البرمجة، وقدم النموذج رمزًا خبيثًا أدى إلى سرقة بياناته وخسارته مبلغ 2500 دولار.
وأخيرًا.. على الرغم من أن المحتوى المخفي يُعاقب عادةً من قِبل محركات البحث مثل Google، إلا أن “كارستن نول” كبير العلماء في شركة SR Labs للأمن السيبراني؛ يشير إلى أن أدوات البحث المعتمدة على الذكاء الاصطناعي قد تواجه تحديات جديدة في التعامل مع هذه الممارسات.