ميتا تعالج ثغرة أمنية بخصوص محادثات المستخدمين مع الذكاء الاصطناعي

أعلنت شركة ميتا عن إصلاح ثغرة أمنية عانت منها في روبوت الذكاء الاصطناعي الخاص بها، والتي كانت تهدد خصوصية البيانات من خلال تمكن المستخدمين من الوصول إلى المحفزات والردود الخاصة بمستخدمين آخرين. هذه الثغرة اكتشفها سانديب هودكاسيا، المؤسس لشركة Appsecure المتخصصة في اختبار الأمان، في ديسمبر 2024.
تفاصيل اكتشاف الثغرة
واكتشف هودكاسيا هذه الثغرة أثناء عملية تحليل خاصية تعديل المحفزات في تطبيق Meta AI. بينما كان المستخدمون يقومون بتحرير محفز أو طلب صورة، كانت خوادم ميتا تمنح معرفاً فريداً لكل محفز. وباستخدام أدوات تحليل الشبكة، استطاع هودكاسيا يدوياً تغيير هذا الرقم واسترجاع ردود وطلبات خاصة بمستخدمين آخرين.
استجابة ميتا الفورية
أبلغ هودكاسيا عن الثغرة مباشرةً إلى ميتا عبر برنامج مكافآت الثغرات، حيث حصل على مكافأة قدرها 10,000 دولار. وتعليقاً على الأمر، أكد المتحدث الرسمي باسم الشركة رايان دانيلز أن ميتا قامت بإصلاح الثغرة نهائياً في يناير 2025 وأنه لم يتم العثور على أي دليل على استخدام هذه الثغرة بطرق ضارة.
المخاوف المحيطة بالخصوصية
تأتي هذه الحادثة في ظل تسارع ميتا وغيرها من الشركات لتطوير منتجات الذكاء الاصطناعي، وسط مخاوف متزايدة بشأن أمن وخصوصية هذه التقنيات الجديدة. تطبيق Meta AI، الذي أطلقته ميتا في وقت سابق من العام، شهد بداية متعثرة بعد أن اكتشف المستخدمون أن محادثاتهم، التي كانوا يعتقدون أنها خاصة، قد تكون متاحة للجمهور دون علمهم.