اكتشفت شركة سامسونغ (Samsung) أن موظفين في قسم تصنيع الشرائح حصلوا على إمكانية الوصول إلى روبوت المحادثة الشهير “شات جي بي تي” (ChatGPT) وسربوا كميات كبيرة من المعلومات السرية وعالية الحساسية عبر تقديمها لروبوت المحادثة للحصول على إجابات.
وكان من المفترض أن يستخدم المهندسون روبوت المحادثة لمساعدتهم في اكتشاف مشاكل الكود والأخطاء التي قد لا ينتبهون إليها بسرعة. لكن سرعان ما توسع الموظفون بالمعلومات التي يقدمونها لروبوت المحادثة لتشمل منحه الوصول إلى أكواد سرية لاختبار الشرائح، بالإضافة إلى بيانات الاختبار والأداء وحتى نصوص اجتماعات سرية ضمن الشركة.
ومع اكتشاف المشكلة، كان رد فعل الشركة محدودا على ما يبدو، حيث استمرت في السماح للموظفين باستخدام خدمة روبوت المحادثة المدعوم بالذكاء الاصطناعي، لكنها حدت مدخلاتهم إليه.
وذكر تقرير صحيفة “ذي إيكونوميست” (The Economist) في نسختها الكورية أن الشركة تخطط للتعامل مع الأمر عبر تطوير روبوت محادثة خاص بها، دون تقديم معلومات إضافية إن كان سيستخدم نفس واجهة تطوير التطبيقات مع تغيير بيانات التدريب، أو سيتم تطويره بشكل مستقل.
وبالإضافة إلى حد المدخلات، فقد حذرت سامسونغ موظفيها من خطورة إدخال المعلومات السرية إلى روبوتات المحادثة.
يُذكر أن استخدام روبوتات المحادثة تزايد بشدة الفترة الأخيرة مع اكتشاف العديد من الفوائد مثل إنتاج رسائل البريد الإلكتروني، وتقديم ملخصات للمعلومات والبحث عن الأخطاء في الكود.
لكن -ومع تزايد استخدامها- حذر الخبراء من أخطار منح معلومات سرية لهذه الخدمات، فهي مصممة لدراسة مدخلات المستخدمين واستخدامها لاحقا، مما يعني أن أي معلومات تدخل إليها يمكن أن ينتهي بها الأمر لدى مستخدمين آخرين.
نسخ رابط الخبر: https://almoather.news/?p=1370