Миллионы пользователей ChatGPT оказались под угрозой утечки личных данных

Огромное число пользователей ChatGPT столкнулись с потенциальной угрозой для своих персональных данных.

Миллионы пользователей ChatGPT столкнулись с угрозой утечки личных данных
© Unsplash

Все из-за существенной бреши в безопасности в недавно добавленной на платформу функции интерпретатора кода.

Эта уязвимость, впервые обнаруженная исследователем безопасности Йоханном Ребергером и подтвержденная в ходе экспериментов, позволяет осуществлять атаки типа prompt injection, которые могут привести к утечке данных.

Суть проблемы заключается в работе интерпретатора кода с файлами в среде «песочницы». Пользователи могут загружать файлы для анализа или построения графиков, но этот процесс непреднамеренно открывает двери для злоумышленников.

Введя запрос через сторонний URL-адрес, хакеры могут приказать ChatGPT закодировать загруженные файлы в удобную для URL строку и затем передать эти данные на заранее подготовленный сервер.

Таким образом, злоумышленник получает конфиденциальную информацию, например, пароли или API-ключи.