Войти в почту

Российские эксперты назвали главные угрозы от нейросетей и чат-ботов

Использование нейросетей и чат-ботов несет множество опасностей, предупреждают российские эксперты. Главные из них — они могут создавать не соответствующий действительности контенет и из легко можно заполучить данные пользователя. Защитить от этих угроз призвано новое законодательство.

Российские эксперты назвали главные угрозы от нейросетей и чат-ботов
© Fraud Magazine

Генерирующие текст или изображения нейросети уязвимы для хакеров, желающих получить личные данные, отметили российские эксперты. Кроме того, зачастую они «глючат».

Зачастую чат-бот может не отличать правду от неправды, и выдавать вымышленные факты за реальные. На их основании пользователь может сделать ошибочные выводы, предупреждает директор технического департамента RTM Group Федор Музалевский. Чем больше такие фейки вирусятся в интернете, тем больше вероятность, что новая версия того или иного продукта примет его за правду, отмечает начальник отдела информационной безопасности «СёрчИнформ» Алексей Дрозд.

Технологически структура СhatGPT закрыта, отмечает руководитель Института искусственного интеллекта Университета Иннополис Рамиль Кулеев. Несмотря на заявления разработчиков, пользователям стоит остерегаться давать чат-боту запросы, содержащие информацию, разглашение которой может принести вред - большие данные являются для искусственного интеллекта очень ценным ресурсом. Неизвестно, хранят ли нейросети архивы пользовательских запросов, обезличивают ли их и какова вероятность, что данные одного пользователя попадут в выдачу для другого, подчеркивает Дрозд. Кроме того, большинство чат-ботов недоступны напрямую — только через VPN, прокси или адаптированные Telegram-чаты. Эти «посредники также могут получить данные пользователей, предупреждает эксперт.

Информация из нейросетей может использоваться в мошеннических целях. Ее можно использовать для информационных атак — генерировать правдоподобные сообщения, подкрепляя тексты и искусственно созданными изображениями. Информацию от нейросетей всегда стоит перепроверять, подчеркивает специалист группы исследования безопасности банковских систем, Positive Technologies Юрий Ряднин.

Абсолютную защиту, от угроз, которые несут нейросети, разработать невозможно, отмечают эксперты. Поэтому предлагается ограничить их использование законодательно. По мнению председателя Совета по развитию цифровой экономики при Совете Федерации Артёма Шейкина, необходимо категоризировать нейросети по риску для безопасности. Также, по его мнению, нужны единые виды тестирования на безопасность и определение видов доступа к данным для проведения аудитов и оценок. Особое внимание, считает сенатор, стоит обратить на использование нейросетей в здравоохранении. Цифровой кодекс может появиться в России уже в скором времени, заявил Шейкин.

Кроме того, считает руководитель Центра информационной безопасности Университета Иннополис Михаил Серегин, необходимо маркировать данные или контент, произведенный нейросетями и чат-ботами.

Ferra.ru: главные новости