Мошенники используют голоса своих жертв для вымогательства денег у их близких

За последние пять лет количество киберпреступлений в России - как тяжких, так и особо тяжких, увеличилось вдвое. Новым "помощником" хакеров, который помогает повышать эту статистику, становится искусственный интеллект (ИИ). Так, с помощью него мошенники уже начали создавать аудиосообщения и вымогать средства у знакомых своих жертв.

Мошенники используют голоса своих жертв для вымогательства денег у их близких
© Российская Газета

Преступная схема работает следующим образом: сначала злоумышленник взламывает аккаунт пользователя в WhatsApp или Telegram и скачивает оттуда сохраненные голосовые сообщения. Затем нейросеть, используя полученные данные, создает новые сообщения с нужным контентом. Это, в частности, может быть просьба одолжить большую сумму денег. После этого хакер рассылает их вместе с фото банковских карт с поддельными именами получателей друзьям и родственникам пользователя, рассказали в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.

"Синтез речи - это одна из прикладных задач, которые способны реализовать алгоритмы машинного обучения, например VALL-E от Microsoft. Существует огромное множество готовых сервисов для генерации аудио и видео", - объяснил руководитель направления по анализу безопасности компании "Криптонит" Борис Степанов. Он подчеркнул, что современным системам достаточно даже трех секунд речи оригинального носителя для того, чтобы дипфейк - технология преобразования изображения или голоса человека - получился убедительным. Более того, ИИ может качественно подделать тембр и интонацию человека.

Искусственный интеллект уже может вполне качественно подделать тембр и интонацию голоса человека

"В скором времени количество фишинговых атак, связанных с подделкой голоса, будет возрастать. Могут возникнуть новые мошеннические схемы: звонки пожилым людям от лица родственников о том, что "внук попал в аварию", звонки от лица банков, полиции и так далее. Не исключаем и использование видеозвонков с одновременным синтезом речи и изображения звонящего в реальном времени. Современные технологии это позволяют", - отметил эксперт.

Как итог, получение доступа к аккаунтам в соцсетях и мессенджерах ставит под угрозу любые данные пользователя, которые есть в диалогах, - не только голосовые сообщения, но и те же данные банковских карт. Злоумышленники могут применять их в ходе создания правдоподобной легенды при обмане людей из списка контактов скомпрометированного профиля, предупредил эксперт по кибербезопасности "Лаборатории Касперского" Леонид Безвершенко.

При этом коммерческие предложения по созданию дипфейк-видео довольно распространены в "теневом" сегменте интернета. Более того, на сегодняшний день количество запросов на этом рынке превышает число предложений. Как выяснили исследователи из Kaspersky Digital Footprint Intelligence experts и GReAT, стоимость одной минуты такого видео начинается от 300 долларов, а достигает 10 тысяч долларов. Цена может зависеть от правдоподобности видео или сложности его преобразования.

Хотя ущерб от таких взломов довольно большой, однако более значимые проблемы несут хакерские атаки, в ходе которых используются большие языковые модели.

"Человеческий фактор по-прежнему играет значимую роль в том, будет ли кибератака успешной или нет. Именно поэтому злоумышленники неустанно обновляют свои тактики и инструменты", - объясняет эксперт направления повышения цифровой грамотности Kaspersky Security Awareness Татьяна Шумайлова.