Войти в почту

Мошенники смогут атаковать россиян через видеосвязь

Согласно заявлению главного эксперта «Лаборатории Касперского» Сергея Голованова, мошенники в будущем смогут не только подделывать голосовые сообщения, но и атаковать россиян в социальных сетях в режиме реального времени через видеосвязь при помощи технологии дипфейков. Об этом пишет РИА Новости.

Злоумышленники будут использовать картинку с экрана и создавать изображение другого человека, которое будет повторять движения губ при общении в режиме реального времени. Голованов отметил, что это станет возможным через несколько лет и будет распространяться в мессенджерах. Также он напомнил о текущей схеме мошенничества, когда злоумышленники отправляют голосовые сообщения от якобы знакомых с просьбой перевести деньги, однако такие сообщения можно распознать благодаря роботизированной интонации.

Голованов считает, что единственный способ защититься — проверять аккаунты, так как на слух распознать ИИ будет сложно.

Пять основных признаков телефонного мошенничества, которые грозят потерей денег

Накануне в США обеспокоились фейковым аудиосообщением Байдена перед праймериз в Нью-Гемпшире. По мнению экспертов, в этом году искусственный интеллект будет использоваться на выборах по всему миру ради достижения политической выгоды, и наибольшие опасения вызывают звуковые фейки. Их легко создавать и редактировать, но сложно отследить, отмечается в материале.

Газета.Ru: главные новости