Войти в почту

Воскрешение мертвых и мошенничество с деньгами: чем опасны дипфейки

В России хотят ввести уголовное наказание за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. Такой законопроект планирует внести в  фракция . «Парламентская газета» разбиралась в том, что такое дипфейки и какая в них таится угроза.

Воскрешение мертвых и мошенничество с деньгами: чем опасны дипфейки
© Парламентская газета

С чего все начиналось

Дипфейк (он же deepfake) — это, если верить интернету, «методика синтеза изображения, основанная на искусственном интеллекте». Если же говорить проще, то это технология, которая позволяет по запросу пользователя совмещать две или несколько фотографий или видеозаписей в одну. Например, заменить лицо случайного человека на видео на лицо какого-нибудь знаменитого актера или политика.

Появились дипфейки далеко не вчера. Более того — их уже много лет активно используют, например, в кинематографе. Еще в далеком 1999 году режиссер во время съемок «Гладиатора» заменил не вовремя умершего актера , игравшего богатого рабовладельца Антониуса Проксимо, двойником и компьютерной графикой. Из более свежего: в одной из частей «Звездных войн», вышедшей в 2016 году, голливудские киноделы при помощи этой технологии «воскресили» на большом экране актрису и актера — притом что последний к тому моменту умер более чем двадцать лет назад! А не далее как в 2022 году в российском сериале «Диверсант-4: Идеальный штурм» внезапно появился давно покойный актер — с его «воскрешением» создателям ленты помогали нейронные сети. Ну а уж сколько за последние лет пять вышло фановых проектов на том же YouTube, где пользователи меняли одних актеров на других или «врезали» себя в известные фильмы, — не сосчитать.

Технологии для веселья и преступлений

Так если дипфейки уже давно и прочно вошли в нашу жизнь — почему о них все стали говорить только сейчас, да еще и в контексте большой угрозы?

Все просто. Во-первых, далеко вперед шагнули технологии. Можно только гадать, во сколько обошлись западным и нашим киноделам дипфейки известных актеров, — однако это точно были не десятки, не сотни и даже не тысячи долларов. Плюс работа целой команды специалистов в программном обеспечении, недоступном широкому пользователю. Сейчас же с бурным развитием нейронных сетей дипфейки может клепать практически каждый. В интернете существует множество сервисов, которые за минимальные суммы (в среднем — от 500 рублей) позволяют меняться лицами с кем угодно буквально в пару кликов. Да, качество при этом выходит, конечно, не голливудское, но вполне себе сносное.

Во-вторых, как только народ заполучил такой «веселый» и простой инструмент, он тут же пустился с ним во все тяжкие. Так, например, несколько лет назад на порносайтах внезапно стали появляться ролики, в которых девушкам «приклеивали» лица известных актрис. Это уже не невинная забава в стиле «как бы такая-то смотрелась в таком-то фильме» — это уже вполне себе тянет на унижение чести и достоинства.

А вскоре мир узнал и о первых преступлениях, совершенных с помощью новой технологии. Так, в 2019 году мошенники синтезировали голос босса материнской компании одной из британских энергетических фирм и позвонили директору головной организации с просьбой перевести 240 тысяч долларов на счет якобы поставщика из Венгрии. А в 2021 году АЭ мошенники ограбили банк на 35 миллионов долларов при помощи имитации голоса его директора. Они позвонили управляющему и сказали, что фирма хочет совершить несколько крупных сделок, а в доказательство предоставили несколько фальшивых писем. Оба раза авантюры оказались успешными — притом что в них использовалась только имитация голоса.

Ранее, к слову, об этом же рассказывал «Парламентской газете» первый заместитель председателя комиссиРФ по развитию информационного сообщества, СМИ и массовых коммуникациич.

«Если создать ролик, обманывающий алгоритмы по вычислению дипфейков, можно у себя дома, то легко представить, на что способна организация с деньгами и определенными политическими намерениями», — отметил он.

«Традиционные ограничения бессмысленны»

При этом, как именно нужно бороться с дипфейками и как сделать эту борьбу эффективной, так до сих пор и не ясно. К примеру, по мнению интернет-омбудсмена по вопросам, связанным с ликвидацией нарушений прав предпринимателей при осуществлении регулирования, контроля функционирования и развития интернетва, перенос в цифровую сферу привычных методов законодательного администрирования ничего не даст.

«Дипфейки — это на самом деле бич современности, — подчеркнул Мариничев в разговоре с «Парламентской газетой». — Наше общество к такой технологии явно не готово. Но я не очень здесь все-таки верю в эффективность административного давления. На мой взгляд, нужно предъявлять дополнительные требования с точки зрения технологического контроля. По крайней мере, в этом направлении сейчас мыслят практически все мировые IT-гиганты».

По словам Мариничева, самый надежный способ — обязать производителей программного обеспечения, использующегося при создании дипфейков, встраивать в свою продукцию условные «маркеры». Они могут быть и не видны пользователю (то есть речь не идет о надписи «ОСТОРОЖНО, ДИПФЕЙК!» во весь экран), но должны считываться самими сайтами, на которых дипфейки распространяются. Чтобы машина могла сама распознать искусственно сгенерированное изображение и в случае необходимости уведомить человека о том, с чем именно он имеет дело. А вот ограничивать распространение технологии как таковой — подход заведомо бессмысленный.

«Этим мы только усугубим ситуацию, — уверен интернет-омбудсмен. — Если, например, регулировать дипфейк так же, как мы сейчас регулируем оборот оружия, ни к чему хорошему это не приведет. Хотя бы потому, что для нелегального распространения оружия нужно его где-то изготовить, перевезти, продать. А стоимость дистрибуции информации в интернете равна нулю. А вот финансовые затраты государства на мониторинг всех известных сайтов, порталов и так далее, где дипфейки могут распространяться, напротив, стремятся к бесконечности».