Войти в почту

Дипфейки идут в массы и начинают нести масштабные угрозы

Deepfake — название поддельных видеозаписей и изображений, сделанных с использованием искусственного интеллекта. Технология существует уже несколько лет и постоянно совершенствуется. Начиналось все с плохо вмонтированных лиц знаменитостей в порнографии; в прошлом году вполне похожий на себя Барак Обама голосом пародиста Джордана Пила обозвал Трампа куском сами-знаете-чего; сегодня дипфейки успешно используют для политических и корпоративных атак. Несколько недель назад Дональд Трамп ретвитнул замедленное и искаженное видео спикера палаты представителей Нэнси Пелоси, в котором демократка кажется пьяной. В конгрессе были назначены слушания — и прямо накануне заседания неизвестные опубликовали впечатляюще реалистичный дипфейк Марка Цукерберга, в котором тот рассказывает, что он контролирует будущее человечества, благодаря некому «Спектру». Дальше — хуже, продолжает в программе CBS профессор Дартмутского колледжа Хэни Фарид. «А что, если кто-то создаст видео, на котором Дональд Трамп говорит: «Я приказал нанести ядерный удар по Ирану»? Или по Северной Корее, или по России... У нас не будет времени разбираться, настоящее ли это видео — а последствия ошибки могут быть катастрофическими. И следует понимать, что это не эксклюзивная технология — она доступна многим». С появлением программы для раздевания изображений женщин — пиарить ее мы не будем, а желающие исполнить подростковую мечту о рентгеновских очках и так все найдут — дипфейки становятся доступны не только специалистам. Бесплатная версия программы оставляет на снимках вотермарк с адресом сайта и словом «фейк», платная обойдется в 99 долларов и делает вотермарки почти прозрачными. Анонимный создатель приложения заявил Verge, что ничего плохого в этом нет — то же самое можно сделать в Photoshop, посмотрев обучающий ролик в интернете. Тем не менее это успешный кейс коммерциализации технологии, за которым последуют инвестиции и повышение качества. Дальнейшие сценарии представить легко. Например, многие вполне поверят появлению видеообращения, в котором пьяный Илон Маск признается в банкротстве компании — коллапс стоимости акций, потери инвесторов. С другой стороны, в самих подобных фейках нет ничего нового, продолжает руководитель Центра искусственного интеллекта МТС Аркадий Сандлер. Аркадий Сандлер руководитель Центра искусственного интеллекта МТС «Как это отличается от заказной статьи с плохими новостями про компанию, которую разместили в каком-то медиаресурсе? Рынок отреагирует все равно. Да, технологии становятся все круче и круче, но люди не меняются, меняются обстоятельства. Надо перепроверять информацию, даже если тебе кажется, что все гарантировано и сто процентов. Здесь я пока не вижу никаких других способов от этого защищаться. Точно так же, как когда мы читаем какую-то статью, у нас должно быть какое-то разумное критическое мышление». Поможет и гонка вооружений в области дипфейков. Например, на этой неделе лаборатория компьютерного зрения Университета штата Нью-Йорк в Олбани представила сразу два алгоритма. Один выявляет дипфейки по графическим артефактам, другой добавляет на ваши фотографии незаметные фильтры, которые запутывают алгоритм и не позволяют создать дипфейк с вашим лицом. Вообще, дипфейки отличаются от уже привычных текстовых фейков разве что тем, что публике они в новинку. А один из способов предотвратить распространение дезинформации — предупредить человека, что его попытаются обмануть. Чем мы и занимаемся.

Дипфейки идут в массы и начинают нести масштабные угрозы
© BFM.RU