В мире
Новости Москвы
Политика
Общество
Происшествия
Наука и техника
Шоу-бизнес
Армия
Игры

Открой личико: как дипфейки могут вызвать войну между государствами

Одно и то же сообщение, переданное живым человеком и смоделированным с помощью компьютерной программы лицом, воспринимается зрителями совершенно по-разному, причём больше доверия аудитория испытывает именно к искусственным лицам, выяснили исследователи. Этот необъяснимый психологический феномен, предупреждают исследователи, открывает двери для широкомасштабных манипуляций общественным сознанием, может использоваться пропагандистами в информационных войнах и даже привести к реальным межгосударственным конфликтам.

Видео дня

Согласно опубликованному на этой неделе исследованию , основная масса испытуемых не сумела отличить изображения реальных людей от изображений, созданных с помощью специальных алгоритмов. Более того, для участников исследования именно искусственно-сгенерированные лица (так называемые deepfakes) показались привлекательнее реальных. 

Исследование проводилось в три этапа командой учёных из университета Беркли (Калифорния) и университета Ланкастера (Великобритания).

Эксперименты показали, что искусственный интеллект способен создавать фотоизображения, которые не просто неотличимы от реальных прототипов, но и вызывают к себе большее доверие, — констатируют авторы работы.

В ходе опытов исследователи пригласили 315 человек просмотреть серию из 800 фотопортретов и определить, какие из них являются снимками подлинных людей, а какие нарисованы на компьютере в программе StyleGAN2. Точность распознавания в результате колебалась от 48% до 59%, то есть примерно в половине случаев испытуемые путали реальные фотографии с искусственно сгенерированными deepfakes.

Дальше — больше. Параллельно экспериментаторы предлагали участникам опроса сообщить, какие лица вызывают у них больше доверия. И здесь искусственный интеллект положил природные инстинкты на обе лопатки; причём оказалось, что люди по необъяснимым пока причинам чаще всего путают реальные лица с нарисованными, если на фотографиях изображены представители белой расы (независимо от пола).

Это объясняет феномен, почему первое впечатление от человека чаще всего бывает самым правильным, говорят учёные. По их данным, человек складывает впечатление о своем собеседнике в первые 100 микросекунд — это намного быстрее, чем успевает включиться осознанная оценка (для чего, как утверждают исследователи, требуется в 5–10 раз больше времени).

Порнография — двигатель прогресса

Первые компьютерные программы для создания deepfakes появились в 2017 году, и как это часто случается в истории изобретений, новая технология стала широко использоваться в первую очередь в разного рода порнографических целях. Причём такие фейки применялись далеко не только для частного развлечения: возник даже термин revenge porn, обозначающий подделки, ставящие целью скомпрометировать ту или иную персону в глазах общественности.

Самой известной такой программой стала компьютерная «раздевалка» Nudify (позднее запрещённая в США), аналоги которой легально используются также при съёмках кинофильмов, когда актёрам не требуется на самом деле раздеваться в интимных сценах — за них это делает компьютер. 

Это стало одной из причин, почему примерно тогда же начали делаться попытки разработать методики, позволяющие безошибочно отличить искусственные портреты от реальных и тем самым доказать, что порнографические изображения того или иного человека на самом деле являются не документальными, а созданы на компьютере.

Помимо борьбы с такого рода «частным» компроматом разоблачители технологий deepfakes также имели в виду, что фальшивые, но неотличимые от подлинных изображения могут использоваться для более серьёзных целей — например, для фабрикации компрометирующих материалов на тех или иных политиков или конкурентов, для запуска в медиапространство фальшивых новостей и прочих, далеко не первоапрельских, задач.

Существующие технологии не дают возможности с полной точностью определить подлинность того или иного изображения, равно как и не хватает ресурсов для проверки всего колоссального объёма информации, ежедневно выгружаемой в Интернет, — признаются авторы исследования.

Противофейковые меры появляются даже в повестке дня на уровне национальных правительств, поскольку размах и изощрённость создателей фальшивых (но выглядящих «реальнее настоящих») новостей ставит под угрозу в ряде случаев уже и государственную безопасность.

Эксперты указывают, что если авторы фальшивок способны создать неотличимые от реальных видеоролики, на которых известные деятели занимаются сексом, они точно так же могут слить в Сеть псевдодокументальные клипы, на которых государственные деятели якобы обсуждают военное вторжение в сопредельное государство. Это грозит как дипломатическими, так и военными кризисами, поскольку доказать подделку будет нелегко, а иногда на нынешнем уровне противофейковых технологий и невозможно.

Царь не настоящий

Основную опасность развитие технологий deepfake представляет потому, что они постоянно удешевляются и упрощаются. Если ранее, чтобы подделать выступление какого-нибейна, должна была поработать команда высокооплачиваемых профессионалов, то сегодня такую же подделку может смастерить любой студент на домашнем компьютере, сказал NEWS.ru доктор физико-математических наук, футуролог Юрий Визильтер.

{{expert-quote-15057}}

Author: Юрий Визильтер [ член футурологического клуба «Проектирование будущего» доктор физико-математических наук в НИИ авиационных систем ]

Технологии распознавания фейков неизбежно отстают от технологий их создания, так как это извечное соревнование между мечом и щитом. В данном случае противофейковые нейронные сети соревнуются с нейронными сетями, создающими такие фейки, и эта борьба ничем не отличается от борьбы между создателями вирусов и создателями противовирусных программ.

Как указывает эксперт, основную проблему разоблачения фальшивой информации сегодня представляет не отставание защитных технологий, а действия тех или иных политиков, которые когда по недоумию, когда злонамеренно используют fake news для принятия вполне реальных решений.

Время от времени выясняется, что событие, на основе которого главы государств принимали какие-то важные решения, было выдумано каким-нибудь локальным, никому не известным ресурсом. Но так как это событие отлично поддерживало официальную версию, его принимали на веру без какой-либо проверки. Так было в случае с якобы имеющимся химическим оружиераке, такие же информационные вбросы мы наблюдаем буквально сегодня. К сожалению, система «защиты от дурака» в таких ситуациях не работает, и если ошибку затем нехотя и признают, как в случае с Саддамом, то изменить ничего уже невозможно, — указывает Визильтер.

Еще в 2018 году агентсгона по передовым оборонным исследованиency, DARPA) выделило бюджет на разработку технологий, позволяющих разоблачать аудиовизуальные фальшивки в автоматическом режиме. В качестве одного из способов обнаружения фальшивок специалисты предлагают засекать микросекундные несостыковки между элементами видеоряда, которых не может быть в случае, если запись велась бы в реальности.

Что-то подобное предвидел писатевин в своей повести «Поколение П», где телевизионные умельцы выпускали в эфир смоделированные в студии изображения политических деятелей, ничем не отличимые от своих прототипов. Сегодня эта политическо-технологическая фантастика стала реальностью, последствия которой (в виде невиданных ранее мошеннических схем, политической подрывной активности и т. д.) пока сложно предвидеть, предупреждают авторы исследования.

В качестве «вакцины» против таких опасных применений технологий deepfake они предлагают, в частности, законодательно обязать создателей искусственно сгенерированных персонажей предупреждать аудиторию о том, что перед ними не живой человек, а его высокотехнологичная копия.

На этой неделе власти США постановили, что никакая программа, создающая deepfakes или любые иные изображения, не может обладать на них авторским правом, какое имел бы живой художник. Суд подчеркнул, что авторским правом может обладать исключительно человек, «но не животное, не божество и не любые иные существа, не имеющие возможности поставить подпись под юридически значимым документом».