В Общественной палате рассказали о развитии технологии «дипфейк»
Сегодня созданный с применением технологии «дипфейк» контент становится все более убедительным, но его достоверность можно проверить, обратив внимание на источник информации, просмотрев каналы официальных представительств и не делая поспешных выводов. Об этом заявил первый заместитель председателя комиссии Общественной палаты РФ по развитию информационного сообщества, СМИ и массовых коммуникаций Александр Малькевич.
Технология «дипфейк» представляет из себя методику синтеза изображения, основанную на искусственном интеллекте. Она позволяет на основе фотографий объекта создавать видеоряд с его участием, трудноотличимый от оригинала. Недавно в интернете опубликовали клип рок-группы Limp Bizkit с использованием этой технологии, что вызвало широкое обсуждение феномена среди пользователей социальных сетей и фанатов коллектива.
«С каждым годом эта технология становится все доступнее. И если раньше правдоподобные ролики были доступны только киноиндустрии, то сейчас создать трудноотличимый от оригинала фейк можно в одиночку у себя на компьютере», — цитирует «Общественная служба новостей» Малькевича.
Он пояснил, что сама технология является нейтральной, а окрас ей придают использующие ее люди. «В одних случаях дипфейки используют, например, чтобы создать обучающий ролик на нескольких языках без привлечения дополнительных актеров. А в других случаях люди подставляют лицо голливудской актрисы в порнографические ролики и вкладывают в уста политиков выгодные им слова», — объяснил он.
При этом Малькевич рассказал, что сегодня технологии «дипфейк» превосходят по убедительности и доступности постановки, имитации и и иные инструменты. «Если создать ролик, обманывающий алгоритмы по вычислению дипфейков, можно у себя дома, то легко представить, на что способна организация с деньгами и определенными политическими намерениями», — продолжил он. Распространение фейков является еще одним поводом трижды перепроверять обнаруженную в интернете информацию, заключил Малькевич.
Ранее в России задумались о законодательном регулировании вопроса использования в видео, в том числе в кино, лиц умерших людей. По мнению члена Общественной палаты РФ Вадима Виноградова, необходимо маркировать системы искусственного интеллекта, чтобы информировать граждан о том, что они общаются не с реальным человеком, а с электронной системой.