News.ru 15 февраля 2019

Deepfake и fake news становятся серьёзной угрозой

Фото: News.ru
Фейковые новости становятся если не главной проблемой всего интернет-пространства, то совершенно точно одной из основных. В 2018 году количество выдуманных историй, по данным компании «Медиалогия», практически достигло отметки в 21 000 сообщения — это на 5 тыс. больше сообщений, чем было в 2017-м. При этом издания стали тщательнее фильтровать инфоповоды, поэтому подобных фейковых публикации стало меньше.
Снижению процента fake news в Рунете должны способствовать и возможные штрафы — законопроект об ответственности за распространение недостоверных новостей в конце января 2019 года был одобрен Госдумой в первом чтении. Первоначально размеры денежных взысканий выглядели следующим образом:
от 3 до 5 тысяч рублей для физических лиц; от 30 до 50 тысяч для должностных лиц; от 400 тысяч до миллиона рублей для юридических лиц.
Однако группа депутатов посчитала, что указанные в документе суммы не столь значительны (правда, не для всех категорий), и в связи с этим разработала поправки к законопроекту, увеличив штрафы: физическим лицам — от 30 тыс. до 100 тыс. рублей, должностным лицам — от 60 тыс. до 200 тыс. рублей и юрлицам — от 200 тыс. до 500 тыс. рублей.
Фейковым новостям была посвящена отдельная панель XII Международного форума по кибербезопасности Cyber Security Forum 2019, в рамках которой эксперты постарались объяснить, с какой целью применяют fake news и как с ними бороться. Специалист Институт Развития Интернета (ИРИ) Виктор Леванов рассказал, что выдуманные новости создаются для девяти целей: паники, мошенничества, буллинга, медийного урона, морального вреда, финансовых махинаций, помех следствию, лоббизма и косвенного ущерба.
С некоторым из них пользователи сталкивались не так давно. Например, спекуляции на тему числа жертв во время пожара в торговом центре «Зимняя вишня» в Кемерове, травля подростка, не имеющего отношения к массовому расстрелу в Керчи, или сбор мошенниками финансовой помощи семьям погибших и пострадавших от взрыва в жилом доме в Магнитогорске.
Недостоверность подобных сообщений зачастую очень быстро обнаруживается, причём, как обычными пользователями, так и изданиями, однако, как отметил Леванов, опровержения не гарантируют достижения эффекта, равного нанесённого от фейка урона. Но при этом с fake news можно и нужно бороться. Один из главных способов — это, конечно же, проверка фактов и опровержения. Так, в случае с Олимпиадой был создан сайт «Слухи Сочи», который опровергал последовательно и методично каждый фейк о масштабном спортивном мероприятии, и там впоследствии зарубежные журналисты, использовавшие недостоверную информацию, приносили извинения со ссылкой на созданный сайт. Кроме того, при борьбе с фейками крайне важны официальные заявления, работа с экспертами, а также опровержения через суд и в источнике.
От порнографии к пропаганде
Говоря о fake news, нельзя не упомянуть об одной из категорий «фальшивок», получившей стремительное развитие за последний год — deepfake, термин, образованный от слов deep learning (глубокое изучение) и fakes. Для тех, кто впервые слышит о подобной технологии, объясняем: это видеоролики, созданные путем синтеза человеческих образов на основе искусственного интеллекта. Грубо говоря, любой желающий может спокойно заменить лицо героя какого-нибудь ролика на лицо необходимого ему человека. И хотя для достижения приемлемого результата потребуется мощное «железо» и продолжительное время (пока нейросеть обучается), deepfake остаётся самым доступным инструментом для создания фальшивых видео.
Конечно, подобную технологию можно пустить и на такие благие цели, как «воскрешение» умерших знаменитостей в фильмах или забавную замену лиц в юмористических роликах (что уже проделали с Николасом Кейджем). Однако чаще остальных deepfake используют для создания порнографических роликов. News.ru посвятил этой теме специальный материал, в котором мы рассказали, что популярность технологии развилась на портале reddit, где в 2017 году появился раздел r/CelebFakes/. В нём пользователь под псевдонимом deepfake опубликовал нескольких фальшивых взрослых видео со знаменитостями. В их числе оказались Галь Гадот, Дейзи Ридли, Мэйси Уильямс и Скарлетт Йоханссон.
После этого разразился большой скандал, который привёл к закрытию раздела и блокированию подобного контента многими сайтами, в том числе и знаменитым Pornhub (тем не менее, пользователи жалуются, что звёздное порно всё еще можно найти не только там, но и на специально созданных сайтах, которые по сей день регулярно пополняются новинками).
Но эксперты считают, что это лишь верхушка айсберга, и на самом деле deepfake представляет куда большую угрозу — технология может стать опасным оружием в информационных войнах. В апреле 2018 года в Сети появилось знаменитое видео с Бараком Обамой, наглядно показывающее возможности фейковых роликов и предупреждающее пользователей об «опасном времени», в котором нельзя верить всему найденному в интернете и нужно полагаться только на надёжные источники. Ознакомиться с ним можно ниже.
«Сейчас много внимания нужно уделять работе с информацией. Если такое видео создано, значит, есть какой-то первоисточник, с которым и можно сравнить ролик и посмотреть, что на самом деле было произнесено, какие факты упомянуты и были ли утверждения в других СМИ» — заметил специалист «Лаборатории Касперского» Андрей Сиденко.
При этом компания уже изучают проблему deepfake и работает в данном направлении. Сиденко считает, что когда созданные подделки станут высококачественными, то и программы технических средств к этому моменту уже научатся определять и в автоматическом режиме отсеивать подобную информацию и подобные видео.
Когда именно этот момент наступит, остаётся неизвестным, но специалистам действительно необходимо работать на опережение. По мнению ведущего аналитика РОЦИТ Урвана Парфентьева, помимо явно политических мотивов потенциал deepfake рискует быть реализованными в других незаконных действиях, направленных на обычных людей. Та же самая фейковая порнография может быть использована для мести — молодые люди или девушки просто заменят лица актёров или актрис взрослого жанра на лица своих бывших, а затем опубликуют ролик в Сети.
Подобным образом могут поступить и мошенники. Известны сотни примеров, когда злоумышленники шантажируют людей некими компрометирующими фото— или видеоматериалами, требуя за них деньги. Но теперь у сомнительных личностей есть инструмент для их целей, удобный и эффективный. А контент, необходимый для обучения ИИ и создания deepfake, легко находится в социальных сетях — миллионы пользователей каждый день публикуют сотни своих фото и видео. Этого будет вполне достаточно, и прежде, чем жертва, в особенности, несовершеннолетняя, сможет доказать, что ролик — подделка, пройдёт немало время, за которое с человеком может произойти всё, что угодно.
Комментарии
Другое , Скарлетт Йоханссон , Барак Обама , Андрей Сиденко , Галь Гадот , Дэйзи Ридли , Лаборатория Касперского , Госдума , Институт развития интернета , Кемерово , Керчь , Магнитогорск
Читайте также
В Италии призвали отменить санкции против России
5
Дом, кухня, телевизор: о чем говорили и что показывали на главной конференции «Яндекса»
Последние новости
ООН просит Британию прекратить управление островами Чагос
Владелец животных из «китовой тюрьмы» отказывается отпустить их
НБКИ: число просроченных потребкредитов продолжает снижаться