Войти в почту

Молодёжный цифровой омбудсмен высказался о феномене дипфейков

В 2022 году цели команды Молодежного цифрового омбудсмена не изменились: мы последовательно выступаем за защиту прав молодых людей в цифровой среде, поддержку ИТ-инициатив и ИТ-проектов, повышение уровня правовой и цифровой грамотности молодежи. В сегодняшней колонке мы поговорим о дипфейках – феномене, распространение которого может затронуть не только межгосударственные отношения, но и жизнь, права и доброе имя обычных пользователей. Что же такое "дипфейк" Многие из нас сталкивались в социальных сетях с фрагментами популярных кинокартин, где в развлекательных целях изменены лица главных героев: например, с эпизодом из фильма "Терминатор 2", где вместо Арнольда Шварценеггера появляется Сильвестр Сталлоне. И в целом весьма забавно, когда герои "Властелина Колец" или "Шрека" обретают ваше лицо и мимику или разговаривают вашим голосом. Всё это не что иное, как дипфейки. Deepfake – это реалистичная подмена фото-, аудио- и видеоматериалов, созданная посредством нейросетей. Дипфейки – явление, которое нельзя оценивать как однозначно "плохое" или "хорошее": вопрос в том, как человек будет его использовать. В современном мире компьютерные алгоритмы способны "оживить" фотографию, заменить голос человека или его лицо на видеофрагменте. Технология была разработана студентом Стэнфордского университета Яном Гудфеллоу в 2014 году. Три года спустя пользователь Reddit с ником deepfake с ее помощью заменил лица актрис, снимавшихся в сценах эротического содержания, лицами знаменитостей, и опубликовал получившиеся видео на платформе. Это стало первым шагом к формированию негативных коннотаций вокруг термина "дипфейк". Затем технология упростилась и стала доступна пользователю любого компьютерного устройства. Например, дипфейки можно создать без всяких специальных знаний с помощью приложений FaceApp, Zao, Reface на смартфоне с платформами iOS и Android. Популярность дипфейк-приложений продолжает набирать обороты. В 2020 году в сети "прогремело" видео, в котором Илон Маск исполнил песню "Трава у дома" вместо солиста группы "Земляне". Подобные творческие эксперименты в настоящее время уже не удивляют пользователей социальных сетей. Однако любые, даже самые безобидные на первый взгляд вещи могут быть использованы как в позитивном, так и негативном ключе. Чем могут быть полезны дипфейки Замену лиц или голоса актеров в сценах популярных фильмов и сериалов молодёжь воспринимает в первую очередь как шутку. Действительно, большинству из нас кажется, что это не несёт в себе никакой доли негатива, а иногда даже используется во благо! Например, с ее помощью можно "оживить" легендарных актёров, художников, учёных. Музей Сальвадора Дали во Флориде уже "оживил" художника, который стал экспонатом в собственном музее. В настоящее время также предлагается использовать подобный алгоритм в астрофизике, чтобы избавляться от шумов и помех при съемке космических объектов и получать качественные изображения. Применение данной технологии позволяет с помощью наложения нескольких фрагментов изображений на одно создать качественный снимок космического объекта в детальных подробностях. Чем опасны дипфейки в современных реалиях Об основных угрозах и рисках распространения дипфейков можно догадаться, отталкиваясь от приведенной в начале колонки истории их появления. Замена лиц и голосов в видео- и аудиозаписях может быть направлена на манипулирование общественным мнением и сознанием, унижение чести и достоинства людей (в первую очередь тех, чьи лица были использованы при монтаже). Подростки могут задействовать этот инструмент для кибербуллинга, и тогда "шуточный" ролик, в котором униженный герой приобретает ваше лицо или произносит неприятные речи вашим голосом, уже будет не забавой, а издевательством. Дипфейки могут использоваться и в преступных целях – например, в мошеннических. Представьте: ваш близкий друг получает видео- или аудиосообщение, где якобы вы просите одолжить тысячу рублей. Говоря юридическим языком, лицо или голос мошенника заменяются вашими для получения денежных средств посредством умышленного введения в заблуждение (обмана). Подобный инцидент произошёл в марте 2019 года в Великобритании: с помощью программного обеспечения на основе искусственного интеллекта мошенники сымитировали голос исполнительного директора британской энергетической компании и дали сотруднику этого предприятия поручение о переводе 220 тыс. евро. Работник, узнав голос своего начальника, перечислил деньги преступникам. Их так и не поймали. В настоящее время злоумышленники могут использовать дипфейки как средство манипулирования общественным мнением и сознанием, кибертравли и совершения мошенничества. Что говорит право об использовании дипфейков В настоящее время изображение человека, как и текст, музыка, картинки, в Российской Федерации охраняются законом. Согласно ст. 152.1 Гражданского кодекса РФ, использование изображения гражданина допускается только с его согласия. В дипфейках используются изображения людей, а, значит, необходимо их согласие. В противном случае гражданин, изображение которого было незаконно использовано, имеет право требовать удаления изображения в интернете, пресечения или запрета его дальнейшего распространения. Если изображение гражданина при использовании его в дипфейках носит явный оскорбительный характер, то гражданин имеет право подать в суд иск о защите чести и достоинства, а также потребовать компенсацию морального вреда. При этом отдельная ответственность за использование дипфейков в российском законодательстве не установлена (нет специальной статьи), то есть сама по себе технология является правомерной. Однако с ее помощью злоумышленники могут реализовывать незаконную деятельность, за которую предусмотрена административная или уголовная ответственность. Законодательству затруднительно учесть все тонкости жизненных реалий и развития современных технологий. В связи с этим ряд социальных сетей попытались самостоятельно урегулировать вопросы распространения дипфейков на своих платформах. В частности, TikTok в пользовательском соглашении прописал правило, согласно которому запрещается любой манипулятивный контент, который вводит пользователей в заблуждение, искажая правду о событиях, и влечет причинение вреда. Политика TikTok не столько запрещает использование конкретной технологии, основанной на искусственном интеллекте, сколько предупреждает использование "обманывающих видео", направленных, например, на очернение политических оппонентов или иное унижение чести и достоинства человека или даже целой группы лиц. Огромная проблема для социальных сетей в настоящее время – отсутствие программного обеспечения, способного эффективно обнаруживать дипфейки. В 2019 году Facebook совместно с Microsoft и другими партнерами запустили для решения этой проблемы конкурс "The Deepfake Detection Challenge". Успех имела белорусская модель разработчика Селима Сефербекова: её точность в тестовых испытаниях составила 65,18%. Третье место заняла модель российской компании NTechLab. Разработки, направленные на достижение более эффективных результатов в данной области, всё ещё продолжаются. Что планирует делать команда МЦО для минимизации рисков негативного использования дипфейков Команда Молодежного цифрового омбудсмена осознает важность проблемы дипфейков в цифровом пространстве. Совсем скоро мы начнем экспертную работу по составлению материалов о выявлении и противодействии фейкингу и манипулированию сознанием с помощью масс-медиа дипфейков. На основе экспертных материалов, разработанных Московским государственным юридическим университетом имени О.Е. Кутафина (МГЮА), команда МЦО уже проводит интерактивные мастер-классы для студентов и школьников "Угрозы информационно-мировоззренческой безопасности молодых людей в цифровом пространстве: какие они, как их распознать и как от них защититься?" Во время мастер-классов спикер отдельно обращает внимание аудитории на проблему фейков и дипфейков. Вопросы медиабезопасности и медиаграмотности широко освещаются в наших социальных сетях: мы публикуем статьи и посты, посвященные фейкингу и способам вербального воздействия на сознание человека. Команда МЦО открыта к партнерству и в настоящий момент определяет наиболее интересные для молодежной аудитории перспективы сотрудничества в этой области. В новом году мы планируем начать взаимодействие с организациями, которые занимаются проблемами фейкинга и дипфейков. Следите за новостями. Автор - молодежный цифровой омбудсмен.

Молодёжный цифровой омбудсмен высказался о феномене дипфейков
© Газета.Ru
Газета.Ru: главные новости