Кто может украсть наш голос и как его защитить?
Анастасия Кочетова - IT-юрист RTM Group. До недавнего времени голос был уникальным признаком, принадлежащим конкретной личности. Сегодня его могут «украсть» и неправомерно использовать для разных целей, как просто для развлечения или придания лучшего звучания какому-либо контенту, так и для совершения преступлений в киберпространстве. Изображение от prostooleh на Freepik Голос и его значимость Голос — уникальная характеристика личности, имеющая особые черты и позволяющая отделить ее от других. Огромную роль в звучании голоса и его восприятии играет тембр, дополняемый определенными обертонами. От совокупности составляющих конкретного человека, его физиологических особенностей, дополнительных инструментов становления голоса сегодня во многом зависит его ценность и узнаваемость. Например, многие люди стали популярными исключительно за счет их голоса, фактически получили признание и славу. Со временем значение голоса человека стало набирать обороты, вошло в общий процесс коммодификации (т.е. превращения того или иного блага в товар). Неудивительно, что многие знаменитости (и не только певцы) позаботились об обеспечении охраны своего голоса. Например, блогер с многомиллионной аудиторией Мистер Бист запретил озвучивающей компании сделать ему «русскоязычный голос», поскольку права на это принадлежат его компании. Многие артисты, включая отечественных, страхуют свой голос. Так, Николай Басков сделал это еще в далеком 2002 году, цена страховки голоса артиста была настолько велика, что превысила даже вдвое цену Лучано Паваротти. Статус голоса в праве Дефиниция голоса по сути его правой природы может быть защищена разными правовыми нормами. Но вопрос об эффективности такой защиты сегодня является крайне актуальным. Особенно с учетом эволюции технологии дипфейк. Голос — нематериальное благо каждого человека Под нематериальными благами понимаются те, что даны каждому от рождения и охраняются законом. Перечень закреплен в статье 150 ГК РФ. Хоть голос прямо в ней не поименован, по своей сути он все равно относится к этой категории. Гражданское законодательство напрямую закрепляет только порядок охраны изображения гражданина, описывает его сущность. Безусловно, при рассмотрении споров у судов всегда есть возможность применить эти нормы, и при краже голоса по аналогии. Но на практике оказывается, что это совершенно неэффективно, тем более с учетом развития дипфейков. Как это работает? Дипфейк создается посредством глубокого синтеза голоса человека на базе обучения ИИ. Получить образцы известных людей (актеров, певцов, дикторов и т.д. ) всегда можно из открытых источников. Выдаваемый ИИ материал практически невозможно отличить от оригинала. Легкодоступность получения синтезированного голоса, его использование в различных целях наносит ущерб не только заработку знаменитостей, но иногда и их репутации (при использовании в преступных схемах, например). Кейс В деле № 02-3580/2024 актриса дубляжа обратилась в суд с требованием о защите ее чести и достоинства к банку «Тинькофф». Она озвучивала большой массив текста для обучения голосового помощника банка. Это, по мнению актрисы, было единственным возможным способом использования ее голоса по договору. Впоследствии она узнала о том, что ее голос используется для озвучивания порнорекламы, а также находится в открытом доступе на сайте банка для его синтеза, продается на других площадках. Суд отказал актрисе, так как она по договору предоставила согласие на анонимное использование исполнения, его обнародование, внесение в него изменений и дополнений, иных переработок, в том числе третьими лицами. При этом фактически возможность внесения изменений в запись исполнения, использование ее в измененном виде — необходимый инструмент постобработки (монтаж, удаление шума, иные улучшения его качества). Эта и другие подобные ситуации побудили власти к принятию мер. С инициативой по урегулированию вопроса использования синтезированного голоса к депутатам ГД РФ обратился Союз дикторов России, где подсветили проблему бесконтрольного синтезирования голосов дикторов, а также случаи их кражи. А что за рубежом? Важно отметить, что на уровне зарубежных государств голос приравнен к изображению, имени и иным неимущественным благам граждан, им предоставлена равная правовая охрана. В США защита таких благ осуществляется на основании права на публичность (легализовано в 25 штатах) или на частную жизнь. При этом, если ранее споры были по случаям кражи голоса (записи исполнения, например, третьими лицами), то сейчас встречаются и обращения из-за случаев неправомерного синтеза при помощи ИИ и дипфейк-технологий. Кейс Кайланд Янг подал коллективный иск против NeoCortext, Inc. («NeoCortext») за нарушение права на публичность по закону штата Калифорния. Причиной стало неправомерное использование личных характеристик, включая голос, актеров, музыкантов и иных известных личностей для продажи подписок приложения по созданию дипфейк — Reface. С его помощью у пользователей появляется возможность «примерить на себя» лицо, голос своих кумиров. В некоторых странах голос человека охраняется на конституционном уровне как личное нематериальное благо. Это указано, например, в основном законе Перу (ч. 7 ст.2), Эквадора (ч. 18 ст. 66). Голос — биометрические персональные данные Голос — биологическая характеристика, служащая средством идентификации личности. По общему правилу, голос, бесспорно, относится к биометрическим персональным данным. Об этом прямо указано в нормах специальных законов. Однако важно понимать, что голос не всегда может быть обеспечен правовой охраной с этой стороны. Здесь важна цель, для которой были собраны физиологические данные в виде голоса. Биометрия осуществляется для идентификации конкретной личности. А если ее нет (голос присвоен другим, изменен), то нормы этих спецзаконов в части неверной обработки персональных данных вряд ли помогут. Рассмотрим на примере дипфейка, синтезированного аудио на основе оригинального образца, впоследствии обработанного при помощи ИИ. Говорить о цели идентификации здесь затруднительно. А синтезированный голос сам по себе не является биометрией, поскольку эти данные искусственно созданы, они не имеют прямого отношения к физиологическим особенностям конкретного субъекта. Дипфейк не может отражать биометрические особенности субъекта, а лишь создает их имитацию. Голос — объект смежных прав В контексте смежных прав также сложно говорить о защите голоса от дипфейков. Здесь есть право лица на исполнение и его неприкосновенность, а также право на фонограмму (запись исполнения). При этом, на мой взгляд, защита голоса через эти инструменты далеко не всегда приносит удовлетворительный результат. Из-за того, что фактически при обучении ИИ на базе различных материалов не вносится изменений в существующий объект, не модифицируется запись оригинала исполнения. Нейросеть обучается на базе разных материалов, считывает голос в разных интерпретациях, включая его красочность и эмоциональность. При синтезировании голоса силами ИИ фактически создается новый объект, самостоятельная запись, применяемая в иных целях. И получается, что корректно говорить о нарушении смежных прав лишь в тех случаях, когда вносятся специфические изменения в оригинальную версию — например, в оригинал голоса артиста в конкретной записи или в фонограмму и т.д. Нарушения публичных прав созданием голосовых дипфейков Кража голоса, создание его синтезированной копии на базе технологии дипфейк превращается в проблему не только гражданско-правового, но и публичного характера. Поскольку путем кражи идентичности личности через получение образцов голоса человека совершаются различные преступления в киберпространстве. Самым ярким примером, пожалуй, является мошенничество через телефонные звонки. Нарушители сначала пытаются любыми путями завладеть голосом конкретного человека, используя различные ухищрения. Например, позвонив ему от имени какой-то службы, записав разговор и затем использовав модифицированное аудио для атак на его родственников и коллег. Поэтому мы часто говорим о том, что не нужно долго разговаривать с мошенниками, поскольку иногда именно это и является их целью — записать как можно больше произнесенных жертвой слов. Мошеннические схемы с аудиодипфейками также разнообразны, начиная от звонков якобы родственников с просьбой о помощи до указаний со стороны руководителей или партнеров компании. Общий объем причиненного вреда гражданам по таким нарушениям за 2023 год исчисляется 19 млрд рублей. Возможность кражи голоса политических деятелей и его подделки может нанести огромный вред. Ведь мошенники посредством дипфейков распространяют фальшивые новости, сообщают о якобы принятых решениях по государственным вопросам. Ярким примером стал случай в 2018 году, когда экс-президент США Барак Обама якобы нелицеприятно высказался о действующем на тот момент президенте Дональде Трампе. Этот дипфейк, к слову, был создан намеренно, чтобы люди не верили всему тому, что они видят, а более тщательно проверяли информацию. Современные тенденции обеспечения охраны голоса и борьба с голосовыми дипфейками С целью обеспечения охраны голоса группой депутатов РФ была предложена конкретная инициатива (законопроект № 718834-8). Они рекомендовали внести изменения в Гражданский кодекс РФ, добавив положения об охране голоса по аналогии с изображениями как объекта личных неимущественных прав. Под защитой должна оказаться, по задумке, синтезированная модель голоса. Для ее создания и использования необходимо получить предварительное согласие гражданина (но есть и исключения). И тогда, если будут обнаружены материалы с голосом гражданина, размещенным без его согласия, у него будут установленные средства защиты прав в виде изъятия материальных носителей и уничтожения таких материалов по решению суда. Законы, направленные на борьбу с дипфейками, принимаются повсеместно и в других государствах. Например, в конгресс США был внесен законопроект, предполагающий наказание за использование ИИ для создания сгенерированных материалов на основании фото и видео, а также голосов людей. Этими положениями фактически презюмируется право собственности каждого человека на его личные неимущественные блага, включая голос. Возможность их передачи отведена только тому человеку, которому они принадлежат. При копировании и подделке установлен штраф, достигающий 50 тысяч долларов. Заключение Технологии ИИ развиваются с немыслимой скоростью, правовое регулирование попросту не поспевает за такими оборотами, поэтому многие проблемные вопросы пока остаются открытыми. Однако внесение законодательных инициатив в этой сфере может существенно помочь в борьбе с голосовыми дипфейками, оказать содействие в уменьшении случаев «кражи» голоса, его переработки. И ограничить возможности наживы для третьих лиц, использующих чужой голос. Каждый из нас может снизить вероятность кражи своего голоса. Для этого стоит ограничить публикации аудио- и видеоконтента в соцсетях, не общаться с подозрительными лицами по телефону, внимательно изучать договоры на предоставление права использовать запись голоса и вносить изменения в нее. Для того чтобы не стать жертвой мошенников с дипфейком, всегда стоит критически относиться к просьбам близких и коллег о переводе денег, особенно когда другая сторона очень настаивает на срочном решении вопроса.