Agenda Media Group: мировая практика правового регулирования искусственного интеллекта

В апреле 2023 года фракция ЛДПР заявила о подготовке законопроекта об уголовной ответственности за использование дипфейков при финансовом мошенничестве. Однако в Правительстве не поддержали поправки в УК РФ. По мнению Agenda Media Group , регулирование по применению дипфейков необходимо — это важная и полезная инициатива, так как часто злоумышленники одними из первых осваивают передовые технологии. Эксперты агентства рассказали Sostav о законодательном регулировании нейросетей в мире и в России.

Agenda Media Group: мировая практика правового регулирования искусственного интеллекта
© Sostav.ru

Мировая практикаПравовое регулирование нейросетей и производимых ими продуктов — один из трендов и вызовов 2023 года. Помимо этого существуют комплекс этических вопросов и цивилизационных рисков, которые создаются бурным развитием ИИ. Недавно Илон Маск, Стив Возняк и более тысячи других экспертов выступили за приостановку на полгода обучения систем искусственного интеллекта, которые превосходят по мощности GPT-4. Цель паузы — понять, как контролировать эти системы.

В апреле этого года мы узнали об инициативах руководств США и Китая, которые направлены на регулирование этих вопросов и вызовов. The Wall Street Journal сообщает, что Администрация президента США Джо Байдена начала исследовать вопрос о необходимости регулирования сервисов искусственного интеллекта, включая чат-бот ChatGPT.

11 апреля Национальное управление по телекоммуникациям и информации США начало процесс разработки руководящих принципов, которые, с их точки зрения, должны гарантировать, что системы ИИ делают то, что они должны делать. И что, возможно, более важно, они не делают того, что не должны. «Ответственные системы искусственного интеллекта могут принести огромную пользу, но только если мы устраним их потенциальные последствия и вред», — заявил Алан Дэвидсон, руководитель данного управления.

Проект документ выложен для общественного диалога и по замыслу разработчиков призван ответить на четыре ключевых вопроса:

какие виды тестирования на безопасность должны проводить компании-разработчики ИИ; какие виды доступа к данным необходимы для проведения аудитов и оценок;как регулирующие органы должны обеспечивать безопасность систем ИИ;какие различные подходы могут потребоваться в различных отраслях промышленности, таких как трудовое право или здравоохранение. На сегодняшний день вопрос регулирования искусственного интеллекта в мире не имеет единого подхода. Однако закон об авторских правах, промышленных образцах и патентах Великобритании устанавливает, что автор литературного, драматического, музыкального или художественного произведения, созданного с помощью компьютера, — лицо, которое приняло необходимые меры для его создания.

В США в последнее время участились случаи протестов художников, копирайтеров и дикторов против использования нейросетей в сферах их профессиональной компетенции. В декабре 2022 года группа художников с портала ArtStation выступила против публикации изображений, сгенерированных нейросетями. В январе этого года ещё одна группа художников подала в суд на ряд нейросетевых платформ за использование авторских работ в процессе обучения нейронных сетей без согласия авторов.

Сейчас идёт судебный процесс художницы Крис Каштановой, которой отказали в правах на комикс, отрисованный нейросетями. Причём, художнице сначала зарегистрировали права на комикс целиком, а потом пересмотрели лицензию и убрали права на изображения. Это решение породило множество дискуссий на тему, что же может считаться достаточным вкладом человека в процесс создания произведения. Итоговое решения бюро регистрации авторских прав США выглядело так — Каштанова «является автором текста Произведения, а также подбора, согласования и расположения письменных и визуальных элементов Произведения». Но не автором изображений.

Евросоюз недавно сообщил, что планирует ужесточить регулирование сферы искусственного интеллекта. С таким предложением выступил еврокомиссар по внутреннему рынку Тьерри Бретон. Он заявил, что решения на базе ИИ, в частности, ChatGPT, могут применяться для создания фейков, мошенничества различного рода и плагиата. В Брюсселе обсуждается закон об искусственном интеллекте, который будет направлен на снижение рисков, представляемых различными моделями искусственного интеллекта. Вступление в действие этого закона намечено на 2023 год.

В законе об авторском праве в Австралии прямо указывается на требование, что автором может быть только «квалифицированное лицо». Это исключает возможность нейросети быть автором произведения. Аналогичная ситуация в Канаде, где автором произведения может быть только гражданин страны или лицо, проживающее там. Таким образом, правовое регулирование применяется только в случаях, когда компьютер представляет собой вспомогательный инструмент при создании объекта творчества, а не при полном создании произведения нейросетью.

Японское законодательство единственное в мире рассматривает вопрос о творчестве нейросетей. В стране предлагается ограничить охрану произведений, которые созданы искусственным интеллектом, и рассматривать их как товарный знак, отводя правовое регулирование в область недобросовестной конкуренции. При таком подходе права на цифровые произведения будут принадлежать создателю соответствующего алгоритма. Это может ограничить защиту популярных произведений и вывести их из сферы действия авторского права.

Создание законопроекта — важный шаг для защиты интересов граждан и предотвращения возможных преступлений. Однако необходимо учитывать, что дипфейки могут использоваться не только в криминальных целях и «не выплеснуть с водой ребёнка».

Алексей Парфун, генеральный директор Agenda Media Group:

Цифровые копии знаменитостей — это огромный «голубой океан». Образование, кинопроизводство, музыкальная индустрия, реклама: потенциальных выгодоприобретателей развития нейросетей, способных подменять видеоизображения, много. Наша компания осознаёт важность этой технологии и использует её в своей работе. Однако мы также придерживаемся принципов этики и не используем дипфейки для обмана потребителей. Мы считаем, что регулирование использования дипфейков должно быть более широким и включать не только наказание за их использование в криминальных целях, но и установление разумных и понятных правил их работы в маркетинге.

Создание своей системы защиты от дипфейков в российских банках — важный шаг для обеспечения безопасности финансовых операций. Но она не должна становиться тормозом на пути прогресса технологий искусственного интеллекта. В этом смысле передовым представляется опыт КНДР.

В Китае с 10 января 2023 года действуют правила, введённые Администрацией киберпространства Китая (CAC). Они запрещают создавать дипфейки без разрешения самого субъекта или во вред национальным интересам. Дипфейки разрешены в том случае, если не несут «вредоносную информацию» и маркируются как контент, созданный с помощью искусственного интеллекта. Маркировка обязательна для всего «нейросетевого» контента, и её нельзя скрывать. Данный путь представляется вполне логичным и понятным.

11 апреля управление по вопросам киберпространства КНР опубликовало проект «Меры по управлению службами генеративного искусственного интеллекта» и открыло его для комментариев. В документе прямо оговорено, что меры касаются продуктов, относящихся к технологиям, которые генерируют текст, изображения, звуки, видео, коды и другой контент на основе алгоритмов, моделей и правил. Заметный резонанс вызвала предлагаемая в этом проекте мера по обязательной маркировке сгенерированных изображений, видео и других видов контента.

Одна из статей предлагаемого проекта запрещает использовать генеративный контент в рекламе: «провайдер должен направлять пользователей к научному пониманию и рациональному использованию контента, созданного с помощью генеративного искусственного интеллекта, не использовать сгенерированный контент для нанесения ущерба имиджу, репутации и другим законным правам и интересам других лиц, а также не заниматься коммерческой рекламой или некорректным маркетингом».

Российская практикаВ России в настоящее время отсутствует чётко определённый правовой статус нейросетей и продуктов, созданных с их помощью. Ключевой нормой в регулировании выступает ст. 1257 Гражданского кодекса (ГК РФ), в соответствии с которой «автором произведения науки, литературы или искусства признаётся гражданин, творческим трудом которого оно создано».

В 2022 году законодатели в России предприняли попытку закрепить правовой статус цифрового искусства. В мае в Государственную Думу был внёсен законопроект с поправками к статье 1225 ГК РФ. Авторы инициативы предложили рассматривать невзаимозаменяемые токены (NFT) как интеллектуальную собственность. Законопроект не прошёл дальше в связи с отсутствием в российском законодательстве определений понятий «цифровой контент», «цифровой актив», «невзаимозаменяемые данные» и «блокчейн». Формирование глоссария и законодательных норм, которые касаются сферы ИИ, представляется сегодня одним из ключевых вызовов законотворцев. Остаётся лишь пожелать им удачи в этом и предложить помощь профессионального сообщества.

Помните, три закона роботехники в научной фантастике — обязательные правила поведения для роботов, которые впервые сформулировал Айзек Азимов в рассказе «Хоровод»? Первый закон категорически запрещает роботу вредить людям. Второй — приказывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону. Третий закон обязывает робота защищать свою жизнь, не нарушая первых двух.

Также некоторые отраслевые группы и организации, в частности Китай, пытаются сформировать и ввести принципы этического регулирования использования нейросетей. Они призваны обеспечить этическое использование нейросетей и защитить права и интересы пользователей.

Принцип прозрачности, который предполагает, что нейросети должны быть понятными и объяснимыми для пользователей.Принцип ответственности, который подразумевает, что создатели и владельцы нейросетей несут ответственность за их использование и возможные последствия.Принцип справедливости, который требует, чтобы нейросети не дискриминировали людей на основе расы, пола, возраста и других характеристик.Принцип безопасности, который гласит, что нейросети должны быть защищены от злоупотреблений и кибератак.Будем наблюдать за формированием международной и российской практики в сфере регулирования ИИ — впереди много интересного.