Войти в почту

Эксперт Орехович высказалась о том, по какому пути пойдет мировое регулирование ИИ

В то же время, в экспертном сообществе все чаще поднимается вопрос: а насколько безопасно использование так называемого искусственного интеллекта, основанного на машинном обучении, способного заниматься, например, предиктивной аналитикой, делать выводы и предлагать решения по заданным параметрам. Так, например, большое количество технических экспертов по ИИ считают, что продвинутые системы несут реальные риски для безопасности человечества. И тут речь не просто про "восстание машин". А про доказанные факты отклонения деятельности сложных систем ИИ от целей, заданных человеком (ну, то есть, по сути – про восстание машин). Проблема начинает осознаваться как очевидная в ряде юрисдикций, что выражается в принятии и разработке законопроектов, регламентирующих и ограничивающих применение искусственного интеллекта в определенных отраслях. Стоит отметить, что на наднациональном уровне работа по урегулированию направлений развития ИИ ведется уже довольно продолжительное время. Так, еще в 2019 году приняты рекомендации Совета ОЭСР по искусственному интеллекту, которые прежде всего связаны с четким назначением работы систем ИИ во благо для человечества, исходя при этом из постулатов безопасности и надежности, недискриминации, соблюдения прав человека, открытости и прозрачности с тем, чтобы люди могли предъявить претензии к итоговому результату их работы. Есть также и рекомендации ЮНЕСКО по этике искусственного интеллекта 2021 года, которые в целом исходят из того же понимания предназначения и использования ИИ. Пожалуй, наиболее четкие положения относительно регулирования искусственного интеллекта содержатся в актах Евросоюза, который пошел по наиболее революционному пути в попытке установить определенные ограничения в этом направлении - в прошлом году в ЕС были опубликованы два документа, направленных на регулирование ИИ: 1) Проект регламента ЕС об искусственном интеллекте; 2) Скоординированный план по искусственному интеллекту на 2021 год. И если второй документ играет довольно декларативную роль, обозначая основные приоритеты Евросоюза в области ИИ, например: достижение ЕС лидирующих позиций в области ИИ; привлечение инвестиций (к 2030 году 20 млрд евро в год); разработка образовательных программ; обучение работе с искусственным интеллектом на школьном уровне и др., то проект регламента по сути является попыткой законодательно урегулировать вопросы, связанные с: а) запретом определенных видов систем ИИ; б) созданием и выходом на рынок систем ИИ с высоким уровнем риска. Так, в 5 статье регламента определяются те системы, создание которых запрещается в принципе, а именно: - влияющие на человеческое подсознание с целью искажения его поведения и причинения вреда; - способные искажать поведение и причинять вред наиболее беззащитным лицам (детям, людям с отставанием в развитии и т.д.); - способные оценивать социальное поведение людей на основе их личностных характеристик; - осуществляющие дистанционную биометрическую идентификацию в режиме "реального времени" в публичных местах для целей обеспечения правопорядка. (исключение - поиск пропавших людей и т.д.). Интересно, что запрещают идентификационные системы (видеонаблюдение с биометрией) даже для органов правопорядка. Чтобы их использовать нужно получить специальное разрешение, а перед этим доказать, что по-другому решить проблему нельзя. Примеры исключений: поиск пропавших людей, преследование преступника личность которого уже установлена и получены санкции на его поимку. Противодействие терроризму, опять же, но не огульное, а вполне конкретное с подтверждениями. К высокорисковым системам ИИ проект регламента относит те системы, которые перечислены в приложении, например, системы, предназначенные для оценки учащихся в учебных заведениях или для оценки кредитоспособности физических лиц. К ним планируется предъявлять особые требования, включая оценку соответствия, качества данных, создание систем управления рисками, и обеспечения прозрачности принятия решений. При этом все подобные системы должны быть зарегистрированы в базе данных ЕС, промаркированы, а в случае изменения механизмов работы системы ИИ – регулятор должен быть проинформирован. За нарушение указанных норм предусмотрены внушительные штрафы: до 20 млн евро за несоответствие требованиям и до 30 – за создание запрещенных систем. Сегодня Совет Европы также пытается выработать свои подходы к регулированию искусственного интеллекта. К настоящему моменту создан комитет по ИИ, было проведено соответствующее исследование, которое пока не дало окончательного представления о том, каким может быть регулирование: пойдет ли оно так же по пути запрета каких-то определенных систем и ограничения – других. Или же оставит вопрос разработки систем исключительно на усмотрение разработчиков и пользователей. Возможно, документ Совета Европы, запланированный к принятию к 2023 году сможет дать ответ на этот вопрос. По какому пути регулирования развития ИИ идет Россия В нашей стране принята Концепция развития регулирования ИИ и робототехники РФ до 2024 года, где определяются национальные интересы в этой сфере. При этом провозглашается, что к запретам нужно относиться весьма осторожно, вместе с тем использование систем искусственного интеллекта не должно приводить к нарушению прав граждан. В 2021 году в России был принят Кодекс этики в сфере искусственного интеллекта, который также не содержит никаких запретов или даже ограничений на создание систем ИИ. При этом предусматривается, что все пользователи систем ИИ имеют право получать достоверную информацию о системах, вреде и пользе их применения. Кроме того, установлено, что, когда деятельность акторов (участников отношений в сфере ИИ) ИИ может привести к морально неприемлемым для человека и общества последствиям, актором должны быть приняты меры, чтобы предотвратить или ограничить наступление таких последствий. При этом, установлено, что акторы сами должны удостовериться, что применяемые ими алгоритмы и наборы данных, методы обработки используемых для машинного обучения данных, при помощи которых осуществляется группирование и/или классификация данных, не влекут их умышленную дискриминацию. Таким образом, представляется возможным предположить, что Россия к настоящему моменту не стремится в своем регулировании идти по пути ограничений сфер применения ИИ, в том числе осознавая риски такого использования в определенных областях, по сути перекладывая решение данного вопроса на актора. При этом представляется целесообразным в будущем, при регулировании ИИ на законодательном уровне, все же продумать вопрос о системах, несущих в себе высокую степень риска нарушения прав и свобод человека, и рассмотреть возможность введения особенностей регулирования и мер контроля при применении таких систем. Кроме того, очевидно, что в обозримом будущем актуализируется вопрос правового статуса произведений, созданных с применением систем ИИ, который тоже должен будет найти отражение в законодательстве. И в данном случае превалирующий на настоящий момент времени в экспертном сообществе подход о целесообразности применения при определении такого правового статуса норм, регулирующих смежные права, представляется наиболее логичным. Автор - член Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, директор по правовым инициативам Фонда развития интернет-инициатив (ФРИИ)

Эксперт Орехович высказалась о том, по какому пути пойдет мировое регулирование ИИ
© Газета.Ru
Газета.Ru: главные новости