Войти в почту

Пять законов робототехники РФ

Пять законов робототехники РФ

Искусственный интеллект становиться одним из важных инструментов информационных технологий, поскольку помогает находить решения, которые не смог найти человек. Именно поэтому различные государства приступили к имплементации в свое законодательное пространство нормативных норм, связанных с технологиями искусственного интеллекта, и РФ – не исключение. За прошедшие два года принято много достаточно интересных документов, связанных с ИИ. Ключевым для понимания деятельности государства является «Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.” [1]. Она является документом долгосрочного планирования, который определяет планы по созданию системы нормативного регулирования технологии искусственного интеллекта в России.

Не три, а пять

Собственно три закона робототехники были сформулированы Айзеком Азимовым еще во время Второй Мировой войны в научно-фантастическом рассказе «Хоровод», увидевшим свет в 1942 году. Они сформулированы следующим образом: “Первый Закон: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред; Второй Закон: робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону; Третий Закон: робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам”. Со времени опубликования этих законов достаточно много было написано фантастических произведений и снято фильмов, которые исследовали корректность сформулированных тогда тезисов и предложили много интересных концепций.

В частности, по сформулированным законам видно, что роботы не должны заботиться об общественном благе и соблюдении основополагающих прав и свобод человека. Поэтому в своих последующих работах Айзек Азимов добавил еще и Нулевой Закон, который формулируется так: “робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесен вред”. Причем впервые его сформулировала Сьюзен Келвин — в новелле «Разрешимое противоречие», а не сам Айзек Азимов. Хотя он подтвердил правильность претензий Сьюзи Келвин в романе «Роботы и империя» – собственно приведенная выше цитата именно из этого романа. Однако в фильме «Я, робот», который вышел на экраны в 2004 году, было наглядно продемонстрировано, что следование Нулевому Закону может привести к нарушению Первого – убийствам и ограничениям свободы людей, которые “неправильно” понимают общественное благо.

Авторы Концепции [1], которая была принята в виде распоряжения правительства №2129-р от 19 августа 2020 года, явно опирались на “Законы робототехники” в формулировании базовых этических норм для развития искусственного интеллекта. Вот как в тексте документа переосмыслены наработки американских фантастов (нумерация авторская):

“0. приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод (цель обеспечения благополучия и безопасности человека должна преобладать над иными целями разработки и применения систем искусственного интеллекта и робототехники);

запрет на причинение вреда человеку по инициативе систем искусственного интеллекта и робототехники (по общему правилу следует ограничивать разработку, оборот и применение систем искусственного интеллекта и робототехники, способных по своей инициативе целенаправленно причинять вред человеку); подконтрольность человеку (в той мере, в которой это возможно с учетом требуемой степени автономности систем искусственного интеллекта и робототехники и иных обстоятельств); проектируемое соответствие закону, в том числе требованиям безопасности (применение систем искусственного интеллекта не должно заведомо для разработчика приводить к нарушению правовых норм); недопущение противоправной манипуляции поведением человека”.

Естественно, что “Законы робототехники” здесь сформулированы сильно по-другому, но в них присутствует явный дух защиты не отдельного человека, но всего Человечества. Ведь понятно, что когда в нулевом пункте речь идет о “благополучии и безопасности человека”, то это относится не к конкретному человеку, но ко всем гражданам страны. Причем, к нулевому пункту, нужно также добавить и четвертый – “недопущение противоправной манипуляции поведением человека”. Здесь также речь идет о защите всего Человечества от манипуляций с помощью ИИ, но уже на более общем уровне – влиянии результатов деятельности искусственного интеллекта на массовое сознание – это очень важное требование, хотя и идет последним по списку. Также если обратить внимание на Третий Закон, то можно отметить, что он касается безопасности только самого робота, однако в реальности логично потребовать от робота соблюдения всех общественных норм, то есть, как сформулировано в третьем пункте, соблюдения роботом всех остальных законодательных ограничений. Если человек должен подчиняться закону, то почему роботы не должны поступать так же?

Запрещенные области применения ИИ

Следует отметить, что не все технологии искусственного интеллекта одинаково безопасны. Если такие области как предикативная аналитика, цифровые помощники или машинное зрение в массе своей достаточно безопасны для человека, то уже автономные вооружения, дипфейки или манипуляция новостными потоками вполне могут причинить вред как отдельному человеку, так и всему Человечеству. Поэтому для подготовки нормативных норм по ИИ необходимо выделить проблемные вопросы использования технологий искусственного интеллекта и обеспечить для них отдельное, более жесткое регулирование.

В частности, в Концепции проблемные моменты использования искусственного интеллекта перечислены в следующем виде:

– “соблюдение баланса между требованиями по защите персональных данных и необходимостью их использования для обучения систем искусственного интеллекта;

– определение предмета и границ регулирования сферы использования систем искусственного интеллекта и робототехники;

– идентификация системы искусственного интеллекта при взаимодействии с человеком, включая его информирование о взаимодействии с такой системой;

– правовое “делегирование” решений системам искусственного интеллекта и робототехники;

– ответственность за причинение вреда с использованием систем искусственного интеллекта и робототехники;

– правовой режим результатов интеллектуальной деятельности, созданных с использованием систем искусственного интеллекта;

– использование для принятия решений системами искусственного интеллекта вероятностных оценок и невозможность в ряде случаев полного объяснения принятого ими решения (проблема алгоритмической прозрачности систем искусственного интеллекта)”.

Фактически, этот список определяет те области, где наиболее важно подготовить нормативные документы для разработки и применения систем ИИ. В частности, к таким областям можно отнести биометрические и скоринговые системы, инструменты для скрытой слежки с помощью искусственного интеллекта и поддержки принятия решений, дипфейки и авторские права на результаты деятельности ИИ, автономные вооружения и использование искусственного интеллекта в средствах массовой информации. Скорее всего, именно для этих областей применения ИИ необходимо разработать механизмы контроля, которые будут обеспечивать общественную безопасности технологий и минимизацию ущерба от них как для отдельных людей, так и для всего Человечества в целом.

[1] http://publication.pravo.gov.ru/Document/View/0001202008260005