Концепцию регулирования искусственного интеллекта обновили

Технологии искусственного интеллекта запретят использовать в образовании, если они будут только помогать им решать задачи, а не способствовать развитию учеников. Такой пункт включили в обновленную концепцию регулирования ИИ в России, которая начнет действовать в 2025 году. Документ, с которым ознакомилась «Парламентская газета», поднимает и другие актуальные вопросы, например по каким принципам нейросети будут помогать лечить людей и диагностировать заболевания, кто заплатит авторам музыки и книг, если их произведения использует ИИ, а также кто в конечном счете в ответе за вред, причиненный с использованием ИИ.

Концепцию регулирования искусственного интеллекта обновили
© Парламентская газета

Лучшие в мире законы

Утвержденная кабмином концепция правового регулирования в сфере ИИ действовала с 2020 года и завершится в 2024-м. Этот магистральный документ не нормативный акт прямого действия, но он определяет векторы развития законодательства. На основе концепции разрабатывались и принимались законы, например в России начали контролировать рекомендательные алгоритмы, ввели экспериментальные правовые режимы для безопасной отработки новых технологий, приняли Кодекс этики в сфере ИИ и декларацию об ответственном генеративном ИИ, то есть нейросетях.

Над проектом концепции на следующую пятилетку парламентарии и эксперты работали на площадке секции «Искусственный интеллект» Совета по цифровой экономике при Совете Федерации в течение года. На очередной встрече 3 декабря представили документ, который планируют утвердить до конца этого года, чтобы после подписания премьер-министром он начал действовать в феврале 2025-го.

Большинство экспертов — представители ведущих технологических компаний, банков, промышленных гигантов — согласились, что в России удалось создать одно из лучших законодательств в сфере ИИ в мире. Важно не растерять эти достижения и продолжить принимать законы, которые не станут стопором для развития технологий, но обеспечат технологический суверенитет России и будут безопасными, отметил первый зампред Комитета Совфеда по конституционному законодательству и госстроительству Артем Шейкин. «Мы осознаем, какие угрозы может нести ИИ, и есть немало тех, кто настаивает на жестком регулировании, но наша задача — найти компромисс», — отметил сенатор.

Крайний — всегда человек

Главным принципом регулирования ИИ в России должна оставаться человекоориентированность технологий, сказала, представляя концепцию регулирования, исполнительный директор управления национального развития ИИ Эльвира Чаче. Другие базовые принципы — безопасность, технологический суверенитет, уважение автономии и свободы воли человека, недискриминация, ответственность, квалифицированная экспертная оценка, этические принципы, запрет причинять вред человеку по инициативе систем ИИ, подконтрольность человеку, недопущение доминирования интересов конкуренции над интересами развития технологий, прозрачность и правдивость.

Есть и проблемы, которые до сих пор не решены законодателями, констатировала Чаче, например распределение ответственности. В концепции записали, что системы ИИ не могут сами отвечать за свою работу. Крайний всегда человек или организация, которые запрограммировали алгоритмы. Нет окончательного понимания и того, кому принадлежит результат интеллектуальной деятельности ИИ. Современные нейросети пишут стихи, рисуют картины и сочиняют музыку, но делают это не сами по себе, а после обучения на ранее созданных людьми произведениях, зачастую обесценивая творчество реальных писателей, художников и композиторов. В проекте концепции указали, что вопросы охраны интеллектуальных прав требуют дальнейшей проработки, а также отметили, что «растет запрос на маркировку» произведений, созданных ИИ.

Осторожнее с советами нейросетей

Единого закона об ИИ, как это есть в некоторых странах, в России принимать не планируют. У нас выбрали регулирование по отраслям с учетом их особенностей, рассказала начальник отдела развития технологий искусственного интеллекта Минцифры Вероника Строголева.

В концепции перечислили задачи по отраслям. Например, в сфере охраны здоровья указали на необходимость четко закрепить, кто отвечает за результаты работы ИИ при оказании медпомощи. Кстати, как рассказала Анна Мещерякова, занимающаяся внедрением ИИ в медицине, в системе обязательного медицинского страхования уже предусмотрели отдельные тарифы на услуги с использованием нейросетей. То есть ИИ сможет лечить россиян за госсчет. А регионам установили планку по внедрению медизделий с ИИ. Но вопрос ответственности все равно остается ключевым и непроработанным, заключила Мещерякова. «Кто отвечает за рекомендации, которые дают людям многочисленные приложения для здоровья?» — задала она риторический вопрос.

Не меньше правовых нюансов и в образовании — рынок уже наводняют приложения, способные решить любую школьную задачу, сообщил ректор «Университета Иннополис» Александр Гасников. Поэтому в концепцию включили раздел, в котором записали: «Недопустимы все формы академического мошенничества, когда задания выполняются вместо учащегося инструментами искусственного интеллекта, включая генерацию содержания текстов, выполнение тестов, и так далее».

В сфере транспорта предложили расширить перечень территорий, на которых испытывают беспилотные авто. Сегодня грузовые машины без водителей ездят по трассе М-12 «Нева», беспилотные такси тестировали в Москве и в Иннополисе. В сельском хозяйстве также предусмотрели еще большее применение беспилотной техники. ИИ также может повысить эффективность стройки и градостроительной деятельности в целом, помочь в управлении финансовыми активами и в ряде других сфер.