Войти в почту

Умных роботов предложили приравнять к источникам повышенной опасности

Если вкратце: слишком умные автоматы предлагается приравнять к источникам повышенной опасности. Тот, кто их установил, должен осознавать риски и отвечать за них. Для компенсации возможного ущерба предлагается ввести обязательное страхование ответственности роботов (а точнее - людей, заставивших этих роботов работать на себя). Также предлагается ввести государственную регистрацию некоторых видов роботов, например, роботов-курьеров, отдельных медицинских роботов и просто очень умных роботов. Исследование провел большой научный коллектив, в который в том числе входили некоторые резиденты Сколково. Недавно результаты были представлены рабочей группе "Нормативное регулирование" программы "Цифровая экономика". У роботов обязательно должны быть "черные ящики" и красные кнопки моментального отключения для предотвращения всевозможных ЧП "Это большое исследование является первым шагом на пути к регулированию робототехники и технологий искусственного интеллекта, - сказал "РГ" глава проекта, руководитель Исследовательского центра проблем регулирования робототехники и искусственного интеллекта АНО "Робоправо" Андрей Незнамов. - В мире есть считаные аналоги таких работ. Мы рассмотрели огромное количество различных правовых и регуляторных мер. При этом составили уникальный регуляторный ландшафт - вся первая часть исследования посвящена обзору зарубежного опыта". По его словам, эксперты-юристы, как правило, обсуждают всего несколько вопросов: будет ли робот иметь особый статус электронной личности и кто несет ответственность за его действия. Но это сейчас далеко не самые главные проблемы. "В работе над регуляторной частью мы активно взаимодействовали с представителями индустрии. Важно следовать принципу "не навреди", - говорит Андрей Незнамов. - Регулирование должно помогать развитию технологий. Вмешательство должно быть минимально необходимым. А в качестве ключевого документа необходима прежде всего стратегия развития отрасли". Юридические рекомендации вполне логичные. Робот, конечно же, не сможет отвечать за свои действия, нельзя делать из него стрелочника. Если машина причинила вред, надо искать человека. Кому отвечать - зависит от причин. Например, если случился сбой программы, держать ответ программисту. Если робот выполнял конкретные команды, отвечать будет оператор. Если робот самообучаемый, то тот, кто из людей больше всех повлиял на его обучение, тот и виноват. Кроме того, предлагается разработать правовые правила робототехники, вплоть до требований к датчикам. Например, оговаривается, что при разработке должна быть предусмотрена возможность контролирования действий робота со стороны человека. Кроме того, у роботов должны быть черные ящики и красные кнопки "выкл", чтобы можно было моментально отключить в любой момент. "Мы отчетливо понимаем, что создание в России передовой нормативно-правовой базы является первостепенной целью перехода к цифровой экономике и опираться здесь стоит в первую очередь на уже имеющийся опыт, - говорит руководитель российской практики в области ИС, ИТ и телекоммуникаций международной компании Виктор Наумов. - Мы надеемся, что проделанный нашими экспертами в сотрудничестве с АНО "Цифровая Экономика", Центром компетенций по нормативному регулированию цифровой экономики и экспертами рабочих групп труд станет надежным фундаментом для формирования в Российской Федерации самой современной нормативно-правовой базы в области регулирования информационных технологий и в свою очередь приложим все усилия, чтобы в дальнейшем способствовать осуществлению этой инициативы". Еще из любопытных выводов и предложений: эксперты не исключают, что могут быть введены возрастные ограничения на владение роботами. *Это расширенная версия текста, опубликованного в номере "РГ"

Умных роботов предложили приравнять к источникам повышенной опасности
© Российская Газета