Войти в почту

Эксперты ЮНЕСКО считают недопустимой монополию в сфере искусственного интеллекта

МОСКВА, 21 апреля. /ТАСС/. Участники международной экспертной группы ЮНЕСКО по разработке этических норм для сферы технологий искусственного интеллекта (ИИ) в ходе ведущихся в эти дни дискуссий пришли к общему мнению о недопустимости монополизации в области искусственного интеллекта. Об этом во вторник ТАСС сообщил представитель РФ в группе, директор Центра по научным и инженерным вычислительным технологиям для задач с большими массивами данных Сколковского института науки и технологий Максим Федоров. Сформированная по итогам 40-й сессии Генеральной конференции ЮНЕСКО специальная экспертная группа (UNESCO"s Ad Hoc Expert Group, AHEG), в которую вместе с представителями США, Канады, Великобритании, стран Евросоюза, Китая и других стран вошел российский ученый, в апреле приступила к работе над разрешением возможных этических противоречий в сфере искусственного интеллекта. Работающие в режиме конференцсвязи специалисты (около 20 экспертов) в итоге должны создать основу нормативного документа ЮНЕСКО с рекомендациями в этой области. "Речь идет о том, что не должно быть единого владельца у искусственного интеллекта. Не должно быть монополии - ни у страны, ни у компании, ни у отдельных личностей. Это правильно по целому ряду аспектов, и сейчас в экспертной группе ЮНЕСКО согласие по этому вопросу есть. Однако в этой области далеко не все просто, сразу возникает вопрос контроля и может произойти перегиб в другую сторону", - сказал Федоров. Он также сообщил, что сейчас на площадке ООН по вопросам образования, науки и культуры идет поиск ответов на вопросы, что делать с уже существующими в мире технологическими монополиями де-факто и какими должны быть механизмы защиты от монополизации сферы искусственного интеллекта. По этим и другим вопросам позиция российских представителей и ряда других стран основана на принципах безусловного приоритета интересов человека, безопасности и свободы выбора, добавил он. ИИ как член общества В ходе обсуждения единой этической концепции для технологий искусственного интеллекта ряд экспертов со ссылкой на подходы некоторых восточноазиатских стран выступили с предложением наделить искусственный интеллект статусом "квазичлена общества", подобно юридическому лицу, со своими правами и обязанностями. "Эта тема очень опасна. То есть, создается ИИ как некая новая сущность, которая живет сама по себе, но у нее есть права - как у члена общества. Мы долго обсуждали, что такое разум, сознание и интеллект в этом контексте, но все-таки удалось повернуть обсуждение к тому, что именно субъектом общества может стать тот, кто может страдать: человек может, а алгоритм - нет. Эти мысли также прослеживаются в работах визионера Юваля Ноя Харари", - сказал Федоров, добавив, что вместе с Россией противниками создания "квазичлена общества" выступили ряд экспертов со ссылками на уже принятые регуляторные документы в области ИИ, в том числе в рамках Евросоюза. В основе создания этической среды развития технологий искусственного интеллекта должен быть "человекоцентризм", при котором создание некоторых видов искусственного или симбиотического разума было бы под строгим запретом, подобно клонированию людей, убежден российский ученый. Ответственность Участники дебатов также предлагают наделить роботов и алгоритмы "персональной ответственностью" для того, чтобы совершившую ошибку машину или систему можно было бы "наказать". "Лукавство здесь в том, что тот, кто продал робота, получил прибыль, тот, кто его использует, по сути, тоже извлекает пользу. И если робот совершает ошибку, которая влечет жертвы и убытки, то вроде бы никто не виноват - давайте накажем робота. Но его же кто-то изготовил и купил. Получается, что производители не хотят брать себя ответственность и фактически перекладывают ее на потребителей систем", - продолжил эксперт. К примеру, при использовании купленной программы пользователь не сможет запросить техподдержку в случае возникновения ошибок. Вместо этого производитель просто удалит бракованный продукт с диска в качестве "наказания", объясняет собеседник ТАСС. Доступ к ИИ - обязанность или право? Еще одна тема обсуждения - возможность доступа людей к инфраструктуре искусственного интеллекта. Часть экспертов предлагает наделить правом использования таких систем каждого человека на Земле. Однако Максим Федоров видит в этом угрозу навязывания людям технологий против их воли. "Сейчас нам с коллегами вроде бы удалось прийти к общему мнению, что life choice (жизненный выбор, англ. - прим. ТАСС) - это дело каждого конкретного человека. Надо уважать права людей, которые, кстати, не обязаны объяснять, почему они не хотят пользоваться алгоритмами", - сказал Федоров, упомянув в качестве примера амишей - представителей протестантов-последователей Якоба Аммана в США, которые не используют гаджеты, интернет и даже электричество. "Я считаю, что люди должны иметь право доступа к технологиям, но и также они должны иметь и право выбора, и право быть полноценными членами общества без использования этих технологий. Почему? Кто-то - в силу возраста, кто-то в силу религиозных убеждений, кто-то в силу опыта и других обстоятельств. Но это очень тонкий вопрос, потому что мы лавируем между возможностью доступа, которая у развивающихся стран может отсутствовать, и "подсаживанием" всех людей на определенный продукт в других странах", - добавил он. Влияние на экологию Участники обсуждения также рассматривают перспективы развития технологий искусственного интеллекта и влияния этого процесса на экологию с учетом возрастающих энергозатрат и объемов компонентов инфраструктуры. Представитель России не исключил вероятности подписания в будущем аналога Киотского протокола на площадке ЮНЕСКО, который бы ограничивал негативное влияние на окружающую среду. "Насколько это затронет Россию - неоднозначный вопрос. По уровню развития инфраструктуры наша страна пока не дотягивает до среднемирового уровня оснащенности, но мир меняется. В принципе, у нас с энергоносителями все в порядке, много "холодных" территорий для размещения суперкомпьютеров и центров обработки данных", - пояснил эксперт. Ожидается, что подготовленный на основе выводов экспертов нормативный документ будет принят ЮНЕСКО в 2021 году.