Ещё

Искусственный интеллект останется аморальным, несмотря на призывы Ватикана 

Искусственный интеллект останется аморальным, несмотря на призывы Ватикана
Фото: ИА Regnum
Искусственный интеллект (ИИ) вызывает тревогу у . На прошлой неделе Ватикан издал резолюцию по этике использования искусственного интеллекта. Эта резолюция, подписанная совместно и , устанавливает ряд принципов разработки и внедрения технологий, основанных на ИИ. Она также обязывает подписавших его участников сотрудничать с Римской «в целях продвижения „алгорэтики“, то есть этического использования ИИ».
На первый взгляд, резолюция Ватикана является своевременной и исполненной благих намерений. Однако сделать ИИ более этичным вряд ли удастся по ряду существенных причин.
Названная Римским Призывом к этике ИИ резолюция добровольно обязывает подписавшие её стороны придерживаться шести принципов при разработке ИИ:
1. прозрачность,
2. инклюзивность,
3. ответственность,
4. беспристрастность,
5. надежность,
6. безопасность и 7. конфиденциальность.
Учитывая, что искусственный интеллект уже имеет плохую репутацию в плане дискриминации женщин и этнических меньшинств, необходимость рассмотрения его этических последствий с каждым днём становится все сильнее. Поэтому нет ничего удивительного в том, что подписавшие Призыв провозглашают это событие важной вехой в развитии искусственного интеллекта.
«Microsoft гордится тем, что подписала Римский Призыв к этике ИИ, который является важным шагом в продолжении вдумчивого, уважительного и всеобъемлющего диалога о пересечении цифровых технологий и человечества», — сказал президент Microsoft .
Вице-президент IBM  также похвалил данную инициативу за то, что в ней сосредоточено внимание на вопросе о том, кто выиграет от роста роли ИИ в нашей жизни:
«Римский Призыв к этике ИИ напоминает нам о том, что мы должны тщательно выбирать, кому ИИ принесет пользу, и мы должны делать значительные и согласованные инвестиции в людей и их навыки. Общество будет больше доверять ИИ, когда люди увидят, что он строится на основе этики и что компании, стоящие за ИИ, непосредственно решают вопросы доверия и ответственности».
Нет никаких сомнений в том, что ИИ в частности и IT-индустрия в целом имеют серьезные проблемы, связанные с этикой их деятельности. Однако крайне маловероятно, что инициатива Ватикана по ИИ внесет существенный вклад в гарантированное использование ИИ, опирающегося на этику, приносящего пользу всем, а не только корпорациям и правительствам, использующим ИИ в экономических и политических целях.
Во-первых, несмотря на разговоры о «сотрудничестве» между Церковью, научным сообществом и IT-компаниями, Римский Призыв к этике ИИ не содержит никакой практической, повседневной стратегии для работы над ее более широкими целями. Нет никакого рабочего графика, никаких запланированных встреч, семинаров, конференций или проектов, поэтому трудно представить, как вызывающий похвалы Призыв к более «этичному» ИИ будет фактически реализован на практике.
Призыв к этике ИИ, скорее, является абстрактным побуждением компаний ИИ к разработке этических норм, чем конкретным планом работ над этой темой. Такое предположение высказал архиепископ Винченцо Палья, президент Папской академии жизни, который подписал Призыв от имени Ватикана.
«Цель Призыва — создать движение, которое будет расширяться и вовлекать других членов: государственные учреждения, негосударственные организации, отрасли и группы, чтобы установить курс на разработку и использование технологий, полученных с применением ИИ, — говорит он. — С этой точки зрения мы можем сказать, что подписание Призыва — это не кульминация, а отправная точка для дальнейшей политики, которая кажется еще более срочной и важной, чем когда-либо прежде».
Во-вторых, сами шесть принципов сформулированы туманно и открыты для широкой субъективной интерпретации. Более того, любой, кто имел какой-либо опыт работы с каждым из принципов, понимает, что корпорации и люди воспринимают их совершенно по-разному.
Например, «конфиденциальность» для такой компании, как, скажем, Facebook, вероятно, не является реальной конфиденциальностью. Facebook, конечно же, может гарантировать, что другие члены сообщества каким-то образом не могут просматривать ваши сообщения и фотографии в этой социальной сети. Однако Facebook отслеживает практически всё, что вы делаете на его страницах и вне его сайта, и это не является полной конфиденциальностью. Это приватность от других людей, а не от компаний.
Аналогично IT-компании в будущем могут великолепно обеспечить защиту данных от киберпреступников, использующих в своей незаконной деятельности алгоритмы ИИ. Тем не менее быстрый рост использования ИИ для кражи данных неизбежно приведет к соответствующему быстрому росту получения персональных данных IT-корпорациями и продаже их другим корпорациям. Опять же мы получаем конфиденциальность от людей, а не от компаний.
Похожие замечания можно было бы сделать и в отношении других принципов. В случае прозрачности «объяснимый ИИ» обычно работает только в определенных уровнях сложности, поэтому не каждый аспект ИИ может быть полностью прозрачным и объяснимым. Если говорить по существу, то IT-компании могут объяснить технические параметры, которые они установили для своих моделей ИИ, но не могут объяснить более широкие деловые, коммерческие, социальные и даже политические последствия, которые эти модели могут иметь в будущем.
Кроме того, некоторые из этих принципов содержат в себе тавтологию, что делает их почти бессмысленными. Третий принцип — принцип ответственности — гласит:
«Те, кто проектирует и внедряет использование ИИ, должны действовать ответственно. Проще говоря, чтобы быть этичным, вы должны нести ответственность».
Действительно, крайне полезное указание.
Кроме того, существует глубокое заблуждение, которое подрывает сущность двух других принципов — беспристрастности и инклюзивности.
Согласно Призыву к этике ИИ, беспристрастность диктует, что разработчики ИИ не должны действовать предвзято. Возможно, разработчики могут избежать преднамеренной и злонамеренной предвзятости, но предвзятость неизбежна при разработке любого вида ИИ, потому что разработчики должны выбирать определенный набор данных при обучении своих моделей, и они должны задать определенные факторы или параметры, которые любой алгоритм будет использовать для обработки этих данных. Это всегда влечет за собой определенную степень предвзятости, так как ИИ не может включать в себя абсолютно все данные и все параметры.
Иными словами, этические принципы ИИ Ватикана слишком иллюзорны и расплывчаты. Ситуация усугубляется еще и тем, что в самой формулировке задачи по созданию этики ИИ заложена исходная ошибка, которая делает эту задачу неразрешимой. Проблема, которая действительно должна быть решена, это не «этика ИИ», а, скорее, этика каждой компании и организации, которая стремится разработать и внедрить ИИ, а также этика экономической и политической системы, в которой работают эти компании и организации. Как обычно, мы пытаемся лечить симптом, а не болезнь. Поэтому не стоит делать акцент на прозрачности и надежности ИИ-системы, если она будет использоваться компанией, чья бизнес-модель основана на эксплуатации рабочих, обмане потребителей или незаконной слежке и шпионаже.
Ватикан признает существование этих спорных вопросов, даже если призыв к этике ИИ напрямую не затрагивает его. Архиепископ Винченцо Палья говорит:
«Создание и использование искусственного интеллекта имеет политическое измерение, которое связано не только с ростом индивидуальных и чисто функциональных преимуществ ИИ. Иными словами, недостаточно просто верить в моральные качества исследователей и разработчиков устройств и алгоритмов. Существует необходимость в создании промежуточных социальных институтов, которые могли бы объединить тех, кто пользуется продуктами, созданными на основе ИИ, выражать их этические чувства».
Действительно, если компании не стремятся быть этичными в целом, то никакие инициативы по «этическому ИИ» не остановят их от использования ИИ неэтичными способами. И в этом отношении интересно отметить тех, кто не подписал принципы ИИ, предложенные Ватиканом. Складывается впечатление, что в настоящий момент подавляющее большинство мировых корпораций хотят использовать ИИ в неэтичных целях.
Тем не менее архиепископ Палья подтверждает, что Ватикан работает над привлечением других корпораций.
«Конечно, работа продолжается, — говорит он. — Мы налаживаем контакты с другими компаниями, чтобы создать Призыв на основе компромиссов. Мы запланировали очередную встречу, ровно через год, для проверки проделанной работы».
Но без большего числа подписантов, без более подробного изложения шести принципов и без рассмотрения основополагающих вопросов социальной, экономической и политической этики «Призыв Ватикана к этике ИИ» вряд ли станет серьезным документом. На данный момент это похоже на PR ход: с одной стороны, Римская католическая церковь может казаться «влиятельной», а с другой стороны, крупные IT корпорации, такие как IBM и Microsoft, могут казаться «этичными». Но будем надеяться, что история докажет ошибочность такого скептицизма.
Перевод Владимира Киберова
* * *
Комментарий ИА REGNUM
Напомним, что «Римский Призыв к этике ИИ» в конце февраля этого года также подписал генеральный директор Продовольственной и  (FAO) Цюй Дунъюй. В разрезе сельского хозяйства документ призывает к эффективному использованию возможностей ИИ для создания устойчивых продовольственных систем.
Призыв был также подписан министром IT-инноваций и цифровизации Италии госпожой Паолой Пизано.
Этика взаимодействия ИИ и человека появится в нашей стране совсем скоро — уже в этом году. Такое обещание в декабре 2019 года оставил нам бывший вице-премьер , говоря о важности четко провести границу между экспертной поддержкой человеческих решений и принятием решения за человека. Разработкой этических норм планировал заняться . Над этикой ИИ правительство призвал задуматься президент РФ , который на пленарном заседании конференции по искусственному интеллекту Artificial Intelligence Journey, состоявшемся в начале ноября 2019 года, сказал следующее:
«Предлагаю профессиональному сообществу, компаниям подумать над формированием свода этических правил взаимодействия человека с искусственным интеллектом. Мы с вами должны обязательно помнить: нельзя изобретать технологии ради самих технологий, и наша главная цель — это устойчивое гармоничное развитие, рост качества жизни и новые возможности для людей, для граждан. Безусловно, потому, что человек является высшей ценностью».
Как сообщает РИА «Новости», Московская духовная академия создала на своей базе Центр исследований в области биоэтики и высоких технологий. Центр занимается изучением искусственного интеллекта, робототехники, биодисциплин с точки зрения православного мировоззрения.
Видео дня. В Челябинске началась подготовка воздушной части парада Победы
Комментарии
Читайте также
Новости партнеров
Новости партнеров
Больше видео