RB.ru 21 января 2018

Не пора ли нам заговорить о «правах роботов»?

Фото: RB.ru
Скорее всего, у вас не возникнет никаких проблем с тем, чтобы отключить виртуального ассистента — например, Siri от Apple или Cortana от Microsoft. Подобные программы имитируют работу человека, но в них нет ничего человеческого. Мы чувствуем, что под сложной программной оболочкой нет никакой души.
Однако искусственный интеллект стремительно развивается. Уже совсем скоро мы можем почувствовать, что машинам подвластно нечто похожее на мысли и эмоции — даже несмотря на то, что они сделаны из металла и пластика, а не крови и плоти. Когда это случится, многое будет зависеть от нашего отношения к машинам: философы и ученые уже вовсю размышляют о будущем, в котором роботы заслужат — и получат — определенные права.
Это необязательно должны быть права человека. Но «если с вами работает автономный робот с самосознанием, стоит называть его личностью», считает Кристин Эндрюз (Kristin Andrews), философ из Университета Йорк в Торонто.
Робот-гуманоид София от компании Hanson Robotics. Фото: ITU Pictures
Эта тема вызывает сразу несколько трудных вопросов. Как обращаться к роботу, имеющему определенную степень самосознания? Что если программы с ИИ научатся испытывать эмоциональные страдания или боль? Стоит ли приравнивать отключение такой программы к убийству?
Роботы и обезьяны
Логичнее всего сравнивать эту ситуацию с движением за права животных. Правозащитники добиваются переоценки юридического статуса определенных животных, особенно старших приматов. Организации, такие как Nonhuman Rights Project из Корал-Спрингс, штат Флорида, утверждают, что относиться к шимпанзе, гориллам и орангутангам нужно как к самостоятельным личностям, а не чьей-то собственности.
Глава юридического отдела организации Стивен Уайз (Steven Wize) считает, что та же логика применима к любой автономной сущности, одушевленной или нет. По его мнению, если однажды мы создадим роботов, способных испытывать эмоции, «мы должны нести перед ними такую же правовую и моральную ответственность, которую пытаемся развить по отношению к животным».
Конечно, решить, какие машины будут достойны такого отношения, будет непросто, так как мы часто проецируем человеческие мысли и эмоции на неодушевленные объекты — и таким образом сопереживаем сущностям, которые вообще не испытывают эмоций.
Вспомним историю Спота — собакоподобного робота, созданного компанией Boston Dynamics. В прошлом году компания из Массачусетса показала видео о четырехногом роботе, которого пинали инженеры. Идея была в том, чтобы продемонстрировать отличную устойчивость Спота. Но некоторые люди увидели в этом нечто очень близкое к жестокому обращению с животными. Организация PETA выпустила заявление, в котором назвала видео со Спотом «неподобающим».
Кейт Дарлинг (Kate Darling), специалист Медиалаборатории MIT, получила похожие результаты после опыта с Плео, игрушечным роботом-динозавром. Плео не похож на реальное живое существо — с первого взгляда понятно, что это игрушка. Однако он запрограммирован так, чтобы создавалось ощущение о том, что он не только обладает определенным уровнем интеллекта, но и испытывать страдания. Если перевернуть Плео, он начинает скулить и просит перестать.
Фото: Трэвис Айзекс/Wikimedia Commons
Чтобы узнать, насколько мы готовы сопереживать даже самым элементарным роботам, Дарлинг дала участникам эксперимента некоторое время поиграть с Плео — а затем предложила уничтожить его. Большинство участников отказалось. «Люди подсознательно настроены на то, чтобы обходиться с роботами как с живыми существами, хотя на рациональном, сознательном уровне мы полностью осознаем, что они не реальны», — объясняет Дарлинг.
По мнению Дарлинг, даже несмотря на то, что Плео и Спот на самом деле неспособны чувствовать боль, наше отношение к этим роботам достойно внимания. «Для нас неприемлемо обращаться с ними жестоко — возможно, это один из уровней нашей эмпатии, отключение которого может повлиять на наше отношение к другим живым существам», — рассказывает Дарлинг. Именно этот вопрос поднимается в телесериале «Мир Дикого Запада», в котором рассказывается о тематическом парке, гости которого могут обращаться с суперреалистичными андроидами так, как им захочется.
Общение с роботами
На данный момент в грубом обращении с Плео или любым другим роботом нет ничего преступного, если он принадлежит вам. Но как быть с роботом, имеющим определенную степень сознания? И как вообще определить, имеет ли машина разум?
Пионер информатики Алан Тьюринг задался этим вопросом еще полвека назад. Тьюринг считал, что мы не сможем точно узнать, что испытывает или чувствует машина, так что лучший способ — попросту проверить, возможно ли поддерживать с машиной естественный разговор, как будто это другой человек (сейчас эту проверку называют тестом Тьюринга).
Джимми Фэллон беседует с роботом Софией на своем шоу. Фото: NBC
Учитывая сложность человеческого общения, построить машину, способную вести длительный словесный обмен — трудная задача. Но если нам все-таки удалось бы создать такой компьютер, нам следовало бы относиться к нему как к разумному живому существу, считал Тьюринг.
Раввин и профессор юриспруденции из Атланты Марк Голдфедер (Mark Goldfeder) пришел к похожему заключению: если существо ведет себя по-человечески, писал он, «я не стану тыкать в него чем-то острым, чтобы проверить, идет ли у него кровь. Ко всему, что ведет себя по-человечески, я обязан относиться как к человеку, и с этической точки зрения лучше ошибаться, сохраняя осторожность».
Из этого следует логичный вывод, что права должны полагаться существу не по биологическому признаку, а по еще более фундаментальному — степени личности.
О каких правах речь?
Если в конце концов мы станем считать некоторых машин с интеллектом личностями, какие юридические права мы должны им обеспечить? Если машина успешно пройдет тест Тьюринга, то, пожалуй, ей должно полагаться как минимум право на продолжение существования. Однако по мнению Роберта Спэрроу (Robert Sparrow), философа из Университета Монаша в Мельбурне, это только начало. Что будет, спрашивает он, если искусственный интеллект превзойдет человеческий? Спэрроу пишет: «Убийство машины, способной пройти тест Тьюринга, может быть не просто так же преступно, как убийство человека, но, в зависимости от способностей машины, может быть даже более преступно».
Возможно, с чисто логической точки зрения это имеет смысл. Однако по мнению Райана Кало (Ryan Calo), эксперта по робототехнике и информационному праву из Университета штата Вашингтон, человеческие законы вряд ли изменятся настолько сильно. «Наша правовая система отражает нашу базовую биологию, — объясняет он — Если однажды люди создадут искусственную личность, наши представления о законе придется полностью пересмотреть».
В видении Эндрюз главный вопрос для машин будет в том, признают ли их право на собственные интересы. Разумеется, определить эти интересы будет трудно — точно так же, как людям из одной культуры порой бывает трудно понять интересы представителей другой культуры. Однако если мы признаем что-то личностью, мы обязаны хотя бы попытаться поступить правильно. «Если мы решаем называть что-то „кем-то“, мы должны учитывать их интересы», — считает она.
Наверное, вполне закономерно будет ожидать, что эти интересы могут подразумевать право на существование, так что кнопка выключения может предстать для нас чем-то совершенно новым.
Источник
Материалы по теме:
Первый в мире робот с гражданством хочет создать семью
Скоро мы будем делить свои рабочие места с ИИ — радоваться этому или опасаться?
Откровения с Siri: почему люди изливают душу голосовым помощникам
Исследователи хотят научить компьютеры делать моральный выбор
Фото на обложке: ITU/Wikimedia Commons
Комментарии
Читайте также
Полицейские из Астрахани будут охранять в Волгограде порядок на ЧМ-2018
Ашхабад накрыл пылевой туман
Джонни Депп рассказал, что ему нравится в русских девушках
Жители микрорайона Солнечного Красноярска жалуются на грязную воду в кранах