Игорь Чубаров: «Только машины могут исполнить заповедь «не убий»
Развитие цифровых технологий все более осознается как источник не только технических или экономических, но и этических проблем. Стандартной темой научных дискуссий становится так называемая «цифровая этика». О том, в чем заключается ее специфика и какие вызовы стоят перед моральным сознанием современного человека в связи с развитием технологий, мы беседуем с доктором философских наук, проректором Тюменского государственного университета (ТюмГУ), директором Института социально-гуманитарных наук Игорем Михайловичем Чубаровым. В настоящее время он открывает совместную с ИФ РАН научную лабораторию по биоэтике и биоправу и заведует открытием новых образовательных программ по данным направлениям в ТюмГУ, а также является руководителем научного проекта, поддержанного грантом РФФИ 20–411–720010 «Современные культурные тренды». Игорь Чубаров, д-р филос. наук, проректор Тюменского государственного университета, директор Института социально-гуманитарных наук Почему этика? — Игорь Михайлович, первый вопрос простой: почему «цифровая этика»? Понятно, что цифровые технологии имеют все большее значение для нашей жизни, но почему они считаются моральным вызовом, что в них вообще этически значимого? — Во-первых, один из самых актуальных вопросов, который сегодня беспокоит массовое сознание, — это не заменят ли нас машины в принятии решений, связанных c фундаментальными моральными ценностями: добром, честностью, общественным благом и т.д. Не будут ли эти решения противоречить той морали, которая де-факто уже принята в наших обществах? Этот вопрос связан с появлением новых акторов, новых субъектов этики, ведь традиционно считалось, что субъектами этики являются только люди, наделенные свободой воли и ответственностью. Но сегодня, делегируя многие решения технике, мы должны отдавать себе отчет в том, какие это будет иметь последствия для межчеловеческих отношений. А последствия здесь очевидны: трансформируется наше понимание добродетелей, меняются представления о том, что такое хорошо, а что плохо — в зависимости от того, как отработаны вопросы решения проблем искусственным интеллектом в каких-то специальных сферах деятельности, например связанных с войной, медициной, и еще целым рядом направлений, в которых уже задействован искусственный интеллект, скажем, образованием. Второй момент связан с тотальным проникновением цифровых технологий в нашу повседневную жизнь; с тем, как из-за использования различных гаджетов и сервисов меняются наши межличностные отношения, представления о добре и зле, безобразном и прекрасном. И дело не только в том, что большая часть нашего общения опосредована ими фактически, но и в том, что каждая из технологий привносит в нашу, даже бытовую, коммуникацию дополнительный смысл, причем уже на этапе выбора того или иного средства связи: телефонный звонок, e-mail, сообщение в WhatsApp или Viber, «ВКонтакте» или Facebook и т.д. То, какие мессенджеры мы используем, сегодня не менее важно, чем то, что мы посредством них сообщаем, так как этот выбор тоже задает определенную этическую, эстетическую и смысловую рамку, конституируют наши переживания, эмоции и чувства, добавляя нечто существенное к содержанию самих сообщений. То, какие мессенджеры мы используем, сегодня не менее важно, чем то, что мы посредством них сообщаем, так как этот выбор тоже задает определенную этическую и смысловую рамку. — Послать сообщение по WhatsApp — не то же самое, что по е-мейлу? — Давайте обратимся к конкретному примеру. Если написать своей девушке или молодому человеку, что мы с тобой расстаемся, в WhatsApp — это будет как минимум оскорблением. А если мы отправляем сообщение как e-mail, помещая данную информацию в какой-то контекст, это уже более-менее знак уважения, хотя, конечно, и в том, и в другом случае — проявление некой трусости. Если же мы звоним по телефону или в Skype, или встречаемся в Zoom, чтобы обсудить это, будучи удаленными друг от друга или боясь прямого контакта, это уже почти аналог реальной встречи. Понимаете, коммуникативные посредники меняют не только архитектуру наших отношений, но и их смысл — привносят в них не только новое темпоральное, временное, измерение, но и особым образом организуют наши переживания, эмоции, чувства. С другой стороны (ранее я уже упомянул об этом), сами мессенджеры добавляют нечто существенное к содержанию сообщений. Так, если мы отправляем сообщение в WhatsApp и наш партнер на него не отвечает, то очевидным образом можно предположить, что он просто занят. Однако если мы видим, что сообщение прочитано сразу, а ответ следует спустя два часа или больше, это уже расценивается как знак нежелания продолжать общение или даже намек на желание расстаться. Кстати, огромное количество роликов в TikTok посвящено этой теме: как мужчины и женщины реагируют на подобные ситуации. И это одна из актуальных проблем современной этики— выделить, проанализировать и классифицировать идущие от программ и приложений добавочные элементы смысла. (Ср.: Tanja Prokić: “WhatsApp, Love? Fragmenteeiner Digitalisierung der Liebe.”. В: Peter Clar / Julia Prager (Hgg.): Was bleibt von Fragmenteneiner Sprache der Liebe? Wien/Berlin: Turia&Kant, 2021). — В XIX веке был еще такой жест — возвращение писем нераспечатанными. — Сегодня это происходит в течение нескольких минут или часов. И люди, которые находятся в постоянном контакте, интерпретируют цифровые следы, эти знаки, с этической точки зрения и на основании этого принимают решения о том, как к ним относятся их собеседники, кому уместно написать в Facebook, а кому — в ВК, кому уместно написать в WhatsApp, а кому — в Viber. Это разные люди — и по социальному статусу, и даже по своему характеру. Сейчас исследователи этой темы пытаются это глубинно и системно анализировать и интерпретировать и, можно сказать, закладывают основание для нового цифрового морального кодекса (см. напр.: Оксана Мороз, «Тенденции развития цифровой среды и новая этика»). Конечно, он не будет иметь принудительного характера, не будет содержать жестких правил и запретов, он скорее про понимание, про то, как сегодня перестраиваются межличностные отношения, как их поддерживать в Сети, про то, чтобы адресат не только читал ваши сообщения, но и отвечал на них адекватно. Этика — это вообще про общение, про то, кого и как мы вовлекаем в него. Так или иначе, мы находимся и взаимодействуем в едином языковом и культурном пространстве (сегодня оно формируется благодаря технологиям и включает все больше акторов), потому эти вопросы носят принципиально этический характер. Этика и соцсети — Относится ли к этому же кругу та проблема, что, как мы видим, общение в соцсетях значительно менее сдержано какими-то этикетными нормами? — Разумеется. Этикет тоже преобразуется. Есть цифровой, сетевой этикет — правила поведения в Сети, и этот феномен исследуется и философами, и социологами (сама идея сетикета, или нетикета, сформировалась еще в конце XX века). Когда мы общаемся в Сети, мы ограничены возможностями выражения своих чувств, эмоций, мыслей. Например, вряд ли кто-то, кроме близкого друга, будет читать ваши пространные размышления в WhatsApp или Telegram и уж тем более прослушивать долгие аудиосообщения. В профессиональной, да и повседневной коммуникации на бытовом уровне мы ищем новые способы выражения, отсюда вся эта тема со смайликами, эмоджи, стикерами, лайками — это формирование другого типа визуальных взаимоотношений. Введение этих новых визуальных элементов восполняет дефицит возможностей выражения в письменных сообщениях. И я скорее смотрю на новую сферу электронной коммуникации как техноутопист, как энтузиаст этого дела. Я считаю, что непосредственные отношения, живое общение, об утрате которых часто жалеют «консерваторы», сами по себе были очень травматичными, они были связаны с тяжелыми этапами российской и мировой истории, когда люди теряли деньги и достоинство, свои привычные профессии и социальный статус, близких и родных, дружбу и любовь — я имею в виду 90-е годы, все, что связано с нестабильностью в экономической и политической жизни, и там уже дальше по списку: поколенческие проблемы, гендерные и так далее. Все они связаны между собой в единую сложную систему. В ней надо разбираться, в том числе изучая изменения этических принципов. Но последние не то чтобы исчезли, они изменились. Поэтому нельзя однозначно заявлять, что сегодня межличностные отношения утратили моральную ценность, стали поверхностными и во всем этом виноваты гаджеты и новые разработки. Коммуникативные цифровые технологии скорее пытаются, или помогают, восполнить те потери и дефициты, которые возникли в реальной социальной жизни. Они, по сути, протезируют часть коммуникации, которая в реале приводила к социальным взрывам или к потере искренности. В какой-то мере современные средства коммуникации показывают, что происходит в обществе, обнажают те ценности и смыслы, которые определяют сегодня и межчеловеческое общение, и человеко-машинные взаимодействия. — Пандемия усилила эти тенденции? — Ковид внес в эту тему совершенно особый акцент. Давайте честно. По сути, мы о той реальности, в которой находимся, не только социальной, но и природно-социальной, мало что знаем. И она время от времени подкидывает человечеству неприятные сюрпризы. Таким сюрпризом стала глобальная пандемия Covid-19. И цифровые технологии — почти единственное, что позволило нам не утратить человеческий облик, не потерять наши связи и сохранить практики в период кризиса мирового масштаба (особенно если вспомнить начало развития событий в 2020 году). При этом обнаружилось, что наши технологии недостаточно развиты, что не все имеют к ним доступ. А то, что они не вполне позволяют воссоздать ситуацию непосредственной коммуникации, — еще более важный вопрос. Но нельзя постоянно ностальгировать о прошлом. Становится очевидно, что благодаря цифровым технологиям общество интегрируется, люди не теряют профессиональных связей, продолжают делать свою работу и даже вести обычную жизнь: приобретать необходимые товары и пользоваться различными услугами. Кроме того, цифровые медиа еще и создают новые качества этих коммуникаций. Они отражают реальную конкуренцию в обществе, они позволяют получать преимущества тем, кто лучше разбирается в них, кто активно развивается не только в плане пользования, но и в плане производства новых цифровых возможностей. В области образования, например, это очень актуальная тема — сейчас студент любого направления подготовки, будь то гуманитарий или естественник, должен обладать необходимым уровнем цифровой культуры. И этика составляет ее важную часть. — С учетом того, что компьютеры все лучше переводят, скоро это знание будет студенту важнее, чем знание иностранного языка. — Знание иностранного языка все-таки важно, например для личного общения, но, возможно, вы правы, и его значение сегодня переоценено. Онлайн-переводчик DeepL, конечно, не позволяет перевести текст уровня Гете или Паунда, но инструкции по использованию тех же девайсов он перевести может вполне корректно, равно как и простые социологические тексты. Сейчас уже постепенно легитимируются машинные переводы, искусственный интеллект сделал серьезный шаг вперед в этой теме. Я видел несколько книг, которые выполнил «Яндекс-переводчик». Правда, машинный перевод все же еще контролируется человеком. Понимаете, человеко-машинные отношения — не односторонни. Более того, машина — это то, в чем современный человек узнает самого себя. Так в истории было неоднократно. В медиа человек себя узнавал, в технике узнавал, усиливал и развивался дальше. Поэтому на отношения с цифровыми машинами нужно смотреть диалектически. Машина контролирует человека — Продолжая тему соцсетей, как вы относитесь к тому, что можно было бы назвать проблемой «цензуры Твиттера»? С одной стороны, «Фейсбук» и «Твиттер» — частные компании, но к ним сейчас начинают предъявлять претензии как к администраторам глобального публичного информационного пространства, которые должны обеспечивать политическую корректность, нравственность, запрет пропаганды наркотиков и вообще отчасти несут ответственность за то, что люди через эти платформы сообщают. — Здесь важно учитывать контроль со стороны государственных органов, причем не только в России. В Китае, в Америке, в Европе подходы к этой проблеме варьируются, но центральная власть должна контролировать эти вещи, это общее место, это очевидно. И как быть компаниям, которые более-менее независимы? Они не могут просто игнорировать это, поэтому они должны вводить иногда такие меры, которые в глазах среднестатистического европейца, для которого главной ценностью является свобода, или исполнение собственных желаний, выглядят как цензура. Пользователи воспринимают это как какую-то глупость, что-то излишнее, как что-то, связанное с недостатком понимания, когда, например, в «Фейсбук» какое-то изображение, которое с точки зрения автора поста кажется вполне невинным, воспринимается и блокируется алгоритмом как порнография. Нужно либо все разрешить, либо развивать дальше и усложнять распознание образов, то есть вопрос — просто в «эстетическом воспитании» искусственного интеллекта, пресловутом машинном обучении. Компании облагают большими штрафами в случае невыполнения общих требований, достаточно жалобы одного пользователя. Поэтому ограничения неизбежны, но они носят временный характер. С развитием технологий этика таких корпораций, как «Фейсбук» и «Твиттер», будет меняться и более-менее синхронизироваться с тем, что имеет место в «большом обществе», в реальных отношениях людей. Реальное и цифровое уже и так тесно переплетены, но разница именно в том, что цифровое выглядит пока немножко неповоротливым: оно отстает от непрерывно изменяющихся отношений к этим запретам в обществе. — Не технологизируется ли сама этика? Раньше мораль казалась чем-то эфемерным, что есть в человеческих головах, но не фиксируется в законах. Сейчас этика сама становится чем-то вроде индустрии: появляются этические кодексы, этические комитеты, биоэтика, прикладная этика. А еще ее можно воплотить в правилах для искусственного интеллекта. — Конечно, технологизируется. В этом и вызов, потому что технологии бывают разные. Бывают технологии, которые приводят к разрешению нерешенных проблем, например проблемы насилия. А бывают технологии, которые, наоборот, усиливают и укрепляют определенные социальные противоречия. Например, этика, которой мы следуем в нашей повседневной жизни, — это вещь, которую можно нарушать более-менее волюнтаристски, всегда считая, что я потом исправлю ситуацию. Например, я сейчас соврал, но потом скажу правду, рассуждая так, что правда эта никому не нужна, а ложь поможет спасти тебя или другого человека, или какую-то общность, коллектив. Мы всегда нарушаем принципы нормативной, деонтологической этики, считая, что так как мы хорошие, рациональные, образованные люди, мы потом все исправим. Но в обществе так не бывает. Общество — сложная система. А так как гармонизацией отношений занимаются репрессивные органы, это всегда вызывает какие-то недовольства, но в конце концов это как-то работает. Когда это на себя берут технологии, происходит, по сути дела, то же самое, только при более четкой ориентации на большие данные, которые извлекаются из различных источников. Это огромные данные, которые раньше ни одной силовой структуре не были доступны. Естественно, это очень большой потенциал для того, чтобы регулирование, требующее технологизации, достигало своих целей. — Каких целей? — Цели не изменились — это всеобщее благо, мир, отсутствие насилия, несправедливости и так далее. История человечества показывает, что мы не справились с этими задачами своими силами. Сегодня мы живем в ситуации перманентной войны с различными слоями населения и странами. Хотя эта война не выглядит, как Вторая мировая, она де-факто ведется в вялотекущем перманентном режиме, сопровождаясь периодами кризиса или стабильности на протяжении не просто года или десятилетия, а непрерывно, никогда не прекращаясь. Чтобы исполнять ветхозаветные заповеди, например, на которые все еще ориентируется человечество, необходима помощь машин. Только они могут исполнить заповедь «не убий». Мой коллега, философ Кирилл Мартынов в одной из статей в журнале «Логос» тонко описал, как машина, в отличие от человека, может не решать «убий — не убий», а быть запрограммированной на то, чтобы вообще не убивать — никогда. Например, машина может пожертвовать собой или не убивать людей в принципе, а уничтожать во время военных действий только инфраструктуру, не подвергая риску жизни людей по обе стороны конфликта. В перспективе она сможет более точно определять, кто перед ней: террорист или случайный прохожий. Все зависит от количества полученных данных, от способа их обработки, от системы, в которую этические нормы также должны включены. Вопрос в том, какие это нормы, кто их задает. Машина может принимать соответствующие решения в зависимости от того, как она будет запрограммирована. Свобода и ответственность — Нельзя ли считать, что важнейшая моральная проблема технологического мира заключается в том, что у человека имеется соблазн все больше снимать с себя ответственность и все меньше контролировать различные аспекты своей жизни, перекладывая их на хорошо работающие автоматизированные системы? Что он становится таким образом несколько инфантильным по отношению к родителям-машинам? — Тут пяти минут на ответ не хватит. Вопрос об ответственности лежит в основании некоторых философских теорий, например свободы воли. Существует ли вообще свобода воли — или человек лишь пешка в сложной игре биологических и социальных систем? Если так, то к нему нельзя предъявлять требования ответственности. Однако именно на основании признания свободы воли у человека мы в случае нарушения им какого-либо закона привлекаем его к ответу. Машина в этом смысле оказывается странным актором. Снимается ли с человека ответственность за действия, которые она совершает? На самом деле нет, потому что кто-то машину или программу разработал. Если работа машины приводит к последствиям, которые противоречат закону или представлениям о справедливости, о добре и зле, то, конечно, никто машину наказывать не будет, ее будут исправлять. Человек в этом смысле меньше поддается исправлению. Когда он совершает преступление, какой-то аморальный поступок, его ограничивают в правах, наказывают, однако это далеко не всегда позволяет достичь цели — предотвратить повторное совершение тех же действий. Более того, человек может даже еще больше ожесточиться. — Не надо наказывать? — Чтобы человек не ожесточался, с ним надо поступать как с машиной — обучать. И в этом, пожалуй, состоит тот урок, который мы можем извлечь для человека из глубокого обучения искусственного интеллекта. Человек, который делегирует машине какие-то обязанности, решения, от ответственности не освобождается. Наоборот, появляется возможность осознать ее, поставить вопрос о человеческих возможностях, важности последствий его действий для других. У каждого человека, конечно, разный жизненный опыт и может быть свое представление о добре и зле, здесь мы еще должны учитывать различный культурный и исторический бэкграунд. Однако общее место в отношении реализации этического момента межличностных отношений как раз и состоит в том, чтобы соотносить свои действия с возможными последствиями, которые они будут иметь для других людей. Кстати, сегодня мы все чаще слышим о важности оценки этих последствий и по отношению к другим акторам, например животным. В этом состоит странная история, которая заложена в понятии морального развития. Считается, что моральное развитие должно привести к исполнению индивидуальных желаний у всех, к реализации идеала индивидуальной свободы, либеральных ценностей, которые мы все — вроде бы — разделяем. Но если копнуть глубже, свобода воли как таковая — это очень абстрактная, опасная и неверифицируемая идея. При этом я не говорю о том, что свобода — что-то плохое, нет. Но, может быть, с точки зрения реализации межличностных отношений в практической плоскости нам действительно будет проще принять идею о том, что никакой свободы воли нет, и мы должны просто действовать по определенным правилам, чтобы как минимум не нарушать границы других? Это вопросы дискуссионные, как вы понимаете, из серии «вечных». — Но правила не могут существовать без ответственности за их нарушения… — Совершенно верно, поэтому мы каждый раз взываем к ответственности другого человека за то или иное совершенное им действие, особенно если оно затрагивает нас самих. У нас ограниченное число возможностей для реализации свободы. И чаще всего, когда мы пытаемся увеличить эти возможности, мы нарушаем свободу другого. Соответственно, свобода — понятие релятивное, социальное, а не индивидуальное и субстанциальное. Это ценность, которая реализуется только в каком-то общении, взаимодействии, а оно сильно трансформировалось на современном этапе. И сегодня, когда мы говорим о цифровой этике, мы вынуждены примерять эту идею и на других акторов, те же машины, которые имеют как минимум право развиваться. Если им запрещать это делать на основании разных пессимистических предположений о том, к чему это приведет, мы никогда не сделаем следующий шаг в развитии общества, шаг к тому, чтобы через машины лучше понять свою собственную человеческую природу и свободу, в том числе с точки зрения морали и нравственности. Беседовал Константин Фрумкин