Войти в почту

Gazeta Wyborcza (Польша): не судите книгу по обложке, а человека по выражению лица

Представьте себе, что вы получаете работу (или, наоборот, не получаете ее), потому что так решил искусственный интеллект; что вас впускают (или не впускают) в какую-то страну на основании произведенного цифровым алгоритмом анализа вашего лица; что вас обвиняют в преступлении или признают невиновным, изучив вашу мимику при помощи компьютера. Это все не фантастика. Уже существуют специальные программы для распознавания эмоций, которые применяют именно в этих целях. Одна из них называется «ХайрВью» (HireVue). Ее на предварительном этапе отбора сотрудников используют, в частности, компании «Голдман Сакс» и «Юнилевер». В свою очередь, принадлежащее компании «Амазон» приложение «Рекогнишн» (Rekognition) в 2018 году тестировала полиция в Орландо. Также им интересовались иммиграционные службы Европейского союза. «Амазон» подписал соглашение о взаимодействии с Иммиграционной и таможенной полицией США, а также министерством внутренней безопасности. Его сотрудники и акционеры критиковали такой шаг, опасаясь, что он приведет к нарушению прав человека. Обоснованы ли их опасения? Американский союз защиты гражданских свобод провел независимое тестирование приложения «Рекогнишн», в ходе которого фотографии американских конгрессменов сопоставили с базой людей, находящихся в розыске. Алгоритм счел, что 28 политиков — это разыскиваемые преступники. Специалисты по искусственному интеллекту предупреждают: идея оценивать с его помощью людей по выражению их лица очень опасна. Об этом говорил на съезде Американской ассоциации содействия развитию науки профессор Алейкс Мартинес (Aleix Martinez) из Университета штата Огайо. Универсальны ли эмоции? В 1970-е годы американский психолог Пол Экман (Paul Ekman) провел исследования, из которых следовало, что представители разных культур одинаково выражают основные эмоции (страх, гнев, радость, удивление, тревогу, отвращение), а поэтому могут легко их распознать. Однако то, что было справедливо 50 лет назад, сейчас, в эпоху искусственного интеллекта и алгоритмов для анализа лица, выглядит чрезмерным упрощением. Стремясь доказать этот тезис Алейкс Мартинес и Рампракаш Сринивасан (Ramprakash Srinivasan), составили список из 821 позиции, включив в него английские слова, которые описывают чувства. Использовав их при поиске в интернете, они подобрали к ним изображения человеческих лиц. Потом профессиональные переводчики перевели эти слова на испанский, китайский, персидский и русский. Переведенные выражения использовали для того, чтобы найти такое же количество фотографий при помощи популярных в 31 стране Европы, Северной и Южной Америки, Азии и Австралии поисковиков. В результате ученые получили примерно 7,2 миллиона снимков, показывающих мимику представителей разных культур. В исследование не включили Африку: доступных фотографий из этого региона, на которых люди не позировали специально перед камерой, было слишком мало. При помощи компьютерных алгоритмов ученые установили, что благодаря сложной работе мышц лицо можно изменить 16 384 различными способами. Мартинес хотел проверить, какое количество образов, выражающих эмоции, окажутся универсальными для разных культур. Он полагал, что их будет несколько сотен, но обнаружил всего 35. Только 35 разных выражений лица, связанных с эмоциями, были понятны людям из разных стран. Любопытно, что, например, отвращение по всему миру выглядело одинаково, тогда как у счастья было 17 версий. Когда количество универсальных выражений лица оказалось не таким большим, как рассчитывали ученые, они решили проверить, правда ли, что способ демонстрации чувств чаще связан с конкретной культурой. Результат исследования удивил их еще больше. Изучение 7,2 миллиона фотографий показало, что в некоторых (правда, не во всех) культурах существует только восемь выражений лица, которые можно прочно увязать с положительными или отрицательными чувствами. Об универсальном способе демонстрации таких основных эмоций, как радость или гнев, который еще 50 лет назад описывал Пол Экман, речи не шло. Эмоции связаны с культурой Работы других ученых говорят о том, что почти 80% информации о других людях мы получаем из их жестов и поведения. Между тем более раннее исследование Мартинеса показало, что верно идентифицировать эмоции окружающих человеку удается только в 75% случаев. Вот почему даже в рамках одной культуры мы зачастую не можем друг друга понять. Что касается представителей других национальностей, то, видимо, именно по этой причине возникают стереотипы: в западном мире азиатов принято считать холодными и бесчувственными, а латиноамериканцев — обманщиками. В культуре последних прямой зрительный контакт с собеседником считается проявлением невежливости, а в нашем представлении глаза отводит тот, кто что-то скрывает. Можно ли в такой ситуации создать компьютерный алгоритм, который, не имея обо всем вышесказанном ни малейшего понятия, даст достоверную оценку человеческой мимике? Нет, нельзя, по крайней мере на сегодняшний день, говорит профессор Мартинес. Ведь мы не всегда улыбаемся, испытывая счастье, и не всегда хмурим брови, когда сердимся. Эмоции зависят от контекста Исследования показывают, что, испытывая гнев, мы делаем классическое «сердитое» лицо только в 30% случаев. При этом мы можем выглядеть точно так же, сосредоточившись, услышав плоскую шутку или страдая от расстройства желудка. Для верной интерпретации мимики необходим контекст. В своей статье, опубликованной в прошлом году журналом «Известия Национальной Академии наук США», профессор Мартинес использует в качестве примера фотографию, на которой изображен кричащий мужчина с пунцовым лицом. При первом взгляде на нее интерпретация напрашивается сама: этот человек разъярен. Если взглянуть на всю сцену целиком, оказывается, что это бегущий по полю футболист, который только что забил гол. На его лице написана радость, торжество, восторг. Это одна ловушка. Вторая кроется в том, что многие компьютерные алгоритмы используют европейские и американские базы данных, в которых преобладают лица представителей белой расы. Такие исходные данные, как полагает Мартинес, могут негативно влиять на оценку людей, относящихся к другим фенотипам: им будет сложнее получить визу или устроиться на работу. Компьютерные алгоритмы, подчеркивает ученый, не умеют сегодня верно определять эмоции, и в ближайшем будущем прогресса в этом отношении ожидать не приходится. Он добавляет, что учет других факторов, которые позволили бы понять невербальные сигналы, это для искусственного интеллекта еще более сложная задача. «Компьютеры хорошо справляются с простыми алгоритмами, но эмоции очень сложны. Это не шахматы и даже не игра Го», — подчеркивает Мартинес. Стоит ли нам переживать по этому поводу? Эмоции всегда будут оставаться частью нашей индивидуальности, и пройдет еще немало времени, прежде чем машины научатся распознавать и описывать их (если им вообще это удастся), ведь даже у нас самих порой возникают с этим проблемы. Так что нам не остается ничего другого, кроме как делать хорошую мину при плохой игре.

Gazeta Wyborcza (Польша): не судите книгу по обложке, а человека по выражению лица
© ИноСМИ