Войти в почту

Квант милосердия: когда роботов научат эмпатии

Эмоциональный искусственный интеллект — это ИИ, который распознает, обрабатывает, интерпретирует и воспроизводит человеческие эмоции. В соответствии с распознанным эмоциональным состоянием собеседника голосовой помощник сможет выбрать то, как он будет общаться: рассказывать шутки, если вы веселы, или ободрять и спрашивать о самочувствии. Также ведутся разработки, которые в дистиллированный синтез речи добавят интонации, что сделает искусственную речь более человекоподобной. Зачем нужен эмоциональный ИИ Обычная ситуация, когда друг или знакомый спрашивает «С тобой все в порядке? Ты какой-то грустный». Вы можете рассказать ему о всех своих переживаниях или же спрятать их за дежурным «Все окей». Так или иначе, вы заметите заботу другого человека, он станет вам ближе. Умение обращать внимание на чувства и эмоции другого человека называется эмпатией. Чем точнее вам удается интерпретировать эмоции, намерения и мотивацию, тем выше уровень вашего эмоционального интеллекта. Об эмпатии говорит и Сатья Наделла, СЕО Microsoft: «Нельзя просто слушать клиентов и давать им то, что они хотят. На самом деле, они хотят, чтобы вы выходили за пределы их желаний. Это требует эмпатии, сопереживания». Умение сопереживать — важный аспект не только личности как участника коммуникации, но и инноватора. Но зачем оно нужно робототехнике? Во-первых, это маркетинг. Эмпатия формирует доверие и привязанность, в том числе и к бренду. Даже сейчас вам нравится, когда онлайн-радио подбирает новые треки на основании предпочтений. Представьте, если ваш плейлист будет еще и формироваться на основании эмоций, распознанных при разблокировке Face ID. А Siri позволит выговориться ей после тяжелого дня и даст пару советов, а потом посоветует фильм, чтобы отвлечься. Уже сейчас у «Алисы» больше 30 000 навыков, и эмоциональный интеллект может стать следующим. Технологии в сфере эмоциональных вычислений помогут брендам установить связь с клиентами на значительно более глубоком, личном уровне. Во-вторых, интернет меняет социальные процессы. Скорость передачи информации и вообще темп жизни колоссально выросли. Но человек становится все более одиноким. Реальное общение вытесняется виртуальным, создается альтернативная реальность, где редко встречаются проблемы. Умение поддерживать беседу с глазу на глаз также утрачивается, не говоря уже и о вышеупомянутой эмпатии к людям вокруг. Существует даже целая дисциплина — цифровая антропология, которая изучает влияние технологий на общество. К 2022 году рынок персональной робототехники достигнет $35 млрд. Станет актуален робот-компаньон, который будет удовлетворять потребность в общении, понимании, поддержке. В Японии уже появляются цифровые компаньоны, функционал которых выходит за рамки простых консультантов. Они становятся помощниками, друзьями и даже женами. Запад тоже не отстает: 47 млн жителей США — а это почти 20% всего взрослого населения — пользуются умными колонками, Amazon Echo и Google Alexa. Причем, исходя из последних исследований, пользуются умными колонками не только чтобы давать им команды. 25% берут их с собой спать, 20% шутят с ними, 15% используют как няню для детей — колонка рассказывает сказки и помогает отвлечь ребенка. В-третьих, появление способности распознавать эмоции — это закономерный путь развития ИИ. Индустрия выделяет несколько уровней искусственного интеллекта: слабый, сильный и обобщенный. Слабый ИИ уже существует: пресловутая Siri, противник в онлайн-шахматах, подборка новостей и статей по вашим интересам. Теория сильного искусственного интеллекта предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя как личность, а мыслительный процесс будет подобен человеческому. Но без эмпатии все это не возможно ИИ сегодня Создание настоящего эмоционального искусственного интеллекта — вопрос будущего. На определенном этапе своего развития роботы и цифровые ассистенты получат индивидуальность, характер, мотивацию действовать. Но некоторые специалисты уверены, что ИИ не сможет в полной мере обладать такой уникальной способностью человека, как восприятие эмоций и экспрессия, тем более превзойти нас в этом. Люди не верили, что компьютер сможет обыграть человека в шахматы. До тех пор, пока в 1996, а затем в 1997 году суперкомпьютер IBM Deep Blue не обыграл чемпиона мира Гарри Каспарова. В книге «Эволюция разума, или Бесконечные возможности человеческого мозга, основанные на распознавании образов» Рэй Курцвейл, технический директор Google, говорит, что «машины овладеют самым разнообразным эмоциональным опытом, смогут заставлять нас смеяться и плакать. А также будут чрезвычайно недовольны, если мы станем утверждать, что они не обладают сознанием». Сегодня мы можем говорить о существовании автоматических систем для распознавания эмоций в видео и аудио и первых попытках синтеза экспрессивной речи. В основном технологии распознавания ориентируются на выражение лица или голос и могут различать до 6 эмоций: радость, грусть, удивление, злость, страх и нейтральное состояние. Мультимодальное распознавание эмоций сразу по нескольким каналам — то, к чему стремятся ведущие научные лаборатории. Это одновременно выражение лица, голос, движения тела, пульс, частота дыхания. Такие системы точнее: например, когда робот не будет видеть лицо собеседника, он сможет ориентироваться на интонации в голосе. Лаборатории, специализирующиеся на аффективных науках, хотят наделить машины способностью распознавать социальные сигналы — невербальное поведение, которое люди используют в общении. Такие технологии пока не внедрены в коммерческие приложения, и производители ограничиваются простым набором эмоций. Причина — сложность разработки и необходимость увеличивать стоимость робота из-за сложной технической начинки. В других индустриях, где не нужно понимать большой спектр эмоций, только начинается подъем аффективных технологий. «Альфа-банк» первым в России запустил пилотный проект по анализу эмоций клиентов отделений. Стартап HireVue дополняет видеоинтервью кандидатов эмоциональной аналитикой. В то время как Samsung инвестирует миллионы долларов в южнокорейский стартап Looxid Labs, работающий в сфере VR, эмоциональной аналитики и биометрии, а Apple приобретает компанию Emotient. Эмоциональный интеллект и робототехника Рынок распознавания эмоций оценивается в $20-30 млрд, только пока вендоры не знают, как к нему подступиться. За прошедшее время алгоритмы стали лучше, но по-прежнему актуален вопрос о практической пользе технологий. Разработчикам не хватает каналов тестирования гипотез, инструментов реализации идей, и здесь отличным инструментом становятся сервисные роботы. CES 2017 и 2018 годов запомнился заголовками об эмоциональных роботах. Такие роботы обладали ограниченным набором функций и могли, например, менять цвет в зависимости от эмоции, которую выражает собеседник. На деле с конца ХХ века коммерческая аффективная робототехника продвинулась не так далеко. Kismet, созданный в лаборатории MIT в 1990-х годах, уже тогда умел распознавать социальное поведение и реагировать на него. Он ориентировался на визуальную, аудиальную информацию и данные о движениях собеседника, таким образом интерпретируя его действия. В ответ робот мог двигать головой, менять направление взгляда, шевелить ушами и говорить. Следующая цель, которую для себя определяют компании-разработчики сервисной робототехники — умение распознавать сложные эмоции и когнитивные состояния. Такие планы в августе 2018 года анонсировали крупные компании Affectiva и Softbank. Робот Pepper с помощью технологии Affectiva должен будет распознавать тонкие проявления эмоций, и помимо обычной улыбки и удивления, отличать ухмылку и рассеянность. Читайте также Роботы вместо внуков: гаджеты для пользователей 60+