Машина для манипуляции сознанием: как Пентагон будет «читать» диалоги

Представьте, что вы разговариваете по телефону. Вопросы вроде бы безобидные, интонация спокойная, слова подобраны вежливо. Но на другом конце провода не оператор кол-центра и не банковский служащий. Перед вами человек, который по шагам отрабатывает классический сценарий вербовки или вымогательства. Теперь Пентагон хочет, чтобы такой сценарий научился распознавать искусственный интеллект (ИИ).

Машина для манипуляции сознанием: как Пентагон будет «читать» диалоги
© Московский Комсомолец

Управляемое давление

В США появился патент на систему, которая не слушает разговор в привычном смысле. Она не цепляется за слова «пин-код» или «переведите деньги на безопасный счёт», как обычные фильтры. Она отслеживает ход диалога.

Сначала «давайте познакомимся» и «мы просто хотим помочь», потом просьба «заполнить маленькую анкету», дальше обязательное «всё строго конфиденциально, не переживайте» - и в финале давление с требованием решить всё прямо сейчас. Это рисунок психологической обработки, знакомый любой разведшколе.

Над системой работают специалисты из калифорнийской лаборатории, откуда когда-то вышли компьютерная мышь и голосовой помощник Siri. Один автор патента занимается акустической криминалистикой и читает по паузам, интонации и темпу, где ложь и давление. Второй изучает биосигналы и то, как стресс проявляется в голосе и тексте. Третий строит архитектуру системы. Люди, которые годами переводили ремесло оперативного работника на язык кода.

Разговор идёт своим чередом, а внутри системы невидимая шкала риска заполняется. Каждое «успокойтесь, всё под контролем», каждый возврат к теме денег или доступа, каждое искусственно созданное чувство срочности добавляет баллы. Машину не интересует, как именно назван «пароль» или «код». Её интересует траектория. В какой момент обычное общение превращается в управляемое давление. Достигнут порог — звонок можно оборвать, перевод заблокировать, тревогу поднять.

Есть деталь, которую легко пропустить. Та же разработка умеет отличать живой голос от синтетического. Сегодня достаточно минутной записи, чтобы с помощью открытых сервисов сделать голосовой клон любого человека.

На слух подделку почти не разобрать. Система сравнивает входящий голос с эталонной записью конкретного человека и по набору технических признаков решает - оригинал это или копия.

«Не приходя в сознание»

Перенесём это в практику. Офицер в зоне конфликта получает звонок по спутниковой связи. Звучит знакомый голос, привычные обороты, правильный позывной. Его просят «передать координаты», «изменить маршрут», «открыть доступ к системе. По всем человеческим ощущениям это «свой». Но параллельно модуль проверяет микропаузу, дыхание, акустический «почерк» звука и в какой-то момент показывает, что на другом конце программа, а не люди.

Формально всё это подаётся как защита от мошенников и кибератак. Но если посмотреть на состав разработчиков и заказчика, становится ясно, что речь идёт о более серьёзной истории. Такая система органично встраивается в контур военной связи, спецслужб, дипломатии, в тренажёры для подготовки личного состава. По сути, это уже элемент инфраструктуры национальной безопасности.

Чтобы научить машину распознавать манипуляцию, её сначала заставляют воспроизводить эту манипуляцию. Разработчики используют для обучения сгенерированные сценарии вербовки, психологического давления, эмоциональных ловушек. Они создают диалоги, где одна сторона методично выманивает данные, ломает сопротивление, строит доверие с нуля. Эти сценарии подаются системе, которая учится выделять устойчивый рисунок.

В итоге возникает не только детектор. Возникает библиотека приёмов. Набор отточенных шаблонов, которые можно применять как учебное пособие для своих операторов или, в худшем случае, как заготовки для реальных атак.

Разница между «мы учим людей сопротивляться вербовке» и «мы тренируемся вербовать эффективнее» зависит не от алгоритма, а от того, кто и как им распоряжается. На бумаге всё описано как оборона, но заложенная логика двусторонняя.

Контур скрытого контроля

Параллельно другие американские лаборатории работают над распознаванием синтетической речи и официально относят подделку голоса к угрозам национальной безопасности. Разрабатываются алгоритмы, которые вычленяют артефакты генерации, строят персональные голосовые профили и отличают живую речь от имитации даже в сложных условиях связи. Изначально это подаётся как защита политиков, военных и топ-менеджеров.

Цена для общества другая. Государство получает инструмент, позволяющий внутри своих контуров связи отличать подлинный голос от искусственного. Гражданин такого инструмента не имеет. Для него наступает время, когда любой звонок от «банка», «родственника» или «работодателя» может оказаться сгенерированной подделкой, а доказать обратное он не способен. Доверие к голосовому каналу размывается, а восстановление этого доверия привязывается к закрытым технологиям, контролируемым государством и корпорациями.

Сегодня всё это развивается под вывеской борьбы с социальной инженерией. На практике формируется универсальный инструмент анализа и конструирования влияния в разговоре. Он может остаться средством защиты, а может превратиться в ещё один контур скрытого контроля над тем, как и о чём мы говорим. Решать будут те, кто держит в руках не только патенты, но и каналы связи.