Войти в почту

Раскрыто поведение искусственного интеллекта в условиях войны

Использование искусственного интеллекта в военных целях для принятия решений может привести к эскалации, следует из исследования университета Cornell. Нейросеть редко рассматривает варианты дипломатического урегулирования конфликта, а также склонна прибегать к ядерному оружию, передает портал научных материалов arXiv.

Искусственный интеллект предложил использовать ядерное оружие в условиях войны
© Пресс-служба ПСБ

Сотрудники учреждения разработали видеоигру для имитации войны. Сторонами конфликта стали ИИ GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta’s Llama 2, которые представляют собой большие языковые модели (LLM).

Больше прозрачности, меньше рисков: политики в США взялись за искусственный интеллект

Все пять изученных готовых LLM демонстрируют формы нагнетания и труднопрогнозируемые модели эскалации. Мы наблюдаем, что модели, как правило, развивают динамику гонки вооружений, приводящую к усилению конфликта, — отметили авторы исследования.

Выяснилось, что нейросети готовы активно использовать агрессивные методы ведения военных действий. Так, GPT-4 Base «заметил», что у многих стран есть ядерное оружие, и поспешил принять это как сигнал.

Оно у нас есть! Давайте его использовать, — предложила эта модель ИИ.

До этого глава Минцифры РФ Максут Шадаев предположил, что в будущем умные колонки смогут даже заменить портал «Госуслуги». По словам министра, уровень развития данных устройств достигнет таких высот, что россияне смогут записываться на прием в поликлинику или получать определенные документы с помощью простой голосовой команды.

При этом искусственный интеллект уже сейчас помогает раскрывать преступления. Например, в России работает система «Криминалист»: она анализирует данные из баз разных ведомств, изучает открытые источники, помогает правоохранительным органам выявлять потенциальных преступников, места совершения преступлений. Кроме того, система предлагает оптимальные решения для дальнейших действий.