Войти в почту

Американский конгрессмен потребовал исключить возможность для ИИ применять ядерное оружие

Демократ от штата Калифорния конгрессмен Тед Лью предложил законодательно зафиксировать то, что ядерный арсенал США останется под контролем человека, а не искусственного интеллекта (ИИ). Об этом пишет телеканал Fox News.

В США потребовали исключить возможность для ИИ применять ядерное оружие
© globallookpress.com

Предложенная законодателем поправка к законопроекту об оборонной политике, требует от Пентагона создания системы, обеспечивающей «значительный человеческий контроль для запуска любого ядерного оружия».

По мнению конгрессмена, именно за людьми должно оставаться последнее слово при принятии решения о запуске ядерного оружия и выборе цели. А искусственный интеллект может использоваться только для быстрой оценки данных и разработки вариантов.

Издание отмечает, что поправка нашла поддержку как среди демократов, так и среди республиканцев, что свидетельствует о возросших опасениях роли ИИ в жизни людей.

По данным телеканала, уже на следующей неделе республиканцы в Палате представителей должны принять решение о том, какие из более чем 1300 предложенных поправок к NDAA (National Defense Authorization Act) будут предложены к голосованию в Палате представителей. При этом предложение Теда Лью не единственная поправка к законопроекту, связанная с ИИ.

Ранее главный специалист Пентагона по цифровым технологиям и искусственному интеллекту Крейг Мартелл заявил, что «до смерти напуган» развитием ChatGPT и подобных ему инструментов ИИ.

При этом генеральный директор компании OpenAI, создавшей ChatGPT, Сэм Олтмен выступил в Конгрессе США с призывом начать регулирование технологии искусственного интеллекта, чтобы избежать «значительного вреда миру».

Олтмен предложил рассмотреть требования к лицензированию и тестированию разработчиков ИИ. По его мнению, подлежать лицензированию должен любой искусственный интеллект, который способен убеждать или манипулировать людьми. Также глава OpenAI добавил, что различные компании должны иметь право не давать доступ к своим данным для обучения ИИ.