Для искусственного интеллекта разработали этические нормы
Работа над документом велась на протяжении 15 месяцев и военные тесно сотрудничали со специалистами в области искусственного интеллекта (ИИ), учёными и общественностью. Свод правил разработан с учётом использования ИИ как в вооружённых силах, так и в мирных целях.
В число ключевых этических норм для искусственного интеллекта вошли:
Ответственность (человек обязуется разумно подходить к разработке и использованию ИИ);
Справедливость (человек будет делать всё, чтобы свести к минимуму предвзятость ИИ);
Понятность (человеку будет в полной мере понимать, как работать с ИИ, а вся документация будет максимально прозрачной для понимания и унифицированной);
Надёжность (человек наделит ИИ конкретными функциями и возможностями, которые будут тестироваться на надёжность и безопасность в течение всего срока использования ИИ);
Управляемость (человек сохранит возможность в любой момент отключать ИИ, если он продемонстрирует признаки незапланированного поведения).
Авторы проекта подчеркнули, что в основу этических норм легли в первую очередь существующие этические нормы вооружённых сил США на основе Конституции США, главы 10 Кодекса США, Закона о войне, а также существующих международных договоров и давних норм и ценностей в области ведения боевых действий.
Пентагон заявил, что разработка этических норм для искусственного интеллекта призвана вывести США и страны-союзники в мировые лидеры по использованию ИИ в военных целях, а также в области дальнейшего развития законодательства в отношении искусственного интеллекта.