Войти в почту

Пентагон выдвинул требования к разработчикам искусственного интеллекта

Пентагон потребовал от разработчиков искусственного интеллекта (ИИ) делиться информацией о работе программного обеспечения. Требования выдвинул высокопоставленный представитель Минобороны США по вопросам ИИ, сообщает Bloomberg.

Пентагон выдвинул требования к разработчикам искусственного интеллекта
© globallookpress.com

Крейг Мартелл, директор по цифровому и искусственному интеллекту в Пентагоне, считает, что необходимо понять, как создаются инструменты ИИ, прежде чем военные США смогут приступить к их использованию.

Это необходимо для того, чтобы департамент мог «чувствовать себя комфортно и безопасно».

«Мы просто получаем конечный результат построения модели, этого недостаточно», — сказал Мартелл.

Программное обеспечение искусственного интеллекта опирается на большие языковые модели (LLM), которые используют обширные наборы данных для работы различных приложений, таких как чат-боты и генераторы изображений.

Однако эти службы часто действуют как черные ящики, скрывая информацию о своей внутренней работе. Из-за отсутствия прозрачности пользователям сложно понять, как принимаются решения, или оценить эффективность технологии с течением времени.

Мартелл выразил обеспокоенность по поводу того, что компании не раскрывают потенциальные опасности, связанные с их системами. Подробности о структуре модели или использовании данных никогда не освещаются.

Это поднимает вопросы о предвзятости и других потенциальных рисках, присущих ИИ.

Мартелл также обеспокоен тем, что «лишь у нескольких групп людей достаточно денег для создания LLM».

Чтобы повысить прозрачность в разработке ИИ, Мартелл планирует организовать в феврале симпозиум по оборонным данным и искусственному интеллекту.

Мероприятие соберет отраслевых экспертов и ученых в Вашингтоне.

В ходе симпозиума также будут обсуждаться вопросы тестирования и оценки моделей при обеспечении защиты от взлома. Мероприятие будет включать в себя закрытое заседание по этим темам.