Пентагон выдвинул требования к разработчикам искусственного интеллекта
Пентагон потребовал от разработчиков искусственного интеллекта (ИИ) делиться информацией о работе программного обеспечения. Требования выдвинул высокопоставленный представитель Минобороны США по вопросам ИИ, сообщает Bloomberg.
Крейг Мартелл, директор по цифровому и искусственному интеллекту в Пентагоне, считает, что необходимо понять, как создаются инструменты ИИ, прежде чем военные США смогут приступить к их использованию.
Это необходимо для того, чтобы департамент мог «чувствовать себя комфортно и безопасно».
«Мы просто получаем конечный результат построения модели, этого недостаточно», — сказал Мартелл.
Программное обеспечение искусственного интеллекта опирается на большие языковые модели (LLM), которые используют обширные наборы данных для работы различных приложений, таких как чат-боты и генераторы изображений.
Однако эти службы часто действуют как черные ящики, скрывая информацию о своей внутренней работе. Из-за отсутствия прозрачности пользователям сложно понять, как принимаются решения, или оценить эффективность технологии с течением времени.
Мартелл выразил обеспокоенность по поводу того, что компании не раскрывают потенциальные опасности, связанные с их системами. Подробности о структуре модели или использовании данных никогда не освещаются.
Это поднимает вопросы о предвзятости и других потенциальных рисках, присущих ИИ.
Мартелл также обеспокоен тем, что «лишь у нескольких групп людей достаточно денег для создания LLM».
Чтобы повысить прозрачность в разработке ИИ, Мартелл планирует организовать в феврале симпозиум по оборонным данным и искусственному интеллекту.
Мероприятие соберет отраслевых экспертов и ученых в Вашингтоне.
В ходе симпозиума также будут обсуждаться вопросы тестирования и оценки моделей при обеспечении защиты от взлома. Мероприятие будет включать в себя закрытое заседание по этим темам.