Космические силы США не позволят ИИ выйти из-под контроля
Директор по технологиям и инновациям Космических сил США Лиза Коста (Lisa Costa) представила план сдерживания военных технологий искусственного интеллекта (ИИ), который не позволит им выйти из-под контроля.
В ходе пресс-конференции на космическом симпозиуме в Колорадо-Спрингс (Колорадо, США) в прошлом месяце, Коста отметила, что ИИ и машинное обучение (МО) станут «критически важными». В то же время, она признала, что до сих пор «многие говорят об этом, но не обязательно реализуют это для космоса».
«Мы должны полагаться на машинное обучение и ИИ, чтобы фокусировать внимание наших защитников на самом главном, верно? Что является нормой? Что работает не так, как ожидалось?», - пояснила Коста.
Поскольку использование ИИ в военных технологиях является данностью, помощник генерального секретаря НАТО по возникающим проблемам безопасности Давид Ван Веел (David Van Weel) считает, что члены альянса должны заранее подготовиться, чтобы «преодолеть недоверие» к ИИ.
«В ситуации, когда правовые нормы принимаются уже после повсеместных злоупотреблений технологиями, члены НАТО должны удостовериться в том, что новые технологии изучаются не с целью их милитаризации, нет, но чтобы понимать последствия для безопасности и обороны», - уверен Ван Веел.
Как сообщил изданию Air Force Magazine директор по вопросам данных и ИИ Военно-воздушного министерства США бригадный генерал Джон Олсон (John M. Olson), министерство «тщательно оценивает области, в которых можно добиться наибольшей операционной эффективности или окупаемости инвестиций» в ИИ.
«Система систем, узлов и элементов в архитектуре может извлечь выгоду из повышенной ситуационной осведомленности, которая обеспечивает более информированное, точное и соответствующим образом оптимизированное реагирование, а также повышенную адаптивность и улучшенное обучение. Для ВВС и Космических сил в ближайшей перспективе нашей целью является защита того, что у нас есть, а также быстрое развитие и переход на отказоустойчивые, гибридные системные архитектуры с улучшенными ИИ/МО», - сообщил Олсон.
По словам Косты, обеспечение безопасности ИИ, разработанного в коммерческих целях, «станет огромной проблемой». В то же время, она понимает уязвимости ИИ и имеет представление о том, как правительство может действовать безопасно.
Эксперт считает, что алгоритмы нужно защищать, причем еще до их приобретения. Среды разработки кода должны быть инструментированы, чтобы правительство знало, «какие коды разрабатываются».
«И если у нас есть поставщики, принимающие участие в тендере, то у нас должен быть и юридический язык, который скажет, “вы будете использовать эту DevSecOps-среду как сервер. Мы предоставим вашей компании учетные данные для авторизации. Вы авторизуетесь и создадите эти алгоритмы для наших сетей”», - пояснила Коста.