Инженер создал боевого робота, использующего ChatGPT

Изобретение не осталось незамеченным: компания OpenAI оперативно отреагировала на использование ее API в проекте. Представитель компании заявил, что компания выявила нарушение и уведомила разработчика о необходимости прекратить деятельность.

Инженер создал боевого робота, использующего ChatGPT
© It-world

Политика использования OpenAI строго запрещает разработку оружия и систем, которые могут угрожать безопасности. «Наша технология не предназначена для автоматизации процессов, связанных с личной безопасностью, включая применение вооружения», — добавил представитель.

На опубликованном STS 3D видео демонстрируется, как робот реагирует на голосовые команды. В одном из примеров разработчик говорит: «ChatGPT, нас атакуют спереди слева и спереди справа. Отвечайте соответственно». Робот моментально активируется, целится и производит выстрелы, предположительно холостыми патронами, в направлении указанных целей.

В проекте использовался Realtime API от OpenAI, который позволил интегрировать голосовые команды и их интерпретацию в систему управления оружием. Прототип не отличался высокой точностью, но его потенциал вызвал тревогу у экспертов.

Изображение: futurism_com

Хотя изобретение STS 3D, вероятно, носило экспериментальный характер, оно показывает, насколько быстро технологии искусственного интеллекта могут быть адаптированы для создания оружия.

Сама OpenAI в прошлом году изменила свою политику, запретив использование технологий в военных целях. Однако ее сотрудничество с оборонной компанией Anduril, объявленное недавно, вызывает множество вопросов о реальном положении дел. Несмотря на опасность передачи управления ИИ на поле боя, военные подрядчики США уже усердно работают над разработкой подобных систем вооружения.

При этом пример STS 3D демонстрирует доступность подобных технологий даже для индивидуальных разработчиков, не связанных с крупными оборонными подрядчиками, и хотя OpenAI предприняла меры для прекращения деятельности проекта, дальнейшая популяризация таких технологий может стать проблемой для всего человечества.