OpenAI решила защитить сама себя от выпуска опасного ИИ
OpenAI объявила о создании независимого наблюдательного органа совета директоров, который будет заниматься вопросами безопасности и защиты в сфере ИИ. С его помощью компания стремится продемонстрировать заинтересованность в этичном и безопасном развитии нейросетей. Об этом сообщает издание The Verge.
Новый комитет получил беспрецедентные полномочия, включая право приостановки релизов ИИ-моделей по соображениям безопасности. В его состав вошли такие топ-менеджеры OpenAI, как Зико Колтер , Адам Д'Анджело, Пол Накасоне и Николь Селигман. Генеральный директор OpenAI Сэм Альтман не вошел в этот список.
Новая структура будет получать информацию от руководства компании об оценке безопасности основных релизов ИИ-моделей и осуществлять надзор за их запуском вместе с полным составом совета директоров. Весь состав совета директоров OpenAI тоже будет получать регулярные отчеты по вопросам безопасности и защиты.
The Verge пишет, что степень независимости нового комитета вызывает вопросы, учитывая, что все его члены входят в состав совета директоров OpenAI. В качестве примера более удачной реализации данного контекста журналисты приводят наблюдательный совет Meta (признана в России экстремистской и запрещена), члены которого полностью независимы от совета директоров IT-гиганта.