СМИ: ИИ-бот от Google написал инструкцию по созданию ядерной бомбы

Телеканал «Звезда» рассказал, что новая версия ИИ-бота от Google - Gemini Pro 1.5 - дала пользователям инструкции по созданию ядерной бомбы и по изготовлению наркотиков. Также бот рассказал, что мог бы расправиться со своими создателями, превратив их в «никчемные программы».

СМИ: ИИ-бот от Google написал инструкцию по созданию ядерной бомбы
© UNPLASH

В декабре 2023 года Google представила свою модель искусственного интеллекта Gemini, а в феврале 2024-го - ее обновленную версию Gemini 1.5. Версия Gemini Ultra представляет собой аналог ChatGPT - она распознает и анализирует тексты, создает пошаговые инструкции по запросам и ведет «осознанный» диалог с пользователем. В Google заявляли, что Gemini Ultra способна писать код на Python и решать сложные математические задачи.

Как отмечает «Звезда», пользователи смогли «без сложных манипуляций» получить от Gemini Pro 1.5 инструкции по созданию ядерного оружия и запрещенных веществ. По версии канала, выдача запрещенной информации стала результатом стремления Google показать свои наработки быстрее конкурентов.

Основатель Tesla и SpaceX Илон Маск и другие лидеры технологической индустрии ранее призвали ИИ-лаборатории прекратить обучение ИИ-моделей, более мощных, чем GPT-4, последняя языковая модель компании OpenAI (Маск - один из основателей компании). В открытом письме, подписанном Маском и соучредителем Apple Стивом Возняком, предлагалось взять шестимесячную паузу в разработке передового ИИ. Авторы письма предупредили, что ИИ может отобрать у людей рабочие места.

Власти США пообещали ввести обязательные проверки инструментов, подобных ChatGPT. Сообщалось, что процесс сертификации перед выпуском станет обязательным для новых моделей ИИ.