Войти в почту

ООН предупредила о гендерной и культурной предвзятости у ИИ

Организация Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО) опубликовала отчет, в котором говорится о существующих гендерных и культурных предвзятостях в больших языковых моделях искусственного интеллекта (ИИ). Отчет указывает на тенденции к представлению женщин в роли домохозяек с высокой частотой, в четыре раза большей, чем у мужчин, в описаниях крупных моделей.

ООН предупредила о гендерной и культурной предвзятости у ИИ
© Ferra.ru

Исследование, проведенное в рамках инициативы «Предвзятости по отношению к женщинам и девочкам в больших языковых моделях», включало анализ текстов, сгенерированных такими моделями, как GPT-3.5, GPT-2 и Llama 2.

Автоматическое создание текстов, особенно в открытых источниках, показало неравномерное распределение профессий между мужчинами и женщинами, присваивая более многообразные и высокооплачиваемые работы мужчинам, в то время как женщины часто связываются с традиционно занимаемыми роли с низкой оценкой.

Генерация таких контекстов вызывает обеспокоенность, так как они могут усиливать реальные социальные неравенства. ЮНЕСКО призывает правительства разрабатывать и внедрять ясные нормативные рамки для контроля и регулирования таких технологий, а частные компании должны проводить систематический мониторинг и оценку предвзятостей, в соответствии с рекомендациями по этике искусственного интеллекта, принятыми членами ЮНЕСКО в ноябре 2021 года.

Ferra.ru: главные новости