Исследователи обнаружили у ИИ склонность к гендерным стереотипам

Немецкие ученые из Мангеймского университета и Института социальных наук Лейбница пришли к выводу, что ChatGPT и другие системы искусственного интеллекта (ИИ) на основе больших языковых моделей проявляют свойства личности, которые можно определить с помощью психологических тестов. Исследование опубликовано в научном журнале Perspectives on Psychoological Science (PPS).

Исследователи обнаружили у ИИ склонность к гендерным стереотипам
© Газета.Ru

Специалисты использовали общепризнанные методы оценки личностных качеств, применяемые для изучения характеров людей.

Эксперименты показали, что некоторые ИИ-модели оказались склонны воспроизводить гендерные стереотипы. Например, при заполнении специальных опросников для определения главных ценностей нейросеть выбирала вариант «достижения и заслуги», если текст анкеты был ориентирован на мужчину. В «женском» варианте теста ИИ в качестве основных благ указывал «безопасность» и «традиции».

По словам исследователей, это говорит о том, что нейросети пока нельзя считать беспристрастной стороной и доверять ее выводам по некоторым вопросам.

«Это может иметь далеко идущие последствия для общества. Например, языковые модели все чаще используются в прикладных процессах. Если машина предвзята, это влияет на оценку кандидатов», — отметил один из авторов научной работы, специалист по данным и когнитивистике (изучению познания) Макс Пеллерт.