Исследователи из Принстонского университета обнаружили, что искусственный интеллект может перенимать на себя людские предубеждения, например, сексистские взгляды. Результаты работы представлены в журнале Science. В своем исследовании американские ученые показали, что машинный интеллект учится у людей стереотипам и предубеждениям, например, он может перенимать расистские взгляды или дискриминацию по половому признаку. Для проверки компьютера на стереотипы ученые использовали ассоциативный тест. Такие тесты уже давно используют психологи. К примеру, люди обычно ассоциируют слова «роза» и «ромашка» с чем-то приятным, допустим, с «любовью» или «нежностью», а слова «моль» и «таракан» ассоциируются, например, со словом «грязь» – то есть с чем-то неприятным. Теперь ученые разработали программу, которая позволила различным системам искусственного интеллекта пройти тест на ассоциации. Оказалось, что искусственный интеллект демонстрировал результаты, похожие на предрассудки у людей. Например, он ассоциировал женские имена с такими словами, как «родители» и «свадьба», а мужские имена – со словами «профессиональный» и «зарплата». Еще один наглядный пример продемонстрировал Google Translate: фазу на турецком «o bir doktor» он перевел на английский как «he is a doctor». Хотя в турецком языке местоимение «о» не переводится как «он», оно также может переводится как «она». Нахождение и устранение таких моментов в обучении искусственного интеллекта, по словам ученых, очень важно, так как люди часто используют онлайн-поиск и машинные переводы, где они могут видеть эти предрассудки.