Войти в почту

Искусственный интеллект проверят на расизм и сексизм

Москва, 8 августа - "Вести.Экономика" Разработчикам и программистам рекомендуется следить за использованием искусственного интеллекта (ИИ) в работе, чтобы убедиться, что ИИ не становится расистским или сексистским. Конфедерация британской промышленности (КБР) в новой статье на тему искусственного интеллекта на рабочем месте призвала к тому, чтобы на предприятиях, где разрабатывается или внедряется ИИ, внимательно следили за развитием технологий, дабы остановить "укоренение существующих несправедливости и барьеров". В докладе "AI: Этика на практике" говорится, что различные группы ученых работают над системами искусственного интеллекта, чтобы предотвратить возможные проблемы, связанные с его использованием. Различные команды призваны следить за данными, которые отправляются в нейросети с целью обнаружить проблемы и скорректировать допущения, которые могут привести к несправедливой предвзятости в алгоритмах ИИ", - пишет КБР. Ведомство также призвало компании проверить данные, поступающие в системы ИИ, чтобы они не содержали «исторического предубеждения против определенных групп» на случай, если эти данные попадут в ИИ. В прошлом году онлайн-ритейлер Amazon разработал алгоритм на основе искусственного интеллекта для автоматизации подбора кандидатов на работу, но в итоге отказался от системы. Проект HR-нейросети, способной самостоятельно нанимать персонал, был закрыт из-за дискриминации соискателей по половому признаку. Искусственный интеллект решил, что женщины по умолчанию неспособны работать, и нанимал в компанию только мужчин. В Amazon хотели скрыть факт существования враждебного ИИ, но информация просочилась в прессу. По данным Reuters, в 2014 году компания собрала команду разработчиков в Шотландии и поставила перед ней задачу создать программу для поиска и отбора лучших кандидатов. «В компании хотели получить инструмент, который выберет пять лучших резюме из ста, чтобы потом нанять этих людей», — рассказал один из собеседников агентства. Ответственная группа разработала 500 компьютерных моделей, обученных искать резюме в открытых рекрутинговых базах и отбирать лучших кандидатов на основе 50 тысяч терминов из резюме прошлых соискателей в Amazon. Искусственный интеллект оценивал кандидатов по шкале от одного до пяти. В 2015 году разработчики заметили, что система подбирает специалистов-женщин меньше, чем мужчин. Команда объяснила это тем, что алгоритм обучался на базе, в которую вошли резюме всех сотрудников Amazon за последние десять лет. Мужчин в выборке оказалось больше, чем женщин, поэтому искусственный интеллект пришёл к выводу, что кандидаты-мужчины предпочтительнее, пишет Reuters. Amazon отредактировала алгоритм, но корректировка не давала гарантий, что он не будет дискриминировать кандидатов по другим признакам, поэтому к началу 2017 года компания решила отказаться от использования системы. Исполнительный директор Google Сундар Пичаи также объяснил важность избежания предвзятости в искусственном интеллекте. В своем выступлении в начале этого года он привел пример системы искусственного интеллекта для выявления рака кожи. Наличие неполных данных, которые игнорируют определенные этнические группы, может сделать систему менее способной идентифицировать рак кожи в определенных группах. «Чтобы быть эффективным, он должен уметь распознавать самые разные оттенки кожи, характерные для всего населения», - сказал он.

Искусственный интеллект проверят на расизм и сексизм
© Вести Экономика