ИИ обучили принимать сложные решения по справедливости

Ученые США спроектировали модель искусственного интеллекта (ИИ), которая опирается на справедливость при принятии решений. Исследование опубликовано в материалах конференции CPAIOR 2024 Proceedings.

ИИ обучили принимать сложные решения по справедливости
© lenta.ru

По словам специалистов американских Университета Карнеги — Меллона и Технологического института Стивенса, современные автоматизированные системы настроены таким образом, чтобы быть максимально объективными при принятии решений. Ученые создали модель, которая обучена будет принимать сложные решения, полагаясь на справедливость.

В материале говорится, что модель руководствуется традицией, известной как оптимизация социального обеспечения. То есть ИИ обращает внимание на пользу и вред для конкретных людей. «Оценивая справедливость, ИИ пытается обеспечить равное отношение к группам, которые различаются по экономическому уровню, расе, этническому происхождению, полу и другим категориям», — объяснил профессор Джон Хукер.

В качестве примера авторы научной работы привели ситуацию, когда автоматизированная система принимает решения об одобрении ипотечного кредита определенным лицам. Модель анализирует не только кредитную историю и платежеспособность граждан, но и то, как решение об отказе повлияет на их жизнь. ИИ опирается на контекст: например, система понимает, что отказ в одобрении кредита по-разному повлияет на богатых и бедных людей.

Американские специалисты подчеркнули, что цель-максимум их исследования — поиск баланса между справедливостью и получением максимальной выгоды для всех. По словам ученых, технологии должны способствовать равенству между различными группами общества.

В конце мая ученые Парижского института мозга и Боннского университета раскрыли способ сделать чувство справедливости более обостренным. По их словам, на обостренное чувство справедливости влияет состояние микробиоты кишечника.