Искусственный интеллект уличили в отсутствии интеллекта

Художник: Юрий Аратовский Ответы, которые дают крупные языковые модели (LLM), такие как ChatGPT, не являются результатом настоящего логического рассуждения, как ответы людей. Он лишь создают иллюзию интеллекта, выдавая слова, похожие на правильный ответ. К такому выводу пришли специалисты компании Apple, которые провели исследование механизмов работы нейросетей. Дело в том, что разумные существа, такие как человек, могут различать важную и несущественную информацию. Соответственно, они сосредотачиваются только на первой и отбрасывают вторую. А искусственный интеллект не умеет ранжировать данные по их значимости, поэтому LLM часто сбиваются на незначительных деталях, что приводит к неправильным или бессмысленным ответам. Исследователи включили в свои вопросы для нейросетей небольшое количество лишней информации, что привело к некорректным ответам. То есть LLM просто не смогли отбросить неуместную информацию, и это указывает на отсутствие у них способности к рациональному мышлению, считают специалисты компании.