Войти в почту

Юристы уличили искусственный интеллект во лжи при подготовке юридических документов

Члены Ассоциации юристов России предостерегли коллег от безоговорочного доверия искусственному интеллекту: зафиксированы случаи лжи "умных" программ при составлении юридических документов.

Юристы уличили искусственный интеллект во лжи при подготовке юридических документов
© Российская Газета

Поэтому юристу надо проявить особую осторожность при использовании модных программ в своей работе, иначе есть риск попасть под суд за фальсификацию доказательств.

Накануне появилась информация, что за рубежом судьи начали запрещать использование ChatGPT участниками процесса. Более того, в судах даже стали требовать сертификаты о том, что текст адвоката или прокурора был создан без использования ИИ.

"Попытки без проверки использовать тексты, сгенерированные Chat GPT, в ситуациях, когда эти тексты имеют юридическое значение, связаны с повышенными рисками, - подчеркнул член Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России Ефим Казанцев. - Очень часто сгенерированный текст хотя и выглядит очень правдоподобным по факту оказывается не соответствующим действительности".

По его словам, это объясняется особенностями работы генеративной модели, на которой основан в том числе и Chat GPT.

"Для этих моделей нет разницы между словами и фразами, соответствующими действительности и не соответствующими ей, - продолжает Ефим Казанцев. - Нейросеть всего лишь выстраивает слова в последовательность, наиболее отвечающую заданному контексту. Получившийся текст может совпадать с реальностью, а может и не совпадать, но в любом случае будет выглядеть очень убедительно, что и подкупает людей, не понимающих принципы работы генеративных моделей".

В ситуации судебного процесса такой "выдуманный" нейросетью текст может сыграть злую шутку с опирающимся на него юристом или ввести в заблуждение участников процесса, заявляет юрист. О чем и свидетельствуют появляющиеся в СМИ сообщения о "выдуманной" Chat GPT судебной практике или вводимых судьями запретах использовать сгенерированные этой нейросетью тексты в суде.

"На мой взгляд, это не означает абсолютной невозможности использования генеративных моделей для подготовки юридически значимых текстов, - полагает Ефим Казанцев. - Конкретно ChatGPT для этих целей мало подходит, т.к. его цель сгенерировать любой текст, релевантный контексту поступившего запроса, а для юридически значимых документов критически важным свойством излагаемой информации является ее соответствие действительности и актуальность. Но если со временем на рынке появятся генеративные модели, способные не только сгенерировать складный текст, но и обеспечить его правдивость и актуальность, то их использование со временем станет стандартом. Конечно, на первых порах любой юридически значимый текст, сгенерированный искусственным интеллектом, необходимо тщательно проверять на предмет соответствия действительности и актуальности использующихся в нем норм".

В свою очередь, преподаватель образовательной платформы Moscow Digital School Александра Орехович считает, что запрет на использование ChatGPT в формировании текстов и позиций судей и адвокатов - вполне закономерное решение. "Широко известны факты "придумывания" нейросетью сведений и их вполне логичное встраивание в текст, - говорит он. - Явление даже приобрело название - "галлюцинации нейросети". Но одно дело, когда искусственный интеллект ошибается в вопросе "какое число больше", другое дело - когда по сути фабрикует доказательства. Так, например, известен случай, когда преподаватели из университета Джорджа Вашингтона попросили чат-бота описать скандалы с участием американских профессоров права, на что ChatGPT взяла с официальных сайтов имена и выдумала несуществующие события. В качестве доказательства машина предоставила никогда не существовавшую статью в Washington post за 2018 год. То есть налицо - не только "выдумывание" фактов, но и фальсификация доказательств".

Еще один пример: недавно адвокат Стивен Шварц, готовя позицию по делу, использовал ChatGPT и в качестве обоснования позиции приложил отчет со ссылками на судебные решения по нескольким похожим делам - делам, никогда не существовавшим.

"Однако, подобные случаи чреваты не только репутационными рисками, но и вполне реальными наказаниями, например, за предоставление ложных сведений или фальсификацию доказательств, - говорит Александра Орехович. - Кроме того, суды - крайне чувствительная сфера, в которой цена ошибки умножается многократно. При этом тотальный запрет на использование ИИ в администрировании судебного процесса - мера скорее чрезмерная, связанная с отсутствием регулирования пределов применения ИИ в судах. Но видимо предполагается, что такая мера по крайней мере повлечет за собой двойной контроль со стороны лиц, применяющий ИИ в формировании своих позиций".