ошибки ии в суде

21.02.2025

Американская юридическая фирма Morgan & Morgan уведомила более тысячи своих сотрудников о том, чтобы они остерегались «галлюцинаций» инструментов искусственного интеллекта при подготовке судебных документов. ИИ придумывают фальшивые судебные прецеденты, а использование выдуманной информации может привести к увольнению юристов. Федеральный судья в Вайоминге уже пригрозил наложить санкции на двух юристов фирмы, которые включили фиктивные ссылки на дела в иск против Walmart. Один из них признал, что использовал программу ИИ, которая фактически «выдумала» несуществующие дела. Юрист принёс извинения и заявил о непреднамеренной ошибке. Это не первый подобный прецедент за последние годы. Дело Walmart выделяется тем, что в нём фигурируют известная юридическая фирма и крупный корпоративный ответчик. Пока судья ещё не вынес решение о том, следует ли наказывать юристов. Несмотря на ошибки ИИ в суде, многие юридические фирмы заключают контракты с поставщиками таких инструментов или разрабатывают собственные, чтобы сократить время на подготовку судебных документов. Согласно опросу Reuters, 63 % юристов использовали ИИ для работы, а 12 % отметили, что обращаются к этим инструментам регулярно. Эксперты считают, что при работе с ИИ нужно тщательно уточнять всю предлагаемую им информацию, поскольку модели генерируют ответы на основе статистических закономерностей, полученных из больших наборов данных, а не путём проверки фактов в этих наборах. Правила этики работы адвокатов также требуют, чтобы специалисты проверяли данные для судебных исков, иначе юристы могут быть привлечены к дисциплинарной ответственности. В прошлом году Американская ассоциация юристов сообщила своим членам, что эти обязательства распространяются даже на «непреднамеренные искажения» ИИ. Эндрю Перлман, декан юридического факультета Университета Саффолка, говорит, что, «когда юристов ловят на использовании ChatGPT или любого другого генеративного инструмента ИИ для создания цитат без их проверки, это некомпетентность». В 2023 году федеральный судья в Манхэттене оштрафовал двух нью-йоркских правоведов на $5000 каждого за то, что эти адвокаты ссылались на выдуманные ИИ дела о причинении вреда здоровью в иске против авиакомпании. В 2024 году федеральный судья Нью-Йорка рассматривал возможность наложения санкций в деле с участием бывшего адвоката Дональда Трампа Майкла Коэна. Тот заявил, что по ошибке предоставил своему юристу поддельные факты в деле о финансировании избирательной кампании. Коэн использовал чат-бота Bard от Google, но он не был подвергнут санкциям, хотя судья и назвал этот эпизод «позорным». В ноябре 2024 года федеральный судья Техаса наложил на адвоката, который ссылался на несуществующие дела в иске о неправомерном увольнении, штраф в размере $2000. Также юриста обязали пройти курс, посвященный генеративному ИИ. В феврале текущего года Федеральная торговая комиссия США потребовала от стартапа DoNotPay выплатить $193 тыс. за претензии к его «ИИ-юристу». Компания продвигала свой сервис как первый в мире робот-юрист. Регулятор подчеркнул, что стартап должен прекратить делать ложные заявления о возможностях своего чат-бота на основе искусственного интеллекта. Судебное доказывание без организованного здравого смысла не отвечает своим целям, в то же время искусственный интеллект как информационно-технологическое понимание проблемы имеет большие перспективы в решении задач содействия правосудию.

Яндекс.Метрика