IT-новости в области права

адвокат использовал chatgpt

29.05.2023

Стремительно набирающие популярность чат-боты на основе искусственного интеллекта могут выдавать за истину вымышленные факты, что приводит пользователей к ложным выводам. Эта особенность сыграла злую шутку с адвокатом Стивеном Шварцем из юридической фирмы Levidow, Levidow & Oberman, использовавшим ИИ-чат-бота ChatGPT в работе над делом своего клиента Роберто Мата. Стивен Шварц защищал интересы пассажира Роберто Маты, который пострадал на рейсе латиноамериканской авиакомпании Avianca: тот получил травму колена при столкновении с металлической тележкой. Avianca просила отклонить иск, но адвокаты истца возражали. Шварц подготовил десятистраничный отчёт, в котором сослался на якобы принятые ранее решения примерно по десяти схожим делам. При изучении его данных возникла проблема: ни судья, ни юристы Avianca не смогли найти упомянутые в отчёте заключения в судебных базах. В конце апреля адвокаты Avianca из Condon & Forsyth направили судье Кевину Кастелю Федерального окружного суда Южного округа Нью-Йорка письмо, в котором поставили под сомнение подлинность приведённых адвокатом дел. Позже Шварц рассказал, что для подготовки отчёта использовал чат-бота ChatGPT – «источник, который оказался ненадёжным». Он поделился с судом и тем, как проверял правдивость его ответов: он спрашивал у бота, реальны ли разбирательства, на которые он ссылается. Тот отвечал утвердительно. Адвокат заявил, что не собирался обманывать ни суд, ни авиакомпанию и признался, что до этого никогда не пользовался сервисом и потому «не знал, что его информация может быть недостоверной». Он раскаялся и пообещал впредь не использовать ChatGPT без «всесторонней проверки» его данных. Таким образом, специалист с тридцатью годами юридической практики за плечами сослался, что «не знал, что данные чат-бота могут быть недостоверными». Суд назвал беспрецедентной ситуацию, в которой «толкование правовой позиции состоит из ложных судебных постановлений, ссылок и цитат». Он назначил Шварцу слушание на 8 июня 2023 года, где рассмотрит «потенциальные меры наказания». В итоге ChatGPT предоставил в суде вымышленные факты, из-за чего адвокату теперь грозит потеря лицензии. Судья после проверки отметил в постановлении, что по крайней мере шесть дел, представленных Шварцем в качестве прецедентов, «кажутся фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними отсылками к источнику».

Яндекс.Метрика