15.05.2025
Адвокат, представляющий интересы Anthropic – американской технологической компании в сфере искусственного интеллекта, основанной бывшими сотрудниками OpenAI, признался в использовании ошибочной цитаты, сгенерированной чат-ботом Claude. На поддельную цитату в судебных документах обратил внимание другой юрист музыкальных лейблов Universal Music, Concord и ABKCO, которые подали иск к Anthropic, выявив незаконное использование текстов песен для обучения моделей на базе искусственного интеллекта.
13 мая суд обязал Anthropic ответить на обвинения о том, что ответ на претензию о нарушении авторских прав содержит цитату, появившуюся в результате «галлюцинации» Claude. Юрист музыкальных лейблов заявил, что специалист по данным Anthropic сослался на несуществующую научную статью.
В суде Anthropic сообщила, что чат-бот допустил «честную ошибку цитирования», которую проигнорировали юристы компании. Ручная проверка цитат не выявила ошибок, вызванных «галлюцинациями» Claude, подчеркнули в Anthropic. Ошибку допустила эксперт-свидетель и по совместительству сотрудница компании Оливия Чен, которая использовала чат-бот для подкрепления аргументации.
Иск музыкальных издателей является одним из нескольких споров между владельцами авторских прав и технологическими компаниями по поводу предполагаемого неправомерного использования их работы для создания инструментов генеративного искусственного интеллекта. Это еще один случай, когда юристы использовали ИИ в суде, а затем пожалели о решении. Ранее на этой неделе судья из Калифорнии раскритиковал пару юридических фирм за представление в его суде «фиктивных исследований, созданных с помощью ИИ». В январе австралийский юрист был пойман на использовании ChatGPT, выдающего ошибочные цитат, при подготовке судебных документов. Однако эти ошибки ИИ в суде не мешают стартапам привлекать огромные инвестиции для автоматизации юридической работы. Оптимизация юридической деятельности при помощи искусственного интеллекта привлекает инвестиции в миллиарды долларов.
IT-Юрист отмечает, что случаев появления ошибок в документах из-за некорректной работы ИИ-моделей предостаточно. Так в феврале текущего года юридическая фирма Morgan & Morgan предупредила более тысячи своих сотрудников, чтобы они остерегались «галлюцинаций» ИИ-инструментов при подготовке судебных документов. ИИ способен генерировать фальшивые судебные прецеденты, а использование выдуманных сведений может привести к увольнению юристов. В мае суд Калифорнии оштрафовал на $31 000 две юридические компании за «ложные, неточные и вводящие в заблуждение юридические ссылки и цитаты», сгенерированные ИИ и попавшие в судебные документы.
Передача части судебной функции искусственному интеллекту не означает отказ от человеческого субстрата при отправлении правосудия. Многими правоведами и техническим специалистами предлагаются подходы на пути возможной сферы применения информационных технологий в суде с целью повышения доверия к суду, исключения технико-юридических ошибок и осуществления правосудия в разумный срок. Ряд предложений, безусловно, требует дополнительной проработки и решений на законодательном уровне, поэтому говорить об ИИ, как об альтернативе работы юриста – преждевременно.
