Использование ИИ юристом

использование ии юристом

31.10.2025

Составление договора с контрагентом при помощи ИИ или подготовка приказа о премировании сотрудников, на первый взгляд кажется удобным решением. Однако в случае судебного оспаривания таких документов выявляется важное юридическое противоречие: искусственный интеллект не несет ответственности за неточные формулировки, нарушение авторских прав или утечку персональных данных. Вместо этого ответственность полностью ложится на компанию. Поэтому важно понимать, как соблюдать законодательные нормы при использовании решений на основе ИИ: например, корректная обработка клиентских данных, допустимость включения искусственного интеллекта в управленческие процессы или использование дипфейков.

Существуют различия в подходе нейросетей к обработке вводимых данных. Некоторые из них, такие как ChatGPT, используют данные для собственного обучения по умолчанию. Другие, например, Dropbox и DeepSeek, могут передавать информацию третьим сторонам – разработчикам технологий, администраторам облаков или даже государственным органам. Любое взаимодействие с такими данными считается их обработкой: от сбора и хранения до распространения и удаления. Законность обработки персональных данных зависит от наличия правового основания, указанного в нормативных актах, или согласия пользователя. Если данные используются для иных целей или передаются третьим лицам, требуется либо новое согласие, либо иное основание, предусмотренное законом. При этом данные российских граждан должны храниться исключительно на территории страны в соответствии со статьей 18 закона «О персональных данных».

IT-юрист подчеркивает, что соблюдение всех норм и обеспечение защиты данных перед контролирующими органами, включая Роскомнадзор, остается обязанностью компании вне зависимости от используемой технологии. Ответственность разработчика ИИ ограничена рамками договора с компанией и не распространяется на правовые риски. За нарушение законодательства о персональных данных компании грозят серьезные штрафы. При этом форма владения сервисом (сторонняя платформа или разработка собственного решения) – роли не играет, так как требования закона всеобъемлющие. Персональными данными считается вся информация, которая позволяет идентифицировать человека: фамилия, имя, отчество, телефонный номер, изображение, адрес проживания и другие подобные сведения. Некоторые юристы утверждают, что одного лишь имени и фамилии часто недостаточно для точной идентификации из-за существования сотен тезок. Однако в случае добавления контактных данных – телефонного номера или адреса – идентификация становится очевидной, и такая информация подпадает под закон о персональных данных. Более того, если контекст упоминает уникальные обстоятельства – место работы или должность – даже общее имя может быть признано персональной информацией.

Мнение относительно объема защиты сильно разнится: некоторые it-юристы считают даже имя без фамилии персональной информацией, которая требует защиты. Сторонники данной теории утверждают, что нейросети способны запоминать данные и воспроизводить их позже в других обстоятельствах. Они отмечают случаи, когда модели предоставляли пользователям персональную информацию из обучающей выборки. Несмотря на судебную практику (решение № А40-139096/2022) о том, что электронная почта формально не является персональными данными, Роскомнадзор продолжает расширять это определение: к персональным данным относят даже cookie-файлы (письмо ведомства от 26 июня 2024 года № 08-242780). Компании стоит учитывать риск нарушения закона при составлении текстов с помощью ИИ с чужими данными. Передача нейросети информации без согласия субъекта делает компанию ответственным оператором данных.

 

На сегодняшний день законодательство не выделяет отдельной ответственности за обработку персональных данных через ИИ – действуют общие нормы. Нарушение может привести к блокировке сайта или административной ответственности (статья 13.11 КоАП), а иногда даже к уголовным санкциям (статья 137 УК). Провайдер ИИ выступает ответственным только в случаях самостоятельного определения целей обработки и нарушения законодательства. Для безопасной работы с конфиденциальной информацией можно использовать технологии предварительной анонимизации данных, например, NER (named entity recognition). Такие системы способны маскировать чувствительную информацию перед передачей нейросети. Подобный подход обеспечивает защиту персональных данных и соблюдение требований законодательства. Иногда информация считается конфиденциальной, даже если специальный режим конфиденциальности для нее не установлен. В связи с этим она рекомендует применять так называемый облачный тест: если сведения можно безопасно загрузить в облако или отправить по электронной почте без значительных рисков, то их использование в нейросети вероятно также является допустимым – уровень рисков оказывается сравнимым.

Важность четкого указания на применение искусственного интеллекта в работе юриста, а также формулирования целей и требований его использования презюмируется. Подобный подход соответствует принципам прозрачности и должного информирования пользователей системы, включая обеспечение их права отказаться от участия в процессах, связанных с применением ИИ. Использование нейросетей для обработки таблиц с персональными данными также сопряжено с рядом потенциальных рисков. Если нейросеть анализирует или оптимизирует данные, не сохраняя их непосредственно, компании важно удостовериться в соблюдении всех требований законодательства о защите персональных данных. Контролирующие органы могут задать вопросы к таким действиям, если, например, не обеспечивается должный уровень безопасности или отсутствует согласие субъектов данных на обработку их сведений. Важно обращать внимание на локализации работы нейросети. Если система функционирует в рамках внутреннего контура компании, её использование сопоставимо с применением программы Excel для обработки исходных таблиц. Однако при загрузке данных в сторонние системы, такие как ChatGPT, таблицу рекомендуется деидентифицировать, заменяя персональную информацию уникальными идентификаторами.

Подобные меры актуальны и для других сфер применения ИИ. Так, при использовании технологий искусственного интеллекта в службах технической поддержки важно учитывать характер предоставляемых пользователем данных. Как отмечает it-юрист, если пользователь только описывает неисправность, но не указывает свои персональные сведения, его согласие не требуется. Однако если при передаче обращения указываются любые персональные данные клиента, компания обязана объяснить, куда эти сведения направляются и с какой целью. Соглашение о персональных данных должно содержать прямое указание на использование нейросетей для обработки таких запросов – вне зависимости от того, применяются ли для этого внутренние или внешние системы. При этом использование зарубежных серверов для обработки персональных данных пользователей может вступать в противоречие с п. 5 ст. 18 закона «О персональных данных». Как уже отмечалось, в соответствии с законодательством все пользовательские данные должны вначале обрабатываться и сохраняться в России. Лишь после этого допускается их передача за рубеж при соблюдении установленных условий. В частности, компания обязана проверить, предоставляет ли страна-получатель достаточный уровень защиты данных; перечень таких государств утверждает Роскомнадзор. Кроме того, требуется информировать орган о трансграничной передаче данных и иногда получать отдельное разрешение. Нарушение этих норм влечет административную ответственность согласно ст. 13.11 КоАП РФ. Штрафы за хранение данных россиян за границей составляют от 100 000 до 200 000 рублей для должностных лиц и от 1 до 6 млн рублей для юридических лиц. При повторных нарушениях предусмотрены повышенные санкции. Кроме штрафов, Роскомнадзор вправе заблокировать веб-ресурс компании, что может привести к остановке её онлайн-действий. Возможна и уголовная ответственность по ст. 272.1 УК РФ. При этом ответственность несет именно российская компания и её должностные лица, а не владелец нейросети за рубежом.

До недавнего времени основными объектами штрафных санкций за использование иностранных серверов становились крупные международные сервисы, такие как Twitch, Zoom или Discord. Лишь изредка штрафы назначались российским организациям или их должностным лицам. Например, минимальные суммы штрафов в размере 50 000 и 500 000 рублей были наложены на директора Центра немецкого языка и руководителя российской автономной некоммерческой организации. Прогнозируется, что в ближайшее время подход изменится, и Роскомнадзор усилит контроль за деятельностью отечественного бизнеса в этой сфере. Компаниям рекомендуется разработать внутренний регламент использования искусственного интеллекта (ИИ). В этом документе следует определить перечень применяемых нейросетей, задачи, для которых они используются, правила работы с персональными и конфиденциальными данными, а также меры по снижению юридических рисков. Без такого регламента значительно возрастает вероятность ошибок, утечек данных и репутационных потерь из-за несогласованных и хаотичных действий.

Если сотрудники, например, дизайнеры, планируют применять ИИ в работе над проектами, заказчику следует письменно согласовать следующие моменты:

-        возможность и объем использования ИИ;

-        перечень инструментов и программ;

-        распределение ответственности сторон;

-        объем исключительных прав на полученный результат;

-        порядок передачи материалов заказчика и информации третьим сторонам, включая владельцев ИИ-сервисов.

Когда ИИ обрабатывает сторонние данные – например, художник загружает рисунок для цветокоррекции, – новосозданный контент продолжает принадлежать автору исходного произведения. Такой результат признаётся производным, а права на него остаются у владельца первоначальных данных. Если же ИИ самостоятелен в создании нового продукта по инициативе пользователя, права принадлежат лицу, организовавшему процесс генерации, если иное не оговорено в договоре. Однако при полной автономии системы без участия человека (например, когда сеть в тестовом режиме ежедневно генерирует абстрактные изображения) контент не защищён авторскими правами согласно российскому законодательству. Наряду с этим возможны случаи нарушения авторских прав существующих произведений. Если ИИ создаёт переработанный вариант оригинального контента или производное произведение, ответственность перед правообладателем ложится на пользователя, разместившего материал. Для таких случаев крайне важно ознакомиться с условиями пользовательского соглашения поставщика ИИ. Однако чаще всего платформы предоставляют лишь технологию генерации, и возможности предъявить регрессный иск к поставщику отсутствуют.

Следует отметить еще одну область применения ИИ – создание дипфейков, включая рекламные или кинематографические цели. Дипфейки не запрещены законом. Однако использование внешнего образа человека требует его разрешения. Несанкционированное распространение заведомо ложной информации с помощью дипфейков может повлечь за собой уголовную ответственность. Например, арбитражный суд обязал выплатить компенсацию за использование дипфейк-видео с Киану Ривзом, права на которое принадлежат истцу. В этом случае суд признал дипфейк объектом авторского права, так как при его создании был задействован творческий труд человека (в данном случае моушен-дизайнера). В другом судебном деле ответчик безуспешно пытался оправдаться использованием нейросети при создании изображения 3D-модели. Истец доказал нарушенные права, предоставив видео с процессом создания. Позиция пользователя ИИ в таких спорах пока вызывает неоднозначную судебную практику. Как отмечает эксперт Божор, прогнозировать последующие решения российских судов сложно из-за новизны проблемы.

Вопросы авторского права и юридических аспектов использования искусственного интеллекта (ИИ) становятся все более актуальными в свете стремительного развития технологий. В законодательстве разных стран подходы к признанию авторских прав на произведения, сгенерированные с использованием нейросетей, заметно различаются. В законодательной практике Великобритании, например, право авторами такого произведения признается за тем лицом, которое предприняло меры, необходимые для его создания. В Китае Пекинский интернет-суд признал авторское право на изображение, сгенерированное ИИ, так как оно соответствовало критериям оригинальности и отражало вклад человеческой интеллектуальной деятельности.

В Соединенных Штатах регулирующие органы занимают более консервативную позицию. Здесь авторские права на полностью автономные творческие работы ИИ не признаются. Американское бюро по авторским правам допускает регистрацию таких работ лишь в случае доказательства существенного творческого вклада человека. Примером является отказ в регистрации права на графический роман «Zarya of the Dawn», созданный с использованием платформы MidJourney, так как автору промпта не удалось подтвердить собственный вклад. Аналогичный отказ получил автор картины, созданной с помощью Creativity Machine. Однако в феврале 2023 года компании Invoke удалось доказать, что человек внес значительные изменения в работу ИИ, благодаря чему были признаны его авторские права.

При этом большинство юридических споров связано не непосредственно с правами на результаты работы ИИ, а с использованием оригинальных произведений для обучения нейросетей. В этом контексте суды США часто принимают сторону разработчиков. Так, в деле Bartz v. Anthropic решение суда подтвердило законность использования текстов книг для обучения ИИ в рамках доктрины добросовестного использования. В схожем деле Kadrey v. Meta также было принято аналогичное постановление относительно законности использования литературных произведений при разработке ИИ.  

Кроме вопросов авторского права, важное место занимают вопросы применения ИИ в кадровой политике. Согласно положениям законодательства (например, ст. 16 закона РФ «О персональных данных»), окончательные решения должны принимать исключительно люди. Если же решение принимается нейросетью, требуется письменное согласие лица с возможностью оспаривания решений алгоритма. На практике это особенно актуально в крупных организациях, где отбор резюме часто осуществляется ИИ. Тем не менее алгоритмы не могут быть определяющими факторами в вопросах, связанных с юридическими последствиями (такими как прием на работу или увольнение). Решение о проведении собеседования должно быть строго в компетенции человека. Отказ в приеме на работу также требует объективного обоснования деловыми качествами кандидата, а не ссылками на выводы ИИ. Проблемы дискриминации внутри алгоритмов нейросетей остаются значимой угрозой. Например, система отбора сотрудников, разработанная Amazon, демонстрировала несбалансированное предпочтение мужчинам из-за того, что обучалась преимущественно на резюме представителей мужского пола. После обнародования данного факта система была выведена из эксплуатации. ИИ также используется для мониторинга поведения сотрудников, к примеру, для анализа служебной переписки. Тем не менее такие действия допустимы только при полном информировании работников (ст. 74 Трудового кодекса РФ). Результаты подобного мониторинга недопустимо применять для дискриминации или решения о расторжении трудового договора. При этом нарушение конфиденциальности переписки либо иных видов коммуникаций может повлечь за собой уголовную ответственность (в соответствии со ст. 138 УК РФ). Таким образом, использование ИИ в правовой и кадровой сфере предполагает обязательное соблюдение баланса между технологическими возможностями и обеспечением прав и свобод человека, что требует не только строгого контроля со стороны законодательства, но и этического подхода со стороны разработчиков и работодателей.

Законом пока не установлено обязательное указание на участие ИИ в создании рекламного текста, видеоролика или изображения. Тем не менее, it-юрист подчеркивает, что такие требования может содержать лицензионное соглашение об использовании ИИ-сервиса. Например, лицензионное соглашение GigaChat запрещает удаление знаков или подписей, автоматически генерируемых сервисом, свидетельствующих о создании контента с помощью данной платформы. Помимо этого, необходимо учитывать общие требования к рекламе: если использование созданного ИИ контента может привести к введению аудитории в заблуждение или нарушению принципов добросовестной конкуренции, его применение следует ограничить.

Также следует отметить, что применение нейросетей для всесторонней проверки компании, объекта инвестирования или контрагента, проводимая для получения объективной картины его финансового состояния, рисков и положения на рынке перед заключением сделки (due diligence) вполне допустима. В то же время необходимо удостовериться в подлинности предоставляемых ИИ данных и соответствия их законным требованиям. При использовании таких инструментов важно обратить внимание на особенности функционирования алгоритмов. Нейросети могут искажать или ограничивать объем предоставляемой информации, что влечет за собой необходимость последующей проверки и верификации выводов. При проведении due diligence с использованием технологий искусственного интеллекта юристы обязаны не только проверять точность полученной информации через надежные источники, но и избегать ввода конфиденциальных или персональных данных клиента, чтобы не нарушить нормы конфиденциальности и защиты информации.

Таким образом искусственный интеллект активно трансформирует юридическую практику, становясь не просто технологическим трендом, а практическим инструментом повышения эффективности профессиональной деятельности.

Применение ИИ в юриспруденции дает ключевые достижения и преимущества:

-        автоматизация рутинных процессов (анализ и составление договоров, резюмирование документов, извлечение данных) позволяет экономить до 80 % времени на типовых операциях;

-        ускорение юридических исследований: ИИ обрабатывает массивы правовой информации и находит релевантные судебные решения в считанные минуты;

-        снижение человеческого фактора: повышается точность анализа документов и минимизируется риск ошибок при проверке условий, дат и сумм;

-        прогнозирование исходов дел: на основе анализа прецедентов ИИ даёт оценку шансов на успех, помогая принимать обоснованные решения;

-        оптимизация внутренних процессов: сокращаются сроки подготовки документов, уменьшается число пропусков судебных заседаний, ускоряется распределение дел.

В то же время могут вызывать вопросы качество получаемых данных, ведь для корректной работы ИИ требуются большие объёмы структурированных и актуальных юридических документов. Риски применения ИИ юристом – возможные утечки персональных данных, необъективность алгоритмов из‑за предвзятости исходных данных, подмена правовых оценок «машинной логикой». Кроме того, в России пока отсутствует единый стандарт использования Legal AI, что создаёт правовые неопределённости. При этом ИИ эффективен в механически повторяемых задачах, но не способен учитывать философско‑правовые категории (справедливость, гуманность) и принимать решения в неоднозначных ситуациях. Таким образом, ИИ не может заменять юриста, но становится его мощным ассистентом, освобождая время для стратегической работы и персонализированного взаимодействия с клиентами. Успешная интеграция ИИ в юридическую практику требует баланса между технологическими возможностями и соблюдением правовых, этических и профессиональных норм. В перспективе это приведёт к повышению качества юридических услуг и доступности правосудия при сохранении ключевой роли человека в принятии решений.

Яндекс.Метрика