Иллюстрация: обязательная маркировка контента нейросетей и ответственность платформ за ИИ

06.04.2026

Нейросетям ужесточат правила: обязательная маркировка, ответственность платформ и прозрачные соглашения

 · 5 минут чтения

Авторы законопроекта о регулировании искусственного интеллекта подготовили пакет поправок, которые кардинально меняют подход к работе нейросетей в России. Теперь разработчикам и владельцам платформ придётся не только маркировать любой сгенерированный контент, но и отвечать за противоправное использование своих технологий. А в пользовательских соглашениях потребуется чётко прописывать, кому принадлежат результаты работы ИИ. Поправки уже обсуждаются в Торгово-промышленной палате РФ, куда замечания принимаются до 15 апреля.

Маркировка станет тотальной: теперь всё, что создано нейросетью, должно быть помечено

Если раньше споры шли о том, какие именно материалы нужно маркировать, то поправки снимают все вопросы. Любой текст, изображение, видео или аудио, сгенерированные нейросетью, подлежат обязательной маркировке. Это касается и постов в соцсетях, и рекламных креативов, и даже служебной переписки, если она предназначена для внешнего использования.

Как именно маркировать — пока обсуждается. Среди вариантов: водяные знаки, мета-теги, специальные пиктограммы или текстовая пометка «Создано ИИ». Главное требование — маркировка должна быть заметна для обычного пользователя без дополнительных технических средств. За отсутствие маркировки разработчикам грозят штрафы, а платформам — блокировка контента.

Ответственность платформ: за чужие действия придётся платить

Самый резонансный пункт поправок — владельцы сервисов ИИ будут нести ответственность за любое противоправное использование их технологий. То есть если с помощью нейросети сгенерировали клевету, фейковое видео или инструкцию по изготовлению оружия, отвечать перед потерпевшими и государством будет не только злоумышленник, но и компания, предоставившая инструмент.

Юристы, специализирующиеся на IT-праве, называют эту норму «революционной» и «крайне рискованной для бизнеса». «По сути, любой стартап, который выпустил нейросеть в открытый доступ, становится заложником своих пользователей. Даже если разработчик предусмотрел фильтры и модерацию, всегда найдётся способ их обойти. А штрафы могут достигать миллионов рублей», — комментируют в одной из московских юридических фирм.

Впрочем, авторы поправок настаивают, что это вынужденная мера: «Платформы должны активнее вкладываться в безопасность, а не просто собирать аудиторию». Ожидается, что после принятия закона крупные игроки (Яндекс, VK, Сбер) начнут массово внедрять системы предварительной модерации запросов и результатов генерации.

Прозрачность в соглашениях: кому принадлежит результат работы ИИ?

Поправки обязывают все сервисы, использующие нейросети, прописывать в пользовательских соглашениях условия использования результатов интеллектуальной деятельности, созданных ИИ. Это касается как текстов, так и изображений, музыки, кода и других объектов.

Теперь в договоре должно быть чётко указано:

— уведомляет ли сервис пользователя о том, что контент сгенерирован нейросетью;
— переходят ли права на такой контент к пользователю или остаются у платформы;
— может ли пользователь коммерчески использовать сгенерированные материалы;
— кто несёт ответственность, если сгенерированный контент нарушает авторские права третьих лиц.

По оценкам экспертов, большинство текущих пользовательских соглашений не соответствуют этим требованиям. Компаниям придётся срочно переписывать документы или вообще приостанавливать работу нейросетевых сервисов.

Что происходит в ТПП РФ: общественное обсуждение и сроки

Поправки к законопроекту об ИИ уже направлены в Торгово-промышленную палату РФ. На прошлой неделе состоялось расширенное заседание профильного комитета, в котором участвовали представители Минцифры, IT-компаний, юристы и правозащитники.

Главный вывод обсуждения — необходимо учесть международный опыт, чтобы не задушить отрасль избыточным регулированием. Участники указывали на EU AI Act, где ответственность платформ дифференцируется в зависимости от рисков системы, а не вводится тотально для всех.

Приём замечаний к проекту закона об ИИ в ТПП РФ продлится до 15 апреля 2026 года. После этого документ будет доработан и направлен в Госдуму. Если поправки примут в нынешнем виде, бизнесу останется меньше полугода на подготовку.

Что говорят участники рынка

Руководитель юридического департамента одной из крупных IT-компаний на условиях анонимности заявил:

«Мы за прозрачность и маркировку — это правильно. Но ответственность за всё подряд — это перебор. Представьте, что автомобильный завод будет отвечать за каждое ДТП, даже если водитель специально нарушил правила. Так нельзя».

В то же время правозащитные организации поддерживают жёсткий подход: «Нейросети уже используют для создания дипфейков, клеветы и мошенничества. Платформы должны нести реальную ответственность, иначе они никогда не вложатся в безопасность».

Независимые эксперты по IT-праву советуют компаниям уже сейчас начинать аудит своих систем ИИ и пользовательских соглашений, а также готовить предложения к поправкам, пока идёт общественное обсуждение.

Что будет дальше

До 15 апреля ТПП РФ собирает замечания бизнеса и экспертов. Затем документ вернут в Минцифры для доработки. Ожидается, что итоговая версия законопроекта будет внесена в Госдуму в мае-июне 2026 года. Если депутаты его примут, новые требования могут вступить в силу уже с 1 января 2027 года.

Для компаний это означает необходимость пересмотреть техническую архитектуру нейросетей (внедрить маркировку), усилить модерацию и переписать пользовательские соглашения. Малым и средним стартапам, возможно, придётся объединяться или искать юристов, специализирующихся на IT-праве, чтобы не нарушить закон.

Таким образом, ужесточение требований к нейросетям — один из самых значимых трендов российского IT-регулирования в 2026 году. И бизнесу лучше готовиться к новым правилам уже сейчас.

Яндекс.Метрика