10.04.2025
Профильная рабочая группа подготовила проект закона о регулировании искусственного интеллекта (ИИ) в России. В состав группы вошли юристы, представители консалтинговых фирм и участники рынка, занимающиеся развитием ИИ. Он запрещает системы с «неприемлемым уровнем риска», раскрывает, что такое маркировка контента по закону и ответственность разработчиков за нейросети.
Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России». По данным издания, документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых площадках. В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).
Андрей Свинцов, зампредседателя комитета Госдумы по информационной политике и член рабочей группы по ИИ, рассказал, что в парламенте создана рабочая группа для проработки законодательных вопросов в сфере ИИ. Однако, по его словам, депутаты пока не рассматривают конкретные инициативы всерьез – группа создана для детального изучения запросов от разных отраслей. Сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа, по разработке всего, что затрагивает законодательство в области ИИ.
В законопроекте, в частности, предлагается ввести требования к маркировке ИИ-систем, а также классифицировать их по уровню потенциального риска. Среди предлагаемых дополнений в законы в области ИИ:
- понятие искусственного интеллекта – комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека;
- понятие технологий ИИ – к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.;
- понятие систем ИИ – информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии, разработчика, оператора и пользователя подобных систем и др.;
- требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других;
- классификация систем ИИ по уровню потенциального риска – системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную государственную регистрацию и сертификацию; для тех, у которых ограниченный уровень риска, – системы внутреннего контроля качества, добровольную сертификацию;
- ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска;
Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).
В аппарате правительства и Минцифры заявили, что пока не получали этот законопроект на рассмотрение, но готовы его изучить в случае поступления. Ранее в правительстве заявляли, что регулировать сферу ИИ пока преждевременно. Например, в феврале вице-премьер Дмитрий Григоренко говорил, что в ближайшие два года законодательное регулирование этой области не планируется. При этом в марте 2024 года Европарламент принял первый в мире закон о регулировании ИИ-систем.
