IT-новости в области права

регулирование ии

15.01.2024

В современном мире искусственный интеллект (ИИ) часто ассоциируется с «закрытыми» системами, такими как ChatGPT от OpenAI, где программное обеспечение находится под контролем разработчиков и ограниченного круга партнеров. В то же время, растет беспокойство о неконтролируемом распространении мощных открытых (open-source) ИИ-систем. OpenAI отказалась от публикации исходного кода своих систем GPT в 2019 году из-за опасений злоупотребления. В отличие от этого, другие компании, такие как Meta и Stability AI, выбрали путь демократизации доступа к ИИ, выпуская мощные незащищенные системы. Открытые ИИ-системы представляют собой значительный риск из-за легкости их использования в злонамеренных целях. Они могут быть использованы для распространения дезинформации через социальные сети и для создания опасных материалов, включая химическое и биологическое оружие. Институт статистических исследований и экономики знаний НИУ ВШЭ сопоставил первые законодательные инициативы в этой сфере, принятые или обсуждаемые на уровне правительств в Евросоюзе, Китае, России и США. Весной 2023 г. ученые и представители ИТ-индустрии опубликовали открытое письмо с призывом приостановить хотя бы на полгода обучение систем ИИ мощнее ChatGPT 4, чтобы за это время разработать соответствующие протоколы безопасности. В мае Сэм Альтман, глава компании OpenAI, разработавшей ChatGPT, заявил о необходимости создать специальное агентство для лицензирования систем ИИ, чтобы снизить риски использования технологии. Тогда же стали появляться новости о разработке и принятии законов в области регулирования ИИ различными странами. На данный момент более всего проработаны три законодательных инициативы. Регулирование открытого ИИ является крайне важной нерешенной проблемой на данный момент, которое позволит приостановить выпуск незащищенных ИИ-систем до выполнения определенных требований, установить регистрацию и лицензирование всех ИИ-систем, превышающих определенный порог возможностей, создать механизмы оценки рисков, смягчения последствий и независимого аудита для мощных ИИ-систем, требовать водяных знаков и четкой маркировки контента, созданного ИИ, обеспечить прозрачность данных обучения и запретить использование персональных данных и контента, способствующего распространению ненависти. Все эти угрозы остаются неразрешенными до ввода достаточной нормативно-правовой базы. На государственном уровне необходимо создать оперативный регулирующий орган для быстрого реагирования и обновления критериев, поддержать фактчекинговые организации и общественные группы, сотрудничать на международном уровне с целью создания международного договора для предотвращения обхода этих регуляций, демократизировать доступ к ИИ через создание общедоступной инфраструктуры. Эти рекомендации являются основополагающими, их реализация потребует значительных затрат и сопротивления мощных лоббистов и разработчиков. Однако без таких действий производители незащищенного ИИ могут получать миллиардные прибыли, перекладывая риски на общество. В декабре 2023 г. Европарламент и Евросовет после трехдневного обсуждения согласовали положения Закона об искусственном интеллекте (AI Act). Документ призван защитить от высокорискового искусственного интеллекта (ИИ) гражданские права и демократию, обеспечить верховенство закона и экологическую устойчивость, стимулировать инновации и вывести Европу в лидеры в области ИИ. Еврокомиссар по вопросам внутренней торговли и услуг Тьерри Бретон назвал декабрьское согласование положений «историческим», заявив, что ЕС стал «первым континентом, установившим четкие правила в сфере ИИ». Вопросы нормативного регулирования использования ИИ, защита персональных данных, исполнение требований к прозрачности и подотчетности, проблемы информационной безопасности, объяснимости ИИ при принятии решений должны быть разрешены в минимально возможно короткие сроки. ИИ в умелых руках позволяет «добывать» и персональные данные, и конфиденциальную, и секретную информацию из открытых источников. В результате становится сложнее рассекречивать исторические материалы, поскольку организации и сотрудники, отвечающие за эти вопросы, учитывают возрастающие риски при принятии решений о рассекречивании. Нужно ли требовать от ИИ большего, чем от людей? Необходимо учитывать, что если при внедрении ИИ потребуется значительно ужесточить требования к процедурам и порядку документирования, то это также создаст и дополнительные проблемы. Не стоит требовать от ИИ большего, чем мы требуем от людей при выполнении тех же деловых действий и операций. Ошибки и предвзятость при работе ИИ-алгоритмов неизбежно будут встречаться, поэтому не стоит ставить перед собой несбыточной цели создания «идеального» ИИ, вместо этого приложив уже на ранних этапах жизненного цикла ИИ-систем усилия к созданию систем непрерывного совершенствования и доучивания ИИ-алгоритмов на основе получаемой обратной связи.

В России готовится закон о регулировании ИИ. Как сообщил в апреле 2023 г. зампред комитета Госдумы по информационной политике Антон Горелкин, особое внимание в документе будет уделяться защите рынка труда от негативного влияния ИИ. Законопроект должен определить ответственность за разработку систем ИИ и создаваемый с их помощью контент и исключить использование технологии мошенниками. На ускорение темпов развития ИИ нацелена и подготовка стандартов в этой сфере. В июне 2023 г. стало известно, что Минцифры России создает стандарт персональных данных для систем и сервисов, использующих средства ИИ, а Росстандарт открыл доступ к более чем 60 стандартам в сфере ИИ, подготовленным Техническим комитетом по стандартизации № 164 «Искусственный интеллект». Свои рекомендации относительно применения ИИ на финансовом рынке в ноябре выпустил ЦБ РФ. Придерживаясь в этом вопросе риск-ориентированного подхода, регулятор планирует, например, участвовать в отслеживании оборота обезличенных персональных данных, выработке подходов к распределению ответственности за генерируемый контент и использованию разработчиками сторонней инфраструктуры обработки данных. В середине декабря правительство внесло в Госдуму законопроект об изменениях в Федеральном законе «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации». Инициатором нововведений выступило Минэкономразвития России, которое еще весной 2023 г. опубликовало поправки к закону об антикоррупционной экспертизе. Согласно предложенным изменениям, компании – участники экспериментальных правовых режимов (ЭПР) должны будут вести, во-первых, учет технологий, созданных с применением ИИ; во-вторых, реестр лиц, с которыми возникли правоотношения (в частности, в нем будут фиксироваться сведения о лицах, ответственных за причинение вреда в результате использования технологий, созданных с применением ИИ). Участники ЭПР будут обязаны страховать гражданскую ответственность за вред, который может возникнуть в результате использования ИИ. Выявление причин и обстоятельств, вызвавших такие последствия, возлагается на специально созданную комиссию, в составе которой будут представители уполномоченного и регулирующего органов, предпринимательского сообщества и иные лица. Отчеты комиссии о причинах и обстоятельствах произошедшего, а также о мерах по возмещению ущерба будут публиковаться в интернете.

Яндекс.Метрика