IT-новости в области права

Ответственность за вред ИИ

03.10.2022

Европейская комиссия предложила ввести новые правила, облегчающие частным лицам и компаниям подачу исков о компенсации причинённого вреда производителям беспилотников, роботов и других продуктов, оснащённых программным обеспечением с искусственным интеллектом. Согласно проекту закона, пострадавшие смогут требовать компенсации за вред, причинённый их жизни, имуществу, здоровью и частной жизни по вине или бездействию поставщика, разработчика или пользователя технологии ИИ, или за дискриминацию в процессе найма на работу с использованием ИИ. «Мы хотим, чтобы жертвы ущерба, причинённого технологиями с использованием ИИ, имели такой же уровень защиты, как и жертвы обычных технологий», – заявил на пресс-конференции комиссар юстиции Дидье Рейндерс (Didier Reynders). Правила облегчают процесс доказывания вреда для пострадавших, вводя «презумпцию причинности», что означает, что жертвам необходимо лишь доказать, что несоблюдение производителем или пользователем определенных требований привело к причинению вреда, а затем связать это с технологией искусственного интеллекта в своём иске. При этом, потерпевшие могут попросить суд обязать компании и поставщиков предоставить информацию о системах ИИ с высоким уровнем риска, чтобы они могли определить ответственное лицо и вину, которая нанесла ущерб. Комиссия также объявила о внесении изменений в Директиву об ответственности за качество продукции, согласно которым производители будут нести ответственность за все небезопасные продукты, материальные и нематериальные, включая программное обеспечение и цифровые услуги. Пользователи смогут подать иск о компенсации, если обновления программного обеспечения делают их «умные» домашние продукты небезопасными или если производители не устраняют пробелы в кибербезопасности. Те, у кого есть небезопасные продукты за пределами ЕС, смогут подать в суд на представителя производителя в ЕС для получения компенсации. Директива об ответственности за вред, нанесённый технологиями с использованием ИИ, должна быть согласована со странами ЕС и законодателями ЕС, прежде чем она станет законом.

В зарубежном праве в отношении ответственности за вред, причиненный ИИ, также сложилась противоречивая ситуация. В октябре 2020 г. Европейским парламентом была принята Резолюция «Режим гражданской ответственности за искусственный интеллект», содержащая рекомендации для Комиссии по регулированию гражданской ответственности в отношении использования ИИ. По сравнению с Резолюцией 2017 г. «Гражданско-правовые нормы о робототехнике», в Резолюции 2020 г. прослеживается изменение позиции относительно ответственных за деятельность ИИ. В Резолюции 2020 г. ответственность за деятельность ИИ перераспределяется между традиционными участниками гражданского оборота. Кроме того, в указанном документе был рекомендован инкрементальный (поэтапный) подход в определении ответственных за вред, причиненный юнитами ИИ. Это означает, что дифференцируется ответственность производителя и пользователя (оператора) систем ИИ. Причем операторы делятся на два вида:

1) оператор фронтенда (интерфейса) – любое физическое или юридическое лицо, которое осуществляет определенный контроль над рисками, связанными с использованием и функционированием системы ИИ, и извлекает выгоду из ее работы;

2) внутренний (бэкенд) оператор – любое физическое или юридическое лицо, которое на постоянной основе определяет особенности технологии и предоставляет данные и необходимую службу внутренней поддержки, а также осуществляет определенный контроль над рисками, связанными с использованием и функционированием системы ИИ.

В этом случае производитель выступает как бэкенд-оператор. Подобный подход позволяет расширить ответственность производителя и распространить ее на этап дальнейшего функционирования юнита по сравнению с требованиями Директивы об ответственности за качество продукции.

Существует и иной подход к ответственности ИИ. Так, исследователи Дэниел Сенг и Тан Ченг Хан (Сингапур, Китай) утверждают, что ответственность за ошибки, совершенные юнитами, должна возлагаться на пользователя, поскольку именно пользователю необходимо проявлять осмотрительность в выборе юнита-агента. В случае возникновения ущерба, причиненного действиями (бездействием) системы ИИ, пользователь может взыскать убытки с оператора.

Яндекс.Метрика