08.09.2022
Предлагаемые правила Евросоюза (ЕС) могут ограничить тип исследований, которые производят передовые инструменты искусственного интеллекта (ИИ), такие как GPT-3, предупреждают эксперты в новом исследовании. Аналитический центр Brookings опубликовал статью, в которой осуждалось регулирование блоком ЕС ИИ с открытым исходным кодом, утверждая, что это создаст юридическую ответственность для систем ИИ общего назначения и одновременно подорвет их развитие. Согласно проекту закона ЕС об ИИ, разработчики ИИ с открытым исходным кодом должны будут придерживаться рекомендаций по управлению рисками, управлению данными, технической документации и прозрачности, а также стандартов точности и кибербезопасности. Если компания внедрит систему ИИ с открытым исходным кодом, которая приведет к каким-то катастрофическим последствиям, утверждает автор, не исключено, что компания попытается уйти от ответственности, подав в суд на разработчиков открытого кода, на основе которого они создали свой продукт. «Это может еще больше сосредоточить власть над будущим ИИ в руках крупных технологических компаний и помешать исследованиям, которые имеют решающее значение для понимания ИИ обществом», – написал Алекс Энглер, аналитик из Brookings, опубликовавший статью. «В конечном итоге попытка (ЕС) регулировать открытый исходный код может создать запутанный набор требований, который поставит под угрозу вкладчиков ИИ с открытым исходным кодом, что, вероятно, не улучшит использование ИИ общего назначения».
В Европейском союзе действует Директива Совета от 25 июля 1985 г. N 85/374/EEC «О сближении законов и иных правовых актов, административных норм государств-членов, касающихся ответственности за некачественную продукцию». Данная Директива потенциально применима к возмещению вреда, причиненного ненадлежащим функционированием систем ИИ. Вместе с тем она охватывает только ответственность производителей некачественной продукции, не затрагивая лиц, эксплуатирующих данные системы. В то же время, очевидно, необходимо предусмотреть для таких лиц, использующих высокорискованные системы ИИ, включенные в специальный перечень, повышенную гражданскую ответственность за вред или ущерб, причиненный функционированием высокорисковой системы ИИ, и обязательное страхование такой гражданской ответственности.