'МШН1Ш Степеням А Ж.
УНИВЕРСИТЕТА Регламент Европейского Союза об искусственном интеллекте
имени o.e. кутафина(мгюа) (Artificial Intelligence Act): первый взгляд на проект
Проблемы интеграции и интернационализации права и правовых систем в области цифровых технологий
РЕГЛАМЕНТ ЕВРОПЕЙСКОГО СОЮЗА ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ (ARTIFICIAL INTELLIGENCE ACT): ПЕРВЫЙ ВЗГЛЯД НА ПРОЕКТ1
Аннотация. Рассматривается проект Регламента Европейского Союза, устанавливающий гармонизированные правила в отношении искусственного интеллекта (Artificial Intelligence Act). Анализируются структура и особенности проекта данного нормативного правового акта интеграционной организации. Так, акт будет содержать гармонизированные правила ввода в оборот, эксплуатацию и использование систем ИИ; запреты на определенные методы искусственного интеллекта; особые требования к системам ИИ с высоким уровнем риска и обязательства операторов таких систем, гармонизированные правила прозрачности для систем ИИ, предназначенных для взаимодействия с физическими лицами, систем распознавания эмоций и биометрических систем категоризации, систем ИИ, используемых для создания изображений, аудио- или видеоконтента или управления ими; правила наблюдения и надзора за рынком. В статье рассматриваются иные положения Акта, особенности предлагаемых институтов (в частности, должен быть создан Европейский Совет по искусственному интеллекту) и норм (в том числе экстерриториальность, риск-ориентированный подход, объект, сфера действия, наказания за нарушение положений). Освещается возможность добровольно соответствовать нормам кодексов поведения для некоторых систем ИИ. Делаются выводы о целесообразности применения указанных институтов или норм в Российской Федерации. Ключевые слова: искусственный интеллект, ИИ, регулирование искусственного интеллекта, регламент ЕС, законодательство ЕС, Акт об ИИ.
Армен Жоресович СТЕПАНЯН,
доцент кафедры интеграционного и европейского права Университета имени О.Е. Кутафина (МГЮА), кандидат юридических наук [email protected] 125993, Россия, г. Москва, ул. Садовая-Кудринская, д. 9
DOI: 10.17803/2311-5998.2021.83.7.093-098
1 Работа выполнена подготовлена при финансовой поддержке РФФИ в рамках проекта
18-29-16150 © А. Ж. Степанян, 2021
) УНИВЕРСИТЕТА
а-—^ имени О. Е. Кугафи на (МПОА)
A. G. STEPANIAN, Associate Professor of Integrational and European Law Department of the Kutafin Moscow State Law University (MSAL), Саnd. Sd. ^w) [email protected] 9, ul. Sadovaya-Kudrinskaya, Moscow, Russia, 125993 EUROPEAN UNION ARTIFICIAL INTELLIGENCE ACT: FIRST LOOK AT THE PROJECT Abstract. The proposal of European Union Regulation establishing harmonized rules for artificial intelligence (Artificial Intelligence Act) is under consideration. The structure and features of the draft of this regulatory legal act of the integration organization are analyzed. Thus, the act will contain harmonized rules for the commissioning, operation and use of AI systems; bans on certain artificial intelligence methods; special requirements for high-risk AI systems and the obligations of the operators of such systems, harmonized transparency rules for AI systems intended for interaction with individuals, emotion recognition systems and biometric categorization systems, AI systems used to create images, audio or video content, or managing them; market surveillance and supervision rules. The article discusses other provisions of the Act, the features of the proposed institutions (In particular, the European Council on Artificial Intelligence should be created) and norms, including extraterritoriality, risk-based approach, object, scope, definitions, punishment for violations of provisions. The possibility of voluntarily complying with codes of conduct for some AI systems is highlighted. Conclusions are drawn about the advisability of (non) application of these institutions or rules in the Russian Federation. Keywords: artificial intelligence, AI, artificial intelligence regulation, EU Regulation, EU legislation, AI Act.
Прошло более года с момента публикации рабочей версии принципов, на которых Европейская комиссия хочет основывать регулирование систем искусственного интеллекта (ИИ) и их освещение2. И вот в апреле 2021 г. как единственный субъект законодательной инициативы Европейского Союза Европейская комиссия представляет проект регламента Европейского Союза, устанавливающий гармонизированные правила в отношении искусственного интеллекта3 (Artificial intelligence act, далее — Акт об ИИ). В материалах Комиссии
2 Степанян А. Ж. Регулирование цифровых технологий: цифровизация или гуманизация? // Вестник Университета имени О.Е. Кутафина (МГЮА). 2020. № 4 (68). С. 114—120.
3 Proposal for a regulation of the European Parliament and of the council laying down harmonised rules on artificial intelligence (Artificial intelligence act) and amending certain union legislative acts // C0M(2021) 206 final. URL: https://ec.europa.eu/newsroom/dae/document.cfm7doc_ id=75788.
'МШН1Ш Степеням А. Ж.
УНИВЕРСИТЕТА Регламент Европейского Союза об искусственном интеллекте
имени o.e. кугафина(мгюа) (Artificial Intelligence Act]: первый взгляд на проект
он назван Регламентом о европейском подходе к ИИ. Эта риторика показывает, что, несмотря на то, что деятельность Совета Европы в отношении юридических стандартов ИИ в достаточной степени прогрессирует4 (в том числе на разных уровнях и в разных органах Совета Европы), Европейский Союз претендует на лидерство в отношении регулирования ИИ в Европе.
Проект Акта об ИИ предложен в составе 85 статей, из которых 10 посвящены поправкам к старому законодательству, а 75 в 11 разделах — непосредственно ИИ. Проектом предусмотрена широкая база определений, включая определение системы искусственного интеллекта — программного обеспечения, разработанного с помощью одного или несколько методов и подходов, перечисленных в Приложении I к Регламенту, который может для набора целей, определенных человеком, генерировать такие результаты, как контент, прогнозы, рекомендации или решения, влияющие на среду, с которой они взаимодействуют.
Среди других определений стоит выделить такие субъективные, как «целевое назначение», «разумно предсказуемое неправильное использование», «значительное изменение». «Серьезный инцидент» определен как любой инцидент, который прямо или косвенно ведет или может привести или к смерти человека, или к серьезному ущербу его здоровью, имуществу или окружению, или к серьезному и необратимому нарушению управления и функционированию критической инфраструктуры.
Представляется, что использование таких определений должно быть подкреплено судебной практикой, или рекомендациями, или иными актами мягкого права органов надзора или законодателя. Соответственно, нецелесообразно примене- □
ние таких или подобных субъективных (оценочных) определений в настоящее О
время в Российской Федерации. Л
В статье 1 объектом Акта предполагается установить гармонизированные м
правила ввода в оборот, эксплуатацию и использование систем ИИ; запреты на ы
определенные методы искусственного интеллекта; особые требования к систе- ^И
мам ИИ с высоким уровнем риска и обязательств операторов таких систем; гар- ^ч
монизированные правила прозрачности для систем ИИ, предназначенных для Ап
взаимодействия с физическими лицами, систем распознавания эмоций и био- 5 А
метрических систем категоризации, систем ИИ, используемых для создания изображений, аудио- или видеоконтента или управления ими; правила наблюдения В | и надзора за рынком. □ и
Как видно, из объекта регулирования исключен как таковой процесс разработ- Ы Ч
ки, однако в ходе разработки фактически должны быть учтены все требования Пт
Акта об ИИ об использовании систем ИИ. Но как субъекты разработчики исклю- цИА
чены из прямого действия Регламента ЕС об ИИ. В"Е"И
Под действие Акта подпадают поставщики, вводящие в оборот или эксплуатацию системы ИИ в ЕС, независимо от того, в ЕС или вне ЕС зарегистрированы §
ЕоЛ X
эти поставщики, пользователи систем искусственного интеллекта, расположенных
на территории Союза; поставщики и пользователи систем ИИ, которые находятся ч^Ш
в третьей стране, при этом результат такой системы используется в ЕС. ХП-Е
НЧИ
□ 5 5
4 URL: https://www.coe.int/en/web/artificial-intelligence. ЛОГИЙ
>
) УНИВЕРСИТЕТА
L-—имени О. Е. Кугафи на (МПОА)
Такую сферу применения Акта об ИИ можно охарактеризовать экстерриториальностью и вменением в связи с тем, что разработчик и поставщик системы не вполне могут ожидать и предвидеть даже не клиентов, а применение такими клиентами результатов деятельности систем. Такое положение близко к вменению юрисдикции и, предполагаю, коренится в подобных положениях GDPR (Общего регламента по охране данных), практика применения которых имеется даже в России.
Очевидно, что это положение направлено на то, чтобы многочисленные американские технологические компании еще при разработке систем ИИ помнили о требованиях ЕС и, возможно, не выходили на рынок ЕС с не соответствующими требованиям системами.
Особо указывается, что из сферы применения Акта об ИИ исключены системы ИИ, предназначенные для военных целей, а также органы третьих стран и международных организаций, хотя бы и подпадающие под действие в связи с соответствующими положениями,но при этом использующие такие системы в рамках соглашений с Евросоюзом или государствами-членами о сотрудничестве в сфере правоохранительных и судебных органов.
В проекте Регламента также определяются запреты на использование определенных систем ИИ и практик. Запрещены, например, использование биометрических систем реального времени в публичных местах, кроме, например, целенаправленного поиска конкретных потенциальных жертв преступлений, в том числе пропавших детей. В Российской Федерации органами региональной и федеральной власти пропагандируется использование уличных камер для поиска пропавших детей, однако, в отличие от проекта Акта об ИИ, не указывается на запрет иных целей использования, что следует признать отсутствием гарантий ненарушения прав человека.
Системы высокого риска в проекте Регламента об ИИ получают правила классификации, что, безусловно, стоит признать удачным инструментом для достижения правовой определенности. Для персональных данных указанные критерии устанавливались в Российской Федерации в подзаконных актах спустя длительное время после принятия закона, что не способствовало правовой определенности и соблюдению прав человека. Все системы ИИ высокого риска должны иметь систему управления рисками, качеством, исследуемой логикой выбора потоков данных, прозрачностью и предоставлением информации пользователям. Проект содержит достаточное количество требований к системам ИИ высокого риска, одним из обязательных требований к таким системам является наличие возможности обзора работы таких систем людьми — физическими лицами. Срок хранения журналов работы систем устанавливается национальным законом или договором с пользователем.
Одним из работающих институтов на рынке медицинских изделий — сектора товаров, которые напрямую воздействуют на здоровье и жизнь людей, а следовательно, являются товарами высокого риска, является институт уполномоченных представителей. Каждый производитель вне Европейского Союза обязан назначить полномочного представителя на территории ЕС. Таким образом, имея
'МШН1Ш Степамям А. Ж.
УНИВЕРСИТЕТА Регламент Европейского Союза об искусственном интеллекте Д/
имени o.e. кугафина(мгюа) (Artificial Intelligence Act): первый взгляд на проект
юрисдикцию как минимум над представителем, ЕС использует их частично как заложников выполнения иностранными поставщиками требований законодательства ЕС. Требования в проекте Акта об ИИ устанавливаются для импортеров и даже для дистрибьюторов систем ИИ.
Как и на рынке медицинских изделий, вводятся институты органов для уведомлений и оценочных органов. Первые служат для ведения реестров систем ИИ, вторые — для оценки соответствия этих систем требованиям законодательства. Указанная система уже достаточно давно действует не только в отношении рынка медицинских изделий, но и для многих других сфер оценки соответствия (детские игрушки, химические материалы и др.). Проект акта устанавливает требования к обоим типам институтов, а также к процедурам оценки соответствия, сертификатам о маркировке значком СЕ (обычным для оценки соответствия в ЕС), регистрации в базе высокорисковых систем ИИ.
Положительно стоит оценить нормы о прозрачности алгоритмов в некоторых системах ИИ и о самом факте взаимодействия с системой ИИ, о возможности государств «открывать» регуляторные песочницы (что очень актуально для некоторых инновационных областей, таких, например, как беспилотные транспортные средства5).
Для руководства вышеуказанным ЕС намерен создать Европейский совет по искусственному интеллекту. Этот Совет будет состоять из представителей национальных органов по ИИ, а также Европейского инспектора по защите данных. Представляется, что этот орган основан, скорее, на структуре и компетенции ВЕКЕС (Орган европейских регуляторов электронных коммуникаций), нежели на □
ЕйРЗ (Европейский надзорный орган по защите данных). О
Стоит приветствовать норму о возможности добровольно соответствовать ^
нормам кодексов поведения для систем ИИ невысокого риска. м
Нарушения караются достаточно чувствительно в финансовом плане — до ы
30 млн евро, или до 6 % годового мирового оборота, что окажется выше. При ^И
этом указывается на возможность установления национальной уголовной и ад- ^ч
министративной ответственности. Для институтов и органов Союза наказание Ап
ниже — до 500 тыс. евро. о А
Как видно из вышесказанного, проект акта достаточно комплексный. Институт систем ИИ получает статус, во многом аналогичный статусу опасного товара В | или услуги, со своей спецификой. Некоторые институты удачно встраиваются □ и в правовую систему ЕС, но откровенно не подходят для других стран в связи с ЫП отсутствием особенностей системы в ЕС в таких странах, включая Россию. Ст По мнению автора, стоит дополнительно изучить возможность применения ЦИА и отчет об оценке воздействия, чтобы говорить о возможном применении того В~Е"И или иного института. Для такого комплексного акта в Российской Федерации необходимо провести многие изменения законодательства и правоприменитель- § ной практики, чтобы иметь возможность принять такой акт и использовать его
достижения. Однако вопрос о целесообразности таких комплексных изменений, чЛШ
гп>> ХТИ
5 См.: Степанян А. Ж. Проблемы регулирования беспилотных транспортных средств // ОСИ
Вестник Университета имени О.Е. Кутафина (МГЮА). 2019. № 4 (56). С. 169—174. ПО Г ИЙ
>
) УНИВЕРСИТЕТА
L-—имени О. Е. Кугафи на (МПОА)
очевидно, стоит, и ответ на него не так очевиден. В настоящее время, стоит признать, что гораздо удачней выглядит возможность предложения введения и реализации отдельных институтов, тогда как программный документ — Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года6 — в России уже есть.
БИБЛИОГРАФИЯ
1. Степанян А. Ж. Проблемы регулирования беспилотных транспортных средств // Вестник Университета имени О.Е. Кутафина (МГЮА). — 2019. — № 4 (56). — С. 169—174.
2. Степанян А. Ж. Регулирование цифровых технологий: цифровизация или гуманизация? // Вестник Университета имени О.Е. Кутафина (МГЮА). — 2020. — № 4 (68). — С. 114—120.
6 Распоряжение Правительства РФ от 19.08.2020 № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» // СЗ РФ. 2020. № 35. Ст. 5593.