Закон и право. 2024. № 8. С. 279-283. Law and legislation. 2024;(8):279-283.
Научная статья УДК 34.096
https://doi.org/10.24412/2073-3313-2024-8-279-283 EDN: https://elibrary.ru/FKLERQ
NIION: 1997-0063-8/24-446 MOSURED: 77/27-001-2024-8-646
AI Act Еврокомиссии как первый регламент об использовании нейросетей
Никита Антонович Николаев1, Наталия Александровна Касаткина2,
Мовлад Хасиевич Гельдибаев3
1 2 Университет ИТМО, Санкт-Петербург, Россия
3 Северо-Западный филиал Российского государственного университета правосудия,
Санкт-Петербург, Россия
1 n.nikolaev@niuitmo.ru
2 lawmail@bk.ru
3 geldibaev@mail.ru
Аннотация. В данной статье рассмотрен принятый регламент Еврокомиссии, регулирующий использование нейросетей, — AI Act. Рассмотрены общие положения Регламента, деление нейросетей на четыре группы риска, а также создание Европейского совета по искусственному интеллекту. Даны комментарии по неоднозначности некоторых формулировок Регламента.
Ключевые слова: Акт об Искусственном Интеллекте, Еврокомиссия, регулирование нейросетей, искусственный интеллект, Европейский Союз, кибербезопасность.
Для цитирования: Николаев H.A., Касаткина H.A., Гельдибаев М.Х. AI Act Еврокомиссии как первый регламент об использовании нейросетей // Закон и право. 2024. № 8. С. 279—283. https://doi.org/10.24412/ 2073-3313-2024-8-279-283 EDN: https://elibrary.ru/FKLERQ
Original article
European Commission's AI Act as the first law about the use of neural networks
Nikita A. Nikolaev1, Natalia A. Kasatkina2, Movlad Kh. Geldibaev3
1 2 ITMO University, St. Petersburg, Russia
3 North-Western branch of Russian State University of Justice, St. Petersburg, Russia
1 n.nikolaev@niuitmo.ru
2 lawmail@bk.ru
3 geldibaev@mail.ru
Abstract. The current article considers the adopted regulation of the European Commission regulating the use of neural networks — AI Act. The general provisions of the Regulation, the division of neural networks into four risk groups, as well as the creation of the European Artificial Intelligence Board are considered. Comments were given on the ambiguity of some of the wording of the Regulation.
Keywords: Artificial Intelligence Act, European Commission, neural networks governance, Artificial Intelligence, European Union, cybersecurity.
For citation: Nikolaev N.A., Kasatkina N.A., Geldibaev M.Kh. European Commission's AI Act as the first law about the use of neural networks // Law and legislation. 2024;(8):279—283. (In Russ.). https://doi.org/ 10.24412/2073-3313-2024-8-279-283 EDN: https://elibrary.ru/FKLERQ
© Николаев Н.А., Касаткина Н.А., Гельдибаев М.Х. М., 2024. LAW & LEGISLATION • 08-2024
Введение
В эпоху развития нейросетей и других систем, основанных на искусственном интеллекте, как никогда остро стоит вопрос их контроля. Вот несколько фактов, свидетельствующих об актуальности данной темы: увольнение из Google лауреата премии Тьюринга Джеффри Хинтона, который сейчас призывает к большему контролю технологии; вирусное распространение фотографии папы римского Франциска в пуховике Balenciaga, которую создала Midjourney; написание ботом ChatGPT экзамена Уортонской школы бизнеса на оценку между B- и B; и этот список не является исчерпывающим. Помимо очевидных технических ограничений платформ некоторые государства и межгосударственные образования уже начали разрабатывать законодательство по контролю деятельности нейросе-тей. Данная статья будет посвящена рассмотрению юридических аспектов принятого в ЕС Регламента, регулирующего то, как должны работать «нейросети» на территории Европейского Союза.
Общие положения
Artificial Intelligence Act (AI Act), или «Регламент Европейского парламента и совета, устанавливающий согласованные правила в отношении искусственного интеллекта и вносящий изменения в некоторые законодательные акты Союза», представляет собой, по мнению авторов Регламента [1, с. 3], надежную и гибкую правовую базу для:
■ обеспечения безопасности и соблюдения существующих законов об основных правах и общих ценностях Союза системами искусственного интеллекта;
■ обеспечения правовой определенности для содействия инвестициям и инновациям в области искусственного интеллекта;
■ совершенствования управления и эффективного обеспечения соблюдения действующего законодательства об основных правах и требованиях безопасности, применимых к системам искусственного интеллекта;
■ содействия развитию единого рынка для законных, безопасных и надежных приложений на основе искусственного интеллекта и предотвращения фрагментации рынка.
Для выполнения этих целей европейские законодатели предлагают [1, с. 12—13] разделить
нейросети на три уровня риска: недопустимый (unacceptable), высокий (high) и низкий или минимальный (low or minimal). О каждом уровне по порядку.
Системы недопустимого уровня риска
Согласно текущему закону системы недопустимого риска должны быть запрещены, что прописано максимально конкретно (The following artificial intelligence practices shall be prohibited [1, с. 43—45]). К таким системам относятся системы, которые:
■ имеют потенциал к манипуляции своими пользователями, воздействуя на их подсознание, что в итоге создает условия для того, чтобы они нанесли себе или другому человеку физический или психологический вред;
■ позволяют государственным органам вести постоянный социальный рейтинг людей, пребывающих на территории государства;
■ могут использоваться правоохранительными органами для дистанционной биометрической идентификации людей в режиме реального времени в общедоступных1 местах.
При этом у данного пункта есть исключения — такие системы можно использовать, если это крайне необходимо для:
■ поиска конкретных потенциальных жертв преступления, включая потерявшихся детей;
■ предотвращения конкретной и неизбежной опасности жизни и физической безопасности людей, или террористической угрозы;
■ обнаружения, поиска местоположения, опознания или преследования преступника или подозреваемого в уголовном преступлении, максимальный срок за которое в соответствующем государстве — члене ЕС составляет не менее трех лет.
Каждое такое использование должно быть авторизовано судебным или другим независимым органом, однако в случае должного обосно-
1 К общедоступным местам в применении к данному регламенту относятся все места, куда человек может свободно прийти, в том числе за определенную предусмотренную законом плату (например, театр). К таким местам не относятся личные жилища (дома, квартиры), заводы, фабрики, офисы и склады. Также не является общедоступным местом Интернет, так как не имеет физического и общедоступного воплощения.
ЗАКОН И ПРАВО • 08-2024
вания срочности ситуации использование системы может быть начато без разрешения, и разрешение может быть запрошено только во время или после использования.
Стоит отметить, что понятия крайней необходимости и должного обоснования срочности сами по себе довольно размыты и конкретизация им в Регламенте не дана. Возможно, более определенные условия будут позднее прописаны в законах на уровне государств — членов Европейского Союза, но конечное понимание того, что понимается под этими пространными формулировками, придет только после использования этого пункта на практике.
Системы высокого уровня риска
Под системами высокого риска в применении к данному регламенту понимаются системы, в которых соблюдено два условия [1, с. 45]:
■ система является компонентом безопасности продукта или сама по себе является продуктом, предусмотренным законами из приложения II к Регламенту2 [2, с. 2—3];
■ этот компонент безопасности / продукт должен пройти оценку соответствия третьей стороной с целью размещения на рынке или ввода в эксплуатацию этого продукта в соответствии с законами из того же приложения.
Кроме того, к системам высокого риска относятся все системы с использованием искусственного интеллекта, используемые в сферах, перечисленных и подробно описанных в приложении III [2, с. 4—5]. Сферы списком:
1. Биометрическая идентификация и категоризация людей.
2. Управление и использование критических инфраструктур: дороги, поставки воды, газа, тепла и электричества.
3. Образовательная и профессиональная подготовка.
4. Работа, управление работниками и доступ к самозанятости.
5. Доступ к основным частным и государственным услугам и льготам и пользование ими.
6. Деятельность правоохранительных органов.
7. Управление миграцией, предоставлением убежища и пограничным контролем.
8. Управление правосудием и демократическими процессами.
2 В приложении перечислен свод законов, регулирующий эксплуатацию и производство различных товаров, от самолетов до кабель-каналов.
Также к данным системам могут относиться системы с искусственным интеллектом, которые создают риск причинения вреда жизни и безопасности людей, либо риск негативного воздействия на основные права людей, если такие системы уже не упомянуты в приложении III.
Перед отправкой таких систем на рынок планируется применить следующие методы контроля [1, с. 46-52]:
■ систему управления рисками (которую также необходимо создать);
■ контроль за данными, на которых обучается машина, обращая особое внимание на контроль за использованием персональных данных людей;
■ обязательное ведение технической документации;
■ автоматическое составление отчетов о деятельности системы.
В случае с системами биометрической идентификации отчет должен включать как минимум:
■ дату и время начала и конца каждого запуска системы;
■ базу данных, с которой система сверяла входные данные;
■ входные данные, которые система определила как подходящие запросу;
■ данные людей, которые верифицировали данный результат;
■ прозрачность алгоритма работы системы и донесение инструкций по использованию до пользователя;
■ надзор человека за деятельностью системы для минимизации риска причинения физического или морального вреда или ущемления в правах. В случае верификации результатов работы системы биометрической идентификации результат должны проверить и подтвердить, как минимум, два человека;
■ поддержание надлежащего уровня точности, надежности и кибербезопасности в соответствии с целью системы.
Далее в главе про системы высокого риска даны положения об обязательствах эксплуатан-та систем, государственных мерах контроля в отношении последних. Если обобщить, то операторы обязаны следить за соблюдением их ней-росетями положений данного акта, направлять соответствующую документацию в государственные органы стран-членов (тем не менее из текста Регламента не ясно, в органы каких стран
LAW & LEGISLATION • 08-2024
необходимо отправлять документы — страны, где зарегистрирована компания, страны, где будет использоваться система, или в иные органы), а также в обязательном порядке проходить оценку их систем на соответствие нормам, либо проводить такую оценку самостоятельно, предоставляя доказательства соответствия их системы оценки требованиям ЕС.
Также, как и в случае с системами недопустимого риска, в данной главе есть некоторые неопределенности. Так, законодателями не пояснено, что понимается под «третьей стороной», которая должна проводить оценку соответствия требованиям законов из приложения II. Не понятно, должна ли быть это какая-то сторонняя компания или же орган государственной власти. Кроме того, не до конца ясно, как будут определяться системы, представляющие вышеуказанную опасность, но не входящие в сферы из приложения III — как и кем будет приниматься решение о том, что ту или иную систему нужно признать «high-risk».
Системы низкого (минимального) и ограниченного риска
Что касается систем низкого или минимального риска, указанных ранее, то в тексте документа конкретизация данным понятиям почему-то обнаружена не была. Тем не менее официальный пресс-релиз Еврокомиссии [3] поясняет, что помимо двух подробно рассмотренных в статье групп риска существует еще две — системы ограниченного (limited) и минимального (minimal) риска.
Первые объяснены через пример: «Используя системы с ИИ, такие, как чат-боты, пользователи должны быть осведомлены о том, что они взаимодействуют с машиной, чтобы они могли принять информированное решение, продолжать им или нет».
В отношении вторых сказано, что настоящий Регламент разрешает свободное использование приложений, таких, как видеоигры с искусственным интеллектом или спам-фильтры, т.е. к данной категории относится большинство систем с применением искусственного интеллекта.
К вышеуказанным системам (низкого) минимального и ограниченного риска не применяются ограничения, поскольку они либо представляют минимальный риск правам и свободам человека и безопасности государств, либо не представляют его вообще.
Европейский совет по искусственному интеллекту
Также в Регламенте упоминается создание Европейского совета по искусственному интеллекту. По проекту он должен:
■ содействовать сотрудничеству Еврокомис-сии и национальных надзорных органов;
■ анализировать и подготавливать рекомендации по вопросам Регламента для Евро-комиссии, национальных надзорных и других компетентных органов;
■ оказывать помощь Еврокомиссии и национальным надзорным органам в последовательном применении данных правил.
Таким образом, можно сказать, что все возникающие вопросы планируется решать именно в этом Совете.
Заключение
Как отмечают исследователи лаборатории LEADS Университета Бирмингема [4], в AI Act не указано, а что, собственно, такое «искусственный интеллект» в применении к данному закону. Кроме того, при характеристике систем (низкого) минимального и ограниченного риска нет разграничений между этими системами, что затрудняет их идентификацию.
Тем не менее исследователи обратили внимание, что данный Регламент является «уникальным и прорывным». Можно сказать, что это достигнуто в том числе из-за основательности данного Регламента, который можно сравнить по изложению материала с кодифицированным законодательством.
Создание и принятие данного Регламента — большой шаг вперед в области правового регулирования деятельности нейросетей и внедрения их в современное правовое поле. Именно поэтому при составлении подобных документов для других стран стоит критически оценивать AI Act, чтобы и далее совершенствовать законодательство в области применения нейросетей.
Список источников
1. Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence act) and amending certain union legislative acts. EUR-Lex, 21.04.2021 // https://eur-lex.europa. eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF (Дата обращения: 06.06.2023)
ЗАКОН И ПРАВО • 08-2024
2. ANNEX. Proposal for a Regulation of the European Parliament and of the Council: Laying Down Harmonized Rules on Artifical Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts. EUR-Lex, 21.04.2021 // https: //eur-lex.europa.eu/resource.html? uri=cellar:e 0649735-a372-11eb-9585-01aa75ed71a1. 0001.02/ DOC_2&format=PDF (Дата обращения: 07.06.2023)
3. Europe fit for the Digital Age: Artificial Intelligence. European Commission. 21.04.2021 // https:// ec.europa.eu/commission/presscorner/detail/en/ ip_21_1682 (Дата обращения: 07.06.2023)
4. How the EU Can Achieve Legally Trustworthy AI: A Response to the European Commission's Proposal for an Artificial Intelligence Act / N. A. Smu-ha, E. Ahmed-Rengers, A. Harkens, W. Li, J. MacLaren, R. Piselli, K. Yeung. 05.08.2021 // https:// papers.ssrn.com/sol3/papers.cfm?abstract_id= 3899991 (Дата обращения: 09.06.2023)
5. ЁиЯо. Особенности нормативно-правового регулирования генеративного искусственного интеллекта в Великобритании, США, Евросоюзе и Китае // Право. Журнал Высшей школы экономики. 2023. Т. 16. № 3. С. 245-267. DOI: 01:10.17323/2072-8166.2023.3.245.267
6. Маслова Е.А., Сорокова Е.Д. Диалектика этики и права в регулировании технологии искусственного интеллекта: опыт ЕС / / Современная Европа. 2022. № 5. С. 19-33. DOI: 10.31857/ S0201708322050023
References
1. Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intel-
ligence act) and amending certain union legislative acts. EUR-Lex, 21.04.2021 // https://eurlex.europa. eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1& format= PDF (Accessed: 06.06.2023)
2. ANNEX. Proposal for a Regulation of the European Parliament and of the Council: Laying Down Harmonized Rules on Artifical Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts. EUR-Lex, 21.04.2021 // https://eur-lex.europa.eu/resource.html?uri= cellar:e0649735-a372-11eb-9585-01aa75ed71a1. 0001.02/D0C_2&format=PDF (Accessed: 07.06.2023)
3. Europe fit for the Digital Age: Artificial Intelligence. European Commission. 21.04.2021 // https:// ec.europa.eu/commission/presscorner/detail/en/ ip_21_1682 (Accessed: 07.06.2023)
4. How the EU Can Achieve Legally Trustworthy AI: A Response to the European Commission's Proposal for an Artificial Intelligence Act / N.A. Smuha, E. Ahmed-Rengers, A. Harkens, W. Li, J. MacLaren, R. Piselli, K. Yeung. 05.08.2021 // https://papers. ssrn.com/sol3/papers.cfm?abstract_id=3899991 (Accessed: 09.06.2023)
5. Li Yao. Specifics of Regulatory and Legal Regulation of Generative Artificial Intelligence in the UK, USA, EU and China // Law. Journal of the Higher School of Economics. 2023. Vol. 16. № 3. Pp. 245-267 (in Russ.). DOI: 10.17323/2072-8166. 2023.3.245.267
6. Maslova E.A., Sorokova E.D. The Dialectics of Ethics and Law in the Regulation of Artificial Intelligence: Case of the EU // Contemporary Europe. 2022. № 5. Pp. 19-33 (in Russ.). DOI: 10.31857/S0201708322050023
Информация об авторах
Николаев Н.А. — студент факультета технологического менеджмента и инноваций
Касаткина Н.А. — кандидат юридических наук, доцент факультета технологического менеджмента и инноваций Гельдибаев М.Х. — доктор юридических наук, профессор, профессор кафедры уголовного права, член-корреспондент Российской академии естественных наук
Вклад авторов: авторы сделали эквивалентный вклад в подготовку публикации. Авторы заявляют об отсутствии конфликта интересов.
Статья поступила в редакцию 1 0.06.2024; одобрена после рецензирования 08.07.2024; принята к публикации 14.07.2024.
Information about the authors
Nikolaev N.A. — student of the faculty of technological management and innovations
Kasatkina N.A. — candidate of legal sciences, associate professor of the faculty of technological management and innovation
Geldibaev M.Kh. — doctor of legal sciences, professor, professor of the department of criminal law, Corresponding Member of the Russian Academy of Natural Sciences
Contribution of the authors: the authors contributed equally to this article. The authors declare no conflicts of interests.
The article was submitted 10.06.2024; approved after reviewing 08.07.2024; accepted for publication 14.07.2024.
LAW & LEGISLATION • 08-2024