Научная статья на тему 'Правовая политика в сфере регулирования искусственного интеллекта: зарубежный опыт нормирования и выстраивания приоритетов'

Правовая политика в сфере регулирования искусственного интеллекта: зарубежный опыт нормирования и выстраивания приоритетов Текст научной статьи по специальности «Право»

CC BY
109
31
Читать
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
правовая политика / искусственный интеллект / государственное управление / правовое и этическое регулирование искусственного интеллекта / цифровизация права / цифровизация государства / legal policy / artificial intelligence / public administration / legal and ethical regulation of artificial intelligence / digitalization of law / digitalization of state

Аннотация научной статьи по праву, автор научной работы — Алексей Игоревич Овчинников, Евгения Сергеевна Селиванова, Анна Сергеевна Конопий

Раскрываются результаты политико-правового сравнительного исследования особенностей государственной политики в сфере правового регулирования искусственного интеллекта в США, Великобритании, КНР, странах Юго-Восточной Азии. Выделены наиболее важные тенденции в развитии этических и правовых оснований нормирования в сфере ИИ, рассмотрены приоритеты, изучение которых необходимо для дальнейшей разработки специального законодательства в сфере искусственного интеллекта для России.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
Предварительный просмотрDOI: 10.17223/15617793/502/21
i Надоели баннеры? Вы всегда можете отключить рекламу.

Legal policy in the field of artificial intelligence regulation: Foreign experience in norming and prioritization

The article describes the results of a comparative legal analysis of legislation in the field of artificial intelligence (AI) in different countries, primarily in those that are leaders in technological development. The authors analyzed an extensive regulatory and doctrinal material, official documents of the governments of the People’s Republic of China, the United States, the United Kingdom, and several others. Almost all states pursue one goal: to create and implement competitive technological solutions developed on the basis of artificial intelligence in order to ensure a traditional position in the international arena rather than to prevent an economic and technological lag. The achievement of the goal involves the creation of a regulatory framework for the use of intelligent systems and technologies, as well as the study of moral and ethical issues in the use of innovative solutions. For all the countries, the most difficult task was to find a balance between the dispositivity in the legal regulation of AI caused by the need to provide AI developers with complete freedom in building their projects and the imperative of security requirements, the threats and risks of which multiply as AI deepens and machine learning technologies develop. The legal policy in the states of Europe, the United States and the United Kingdom is characterized by liberal models of legal regulation. That is why legal means are used in it as an additional regulator, while ethical standards are considered the main ones and are applied recommendatively. The universal priorities of the legal and ethical policy are: the priority of human well-being and security, protection of one’s fundamental rights and freedoms; human control; projected compliance with the law (including security requirements); prevention of illegal manipulation of AI. For the Russian Federation, the global experience of normative support for the following principles is relevant: AI fairness (including non-discrimination, impartiality, equality, etc.); AI transparency (for example, transparency of data use, data sets, information processing); AI responsibility (controllability, accountability, compensation for harm, responsible attitude); AI security – the impossibility of intentional harm; confidentiality (including privacy and protection of personal data).

Текст научной работы на тему «Правовая политика в сфере регулирования искусственного интеллекта: зарубежный опыт нормирования и выстраивания приоритетов»

Вестник Томского государственного университета. 2024. № 502. С. 204-213 Vestnik Tomskogo gosudarstvennogo universiteta - Tomsk State University Journal. 2024. 502. рр. 204-213

Научная статья

УДК 340

doi: 10.17223/15617793/502/21

Правовая политика в сфере регулирования искусственного интеллекта: зарубежный опыт нормирования и выстраивания приоритетов

Алексей Игоревич Овчинников1, Евгения Сергеевна Селиванова2, Анна Сергеевна Конопий3

1,2,3Южный федеральный университет, Ростов-на-Дону, Россия 1 к_fp3@mail.ru 2 seliv. 76@mail.ru 3 konopy-anna@mail.ru

Аннотация. Раскрываются результаты политико-правового сравнительного исследования особенностей государственной политики в сфере правового регулирования искусственного интеллекта в США, Великобритании, КНР, странах Юго-Восточной Азии. Выделены наиболее важные тенденции в развитии этических и правовых оснований нормирования в сфере ИИ, рассмотрены приоритеты, изучение которых необходимо для дальнейшей разработки специального законодательства в сфере искусственного интеллекта для России. Ключевые слова: правовая политика, искусственный интеллект, государственное управление, правовое и этическое регулирование искусственного интеллекта, цифровизация права, цифровизация государства

Источник финансирования: статья подготовлена при поддержке гранта РНФ № 24-28-00225 «Правовое регулирование безопасного использования технологий искусственного интеллекта: концептуальные модели обеспечения безопасности, предупреждения рисков и ответственности», выполняемого в ФГАОУ ВО «Южный федеральный университет».

Для цитирования: Овчинников А.И., Селиванова Е.С., Конопий А.С. Правовая политика в сфере регулирования искусственного интеллекта: зарубежный опыт нормирования и выстраивания приоритетов // Вестник Томского государственного университета. 2024. № 502. С. 204-213. doi: 10.17223/15617793/502/21

Original article

doi: 10.17223/15617793/502/21

Legal policy in the field of artificial intelligence regulation: Foreign experience in norming and prioritization

Alexey I. Ovchinnikov1, Evgeniya S. Selivanova2, Anna S. Konopiy3

12,3 Southern Federal University, Rostov-on-Don, Russian Federation 1 k_fp3@mail.ru 2 seliv. 76@mail.ru 3 konopy-anna@mail.ru

Abstract. The article describes the results of a comparative legal analysis of legislation in the field of artificial intelligence (AI) in different countries, primarily in those that are leaders in technological development. The authors analyzed an extensive regulatory and doctrinal material, official documents of the governments of the People's Republic of China, the United States, the United Kingdom, and several others. Almost all states pursue one goal: to create and implement competitive technological solutions developed on the basis of artificial intelligence in order to ensure a traditional position in the international arena rather than to prevent an economic and technological lag. The achievement of the goal involves the creation of a regulatory framework for the use of intelligent systems and technologies, as well as the study of moral and ethical issues in the use of innovative solutions. For all the countries, the most difficult task was to find a balance between the dispositivity in the legal regulation of AI caused by the need to provide AI developers with complete freedom in building their projects and the imperative of security requirements, the threats and risks of which multiply as AI deepens and machine learning technologies develop. The legal policy in the states of Europe, the United States and the United Kingdom is characterized by liberal models of legal regulation. That is why legal means are used in it as an additional regulator, while ethical standards are considered the main ones and are applied recom-mendatively. The universal priorities of the legal and ethical policy are: the priority of human well-being and security, protection of one's fundamental rights and freedoms; human control; projected compliance with the law (including security requirements); prevention of illegal manipulation of AI. For the Russian Federation, the global experience of normative support for the following principles is relevant: AI fairness (including non-discrimination, impartiality, equality, etc.); AI transparency (for example, transparency of data use, data sets, information processing); AI responsibility (controllability, accountability, compensation for harm, responsible attitude); AI security - the impossibility of intentional harm; confidentiality (including privacy and protection of personal data).

© Овчинников А.И., Селиванова Е.С., Конопий А.С., 2024

Keywords: legal policy, artificial intelligence, public administration, legal and ethical regulation of artificial intelligence, digitalization of law, digitalization of state

Financial support: The article was prepared with the support of the Russian Science Foundation, Grant No. 24-2800225, Legal Regulation of the Safe Use of Artificial Intelligence Technologies: Conceptual Models of Safety, Risk Prevention and Responsibility, performed at Southern Federal University.

For citation: Ovchinnikov, A.I., Selivanova, E.S. & Konopiy, A.S. (2024) Legal policy in the field of artificial intelligence regulation: Foreign experience in norming and prioritization. Vestnik Tomskogo gosudarstvennogo universiteta - Tomsk State University Journal. 502. pp. 204-213. (In Russian). doi: 10.17223/15617793/502/21

Введение

Процесс развития и использования технологий искусственного интеллекта (ИИ) характеризуется стремительностью, инновационностью и порой непредсказуемостью. Вместе с тем многие государства различными темпами стремятся создать и внедрить конкурентоспособные технологические решения, разработанные на основе искусственного интеллекта, не только в целях недопущения экономического и технологического отставания, но и для обеспечения своего доминирования на международной арене. Достижение указанных целей предполагает создание нормативно-правовых основ применения интеллектуальных систем и технологий, а также исследование вопросов морально-этического характера в области использования инновационных решений. И в этом вопросе важно найти баланс. Поскольку, как пишет Саймон Честерман, чрезмерно ограничительные меры могут «задушить» инновации, тогда как неспособность разработать эффективные правовые инструменты приведет к тому, что частные субъекты будут оказывать влияние на экономику в соответствии со своими интересами до такой степени, что впоследствии будет трудно установить механизм правового регулирования [1. С. 11].

В связи с необходимостью решения поставленных национальной стратегией развития искусственного интеллекта на период до 2030 г. в Российской Федерации задач целесообразно обратить внимание на зарубежный опыт правового и этического регулирования технологий искусственного интеллекта [2]. Безусловно, рецепция этого опыта должна быть осуществлена посредством отбора тех правовых и этических регуляторных моделей, которые соответствуют традиционным духовно-нравственным ценностям Российской Федерации. Представляется важным обратить внимание именно на те аспекты зарубежного опыта правовой политики в сфере регулирования ИИ, которые перспективны для России.

Обзор литературы

В современной научной литературе вопросы изучения правовой политики в сфере регулирования ИИ стоят крайне остро и злободневно. Различные исследователи внимательно анализируют опыт правового регулирования ведущих стран в сфере ИИ. Вызвано это тем, с одной стороны, что крайне сложно определить баланс между гарантиями безопасного использования искусственного интеллекта, основой которых являются требования по сохранению незыблемыми принципов прав человека, с другой - стимулированием с помощью правовых средств разработки технологий ИИ.

Так, в исследовании группы авторов правовых и этических аспектов, связанных с разработкой и применением систем искусственного интеллекта и робототехники, проанализирован регуляторный опыт более трех десятков государств и 17 международных организаций в сфере ИИ, обобщая который был подготовлен «Глобальный атлас регулирования искусственного интеллекта». При этом авторами были предложены унифицированные критерии анализа правовых систем различных стран с точки зрения влияния регулирования на развитие технологий ИИ, среди которых: стратегическое планирование технологий ИИ, наличие специального регулирования технологий ИИ, особенности регулирования в области данных, в частности персональных данных, регулирование беспилотных автомобилей, регулирование ИИ в здравоохранении и в государственном управлении, этика в сфере ИИ. Монография содержит уникальный материал, основой которого стали тысячи различных зарубежных нормативных источников, переведенных на русский язык [3. С. 178-225].

Статьи, посвященные различным исследованиям, отражают отраслевую правовую политику в государствах -лидерах технологического роста в сфере ИИ. Наибольший интерес среди исследователей вызывает проблема гражданско-правового регулирования ИИ, включая вопросы гражданско-правовой ответственности ИИ, правосубъектности ИИ, права интеллектуальной собственности в сфере ИИ [4-8]. Еще одним важным вопросом является применение ИИ в сфере государственного управления, административного и уголовного права [9-11]. Огромный интерес для исследователей представляет и опыт использования ИИ в правосудии [12-14].

Вопросы правовой политики привлекают внимание и исследователей зарубежных стран. Особенностью их изысканий следует признать то, что вопросы правового регулирования ИИ тесно связаны с этической проблематикой. Рассматривая правовую политику в сфере ИИ как следствие определенных достижений в технологиях машинного обучения, ученые из Бельгийского объединенного исследовательского центра Европейской комиссии отмечают, что этические нормы уже не справляются со своими задачами, так как социальные последствия внедрения ИИ весьма непредсказуемы и происходят в крайне неопределенных и нестабильных обстоятельствах. Эти последствия столь важны, что авторы видят в них вызов политическим институтам в ближайшем будущем. Страны - лидеры в разработке этих технологий имеют весьма близкие социотехниче-ские концепции. При этом универсальными следует признать этические требования к ИИ [15]. Особенно важным авторы видят общественный контроль в сфере

ИИ, политика регулирования которого должна строиться на принципах большей ответственности, подотчетности, прозрачности, безопасности и доверия. Авторы также обращают внимание на то, что важным в разработке приоритетов правовой политики следует признать наличие взаимодействия между государством, гражданским обществом и промышленностью, создающими необходимость прикладных междисциплинарных рамок, основанных на научном прогнозе рисков и вызовов ИИ.

В исследованиях правовой и этической политики в сфере ИИ обсуждаются, как правило, следующие проблемы: вопросы конфиденциальности и защиты персональных данных, проблемы технологической деквалификации персонала при условии их замещения роботизированными комплексами; угрозы и вызовы общественной стабильности в результате технологической безработицы; вызовы социальной, конфессиональной, расовой, гендерной и прочей справедливости и равноправия в силу предвзятости в машинном обучении; проблемы манипулирования поведением масс посредством рекомендаций и подталкивания; вопросы правового обеспечения безопасности личности, общества. государства и проблемы юридической ответственности беспилотных автомобилей; вопросы моральной легитимности использования автономного оружия на основе ИИ [16-20].

Правовая политика США в сфере ИИ

Принципы регуляторной политики в сфере ИИ давно являются важнейшим исследовательским приоритетом. Еще в январе 2017 г. в США состоялось мероприятие, так называемая Азиломарская конференция, на которой были разработаны Азиломарские принципы искусственного интеллекта. Эти принципы стали итогом совместного творчества политиков и бизнесменов. К основным из этих принципов следует отнести: прагматический принцип, устанавливающий необходимость только таких инвестиций, которые обеспечивают полезное использование ИИ; корреляции науки и политики, посвященный обеспечению сотрудничества ученых, политиков и бизнесменов с законодателями; безопасности государства и общества, а также каждого человека, незыблемость которых определена правом; нравственной ответственности разработчиков в сфере ИИ и прозрачности рисков, просчетов и неудач, предупреждения последствий в сфере морали при использовании ИИ [21].

Как и в других государствах, США разработали собственную стратегию действий в сфере ИИ. В 2016 г. Национальный совет в области науки и технологий (National Science and Technology Council) разработал Национальный стратегический план по развитию ИИ (National Strategic Plan for the Development of Artificial Intelligence) [22], а с 2019 г. существует отдельный Стратегический план развития исследований и разработок систем ИИ (National AI R&D Strategic Plan: 2019) [23]. Эти два документа выстраивают приоритеты регуляторной политики в следующих сферах: вопросы безопасного использования ИИ; надежность

систем ИИ; правовые и этические аспекты развития ИИ; инвестиционный климат в сфере ИИ; технологии контроля в сфере обучения и тестирования ИИ; показатели эффективности контроля в сфере ИИ; кадровая политика в сфере ИИ.

Особый интерес для исследования правовой политики США в сфере ИИ представляет Билль о правах ИИ [24]. Данный документ является комплексом руководящих принципов, необходимых для осуществления деятельности в сфере научно-технического проектирования ИИ, а также его применения в разных сферах общественной жизни. Он разработан Управлением по научно-технической политике Белого дома (OSTP) в связи с попыткой создания общих правил для управления ИИ. При этом следует учесть, что документ представляет собой не закон, а концепцию регулирования, которую впоследствии можно облечь в законодательные формулы. Его принципы были разработаны в условиях тесного сотрудничества научных работников, правозащитных организаций, общественных объединений, OSTP и бизнесменов из Microsoft и Google. Целями этого документа можно считать поиск моделей прозрачного, безопасного и недискриминационного использования ИИ, обеспечение прав человека в различных сферах: жилье, образование, здравоохранение, доступ к финансовым услугам и безопасность. Он закрепил следующие принципы: безопасности и эффективности, обеспечивающие тестирование перед использованием, оценку и снижение рисков, постоянный мониторинг на предмет соответствия существующим отраслевым стандартам и соблюдения пределов предполагаемого применения; недопущения алгоритмической дискриминации, предполагающей, что автоматизированная система обращается с определенными людьми несправедливо или неблагоприятно из-за предвзятых данных обучения; защиты конфиденциальности данных; открытости и информированности пользователей, предполагающий, что потребитель будет знать, как работает данная система, роль автоматизации, почему система пришла к такому решению, кто ее разработчик и кто несет ответственность за принятие решений; принцип «человеческой альтернативы», предусматривающий, что сохраняется возможность обойтись без ИИ по тем или иным причинам, в том числе если система ИИ выйдет из строя.

Имеют место и законодательные акты в сфере ИИ. Комплекса федерального законодательства, которое бы прямо ограничивало использование искусственного интеллекта или защищало граждан от его вреда, не существует. Тем не менее некоторые федеральные рекомендации и меры защиты все же приняты. Так, например, с целью экономического лидерства США был принят Закон «О национальной инициативе в области искусственного интеллекта» (National Artificial Intelligence Initiative Act (NAIIA) [25].

Во многих странах регулирование искусственного интеллекта осуществляется в том числе и указами главы государства. Например, 30 октября 2023 г. президент Джо Байден издал Указ о безопасном, надежном и заслуживающим доверия искусственном интеллекте. Данный документ предусматривает перечень

требований безопасности, которые должны соблюдать создатели ИИ, предъявляющие специальному ведомству Правительства США результаты проверки на безопасность своих систем. Подзаконные акты приняты рядом федеральных агентств, которым поручено осуществлять контроль в сфере ИИ. К их числу относятся и Министерство обороны США, и Агентство США по международному развитию, и Комиссия по равным возможностям в сфере занятости, и Федеральная торговая комиссия, и Бюро авторских прав США, и Управление по контролю за продуктами и лекарствами. Ведомства и агентства также опубликовали совместное заявление о соблюдении закона о дискриминации в отношении систем искусственного интеллекта. Все эти подзаконные акты, а также Билль о правах ИИ осуществляют рекомендательное регулирование и ограничительные меры. Силы законодательного акта они не имеют. А те, которые подкреплены законодательством, просто удваивают уже существующие законы о дискриминации и справедливом использовании . Они не предлагают решений или ограничений, адаптированных к уникальным проблемам и опасностям искусственного интеллекта.

Законодательство штатов в сфере ИИ развивается более интенсивно. Там постепенно разрабатываются законы для решения конкретных проблем, связанных с системами ИИ. В штате Калифорния введены запреты на использование физическим и юридическим лицам привлекать чат-боты для продажи товаров без уведомления покупателей, что с ними ведет диалог чат-бот. В Штате Колорадо действует законодательный акт, который устанавливает, что страховщики могут использовать большие данные и прогнозные модели на основе искусственного интеллекта для защиты потребителей от несправедливой дискриминации [26]. А Иллинойс стал первым штатом, который ввел ограничения на использование ИИ при приеме на работу [27]. Аналогичные документы внесены как минимум в 17 штатах и приняты в Алабаме [28], Миссисипи [29] и др. В штатах Техас, Коннектикут и ряде других созданы специальные ведомства, в которых осуществляется контроль и наблюдение за ИИ в пределах штата. Давление на федеральное правительство, скорее всего, будет возрастать, поскольку США возьмут регулирование ИИ в свои руки [30].

Вопросы интеллектуальной собственности в сфере ИИ тоже стали, как и в других государствах, центральными для ведомств, регулирующих патентные правоотношения. В 2019 г. создатели проекта «Искусственный изобретатель» подали несколько заявок на патенты в отношении изобретений в патентные ведомства ЕС, Великобритании и США. Авторские права разработчики предлагали признать за программным комплексом с ИИ. Это было сделано осознанно для проверки реакции государственных чиновников. В регистрации им было отказано, так как правовая охрана предоставляется только физическим лицам [31, 32].

В феврале 2024 г. в США было принято решение Управлением по патентам и товарным знакам США (иБРТО) о том, что в случае совместного творчества человека и ИИ можно получить патент на результат,

полученный с применением ИИ. При этом если само изобретение сгенерировано только ИИ, то патент получить невозможно. К тому же отсутствуют четкие критерии и сформулированные правила, позволяющие распознать допустимый уровень содействия человека, его творческого вклада. Ведомство разработало специальный нормативный акт - «Руководство по изобретательству для изобретений с использованием искусственного интеллекта». В нем содержится описание вероятных ситуаций, говорится о возможности получения патента в сотрудничестве человека и ИИ. Важно отметить, что в случае привлечение ИИ человеком он не обязан заявлять об этом. Таким образом, пока не определены важнейшие параметры авторского права в сфере ИИ.

Правовая политика Великобритании в сфере ИИ

В этой связи следует непременно отметить другую страну, считающуюся одним из лидеров в области этических стандартов робототехники и искусственного интеллекта, - Великобританию. Так, в этой стране с начала 2015 г. разработана и действует Стратегия цифровой экономики 2015-2018, утвержденная государственной организацией Innovate UK.

Великобритания активно поощряет ученых и бизнес в сфере развития технологий ИИ. Для это цели были приняты, как и в других странах, документы стратегического планирования, например, в 2018 г. была принята Стратегия AI Sector Deal, которая переводится как Стратегия развития ИИ в промышленности [33]. Кроме нее действует также принятая в 2021 г. Национальная стратегия ИИ (National AI Strategy), в которой признается способность искусственного интеллекта повышать устойчивость, производительность, рост и инновации в частном и государственном секторах [34]. Кроме них действует Дорожная карта, в которой прописаны исследования, разработки и инновации в сфере ИИ, вопросы инфраструктуры и общественного доверия; национального и межотраслевого внедрения ИИ.

В апреле 2018 г. Правительство Великобритании опубликовало документ, в котором говорилось о создании Совета по искусственному интеллекту, к функционалу которого будет отнесено руководство деятельностью по развитию искусственного интеллекта, контролю и осуществлению государственной политики в этой области и консультирование по вопросам подобного рода систем [35].

Большую роль Правительство Великобритании отводит этическим нормам регулирования ИИ. В 2021 г. им была разработана комплексная модель оценки эффективности автоматизированных систем «Система этики, прозрачности и подотчетности для автоматизированного принятия решений» [36]. Вообще, на правительственном сайте существует целый ряд документов, содержащих руководящие начала в различных сферах ИИ. Например, большой интерес представляет «Руководство по использованию искусственного интеллекта в государственном секторе» [37] или «Понимание этики и безопасности искусственного интеллекта» [38].

Правовая политика Евросоюза в сфере ИИ

В Европейском Союзе правовое регулирование ИИ осуществляется с целью устранения рисков для здоровья граждан, их безопасности и прав, а также для обеспечения верховенства закона, защиты демократии и окружающей природной среды. В Европейском Союзе была проведена большая работа по формированию правовых подходов к регулированию искусственного интеллекта. Так, в резолюции Европейского парламента «Нормы гражданского права о робототехнике» было рекомендовано Европейской комиссией рассмотреть вопрос о наделении ИИ особым правовым статусом - статусом электронного лица. Однако после обсуждения преимуществ и недостатков наделения ИИ правосубъектностью ЕС отказался от реализации данного предложения.

В 2018 г. Европейская комиссия в сообщении «Искусственный интеллект для Европы» представила свою стратегию по искусственному интеллекту [39]. В 2020 г. комиссией по ИИ была разработана и опубликована «Белая книга» [40], где сформулировано, что в любом новом нормативном правовом акте определение искусственного интеллекта должно быть достаточно гибким, чтобы учитывать технический прогресс, и в то же время достаточно точным, чтобы обеспечить необходимую правовую определенность. Поэтому предлагается сосредоточиться на основных элементах ИИ, а именно на данных и алгоритмах. В рамках подготовки «Белой книги» был составлен и опубликован «Отчет о последствиях искусственного интеллекта, интернета вещей и робототехники для безопасности и ответственности» [41]. В данном отчете ИИ рассматривается как продукция и делается вывод о том, что законодательство о безопасности продукции ЕС содержит ряд пробелов, которые необходимо устранить. В декабре 2023 г. Европейским парламентом разработан и согласован проект регламента ЕС «Об искусственном интеллекте» [42], который сейчас находится на завершающей стадии законодательного процесса. Регламент предусматривает регулирование всех видов ИИ и всех сфер деятельности, где он может применяться, за исключением военной.

Правовое регулирование ИИ учитывает риски применения систем ИИ для здоровья граждан, их безопасности и основных прав. В основе методологии классификации рисков лежит целевое назначение системы ИИ в соответствии с действующим законодательством Европейского Союза о безопасности продукции. Она зависит от тех функций, которые выполняет система ИИ, а также от условий и цели ее использования.

В проекте регламента ЕС «Об искусственном интеллекте» осуществлена классификация рисков его применения на следующие группы: системы ИИ, относящиеся к категории минимального риска (например, рекомендательные системы с поддержкой ИИ, спам-фильтры и др.), высокорисковые системы ИИ (например, медицинское оборудование, системы, используемые в правоохранительной деятельности, в сфере правосудия, в области газоснабжения, электроснабжения, системы биометрической идентификации, алгоритмы

рекомендаций соцсетей и др.), системы с неприемлемым риском, а именно системы, которые несут потенциальную угрозу правам людей (например, системы ИИ, которые манипулируют поведением человека, системы распознавания эмоций, дистанционная биометрическая идентификация в режиме реального времени в общедоступных местах правоохранительными органами за рядом исключений, социальный скоринг, распознавание эмоций на рабочем месте и в учебных заведениях и др.).

Между тем, если система ИИ выполняет профилирование физических лиц, то она всегда является высокорисковой. Системы с «неприемлемым риском» планируется в Европейском Союзе запретить.

В рассматриваемом документе отдельно выделены системы искусственного интеллекта общего назначения, способные решать широкий спектр задач в разных сферах: распознавать изображения, речь, генерировать видео и аудио, отвечать на вопросы, анализировать большой объем данных, например №аЮРТ, MidJour-пеу и др. Важной особенностью таких систем является то, что они могут быть интегрированы в другие системы ИИ, стать основой для новых систем ИИ, а также использоваться в различных сферах человеческой деятельности.

Для разных видов искусственного интеллекта, уровней их риска, а также в зависимости от сферы применения в Регламенте предусмотрены разные нормативные требования. Для систем искусственного интеллекта общего назначения предусмотрены дополнительные требования помимо установленных для всех иных систем искусственного интеллекта, в частности обязательное раскрытие информации о модели, о ее энергопотреблении, соблюдение требований законодательства об авторских правах, обеспечивать кибербез-опасноть и др.

Правовая политика в сфере ИИ в странах Юго-Восточной Азии

Стратегическое сотрудничество России и Китая, членство в международных форумах и организациях, среди которых ШОС, БРИКС, АТЭС, историческое и правовое наследие российско-китайских отношений, стремление КНР к цифровому лидерству актуализируют необходимость осмысления тенденций правового регулирования применения технологий искусственного интеллекта в Китайской Народной Республике.

Стремление Китая занять лидирующие позиции в мировом экономическом порядке, в том числе и при помощи развития конкурентноспособных технологий ИИ, никогда не отодвигало на второй план вопросы защиты национальной безопасности и общественных интересов. В этой связи правительство Китая выбирает смешанную модель правового регулирования ИИ, сочетающую инструменты жесткого регулирования с одновременным содействием здоровому развитию ИИ. Данная позиция подтверждается и положениями Временных мер по управлению услугами генеративного искусственного интеллекта в Китае, вступившими в

силу 15 августа 2023 г. [43]. Так, согласно ст. 3 документа «государство придерживается принципов равной важности развития и безопасности, а также сочетания содействия инновациям и управления на законной основе. Государство предпринимает эффективные меры по поощрению инновационного развития генеративного ИИ, придерживается снисходительно-осторожного подхода к системам генеративного ИИ и регулирует их в соответствии с типом и уровнем таких систем». Как отмечает Ли Яо, ограничение сферы действия новых правил «широкой общественностью», т.е. исключение из этой сферы не общедоступных генеративных сервисов ИИ, которые разрабатываются и применяются внутри организаций или научно-исследовательских учреждений, позволяет прийти к выводу о некой свободе в области регулирования ИИ в сторону метода «проб и ошибок» [44. С. 255-256]. При этом, как пишут отечественные исследователи, политическая организация китайского общества предполагает жесткое ограничение свободы частных и общественных организаций интересами государства, а также возможность неограниченного государственного участия в деятельности таких организаций [45. С. 221].

Анализ временных мер по управлению услугами генеративного искусственного интеллекта в Китае показывает, что новые правила выдвигают требования к контенту, созданному с помощью ИИ, к самому ИИ и к организациям, внедряющим ИИ. Важно отметить, что использование систем генеративного ИИ не должно нарушать политические и идеологические ориентиры Китая: устанавливается необходимость «придерживаться ключевых ценностей социализма» (Ст. 4), «не допускается генерация контента... связанного с подстрекательством к подрыву государственной власти, свержением социалистического режима, нанесением ущерба безопасности, интересам и имиджу государства, агитацией к расколу государства, разрушением национального единства и социальной стабильности...» (ст. 4). Вместе с тем контент должен быть создан на основе данных законного происхождения (п. 1 ст. 7) и содержать маркировку (ст. 12), а поставщики обязаны обеспечивать безопасность, стабильность систем (ст. 13) и создавать механизм рассмотрения жалоб на услуги и контент, созданный ИИ (ст. 15).

Правительство Китая стремится к созданию эффективного механизма контроля и надзора за исполнением обязательных требований во всех сферах общественной жизни, в том числе и в области функционирования систем искусственного интеллекта. В частности, обязанность по контролю за соблюдением новых мер возложена на управление по вопросам киберпространства Китая, национальную комиссию по развитию и реформам КНР, Министерство образования КНР, Министерство науки и технологий КНР, Министерство промышленности и информационных технологий КНР, Министерство общественной безопасности КНР, а также на национальное управление радио и телевидения Китая (ст. 16).

Стоит также отметить, что 2023 г. стал важным этапом на пути реформирования системы государствен-

ного управления КНР. И, как отмечает А.В. Ершов, помимо трансформации финансового и банковского секторов в фокус реформ попали вопросы продвижения цифровых технологий, работы с большими данными и ИИ [46. С. 35-36]. В связи с чем в рамках перестройки внутренней системы учреждено государственное ведомство для централизации управления обширными хранилищами данных - Государственное управление данных. Учреждение такого органа, прежде всего, направлено на обеспечение национальной безопасности КНР в эпоху больших данных и искусственного интеллекта.

В отличие от государств Европейского Союза, которые в стремлении предотвратить негативные последствия применения интеллектуальных технологий выбирают риск-ориентированную упреждающую концепцию регулирования искусственного интеллекта, Япония придерживается мягкой модели правового регулирования в сфере ИИ. И, как отмечает исследователь из Киотского университета, проанализировав основные нормативные акты, японский подход к правовому регулированию в сфере искусственного интеллекта заключается не в ограничении развития ИИ в связи с возможными рисками, а в максимизации преимуществ ИИ [47]. Такая открытая политика поощрения разработки в области ИИ островного государства обусловлена прежде всего тем, что развитие новых технологий может стимулировать экономический рост Японии, а также согласно «Социальным принципам человекоцентричного ИИ» данный подход внесет вклад в реализацию японской стратегии технологического развития «Общество 5.0» [48].

Политика Японии в сфере правового регулирования ИИ основывается на базовых принципах («Социальные принципы человекоцентричного ИИ»), установленных правительством в 2019 г., и характеризуется отсутствием ограничительных мер в отношении ИИ. При этом правительство, поддерживая создание условий, направленных на стимулирование развития ИИ, формирует важные указания, рекомендации и правила по управлению рисками ИИ.

Результатом мягкой правовой политики японского правительства в сфере ИИ может стать неординарный подход к решению актуального вопроса об авторском праве в контексте использования искусственного интеллекта. Согласно сообщению министра образования, культуры, спорта, науки и технологий Японии Кейко Нагаока нормы авторского права не будут распространяться на данные, используемые при обучении искусственного интеллекта, с целью стимулирования развития ИИ. Как отмечает министр, такие действия не являются нарушением действующего японского законодательства, поскольку согласно ст. 30-4 Закона «Об авторском праве» «произведение может быть использовано любым способом в пределах, признанных необходимыми, в следующих случаях и в других случаях, когда целью не является наслаждение мыслями или чувствами, выраженными в данном произведении.». Вместе с тем использование объектов авторского права при обучении искусственного интеллекта возможно «независимо от того, предназначены ли они для некоммерческих или коммерческих целей» [49].

Очевидно, что такой шаг может привести к нарушению авторских прав, в результате которых правообладатели понесут серьезные убытки. Более того, заметно снизится роль авторского права в обеспечении инновационного развития. Однако, вероятно, ожидается, что примат публичных интересов над частными по замыслу японского правительства обеспечит прогресс в области технологий искусственного интеллекта, а также приведет Японию к мировому лидерству в области технологий ИИ.

В отличие от российского подхода гуманистическая концепция регулирования ИИ в Сингапуре не уделяет такого внимания различным аспектам безопасности ИИ [50. C. 221]. Однако к достоинству подхода саморегулирования к процессам внедрения технологий искусственного интеллекта в Сингапуре Э.В. Горян относит «совершенствование правового режима и упрощение формальностей в сфере интеллектуальной собственности» [3. C. 70-71]. Так, в Сингапуре осуществляется ускоренное патентование изобретений в области искусственного интеллекта, разрабатываются индивидуальные программы управления нематериальными активами, а также совершенствуется законодательство с целью обеспечения коммерциализации новых интеллектуальных технологий [51. C. 69].

Впервые запущенная в Сингапуре в 2019 г. национальная стратегия в области искусственного интеллекта была обновлена в 2023 г. Получившая название «Национальная стратегия в области искусственного интеллекта» 2.0/Singapore National AI Strategy 2.0 (NAIS 2.0) [52] закрепляет концепцию «Искусственный интеллект на благо общества, Сингапура и всего мира». Ключевыми целями новой концепции являются достижение совершенства и расширение возможностей. Несмотря на поощрение экспериментальной и исследовательской деятельности в области ИИ, стратегия закрепляет обязанность правительства способствовать

здоровому развитию ИИ, что означает установление баланса между инновациями и верховенством закона, а также создание надежной нормативно-правовой базы.

Выводы

Для всех государств самым сложным оказался поиск баланса между диспозитивностью в правовом регулировании ИИ, вызванной необходимостью предоставления разработчикам ИИ полной свободы в построении своих проектов, и императивностью требований безопасности, угрозы и риски которой множатся по мере углубления ИИ и развития технологий машинного обучения.

Правовые исследования в государствах Европы, США и Великобритании отличаются либеральными моделями правового регулирования. Именно поэтому они рассматривают правовые средства в качестве дополнительного регулятора, а основными считают этические нормы, применение которых осуществляется рекомендательно.

Среди приоритетов правовой и этической политики следует признать: приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод; подконтрольность человеку; проектируемое соответствие закону (в том числе требованиям безопасности); недопущение противоправной манипуляции ИИ.

Для Российской Федерации актуальным является мировой опыт нормативного обеспечения следующих принципов: справедливости ИИ (включая недискриминацию, непредвзятость, равенство и т. д.); прозрачности ИИ (например, прозрачность использования данных, дата сетов, обработки информации); ответственности ИИ (контролируемость, подотчетность, возмещение вреда, ответственное отношение); безопасности ИИ - невозможность причинения умышленного вреда; конфиденциальности (в том числе неприкосновенность частной жизни и защита персональных данных).

Список источников

1. Chesterman S. We, the Robots? Regulating Artificial Intelligence and the Limits of the Law. Cambridge University Press, 2021. 310 p.

2. Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» и «Национальная стратегия развития искусственного интеллекта на период до 2030 года» // Информационно-правовой портал Гарант. URL: https://base.garant.ru/72838946/

3. Архипов В.В., Камалова Г.Г., Наумов В.Б., Незнамов А.В. Комплексные исследования правовых и этических аспектов, связанных с разработкой и применением систем искусственного интеллекта и робототехники / под общ. ред. В.Б. Наумова. СПб. : НП-Принт, 2022. 338 с.

4. Моргунова Е.А., Шахназаров Б.А. Право интеллектуальной собственности в условиях развития новых технологий. М. : Норма; ИНФРА-М, 2023. 152 с.

5. Незнамов А.В., Смит Б.У. Робот не виноват! Взгляд из России и США на проблему ответственности за вред, причиненный роботами // Закон. 2019. № 5. С. 135-156.

6. Ролинсон П., Ариевич Е.А., Ермолина Д.Е. Объекты интеллектуальной собственности, создаваемые с помощью искусственного интеллекта: особенности правового режима в России и за рубежом // Закон. 2018. № 5. С. 63-71.

7. Купчина Е.В. Применение технологии искусственного интеллекта в системе гражданского судопроизводства США // Правовая парадигма. 2021. Т. 20, № 4. С. 63-71.

8. Шахназарова Э.А. Правовое регулирование отношений, возникающих по поводу объектов интеллектуальной собственности, созданных технологией искусственного интеллекта, на примере опыта Великобритании, США и ЕС // Журнал Суда по интеллектуальным правам. 2021. № 2 (32). С. 34-45.

9. Косоруков А.А. Технологии искусственного интеллекта в современном государственном управлении // Социодинамика. 2019. № 5. С. 4358.

10. Кибальник А.Г., Волосюк П.В. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2018. № 4 (44). С. 173-178.

11. Шестак В. А., Волеводз А.Г., Ализаде В. А. О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США // Всероссийский криминологический журнал. 2019. Т. 13, № 4. С. 547-554.

12. Гроник И.А. Осуществление справедливого правосудия с применением цифровых технологий в Эквадоре // Российский судья. 2022. № 11. С. 56-60.

13. Русакова Е.П., Гроник И.А., Купчина Е.В. Гражданское судопроизводство сквозь призму цифровизации: опыт России, США и Филиппин / под общ. ред. Е.П. Русаковой. М. : Рос. ун-т дружбы народов (РУДН), 2021. 109 с.

14. Ермакова Е.П., Фролова Е.Е. Искусственный интеллект в гражданском судопроизводстве и арбитраже: опыт США и КНР. М. : Юрлит-информ, 2021. 221 с.

15. Vesnic-Alujevic L., Nascimento S., Pólvora A. Societal and ethical impacts of artificial intelligence: Critical notes on European policy frameworks // Telecommunications Policy. 2020. Vol. 44, Is. 6. Art. No. 101961. doi: 10.1016/j.telpol.2020.101961

16. Preetha Evangeline D., Anandhakumar P. Chapter One - Why is implementing computational intelligence for social good so challenging? Principles and its application // Advances in Computers. 2024. Vol. 132. P. 1-17. doi: 10.1016/bs.adcom.2023.08.001

17. Stahl Bernd C., Eke D. The ethics of ChatGPT - Exploring the ethical issues of an emerging technology // International Journal of Information Management. 2024. Vol. 74. Art. No. 102700. doi: 10.1016/j.ijinfomgt.2023.102700

18. Heinz H. What's next for responsible artificial intelligence: a way forward through responsible innovation // Heliyon. 2023. Vol. 9, Is. 3. Art. No. e14379. doi: 10.1016/j.heliyon.2023.e14379

19. Coeckelbergh M. Technology and the good society: A polemical essay on social ontology, political principles, and responsibility for technology // Technology in Society. 2018. Vol. 52. P. 4-9. doi: 10.1016/j.techsoc.2016.12.002

20. Mantelero A. AI and Big Data: A blueprint for a human rights, social and ethical impact assessment // Computer Law & Security Review. 2018. Vol. 34, Is. 4. P. 754-772. doi: 10.1016/j.clsr.2018.05.017

21. Asilomar AI Principles // Al News. URL: https://www.artificial-intelligence.blog/news/asilomar-ai-principles

22. National Strategic Plan for the Development of Artificial Intelligence. URL: https://www.nitrd.gov/PUBS/national_ai_rd_strategic_plan.pdf

23. National AI R&D Strategic Plan: 2019 // An official website of the United States government. URL: https://www.ai.gov/strategic-pillars/innova-tion/

24. Blueprint for an AI Bill of Rights // The White House. URL: https://www.whitehouse.gov/ostp/ai-bill-of-rights/

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

25. National Artificial Intelligence Initiative Act // An official website of the United States government. URL: https://www.ai.gov/

26. Senate bill 21-169. URL: https://www.leg.colorado.gov/sites/default/files/2021a_169_signed.pdf

27. Public Act 02-0047. 2021. 09 July. URL: https://custom.statenet.com/public/resources.cgi?id=ID:bill:IL2021000H53&ciq=ncsl&client_md= cf812e17e7ae023eba694938c9628eea&mode=current_text

28. Act No. 2021-344. 2021. 06 May. URL: https://custom.statenet.com/public/resources.cgi?id=ID:bill:AL2021000S78&ciq=ncsl&client_md= 533f420a3d0e36079951ba1a55ee819d&mode=current_text

29. Public Act 102-0407. 2021. 19 August. URL: https://custom.statenet.com/public/resources.cgi?id=ID:bill:IL2021000H645&ciq=ncsl&client_md= d49cc5fd8ce6386c082c848a14eeb265&mode=current_text

30. Glover E. AI Bill of Rights: What You Should Know // Builtin. 2024. 19 March. URL: https://builtin.com/artificial-intelligence/ai-bill-of-rights

31. Эбботт Р. Проект «Искусственный изобретатель» // Журнал ВОИС. 2019. № 6. URL: https://www.wipo.int/wipo_magazine/ru/2019/06/arti-cle_0002.html

32. Калинчева М.В. О некоторых вопросах правовой охраны изобретений, созданных искусственным интеллектом. URL: https://za-kon.ru/blog/2020/2/25/o_nekotoryh_voprosah_pravovoj_ohrany_izobretenij_sozdannyh_iskusstvennym_intellektom

33. Industrial Strategy Artificial Intelligence Sector Deal. URL: https://assets.publishing.service.gov.uk/media/614db4d1e90e077a2cbdf3c4/Na-tional_AI_Strategy_-_PDF_version.pdf

34. National AI Strategy. URL: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1020402/Na-tional_AI_Strategy_-_PDF_version.pdf

35. Развитие искусственного интеллекта в странах мира: США, Китай, Великобритания // D-Russia.ru. 2019. 10 April. URL: http://d-rus-sia.ru/razvitie-iskusstvennogo-intellekta-v-stranah-mira-ssha-kitaj-velikobritaniya.html

36. Ethics, Transparency and Accountability Framework for Automated Decision-Making // GOV.UK. 2021. 13 May. URL: https://www.gov.uk/gov-ernment/publications/ethics-transparency-and-accountability-framework-for-automated-decision-making

37. A guide to using artificial intelligence in the public sector // GOV.UK. 2019. 10 June. URL: https://www.gov.uk/government/collections/a-guide-to-using-artificial-intelligence-in-the-public-sector

38. Understanding artificial intelligence ethics and safety // GOV.UK. 2019. 10 June. URL: https://www.gov.uk/guidance/understanding-artificial-intelligence-ethics-and-safety

39. Communication from the commission. Artificial Intelligence for Europe // An official EU law website. URL: https://eur-lex.europa.eu/legal-con-tent/EN/TXT/?uri=C0M:2018:237:FIN

40. White paper on Artificial Intelligence - A European approach to excellence and trust. 2020. 19 February. URL: https://commission.europa.eu/doc-ument/download/d2ec4039-c5be-423a-81ef-b9e44e79825b_en?filename=commission-white-paper-artificial.

41. Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and robotics. 2020. 19 February. URL: https://www.europarl.europa.eu/RegData/docs_autres_institutions/commission_europeenne/com/2020/0064/C0M_C0M(2020)0064_EN.pdf

42. Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union Legislative acts. 2021. URL: https://artificialintelligenceact.eu/wp-content/uploads/2024/01/AI-Act-FullText.pdf

43. Временные меры по управлению услугами генеративного искусственного интеллекта // Официальный информационный ресурс Управления по вопросам киберпространства Китая. 2023. 13 июля. URL: http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm

44. Ли Яо. Особенности нормативно-правового регулирования генеративного искусственного интеллекта в Великобритании, США, Евросоюзе и Китае // Право. Журнал Высшей школы экономики. 2023. Т. 16, № 3. С. 245-267.

45. Кутейников Д.Л., Ижаев О.А., Зенин С.С., Лебедев В.А. Ключевые подходы к правовому регулированию использования систем искусственного интеллекта // Вестник Тюменского государственного университета. Социально-экономические и правовые исследования. 2022. Т. 8, № 1 (29). С. 209-232.

46. Ершов А.В. Реформа госсовета 2023: финансовый и социальный вопросы реформирования государственных органов КНР // Исторические события в жизни Китая и современность. Вып. VIII. Материалы науч. конф. Центра новейшей истории Китая и его отношений с Россией ИКСА РАН (Москва, 17 апреля 2023 г.) / отв. ред., сост. Н.Л. Мамаева. М. : ИКСА РАН, 2023. С. 35-48.

47. Hiroki Habuka. Japan's Approach to AI Regulation and Its Impact on the 2023 G7 Presidency. 2023. URL: https://www.csis.org/analysis/japans-approach-ai-regulation-and-its-impact-2023-g7-presidency

48. Social Principles of Human-Centric AI. URL: https://www.cas.go.jp/jp/seisaku/jinkouchinou/pdf/humancentricai.pdf

49. Информационный сайт о выборах и политиках в Японии. URL: https://go2senkyo.com/seijika/122181/posts/685617

50. Дремлюга Р.И. Основы национального регулирования применения искусственного интеллекта: опыт Сингапура // Азиатско-Тихоокеанский регион: экономика, политика, право. 2022. Т. 24, № 1. С. 214-224.

51. Горян Э.В. Национальные подходы к применению искусственного интеллекта: опыт Сингапура // Юридические исследования. 2020. № 8. С. 62-72.

52. Национальная стратегия в области искусственного интеллекта 2.0 / Singapore National AI Strategy 2.0 (NAIS 2.0) // Национальный центр развития искусственного интеллекта при Правительстве Российской Федерации. URL: https://ai.gov.ru/knowledgebase/dokumenty-po-razvitiyu-ii-v-drugikh-stranakh/2023_singapurskaya_nacionalynaya_strategiya_v_oblasti_iskusstvennogo_intellekta_2_0_singapore_national_ai_strategy_2_0_nais_2_0_smart_ nation_singapore/

References

1. Chesterman, S. (2021) We, the Robots? Regulating Artificial Intelligence and the Limits of the Law. Cambridge University Press.

2. Garant. (2019) Decree of the President of the Russian Federation of October 10, 2019, No. 490: On the Development of Artificial Intelligence in the Russian Federation and National Strategy for the Development of Artificial Intelligence for the Period up to 2030. [Online] Available from: https://base.garant.ru/72838946/ (In Russian).

3. Arkhipov, V.V. et al. (2022) Kompleksnye issledovaniya pravovykh i eticheskikh aspektov, svyazannykh s razrabotkoy i primeneniem sistem iskusstvennogo intellekta i robototekhniki [Comprehensive studies of legal and ethical aspects related to the development and use of artificial intelligence systems and robotics]. Saint Petersburg: NP-Print.

4. Morgunova, E.A. & Shakhnazarov, B.A. (2023) Pravo intellektual'noy sobstvennosti v usloviyakh razvitiya novykh tekhnologiy [Intellectual Property Law in the Context of the Development of New Technologies]. Moscow: Norma, INFRA-M.

5. Neznamov, A.V. & Smit, B.U. (2019) Robot ne vinovat! Vzglyad iz Rossii i SShA na problemu otvetstvennosti za vred, prichinennyy robotami [The Robot is Not Guilty! A View from Russia and the USA on the Problem of Liability for Harm Caused by Robots]. Zakon. 5. pp. 135-156.

6. Rolinson, P., Arievich, E.A. & Ermolina, D.E. (2018) Ob"ekty intellektual'noy sobstvennosti, sozdavaemye s pomoshch'yu iskusstvennogo intellekta: osobennosti pravovogo rezhima v Rossii i za rubezhom [Intellectual Property Objects Created with the Help of Artificial Intelligence: Features of the Legal Regime in Russia and Abroad]. Zakon. 5. pp. 63-71.

7. Kupchina, E.V. (2021) Primenenie tekhnologii iskusstvennogo intellekta v sisteme grazhdanskogo sudoproizvodstva SShA [Application of Artificial Intelligence Technology in the US Civil Proceedings System]. Pravovayaparadigma. 20 (4). pp. 63-71.

8. Shakhnazarova, E.A. (2021) Pravovoe regulirovanie otnosheniy, voznikayushchikh po povodu ob"ektov intellektual'noy sobstvennosti, sozdannykh tekhnologiey iskusstvennogo intellekta, na primere opyta Velikobritanii, SShA i ES [Legal regulation of relations arising over intellectual property objects created by artificial intelligence technology, based on the experience of the UK, USA and the EU]. Zhurnal Suda po intellektual'nympravam. 2 (32). pp. 34-45.

9. Kosorukov, A.A. (2019) Tekhnologii iskusstvennogo intellekta v sovremennom gosudarstvennom upravlenii [Artificial intelligence technologies in modern public administration]. Sotsiodinamika. 5. pp. 43-58.

10. Kibal'nik, A.G. & Volosyuk, P.V. (2018) Iskusstvennyy intellekt: voprosy ugolovno-pravovoy doktriny, ozhidayushchie otvetov [Artificial intelligence: issues of criminal law doctrine awaiting answers]. Yuridicheskaya nauka i praktika: Vestnik Nizhegorodskoy akademii MVD Rossii. 4 (44). pp. 173-178.

11. Shestak, V.A., Volevodz, A.G. & Alizade, V.A. (2019) O vozmozhnosti doktrinal'nogo vospriyatiya sistemoy obshchego prava iskusstvennogo intellekta kak sub"ekta prestupleniya: na primere ugolovnogo zakonodatel'stva SShA [On the Possibility of Doctrinal Perception of Artificial Intelligence as a Subject of a Crime by the Common Law System: Using the Example of US Criminal Legislation]. Vserossiyskiy kriminologicheskiy zhurnal. 13 (4). pp. 547-554.

12. Gronik, I.A. (2022) Osushchestvlenie spravedlivogo pravosudiya s primeneniem tsifrovykh tekhnologiy v Ekvadore [Implementation of Fair Justice with the Use of Digital Technologies in Ecuador]. Rossiyskiy sud'ya. 11. pp. 56-60.

13. Rusakova, E.P., Gronik, I.A. & Kupchina, E.V. (2021) Grazhdanskoe sudoproizvodstvo skvoz'prizmu tsifrovizatsii: opytRossii, SShA i Filippin [Civil Procedure through the Prism of Digitalization: Experience of Russia, the USA, and the Philippines]. Moscow: RUDN.

14. Ermakova, E.P. & Frolova, E.E. (2021) Iskusstvennyy intellekt v grazhdanskom sudoproizvodstve i arbitrazhe: opyt SShA i KNR [Artificial Intelligence in Civil Proceedings and Arbitration: The Experience of the USA and the PRC]. Moscow: Yurlitinform.

15. Vesnic-Alujevic, L., Nascimento, S. & Pólvora, A. (2020) Societal and ethical impacts of artificial intelligence: Critical notes on European policy frameworks. Telecommunications Policy. 44 (6). Art. No. 101961. doi: 10.1016/j.telpol.2020.101961

16. Preetha Evangeline, D. & Anandhakumar, P. (2024) Chapter One - Why is implementing computational intelligence for social good so challenging? Principles and its application. Advances in Computers. 132. pp. 1-17. doi: 10.1016/bs.adcom.2023.08.001

17. Stahl Bernd, C. & Eke, D. (2024) The ethics of ChatGPT - Exploring the ethical issues of an emerging technology. International Journal of Information Management. 74. Art. No. 102700. doi: 10.1016/j.ijinfomgt.2023.102700

18. Heinz, H. (2023) What's next for responsible artificial intelligence: a way forward through responsible innovation. Heliyon. 9 (3). Art. No. e14379. doi: 10.1016/j.heliyon.2023.e14379

19. Coeckelbergh, M. (2018) Technology and the good society: A polemical essay on social ontology, political principles, and responsibility for technology. Technology in Society. 52. pp. 4-9. doi: 10.1016/j.techsoc.2016.12.002

20. Mantelero, A. (2018) AI and Big Data: A blueprint for a human rights, social and ethical impact assessment. Computer Law & Security Review. 34 (4). pp. 754-772. doi: 10.1016/j.clsr.2018.05.017

21. Al News. (n.d.) Asilomar AI Principles. [Online] Available from: https://www.artificial-intelligence.blog/news/asilomar-ai-principles

22. Nitrd.gov. (n.d.) National Strategic Plan for the Development of Artificial Intelligence. [Online] Available from: https://www.nitrd.gov/PUBS/national_ai_rd_strategic_plan.pdf

23. United States Government. (n.d.) National AI R&D Strategic Plan: 2019. [Online] Available from: https://www.ai.gov/strategic-pillars/innovation/

24. The White House. (n.d.) Blueprint for an AI Bill of Rights. [Online] Available from: https://www.whitehouse.gov/ostp/ai-bill-of-rights/

25. United States Government. (n.d.) National Artificial Intelligence Initiative Act. [Online] Available from: https://www.ai.gov/

26. Leg.colorado.gov. (n.d.) Senate bill 21-169. [Online] Available from: https://www.leg.colorado.gov/sites/default/files/2021a_169_signed.pdf

27. Custom.statenet.com. (2021) Public Act 02-0047. 2021. 09 July. [Online] Available from: https://custom.statenet.com/public/resources.cgi?id= ID:bill:IL2021000H53&ciq=ncsl&client_md= cf812e17e7ae023eba694938c9628eea&mode=current_text

28. Custom.statenet.com. (2021) Act No. 2021-344. 2021. 06 May. [Online] Available from: https://custom.statenet.com/public/resources.cgi?id= ID:bill:AL2021000S78&ciq=ncsl&client_md= 533f420a3d0e36079951ba1a55ee819d&mode=current_text

29. Custom.statenet.com. (2021) Public Act 102-0407. 2021. 19 August. [Online] Available from: https://custom.statenet.com/public/resources.cgi?id= ID:bill:IL2021000H645&ciq=ncsl&client_md= d49cc5fd8ce6386c082c848a14eeb265&mode=current_text

30. Glover, E. (2024) AI Bill of Rights: What You Should Know. Builtin. 19 March. [Online] Available from: https://builtin.com/artificial-intelligence/ai-bill-of-rights

31. Abbott, R. (2019) The Artificial Inventor Project. Zhurnal VOIS. 6. [Online] Available from: https://www.wipo.int/wipo_magazine/ru/ 2019/06/article_0002.html (In Russian).

32. Kalincheva, M.V. (2020) O nekotorykh voprosakh pravovoy okhrany izobreteniy, sozdannykh iskusstvennym intellektom [On some issues of legal protection of inventions created by artificial intelligence]. [Online] Available from: https://zakon.ru/blog/2020/2/25/o_nekotoryh_voprosah_ pravovoj_ohrany_izobretenij_sozdannyh_iskusstvennym_intellektom

33. Assets.publishing.service.gov.uk. (n.d.) Industrial Strategy Artificial Intelligence Sector Deal. [Online] Available from: https://assets.publishing.service.gov.uk/media/614db4d1e90e077a2cbdf3c4/National_AI_Strategy_-_PDF_version.pdf

34. Assets.publishing.service.gov.uk. (n.d.) National AI Strategy. [Online] Available from: https://assets.publishing.service.gov.uk/government/ uploads/system/uploads/attachment_data/file/1020402/National_AI_Strategy_-_PDF_version.pdf

35. D-Russia.ru. (2019) Razvitie iskusstvennogo intellekta v stranakh mira: SShA, Kitay, Velikobritaniya [Development of artificial intelligence in the countries of the world: USA, China, UK]. 10 April. [Online] Available from: http://d-russia.ru/razvitie-iskusstvennogo-intellekta-v-stranah-mira-ssha-kitaj-velikobritaniya.html

36. GOV.UK. (2021) Ethics, Transparency and Accountability Framework for Automated Decision-Making. 13 May. [Online] Available from: https://www.gov.uk/government/publications/ethics-transparency-and-accountability-framework-for-automated-decision-making

37. GOV.UK. (2019) A guide to using artificial intelligence in the public sector. 10 June. [Online] Available from: https://www.gov.uk/government/collections/a-guide-to-using-artificial-intelligence-in-the-public-sector

38. GOV.UK. (2019) Understanding artificial intelligence ethics and safety. 10 June. [Online] Available from: https://www.gov.uk/guidance/understanding-artificial-intelligence-ethics-and-safety

39. Eur-lex.europa.eu. (n.d.) Communication from the commission. Artificial Intelligence for Europe. [Online] Available from: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM:2018:237:FIN

40. Commission.europa.eu. (2020) White paper on Artificial Intelligence — A European approach to excellence and trust. 19 February. [Online] Available from: https://commission.europa.eu/document/download/d2ec4039-c5be-423a-81ef-b9e44e79825b_en?filename=commission-white-paper-artificial

41. Europarl. europa. eu. (2020) Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and robotics. 19 February. [Online] Available from: https://www.europarl.europa.eu/RegData/docs_autres_institutions/commission_europeenne/com/2020/0064/ COM_COM(2020)0064_EN.pdf

42. Artificialintelligenceact.eu. (2021) Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union Legislative acts. [Online] Available from: https://artificialintelligenceact.eu/wp-content/uploads/2024/01/AI-Act-FullText.pdf

43. Cac.gov.cn. (2023) Interim Measures for the Governance of Generative Artificial Intelligence Services. 13 July. [Online] Available from: http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm (In Chinese).

44. Li Yao. (2023) Features of the legal regulation of generative artificial intelligence in the UK, USA, EU and China. 16 (3). pp. 245-267. (In Russian).

45. Kuteynikov, D.L. et al. (2022) Klyuchevye podkhody k pravovomu regulirovaniyu ispol'zovaniya sistem iskusstvennogo intellekta [Key approaches to legal regulation of the use of artificial intelligence systems]. Vestnik Tyumenskogo gosudarstvennogo universiteta. Sotsial'no-ekonomicheskie i pravovye issledovaniya. 8:1 (29). pp. 209-232.

46. Ershov, A.V. (2023) [State Council Reform 2023: Financial and Social Issues of Reforming State Bodies of the PRC]. Istoricheskie sobytiya v zhizniKitaya i sovremennost' [Historical events in the life of China and modern times]. Vol. VIII. Proceedings of the Conference of the Center for Contemporary History of China and its Relations with Russia, Institute of China and Contemporary Asia of the Russian Academy of Sciences. Moscow. 17 April 2023. Moscow: Institute of China and Contemporary Asia of the Russian Academy of Sciences. pp. 35-48. (In Russian).

47. Hiroki Habuka. (2023) Japan's Approach to AI Regulation and Its Impact on the 2023 G7 Presidency. [Online] Available from: https://www.csis.org/analysis/japans-approach-ai-regulation-and-its-impact-2023-g7-presidency

48. Cas.go.jp. (n.d.) Social Principles of Human-Centric AI. [Online] Available from: https://www.cas.go.jp/jp/ seisaku/jinkouchinou/pdf/humancentricai.pdf

49. Takashi Kii. (2023) The Q&A session of the Subcommittee of the Administrative Oversight Committee. [Online] Available from: https://go2senkyo.com/seijika/122181/posts/685617 (In Japanese).

50. Dremlyuga, R.I. (2022) Osnovy natsional'nogo regulirovaniya primeneniya iskusstvennogo intellekta: opyt Singapura [Fundamentals of National Regulation of the Use of Artificial Intelligence: The Singapore Experience]. Aziatsko-Tikhookeanskiy region: ekonomika, politika, pravo. 24 (1). pp. 214-224.

51. Goryan, E.V. (2020) Natsional'nye podkhody k primeneniyu iskusstvennogo intellekta: opyt Singapura [National Approaches to the Use of Artificial Intelligence: The Singapore Experience]. Yuridicheskie issledovaniya. 8. pp. 62-72.

52. Ai.gov.ru. (2023) Natsional'naya strategiya v oblasti iskusstvennogo intellekta 2.0 / Singapore National AI Strategy 2.0 (NAIS 2.0). [Online] Available from: https://ai.gov.ru/knowledgebase/dokumenty-po-razvitiyu-ii-v-drugikh-stranakh/2023_singapurskaya_nacionalynaya_strategiya_ v_oblasti_iskusstvennogo_intellekta_2_0_singapore_national_ai_strategy_2_0_nais_2_0_smart_nation_singapore/

Информация об авторах:

Овчинников А.И. - д-р юрид. наук, зав. кафедрой теории и истории государства и права Южного федерального университета (Ростов-на-Дону, Россия). E-mail: k_fp3@mail.ru

Селиванова Е.С. - канд. юрид. наук, зав. кафедрой гражданского права Южного федерального университета (Ростов-на-Дону, Россия). E-mail: seliv.76@mail.ru

Конопий А.С. - преподаватель кафедры теории и истории государства и права Южного федерального университета (Ростов-на-Дону, Россия). E-mail: konopy-anna@mail.ru

Авторы заявляют об отсутствии конфликта интересов.

Information about the authors:

A.I Ovchinnikov, Dr. Sci. (Law), head of the Department of Theory and History of State and Law, Southern Federal University (Rostov-on-Don, Russian Federation). E-mail: k_fp3@mail.ru

E.S. Selivanova, Cand. Sci. (Law), head of the Department of Civil Law, Southern Federal University (Rostov-on-Don, Russian Federation). E-mail: seliv.76@mail.ru

A.S. Konopiy, lecturer, Southern Federal University (Rostov-on-Don, Russian Federation). E-mail: konopy-anna@mail.ru The authors declare no conflicts of interests.

Статья поступила в редакцию 17.04.2024; одобрена после рецензирования 29.04.2024; принята к публикации 31.05.2024.

The article was submitted 17.04.2024; approved after reviewing 29.04.2024; accepted for publication 31.05.2024.

i Надоели баннеры? Вы всегда можете отключить рекламу.