Научная статья на тему 'Правовое регулирование искусственного интеллекта'

Правовое регулирование искусственного интеллекта Текст научной статьи по специальности «Право»

CC BY
6782
1141
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Baikal Research Journal
ВАК
Область наук
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / РОБОТ / ИНТЕЛЛЕКТУАЛЬНЫЕ ТЕХНОЛОГИИ / ЦИФРОВАЯ ЭКОНОМИКА / МАШИННОЕ ОБУЧЕНИЕ / ТЕХНОЛОГИЧЕСКАЯ СИНГУЛЯРНОСТЬ / СУПЕРИНТЕЛЛЕКТ / ПРАВОВОЕ РЕГУЛИРОВАНИЕ / ИНФОРМАЦИОННОЕ ПРАВО / ПРАВО / ЗАКОНОДАТЕЛЬСТВО / АЗИЛОМАРСКИЕ ПРИНЦИПЫ / ARTIFICIAL INTELLIGENCE / ROBOT / SMART TECHNOLOGY / DIGITAL ECONOMICS / MACHINE LEARNING / TECHNOLOGICAL SINGULARITY / SUPERINTELLIGENCE / LEGAL REGULATION / INFORMATION LAW / LAW / LEGISLATION / ASILOMAR PRINCIPLES

Аннотация научной статьи по праву, автор научной работы — Хисамова Зарина Илдузовна, Бегишев Ильдар Рустамович

В современном цифровом пространстве вопросы применения искусственного интеллекта (далее ИИ) и сфера разработки интеллектуальных технологий являются крайне важными и актуальными. На протяжении последних нескольких лет наблюдаются попытки государственного регулирования ИИ, как в России, так и в других странах мира. Среди существующих на сегодняшний день подходов наиболее оптимальным видится создание отдельного механизма правового регулирования, создающего четкое разграничение зон ответственности между разработчиками и пользователями систем с ИИ и непосредственно самой технологией. Отдельным направлением должно стать внедрение единых для всех разработчиков и пользователей этических принципов для систем с ИИ. Наиболее оптимальным в данном аспекте является подход, реализованный в рамках Азиломарских принципах. В указанных обстоятельствах обращение к проблеме правового регулирования ИИ становится как никогда актуальным. В рамках настоящей статьи приведены результаты детального анализа существующих подходов к правовому регулированию ИИ.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Хисамова Зарина Илдузовна, Бегишев Ильдар Рустамович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Legal Regulation of Artificial Intelligence

In today's digital space, the use of artificial intelligence (hereinafter-AI) and the development of intelligent technologies are extremely important and relevant. Over the past few years, there have been attempts to regulate AI, both in Russia and in other countries of the world. Among the currently existing approaches, the most optimal one is the creation of a separate legal regulation mechanism that creates a clear delineation of areas of responsibility between developers and users of systems with AI and the technology itself. A separate direction should be the introduction of uniform for all developers and users of ethical principles for systems with AI. The most optimal in this aspect is the approach implemented in the framework of Asilomar principles. In these circumstances, the appeal to the problem of legal regulation of AI becomes more relevant than ever. This article presents the results of a detailed analysis of existing approaches to the legal regulation of AI.

Текст научной работы на тему «Правовое регулирование искусственного интеллекта»

УДК 349

З.И. Хисамова

Краснодарский университет Министерства внутренних дел Российской Федерации, г. Краснодар, Российская Федерация

И.Р. Бегишев

Казанский инновационный университет им. В Г. Тимирясова (ИЭУП),

г. Казань, Российская Федерация

ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

АННОТАЦИЯ. В современном цифровом пространстве вопросы применения искусственного интеллекта (далее - ИИ) и сфера разработки интеллектуальных технологий являются крайне важными и актуальными. На протяжении последних нескольких лет наблюдаются попытки государственного регулирования ИИ, как в России, так и в других странах мира. Среди существующих на сегодняшний день подходов наиболее оптимальным видится создание отдельного механизма правового регулирования, создающего четкое разграничение зон ответственности между разработчиками и пользователями систем с ИИ и непосредственно самой технологией. Отдельным направлением должно стать внедрение единых для всех разработчиков и пользователей этических принципов для систем с ИИ. Наиболее оптимальным в данном аспекте является подход, реализованный в рамках Азиломарских принципах. В указанных обстоятельствах обращение к проблеме правового регулирования ИИ становится как никогда актуальным. В рамках настоящей статьи приведены результаты детального анализа существующих подходов к правовому регулированию ИИ.

КЛЮЧЕВЫЕ СЛОВА. Искусственный интеллект, робот, интеллектуальные технологии, цифровая экономика, машинное обучение, технологическая сингулярность, суперинтеллект, правовое регулирование, информационное право, право, законодательство, Азиломарские принципы.

ИНФОРМАЦИЯ О СТАТЬЕ. Дата поступления 3 июня 2019 г.; дата принятия к печати 21 июня 2019 г.; дата онлайн-размещения 15 июля 2019 г.

Z.I. Khisamova

Krasnodar University of the Ministry of Internal Affairs of the Russian Federation,

Krasnodar, Russian Federation

I.R. Begishev

Kazan Innovative University named after V.G. Timiryasov (IEML),

Kazan, Russian Federation

LEGAL REGULATION OF ARTIFICIAL INTELLIGENCE

ABSTRACT. In today's digital space, the use of artificial intelligence (hereinafter-AI) and the development of intelligent technologies are extremely important and relevant. Over the past few years, there have been attempts to regulate AI, both in Russia and in other countries of the world. Among the currently existing approaches, the most optimal one is the creation of a separate legal regulation mechanism that creates a clear delineation of areas of responsibility between developers and users of systems with AI and the technology itself. A separate direction should be the introduction of uniform for all developers and users of ethical principles for systems with AI. The most optimal in this aspect is the approach implemented in the framework of Asilomar principles. In these circumstances, the appeal to the problem of legal regulation of AI becomes more relevant than ever. This article presents the results of a detailed analysis of existing approaches to the legal regulation of AI.

© Хисамова З.И., Бегишев И.Р., 2019

KEYWORDS. Artificial intelligence, robot, smart technology, digital Economics, machine learning, technological singularity, superintelligence, legal regulation, information law, law, legislation, Asilomar principles.

ARTICLE INFO. Received June 03, 2019; accepted June 21, 2019; available online July 15, 2019.

Никола Тесла предсказывал, что в XXI в. «автоматы (роботы) возьмут на себя всю монотонную работу, и займут место, которое рабский труд занимал в древней цивилизации, и тогда человечество освободится для реализации своих высших чаяний»1. Для современного человека роботы и ИИ стали элементом объективной реальности, и с середины 20-века интерес к ИИ как предмету научных дискуссий во всем мире продолжает активно расти, в особенности, в Европе, США и КНР [1]. Так, в базе данных Скопус в 2018 % насчитывается 180 221 публикаций, а количество патентов достигло 57 545 (из них российские — только 1,5 %)2.

Аналитики по всему миру единогласно называют ИИ ключевым технологическим трендом3. По прогнозам аналитиков, к 2020 г. рынок ИИ вырастет до 5 млрд долл. США [2] за счет применения технологий машинного обучения и распознавания естественного языка в рекламе, розничной торговле, финансах и здравоохранении4.

Экспертное и научное сообщество предсказывает, что со стремительным ростом инвестиций в ИИ и расширением сферы их применения, во главе угла становится новая проблема — правового регулирования, неразрывно связанная с этическими аспектами. «Постулаты Азимова о непричинении вреда человеку и человечеству умными роботами уже давно не вызывают эмоций у большинства специалистов» [3]. Определяемый учеными и футурологами срок в 60 лет до достижения технологической сингулярности уже совсем не за горами [4]. По мнению Р. Курцвейла, когда это произойдет, компьютеры будут иметь возможность расти в геометрической прогрессии в сравнении с самими собой и воспроизводить себя, а их интеллект будет в миллиарды раз быстрее, чем человеческий [5].

Согласно закону Мура, мыслительные процессы роботов уже нельзя будет отличить от человеческих, сходство достигнет 95 % [6]. Если это произойдет, человечество столкнется с беспрецедентными юридическими проблемами. Современные правовые системы, существующие на основах антропоцентризма, заложенного в эпоху Возрождения, не позволяют человечеству сегодня решать возникающие в связи с развитием технологий проблемы [7; 8].

Как верно отмечают Р. Ибрагимов и Е. Сурагина, все принципы регулирования создания программ (включая роботов) так или иначе подчинены двум глобальным целям:

1) обеспечить защиту человека, его прав и основных свобод, а также защиту общества, государства и человечества;

2) способствовать развитию технического прогресса в области новейших информационных технологий и робототехники в той мере, в которой это не противоречит достижению первой цели» [9].

1 Двадцать первый век в предсказаниях Николы Теслы // Buffet. 2019. URL: https://buffetclub. ru/predskazaniya-nikoly-tesly_1451/.

2 Amazon Strategy Teardown : Report // CB Insights. 2018. URL: https://www.cbinsights.com/ research/report/amazon-strategy-teardown/.

3 Top 10 Strategic Technology Trends for 2018 // Gartner. 2019. URL: https://www.gartner.com/ doc/3811368.

4 AI in Fintech Market by Component (Solution, Service), Application Area (Virtual Assistant, Business Analytics & Reporting, Customer Behavioral Analytics), Deployment Mode (Cloud, On-Premises), and Region — Global forecast to 2022 // MarketsandMarkets, 2019. URL: https://www.marketsandmar-kets.com/Market-Reports/ai-in-fintech-market-34074774.html.

Применительно к ИИ следует отметить, что запрос на правовое регулирование обусловлен как наличием отраслевых правовых проблем в действующем правовом поле, мешающим развитию технологий, так и стремлением активизировать процесс внедрения технологий в рамках цифровой экономики, что обусловливает необходимость создания соответствующих регулятивных механизмов [1].

На сегодняшний день развитие правовой основы для существования ИИ условно можно разделить на два подхода:

— создание правовой основы для внедрения прикладных систем с ИИ и стимулирования их развития;

— регулирование сферы создания искусственного «суперинтеллекта», в частности, соответствия разрабатываемых технологий общепризнанным стандартам в области этики и права.

Справедливости ради стоит отметить, что современный уровень развития машинных систем ИИ не ставит остро проблему «сдерживания» ИИ как потенциальной угрозы человечеству. Вместе с тем, наличие экзистенциальных рисков столь стремительного развития ИИ вполне очевидно. Искусственный «сверхинтеллект» или «суперинтеллект» может появиться довольно скоро. В этих условиях принятие Азиломарских принципов ИИ в январе 2017 г. на конференции в Азиломаре, США (2017 Asilomar conference)5 стало первым и весьма значимым шагом ответственного подхода человечества к разработке ИИ и робототехники.

В числе ключевых позиций данного документа следует отметить:

— принцип «полезного» финансирования, подразумевающего вливание инвестиций в проведение исследований по обеспечению полезного использования ИИ в поисках ответа на наиболее острые проблемы;

— принцип «связи науки и политики», предусматривающий конструктивное и полезное взаимодействие между исследователями в сфере ИИ и теми, кто принимает решения о регулировании ИИ;

— принцип «безопасности» и «прозрачности неудач», а также программирование ИИ на основе общечеловеческих принципов морали.

Отдельным направлением выделены риски, которое влечет в себе создание ИИ и меры по их ограничению:

Так, разработчики систем ИИ играют ключевую роль в формировании нравственных последствий использования ИИ, неправильного использования ИИ и действий ИИ; они имеют возможностью и несут обязанность влиять на такие последствия. Вместе с тем, в Принципах провозглашается антропоцентристкий подход — «люди должны сами выбирать, как использовать системы ИИ для достижения своих целей, и использовать ли их для этого вообще».

Отдельное внимание уделяется также конфиденциальности личных данных и обеспечению базовых прав человечества и общества.

В долгосрочной перспективе провозглашен принцип разработки «суперинтеллекта» только под бдительным наблюдением, только для служения широко разделяемым этическим идеалам и на благо всего человечества, а также необходимость минимизации возможных рисков систем с ИИ еще на стадии прогнозирования.

Примечательно, что под Принципами поставили свои подписи не только ученые, озабоченные проблемами этики и морали, например, С. Хокинг и Р. Кур-цвейл, но и эксперты в сфере IT, а также крупнейшие IT-предприниматели, такие как И. Маск и Б. Гейтс.

А. Незнамовым подходы в правовом регулировании предлагается разделить на 4 уровня в зависимости от сферы регулирования:

5 Asilomar AI Principles // Al News. URL: https://www.artificial-intelligence.blog/news/asilo-mar-ai-principles.

1) частная инициатива и исследовательские институты;

2) саморегулирование в отрасли;

3) национальное регулирование;

4) наднациональное регулирование [3].

Положительно оценивая указанную инициативу, отметим, что, на наш взгляд, целесообразно выделять 3 уровня, объединив частную (экспертную) инициативу и саморегулирование.

Экспертное сообщество, состоящее из IT-специалистов, ученых, юристов, экономистов и предпринимателей, и является той движущей силой, которая обеспечивает саморегулирование отрасли. Яркий тому пример упомянутые Азиломар-ские принципы, которые подписали 3 500 специалистов. В указанную группу также входят инициативы по созданию этических принципов для разрабатываемых ИИ. Компания «Майкрософт» выпустила отчет о влиянии ИИ на человечество, где предложила в том числе ввести аналог «клятвы Гиппократа» для программистов [10]. Консультативная группа по этике при Европейском инспекторе по защите данных опубликовала доклад, в котором спрогнозировала переход от индивидуальной к распределенной ответственности, указав на недостаточность регулирования и необходимость цифровой этики [11].

Национальное регулирование как самостоятельный уровень правового регулирования на сегодняшний день еще полноценно не сформирован. В отдельных странах реализуются частные инициативы.

В Южной Корее в 2008 г. был принят закон «О содействии развитию и распространению умных роботов»6. Содержание и суть данного документа не позволяют признать его регулирующим общественные отношения в рассматриваемой сфере актом. Документ направлен на стимулирование развитие «умной» робототехники. Вместе с тем, в законе содержится несколько значимых понятий и определений. Так, определено, что «умный робот» — «механическое устройство, которое самостоятельно воспринимает внешнюю среду, распознает обстоятельства, в которых работает, и движется самостоятельно». Одновременно в законе декларируется возможность государства принять специальный закон, регулирующий этические нормы развития робототехники, которым должны следовать разработчики, производители и пользователи умных роботов [12].

Отметим, что южнокорейский закон был первой инициативой по выработке стратегии по ИИ. Если 2017 г. пять стран приняли Национальную стратегию ИИ, то в течение 2018-2019 гг. их стало уже 307.Так, в ОАЭ8, КНР, Франции9, Швеции, Мексике, Сингапуре, Японии и Германии разработаны Стратегии в сфере ИИ. «В остальных странах ставят перед собой задачи стать лидерами, войти в число лидеров по развитию технологий или стать лидерами по какому-то из направлений в области ИИ»10.

Особо следует остановиться на китайском «Плане развития технологий ИИ нового поколения до 2030 г» (июль 2017), согласно которому страна должна выйти в мировые лидеры в сфере ИИ, а связанные с ним области экономики — приносить не менее 150 млрд долл. США дохода. В рамках плана разработан ряд государствен-

6 Закон о содействии развитию и распространению умных роботов от 28 марта 2008 г. № 9014 : (с посл. изм. и доп.). URL: http://robopravo.ru/zakon_iuzhnoi_koriei_2008.

7 Страны мира, разработавшие свои национальные стратегии развития AI. URL: www. politicsplusai.com.

8 UAE 2031: UAE Artificial Intelligence Strategy. URL: http://www.uaeai.ae/en/.

9 French Strategy for Artificial Intelligence. URL: https://www.aiforhumanity.fr/.

10 Национальная стратегия развития искусственного интеллекта // Tadviser. 2019. 30 мая. URL: http://www.tadviser.ru/index.php/Статья:Национальная_стратегия_развития_искусственного_ин-теллекта.

ных и частно-государственных программ, направленных на обеспечение конкурентоспособности КНР в сфере ИИ [13]. За последние несколько лет КНР совершил рывок в развитии технологий ИИ и стал второй страной в этой области после США.

Однако отметим, что КНР в отличие от США и Великобритании сконцентрирован на экономической выгоде внедрения ИИ. Вопросы этического и юридического сопровождения развития ИИ находятся в зачаточном состоянии. Внимание уделяется только политике обеспечения контроля китайских компаний над ценными данными, в том числе за счет хранения данных о китайских пользователях на территории страны, обязательного использования национальных стандартов КНР в областях, связанных с ИИ, включая облачные вычисления, промышленное программное обеспечение и большие данные [13].

В США вопрос рассмотрения прогресса в области технологий ИИ является приоритетным на национальном уровне. Основополагающим документом является Национальный стратегический план исследований и разработок в области ИИ11, который содержит стратегический план исследований и разработок, финансируемых федеральным правительством в области ИИ. В марте 2018 г. в стране была учреждена временная Комиссия национальной безопасности по ИИ, а также создана межведомственная структура для рассмотрения прогресса в области технологий ИИ. Отметим, что в числе государственных задач обозначено приоритетное внимание фундаментальным исследованиям в области ИИ с акцентом на исследовательские инициативы, в которые не планирует инвестировать частный бизнес, то есть сферы коммерчески не привлекательные.

США также активно взаимодействует с Великобританией в области применения ИИ в военных целях. В частности, в вопросах установления баланса между законным и противоправным использованием технологий, влияющих на национальную безопасность.

Великобритания по праву считается мировым лидером в области этических стандартов для робототехники и систем ИИ12. Государство поддерживает применение и развитие ИИ в бизнесе в соответствии со «Стратегией цифровой экономики 2015-2018», утвержденной в начале 2015 г. государственной организацией Innovate UK (Внедряй инновации в Великобритании), и Цифровой стратегией Великобритании13.

В апреле 2018 г. правительство Великобритании опубликовало стратегический документ об ИИ, в котором говорится, что в сотрудничестве с промышленностью и научными кругами будет создан совет по ИИ. Этот совет будет руководить деятельностью по развитию ИИ, контролировать осуществление государственной политики в данной области, поощрять промышленность и консультировать правительство по вопросам ИИ [14]. Кроме того, правительство создаст отдел ИИ для работы с советом и будет содействовать реализации национальной стратегии в этой области и сотрудничать с другими правительствами14.

Отметим, что все вышеприведенные документы направлены на стимулирование развития систем с ИИ ввиду их экономической эффективности. Однако,

11 The National Artificial Intelligence Research and Development Strategic Plan // Networking and Information Technology Research and Development Subcommittee. 2016. October. 48 p. URL: https:// www.nitrd.gov/PUBS/national_ai_rd_strategic_plan.pdf.

12 Развитие искусственного интеллекта в странах мира: США, Китай, Великобритания. URL: http://d-russia.ru/razvitie-iskusstvennogo-intellekta-v-stranah-mira-ssha-kitaj-velikobritaniya.html.

13 Data — unlocking the power of data in the UK economy and improving public confidence in its use / UK Digital Strategy. 2017. URL: https://www.gov.uk/government/publications/uk-digital-strat-egy/7-data-unlocking-the-power-of-data-in-the-uk-economy-and-improving-public-confidence-in-its-use.

14 Развитие искусственного интеллекта в странах мира: США, Китай, Великобритания. URL: http://d-russia.ru/razvitie-iskusstvennogo-intellekta-v-stranah-mira-ssha-kitaj-velikobritaniya.html.

вопросы правового регулирования на сегодняшний день не нашли должного разрешения, и все предлагаемые варианты регулирования носят характер научной дискуссии.

Во многом такая ситуация объясняется трудностями в подходах к определению сущности ИИ в рамках правового поля.

Распространенным предложением является применение к системам с ИИ норм об ответственности для юридических лиц.

В основе применения такой юридической фикции лежит утверждение о ква-зисубъектности как юридического лица, так и ИИ [15]. Вместе с тем, аналогия с юридическими лицами не всегда объективна и корректна, так как за действиями юридического лица неукоснительно стоит физическое [16; 17]. Однако, создание суперинтеллекта подразумевает возможность самостоятельного принятия решения машиной, обладающей функцией самообучения.

Вторым активно обсуждаемым подходом является создание отдельной правовой категории, наделенной особой собственной правосубъектностью. У такого подхода есть как сторонники [18; 19], так и активные противники [20].

Интересным также представляется позиция об аналогии между статусом ИИ и статусом рабов в Древнем мире (Kakoudaki, 2014) [21], (Turkle, 2011) [22]. Согласно этой точке зрения, нормы древнеримского права о рабстве предлагаются в качестве правовой основы для предоставления роботам, наделенным ИИ, юридической ответственностью (Pagallo, 2013) [7].

По мнению отдельных авторов (Oleksiewicz, Mustafa, 2019) [23] применение рабских законов к роботам также является проявлением антропоцентрического подхода, и такое обращение с разумным существом, а именно таким по мнению авторов является «суперинтеллект», возможно только на паритетных началах, то есть посредством наделения ИИ правоспособностью равной или тождественной человеческой.

Парируя такому подходу Н. Невьянс указывает, что несостоятельность идеи наделения ИИ самостоятельной правосубъектностью обусловлена тем, что в указанном случае происходит экстраполяция прав человека на действия ИИ. В аргументацию она приводит пример с предложением наделить отдельных животных, «обладающих сознанием и способных иметь чувства», например, дельфинов, правосубъектностью [20].

Говоря о наднациональном регулировании следует отметить инициативы ЕС.

Европейским парламентом предложены прогрессивные нормы регулирования роботов на основе определения новой правовой категории. В 2017 г. была принята Резолюция «Нормы гражданского права о робототехнике»15, которая отмечает необходимость введения единой системы классификации роботов и общеевропейской системы их регистрации. Большое внимание в документе уделяется этическим принципам: так декларируется, что потенциал использования робототехники должен оцениваться с точки зрения отсутствия угроз безопасности и здоровью человека, свободе и неприкосновенности частной жизни. Предвидя возможные риски и негативные последствия принятия ИИ самостоятельных решений, в проекте Резолюции предлагается провести глубокий анализ таких последствия, на основе чего разработать действенные механизмы в сфере страхования ущерба от ИИ (по примеру автомобилей), создания компенсационных страховых фондов на покрытие ущербов, обязательной регистрации вво-

15 Нормы гражданского права о робототехнике : резолюция Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16 февр. 2017 г. URL: http://www.europarl.europa.eu/sides/getDoc. do?pubRef=-//ep//text+ta+p8-ta-2017-0051+0+doc+xml+v0//en>.

димого в эксплуатацию ИИ16. Предполагается также возможность интеграции в механизм робота предохранительного выключателя, а также определенное программное обеспечение с целью немедленного отключения всех процессов в аварийных ситуациях [24].

Применительно к ответственности предлагаются два варианта:

1. Объективная ответственность (не требующая вины), связанная с наделением «особо развитых» роботов статусом электронного лица. Это означает способность ими нести ответственность за причиненный ущерб в тех случаях, когда такие роботы принимают решения автономно или иным образом самостоятельно взаимодействуют с третьими лицами17.

2. Подход риск-менеджмента (ответственность лица, которое могло минимизировать риски). Ответственность должна быть пропорциональной реальному уровню указаний, которые отдаются роботу, и уровню его автономности. Это дополняется обязательным страхованием пользователей роботов и созданием компенсационного фонда.

«В качестве приложения к резолюции предлагается создать кодекс этики, основными принципами которого будут принцип самостоятельности и принцип справедливости. Добровольное информированное согласие человека на взаимодействие с роботом подразумевает принцип самостоятельности, а принцип справедливости заключается в правильном распределении созданных при этом благ» [25].

Если говорить о современном состоянии законодательства Российской Федерации в сфере ИИ, то на сегодняшний день оно не может быть признано удовлетворительным [25].

До июня 2019 г. в стране не существовало развитой стратегии ИИ. В национальной программе «Цифровая экономика» ключевые индикаторы развития сферы ИИ описаны весьма поверхностно. Разработка Национальной стратегии развития технологий в области ИИ была анонсирована только 30 мая 2019 г. на совещании по ИИ у Президента Российской Федерации.

В текущем гражданско-правовом регулировании ИИ как технология и «умный» робот может выступать в нескольких статусах — как предмет товарооборота (вещь), объект авторских прав (программа), источник повышенной опасности (потенциально опасная вещь), то есть вопрос о наделении его деликтоспособностью в рамках существующей системы права не возможен.

В этих условиях внесения отдельных поправок в Гражданский кодекс Российской Федерации явно недостаточно.

После принятия Национальной стратегии развития технологий в области ИИ необходима разработка специального законодательства в области регулирования рассматриваемых отношений, касающегося создания, эксплуатации, оборота роботов и систем с ИИ, а также основных принципов, методов и пределов правового регулирования.

Отметим, что со стороны экспертного сообщества уже проявлялись инициативы по созданию специализированного закона в рассматриваемой сфере.

В числе российских инициатив по правовому регулированию следует отметить законопроект, разработанный Д.С. Гришиным (Grishin Robotics) «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники». Так, автора-

16 Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) / Committee on Legal Affairs, European Parliament. 2016. 31 May. URL: http:// www.europarl.europa.eu/doceo/document/JURI-PR-582443_EN.pdf?redirect.

17 Развитие искусственного интеллекта в мире: Россия и мировая статистика. URL: http://d-russia.ru/razvitie-iskusstvennogo-intellekta-v-mire-rossiya-i-mirovaya-statistika.html.

ми предлагается введение в гражданско-правовой оборот понятие «робота-агента». Анализ текста законопроекта, находящегося в свободном доступе, свидетельствует о несостоятельности предлагаемого авторами механизма регулирования ввиду откровенного диссонанса и рассогласованности с положениями как гражданского законодательства, так и нормами иных отраслей права. В частности, в вопросах применения аналогии права, находящейся под запретом в административном и уголовном законодательстве. Отдельные нарекания вызывают и противоречащие друг другу положения самого проекта закона в части обязательности/добровольности регистрации роботов в компетентных органах, разграничения правового статуса владельца и собственника умного робота, а также непосредственно статуса самого робота-агента: является он предметом или субъектом рассматриваемых правоотношений.

Еще одной инициативой по регулированию правоотношений в области робототехники и ИИ является Модельная конвенция о робототехнике и ИИ, разработанная Исследовательским центром проблем регулирования робототехники и ИИ «Робоправо». По словам авторов, «цель разработанной конвенции — определить основные проблемы, которые могут возникнуть в обществе и правовой системе в связи с активным развитием киберфизических систем, обобщить основные правила робототехники и обозначить возможные направления решения существующих и ожидаемых проблем». Несмотря на прогрессивность документа в части установления этических основ, вопросы правового регулирования все же остались в нем без освещения. По сути, документ носит декларативный характер, содержание которого более соответствует стратегии развития или декларативным принципам.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Подводя итог проведенному анализу, отметим, что говоря о нормативно-правовом регулировании ИИ, следует понять, насколько действующее законодательство учитывает возможность существования подобных систем и может быть применено для организации взаимоотношений в условиях их использования18.

ИИ создает новые вызовы различным сферам права: от патентного до уголовного права, от охраны частной жизни до антимонопольного права. Среди существующих на сегодняшний день подходов наиболее оптимальным видится создание отдельного механизма правового регулирования, создающего четкое разграничение зон ответственности между разработчиками и пользователями систем с ИИ и непосредственно самой технологией. Отдельным направлением должно стать внедрение единых для всех разработчиков и пользователей этических принципов для систем с ИИ. Наиболее оптимальным в данном аспекте является подход, реализованный в рамках Азиломарских принципах. Полагаем, что Принципы могут стать основой для наднациональных механизмов правового регулирования сферы разработки и внедрения ИИ.

18 Artificial Intelligence: How knowledge is created, transferred, and used Trends in China, Europe, and the United States. Elsevier. 2019. 92 p. URL: https://www.elsevier.com/_data/assets/pdf_

file/0010/823654/ACAD-RL-AS-RE-ai-report-WEB.pdf.

Список использованной литературы

1. The AI Index 2018 : Annual Report / Y. Shoham, R. Perrault, E. Brynjolfsson [et al.]. — Stanford : Stanford University, 2018. — 94 p.

2. Кузнецова Н. Инвестиции в искусственный интеллект бьют рекорды / Н. Кузнецова // Инвест-Форсайт. Деловой журнал. — 2018. — 29 мая. — URL: https://www.if24.ru/ investitsii-v-iskusstvennyj-intellekt-byut-rekordy/.

3. Незнамов А. Законы робототехники. Как регулировать искусственный интеллект / А. Незнамов // Forbes. — 2018. — 16 янв. — URL: https://www.forbes.ru/tehnologii/355757-zakony-robototehniki-kak-regulirovat-iskusstvennyy-intellekt.

4. Bostrom N. Superintelligence: Paths, Dangers, Strategies / N. Bostrom. — Oxford : Oxford University Press, 2014. — 390 p.

5. Kurzweil R. The Singularity Is Near: When Humans Transcend Biology / R. Kurzweil. — New York : Duckworth, 2010. — 1012 p.

6. Bostrom N. Strategic Implications of Openness in AI Development / N. Bostrom // Global Police. — 2017. — Vol. 8, iss. 2. — P. 135-148.

7. Pagallo U. The Laws of Robots: Crimes, Contracts, and Torts / U. Pagallo. — Dordrecht : Springer, 2013. — 200 p.

8. Leach R. Political Ideology in Britain / R. Leach. — 2nd ed. — London : Palgrave Mac-millan, 2009. — 282 p.

9. Ибрагимов Р. Право машин. Как привлечь робота к ответственности / Р. Ибрагимов, Е. Сурагина // Корпоративный юрист. — 2017. — № 11. — С. 10-17.

10. Smith B. The Future Computed: Artificial Intelligence and Its Role in Society / B. Smith, H. Shum. — Washington : Microsoft Corporation, 2018. — 143 p.

11. Ethics Advisory Group : Report 2018 / J.P. Burgess, L. Floridi, A. Pols [et al.]. — URL: https://edps.europa.eu/sites/edp/files/publication/18-01-25_eag_report _en.pdf.

12. Simachev Y. New Principles and Individual Practices in Legal Regulation Amid Technological Revolutions : Report / Y. Simachev, A. Sokolov // Development of Parliamentarism. — Skolkovo, 2018. — 18 p.

13. Комиссина И. И. Современное состояние и перспективы развития технологий искусственного интеллекта в Китае / И. И. Комиссина // Проблемы национальной стратегии. — 2019. — № 1. — С. 137-159.

14. Искусственный интеллект как стратегический инструмент экономического развития страны и совершенствования ее государ-ственного управления. Часть 1. Опыт Великобритании и США / И.А. Соколов, В.И. Дрожжинов, А.Н. Райков [и др.] // International Journal of Open Information Technologies. — 2017. — № 9. — С. 57-75.

15. Winkler A. We the Corporations: How American Business Won Their Civil Rights / A. Winkler. — New York : Liverlight Publ., 2018. — 472 p.

16. Brozek B. On the Legal Responsibility of Autonomous Machines / B. Brozek, M. Jaku-biec // Artificial Intelligence Law. — 2017. — No. 25 (3). — P. 293-304.

17. Khanna V.S. Corporate Criminal Liability: What Purpose Does it Serve? / V.S. Khan-na // Harvard Law Review. — 1996. — No. 109. — P. 1477-1534.

18. Chopra S. A Legal Theory for Autonomous Artificial Agents / S. Chopra, L.F. White. — Ann Arbor : University of Michigan Press, 2011. — 262 p.

19. Hage J. Theoretical Foundations for the Responsibility of Autonomous Agents / J. Hage // Artificial Intelligence Law. — 2017. — No. 25 (3). — P. 255-271.

20. Nevejans N. European Civil Law Rules in Robotics : Study / N. Nevejans. — Brussels : European Parliament's Committee on Legal Affairs, 2016. — 34 p.

21. Kakoudaki D. Anatomy of a Robot: Literature, Cinema, and the Cultural Work of Artificial Intelligence / D. Kakoudaki. — New Brunswick : Rutgers University Press, 2014. — 272 p.

22. Turkle S. Alone Together: Why We Expect More from Technology and Less from Each Other / S. Turkle. — New York : Basic Boocs, 2011. — 386 p.

23. Oleksiewicz I., Mustafa E.C. From Artificial Intelligence to Artificial Consciousness: Possible Legal Bases. For the Human-robot Relationships in the Future / I. Oleksiewicz, E.C. Mustafa // International Journal of Advanced Research. — 2019. — Vol. 7, iss. 3. — P. 254263. — DOI: 10.21474/IJAR01/8629.

24. Radutniy O.E. Criminal Liability of the Artificial Intelligence / O.E. Radutniy // Problems of Legality. — 2017. — No. 138. — P. 132-141.

25. Цуканова Е.Ю. Правовые аспекты ответственности за причинение вреда роботом с искусственным интеллектом / Е.Ю. Цуканова, О.Р. Скопенко // Вопросы российского и международного права. — 2018. — Т. 8, № 4А. — С. 42-48.

References

1. Shoham Y., Perrault R., Brynjolfsson E., Clark J., Manyika J., Niebles J. C., Lyons T., Etchemendy J., Grosz B., Bauer Z. The AI Index 2018. Annual Report. Stanford University. 2018. 94 p.

2. Kuznetsova N. Investments in artificial intelligence break records. Invest Foresight. Online Business Magazine, 2018, May 29. Available at: https://www.if24.ru/investitsii-v-iskusst-vennyj-intellekt-byut-rekordy/. (In Russian).

3. Neznamov A. Law of robotics. How to regulate artificial intelligence. Forbes, 2018, January 16. Available at: https://www.forbes.ru/tehnologii/355757-zakony-robototehni-ki-kak-regulirovat-iskusstvennyy-intellekt. (In Russian).

4. Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014. 390 p.

5. Kurzweil R. The Singularity Is Near: When Humans Transcend Biology. New York, Duckworth, 2010. 1012 p.

6. Bostrom N. Strategic Implications of Openness in AI Development. Global Police, 2017, vol. 8, iss. 2, pp. 135-148.

7. Pagallo U. The Laws of Robots: Crimes, Contracts, and Torts. Dordrecht, Springer, 2013. 200 p.

8. Leach R. Political Ideology in Britain. 2nd ed. London, Palgrave Macmillan, 2009. 282 p.

9. Ibragimov R., Suragina E. Robot law. How to bring a robot to justice. Korporativnyi yurist = Corporate Lawyer, 2017, no. 11, pp. 10-17. (In Russian).

10. Smith B., Shum H. The Future Computed: Artificial Intelligence and Its Role in Society. Washington, Microsoft Corporation, 2018. 143 p.

11. Burgess J.P., Floridi L., Pols A., Lanier J.Z., Rouvoroy A. Ethics Advisory Group : Report 2018. Available at: https://edps.europa.eu/sites/edp/files/publication/18-01-25_eag_ report_en.pdf.

12. Simachev Y., Sokolov A. New Principles and Individual Practices in Legal Regulation Amid Technological Revolutions : Report. Development of Parliamentarism. Skolkovo, 2018. 18 p.

13. Komissina I.N. Current State and Future Prospects for Artificial Intelligence Technologies in China. Problemy natsional'noi strategii = National Strategy Issues, 2019, no. 1, pp. 137-159. (In Russian).

14. Sokolov I., Drozhzhinov V., Raikov A., Kupriyanovsky V., Namiot D., Sukhomlin V. On artificial Intelligence as a Strategic tool for the Economic Development of the Country and the Improvement of its Public Administration. Part 1. The experience of the United Kingdom and the United States. International Journal of Open Information Technologies, 2017, no. 9, pp. 57-75. (In Russian).

15. Winkler A. We the Corporations: How American Business Won Their Civil Rights. New York, Liverlight Publ., 2018. 472 p.

16. Brozek B., Jakubiec M. On the Legal Responsibility of Autonomous Machines. Artificial Intelligence Law, 2017, no. 25 (3), pp. 293-304.

17. Khanna V.S. Corporate Criminal Liability: What Purpose Does it Serve? Harvard Law Review, 1996, no. 109, pp. 1477-1534.

18. Chopra S., White L. F. A Legal Theory for Autonomous Artificial Agents. Ann Arbor, University of Michigan Press, 2011. 262 p.

19. Hage J. Theoretical Foundations for the Responsibility of Autonomous Agents. Artificial Intelligence Law, 2017, no. 25 (3), pp. 255-271.

20. Nevejans N. European Civil Law Rules in Robotics : Study. Brussels, European Parliament's Committee on Legal Affairs, 2016. 34 p.

21. Kakoudaki D. Anatomy of a Robot: Literature, Cinema, and the Cultural Work of Artificial Intelligence. New Brunswick, Rutgers University Press, 2014. 272 p.

22. Turkle S. Alone Together: Why We Expect More from Technology and Less from Each Other. New York, Basic Boocs, 2011. 386 p.

23. Oleksiewicz I., Mustafa E.C. From Artificial Intelligence to Artificial Consciousness: Possible Legal Bases. For the Human-robot Relationships in the Future. International Journal of Advanced Research, 2019, vol. 7, iss. 3, pp. 254-263. DOI: 10.21474/IJAR01/8629.

24. Radutniy O.E. Criminal Liability of the Artificial Intelligence. Problems of Legality, 2017, no. 138, pp.132-141.

25. Tsukanova E.Yu., Skopenko O.R. Legal Aspects of Liability for Causing Damage by a Robot with Artificial Intelligence. Voprosy rossiiskogo i mezhdunarodnogo prava = Matters of Russian and International Law, 2018, vol. 8, no. 4A, pp. 42-48. (In Russian).

Информация об авторах

Хисамова Зарина Илдузовна — кандидат юридических наук, начальник отделения планирования и координации научной деятельности научно-исследовательского отдела, Крас-

нодарский университет Министерства внутренних дел Российской Федерации, Российская Федерация, г. Краснодар, e-mail: alise89@inbox.ru.

Бегишев Ильдар Рустамович — кандидат юридических наук, заслуженный юрист Республики Татарстан, старший научный сотрудник, Казанский инновационный университет им. В.Г. Тимирясова (ИЭУП), Российская Федерация, г. Казань, e-mail: begishev@mail.ru.

Authors

Zarina I. Khisamova — Ph.D. in Law, Head of Chair of Planning and Coordination of Research Activities, Research Department, Krasnodar University of the Ministry of Internal Affairs of the Russian Federation, Krasnodar, Russian Federation, e-mail: alise89@inbox.ru.

Ildar R. Begishev — Ph.D. in Law, Honored Lawyer of the Republic of Tatarstan, Senior Researcher, Kazan Innovative University named after V.G. Timiryasov (IEML), Kazan, Russian Federation, e-mail: begishev@mail.ru.

Для цитирования

Хисамова З.И. Правовое регулирование искусственного интеллекта / З.И. Хисамова, И.Р. Бегишев // Baikal Research Journal. — 2019. — Т. 10, № 2. — DOI : 10.17150/2411-6262.2019.10(2).19.

For Citation

Khisamova Z.I., Begishev I.R. Legal Regulation of Artificial Intelligence. Baikal Research Journal, 2019, vol. 10, no. 2. DOI: 10.17150/2411-6262.2019.10(2).19. (In Russian).

i Надоели баннеры? Вы всегда можете отключить рекламу.