Научная статья на тему 'Правовое регулирование робототехники и искусственного интеллекта в европейском Союзе'

Правовое регулирование робототехники и искусственного интеллекта в европейском Союзе Текст научной статьи по специальности «Право»

CC BY
1082
200
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПРАВО / АВТОНОМНЫЕ РОБОТЫ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / МАШИННОЕ ОБУЧЕНИЕ / СУБЪЕКТ ПРАВА / ОТВЕТСТВЕННОСТЬ / ЭЛЕКТРОННОЕ ЛИЦО / LAW / AUTONOMOUS ROBOTS / ARTIFICIAL INTELLIGENCE / MACHINE LEARNING / SUBJECT OF LAW / RESPONSIBILITY / ELECTRONIC PERSON

Аннотация научной статьи по праву, автор научной работы — Васильев А.А., Ибрагимов Ж.И.

Статья посвящена критическому обзору Резолюции Европарламента от 16 февраля 2017 г. о регулировании отношений в сфере робототехники. Авторы анализируют подходы разработчиков законопроекта в части наделения автономных роботов качеством субъекта права и отмечают следование принципу осторожности в решении вопроса об ответственности за вред, причиненный роботами.В работе делается вывод о дискуссионном характере понятия «субъект права» и возможности наделения роботов с искусственным интеллектом качествами юридического или электронного лица. Правосубъектность роботов порождает проблему ответственности и защиты прав пострадавших. В резолюции Европарламента подчеркивается необходимость такой юридической конструкции, котораяобеспечит гармонизацию интересов разработчиков и продавцов автономных роботов, пользователей и пострадавших возложение ответственности на производителя либо страхование ответственности.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

LEGAL REGULATION OF ROBOTICS AND ARTIFICIAL INTELLIGENCE IN THE EUROPEAN UNION

The article is devoted to a critical review of the European Parliament Resolution of February 16, 2017on the regulation of relations in the field of robotics. The authors analyze the approaches of the developersof the draft law in terms of endowing autonomous robots with the quality of a subject of law and note theadherence to the principle of caution in deciding on liability for harm caused by robots. The paper concludesthat the concept of the subject of law and the possibility of endowing robots with artificial intelligencewith the qualities of a legal or electronic entity are debatable. First of all, the legal personality of robotsraises the problem of responsibility and protection of the rights of victims. The resolution of the European Parliament emphasizes the need for such a legal structure that will ensure the harmonization of the interestsof developers and sellers of autonomous robots, users and victims the imposition of liability on themanufacturer or liability insurance.

Текст научной работы на тему «Правовое регулирование робототехники и искусственного интеллекта в европейском Союзе»

ПРАВОВЫЕ СИСТЕМЫ СТРАН АЗИИ

УДК 340.5 ВВК 67.9

ПРАВОВОЕ РЕГУЛИРОВАНИЕ РОБОТОТЕХНИКИ И ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ЕВРОПЕЙСКОМ СОЮЗЕ

А. А. Васильев

Алтайский государственный университет (Россия, Барнаул) Ж. И. Ибрагимов

Евразийский национальный университет им. Л. Н. Гумилева (Нур-Сулатан, Казахстан)

Статья посвящена критическому обзору Резолюции Европарламента от 16 февраля 2017 г. о регулировании отношений в сфере робототехники. Авторы анализируют подходы разработчиков законопроекта в части наделения автономных роботов качеством субъекта права и отмечают следование принципу осторожности в решении вопроса об ответственности за вред, причиненный роботами. В работе делается вывод о дискуссионном характере понятия «субъект права» и возможности наделения роботов с искусственным интеллектом качествами юридического или электронного лица. Правосубъектность роботов порождает проблему ответственности и защиты прав пострадавших. В резолюции Европарламента подчеркивается необходимость такой юридической конструкции, которая обеспечит гармонизацию интересов разработчиков и продавцов автономных роботов, пользователей и пострадавших — возложение ответственности на производителя либо страхование ответственности.

Ключевые слова: право, автономные роботы, искусственный интеллект, машинное обучение, субъект права, ответственность, электронное лицо.

LEGAL REGULATION OF ROBOTICS AND ARTIFICIAL INTELLIGENCE IN THE EUROPEAN UNION

A. A. Vasilev

Altay state university (Barnaul, Russia) Zh. I. Ibragimov

L. N. Gumilyov Eurasian National University (Nursultan, Kazakhstan)

The article is devoted to a critical review of the European Parliament Resolution of February 16, 2017 on the regulation of relations in the field of robotics. The authors analyze the approaches of the developers of the draft law in terms of endowing autonomous robots with the quality of a subject of law and note the adherence to the principle of caution in deciding on liability for harm caused by robots. The paper concludes that the concept of the subject of law and the possibility of endowing robots with artificial intelligence with the qualities of a legal or electronic entity are debatable. First of all, the legal personality of robots raises the problem of responsibility and protection of the rights of victims. The resolution of the European

Parliament emphasizes the need for such a legal structure that will ensure the harmonization of the interests of developers and sellers of autonomous robots, users and victims — the imposition of liability on the manufacturer or liability insurance.

Keywords: law, autonomous robots, artificial intelligence, machine learning, subject of law, responsibility, electronic person.

Резолюция Европарламента от 16 февраля 2017 г. «Нормы гражданского права о робототехнике» представляет собой комплекс правовых принципов и этических требований в сфере создания и использования роботов. Резолюция как таковая не содержит конкретных норм права, но выступает базовым ориентиром для государств Европейского Союза в части разработки нормативных правовых актов относительно робототехники. Следует отметить основательный и серьезный подход резолюции к теме автономных роботов и искусственного интеллекта. В резолюции отражены различные аспекты использования роботов: в промышленности, помощи немощным и больным, замена рутинного труда и т. п. При этом резолюция лишена пафоса восторженности и призывает к осторожному использованию самообучаемых роботов вследствие тех угроз, которые они могут создать: потеря работы для людей; рост социального неравенства; проблема подконтрольности и управляемости роботов; вопрос об ответственности за вред, причиненный автономными роботами, и др. Учет преимуществ и угроз от использования искусственного интеллекта привел Европарламент к установлению принципа постепенности, прагматичности и осторожности по отношению к будущим инициативам в сфере робототехники и искусственного интеллекта. С одной стороны, данный принцип обеспечивает учет всех рисков и угроз, а с другой стороны, не мешает инновационному развитию в сфере робототехники.

В резолюции Европарламента особо оговариваются вопросы ответственности в случае использования автономных роботов. Автономность роботов в контексте резолюции понимается как способность принимать решения и реализовывать их самостоятельно без внешнего контроля или воздействия. При этом автономность воспринимается в чисто техническом плане как реализация программы.

Следует отметить, что самостоятельность робота на текущем уровне технологического развития относительна. Во-первых, алгоритм действий робота создается человеком, даже если речь идет об искусственном интеллекте и самообучаемых нейронных сетях. Именно человек закладывает на уровне программы модель деятельности робота. Во-вторых, чаще всего робот действует в глубоком взаимодействии с человеком как дистанционно (управление дронами, глубоководными аппаратами), так и внутри устройства (управление самолетом). Как отмечает Д. Минделл, существует миф о самостоятельности роботов, поэтому необходимо четко осознавать зависимость роботов от человека [1, с. 24].

Причем именно автономность роботов может быть ключевым вопросом в определении правосубъектности и ответственности киберфизических систем. Отсутствие автономности превращает робота в объект правоотношения, в техническое устройство и программный продукт. Качества субъекта права в таком случае характерны лишь для владельца робота.

В резолюции Европарламента предлагаются следующие признаки автономных (умных) роботов:

1) способность становиться автономным, используя сенсоры и (или) обмениваться данными со своей средой;

2) способность самообучаться на основе приобретенного опыта;

3) наличие по меньшей мере минимальной физической поддержки;

4) возможность адаптировать свои действия и поведение в соответствии с условиями среды;

5) отсутствие жизни с биологической точки зрения.

Очевидно, что вопрос о наличии правосубъектности роботов должен решаться на основе конвенционально выработанного в юридической науке и практике понятия «субъекта права» и того решающего качества, которое определяет наличие самостоятельной правовой личности. Часть ученых при этом констатируют отсутствие однозначного способа определения субъекта права с учетом наличия категории юридических лиц, которые нетождественны человеку. Большинство исследователей отмечает преждевременность придания умным машинам статуса юридических лиц. Такую возможность признают в том случае, если технологически в будущем появится искусственный разум,

во многом сходный с человеческим разумом, кроме того, обладающий такими качествами, как совесть и эмоции [2, с. 29].

Среди критериев для выделения субъекта права в юридической науке приводятся:

• сознание, воля и эмоции (при этом отсутствие сознания у душевнобольных, детей, юридических лиц не является основанием для лишения их правосубъектности);

• самостоятельность лица в принятии решений и управлении своими действиями;

• концепция фикции юридического лица как средства управлениями рисками и ограничения имущественной ответственности.

Сопоставление физического лица с автономным роботом (искусственным интеллектом) приводит к выводу о том, что при наличии общего признака осознанности робот не обладает такими качествами человека, как эмоции и воля. Следовательно, тождество между человеком и роботом как субъектами права невозможно.

При этом нет внешних препятствий в распространении на автономного робота качеств юридического лица через фикцию как прием юридической техники. Принято искусственно признавать наличие некоей организации, хотя за ней может и не стоять действительный человек или организация людей. Так, В. Наумов и В. Архипов в одной из своей работ подчеркивают, что роботы могут быть наделены специальной правосубъектностью для определенных целей (торговля через ботов в интернете и т. д.) [3, с. 160]. Другой вопрос, есть ли необходимость в наделении роботов правосубъектностью юридического лица. Понимание юридического лица как способа минимизации рисков наступления юридической ответственности вряд ли применимо к роботам, поскольку позволит избежать производителям и владельцам роботов юридической ответственности. Так, член Европарламента Ж. Ле-бретон при обсуждении резолюции о роботах отметил: «Я возражаю против данной перспективы по двум причинам: прежде всего, поскольку она снимет всякую ответственность с их производителей и пользователей, что, несомненно, обрадовало бы мощные лобби; во-вторых, и это главное, потому что я считаю так же, как и Жак Маритен, что человеческая личность наделена духовным существованием, с которым несопоставим ни один искусственный интеллект» [4]. Наделение роботов специальной правосубъектностью возможно при наличии достаточных гарантий прав иных участников правоотношения.

В мировой юридической литературе предпринимаются попытки рассмотреть природу роботов по аналогии с правовым режимом животных. При этом в большинстве правовых систем мира животные рассматриваются как объект права с учетом принципа гуманного отношения к ним. В отличие от роботов, часть животных способны к проявлению эмоций, но не обладают свободой воли и не могут, следовательно, осуществлять права и обязанности.

Еще одним способом решения проблемы правосубъектности «разумных роботов» выступает концепция «электронного лица», которую активно отстаивает в своих научных исследованиях П. М. Мор-хат [5, с. 66]. П. М. Морхат в качестве основных предпосылок наделения тех или иных лиц правосубъектностью называет следующее: наличие морального права, социальный потенциал и юридическое удобство. Естественно, что искусственный интеллект может использоваться только в целях юридического удобства в ряде случаев: ведение электронного бизнеса и определение юрисдикции, создание объектов интеллектуальной собственности, ограничение ответственности разработчиков юни-тов искусственного интеллекта.

При этом данные цели могут быть достигнуты с помощью иных правовых средств и режимов без наделения роботов правосубъектностью: как разновидность имущества, база данных и пр. [6]. Поэтому концепция электронного лица на текущем этапе научной дискуссии остается весьма спорной.

Г. А. Гаджиев и Е. А. Войникас предлагают исходить при решении вопроса о правосубъектности роботов из того, способен ли будет робот удовлетворить требования о возмещении наступившего вреда самостоятельно. По их словам, «если признание робота субъектом права имеет какой-либо смысл или назначение, то оно заключается в более эффективном и сбалансированном распределении ответственности. Напротив, если робот не способен возместить нанесенный им вред, необходимость признания его субъектом права становится проблематичной. В свою очередь, задача или социальная потребность в распределении ответственности является следствием более сложной, универсальной потребности в равновесии» [7, с. 41].

Положительное решение о наделении роботов деликтвентностью может быть принято только при условии наличия достаточного имущества такого робота или страховании его имущественной ответственности.

Кроме того, не стоит забывать о том, что наказание его с целями исправления и предупреждения новых правонарушений в отношении роботов оказывается неприменимым, хотя в юридической литературе предлагается использовать такую меру, как уничтожение роботов.

Поскольку вопрос о самостоятельности робота как субъекта права преждевременен, в резолюции Европарламента отмечается возможность применения к деликтным отношениям с участием роботов двух юридических конструкций ответственности:

• производителя за неисправности робота (за его качество и безопасность);

• за вредоносные действия, согласно которым пользователь робота несет ответственность за поведение, повлекшее за собой возникновение вреда.

При этом в акте Европейского парламента подчеркивается недостаточность вышеуказанных правил в том случае, если вред наступил вследствие действий и решений робота и при отсутствии вины и причинно-следственной связи действий человека и наступившего вреда. Не предрешая окончательные юридические решения в этом вопросе, Европарламент наметил целый ряд направлений развития законодательства в части ответственности за действия умных роботов.

Прежде всего Европарламент в решении вопроса об ответственности в связи с использованием автономных роботов придерживается идеи недопустимости ограничения видов, форм и объема компенсации того вреда, который может быть причинен умными роботами. Такой подход обеспечивает учет интересов пострадавших и ограничивает лоббистские устремления производителей роботов в виде снижения объема собственной ответственности.

Европарламент при определении лица, которое будет нести ответственность за действия робота, исходит из теории риска, при которой ответственность возлагается на то лицо, которое могло минимизировать риски и учитывать негативные последствия. При этом степень ответственности должна определяться степенью автономности робота и той ролью, которую играет человек, обучающий робота.

В резолюции Европарламента отмечается сложность решения вопроса об ответственности в том случае, когда вред возник при отсутствии контроля человека в условиях высокой автономности робота. В этом случае отсутствие вины и причинно-следственной связи выступает препятствием в возложении ответственности на человека. Для такого рода случаев Европарламент предлагает использовать механизм страхования ответственности через внесение взносов производителями и владельцами роботов для компенсации вреда пострадавшим лицам.

В перспективе Европарламент предлагает рассмотреть вопрос о наделении роботов самостоятельным правовым статусов для тех случаев, когда роботы как электронные лица принимают решения автономно.

Среди положительных сторон резолюции Европарламента можно назвать:

1) комплексный подход к регулированию робототехники с учетом достижений технической науки, этики и права;

2) рекомендация Еврокомиссии создать Агентство ЕС по робототехнике и искусственному интеллекту, которое бы вступило регулятором правовых, технических и этическим аспектов использования умных роботов;

3) объективность и осторожность с учетом как преимуществ, так и угроз, которые порождает использование искусственного интеллекта.

Отдельный предмет исследования составляют вопросы этики при применении искусственного интеллекта, нашедшие отражение в Хартии робототехники — приложении к резолюции Евро-парламента. Совершенно справедливо то, что Европарламент пришел к выводу относительно разработки не только юридических, но и этических стандартов в сфере искусственного интеллекта. Робототехника с непреложностью ставит целый ряд вопросов философского и этического порядка: признание умных роботов в качестве личности, подобной человеку; допустимость использования роботов в ряде сфер жизнедеятельности; возможность применения боевых роботов и роботов в качестве оружия; соблюдение неприкосновенности частной и семейной жизни в случае контакта с роботами.

В Хартии робототехники сформулированы этические принципы для исследователей робототехники:

• «Делай добро» — принцип, определяющий использование роботов в интересах людей;

• «Не навреди» — принцип, направленный на недопущение вреда людям при использовании роботов;

• Принцип самостоятельности, означающий право человека самостоятельно решать вопрос о возможности взаимодействия с роботом;

• Принцип справедливости, согласно которому все блага, получаемые при использовании роботов, должны быть распределены справедливо.

В Хартии робототехники особое внимание уделяется принципам работы Комитета по этике научных исследований в сфере робототехники, а также этическим стандартам для разработчиков и пользователей умных роботов. В первую очередь в Хартии подчеркивается необходимость соблюдения человеческого достоинства и неприкосновенности частной жизни при взаимодействии с роботом и запрет на применение робота как средства причинения вреда (оружия). Причем именно на разработчиков возлагается ответственность за все возможные вредные последствия.

Таким образом, Резолюция Европарламента «Нормы гражданского права о робототехнике» представляет собой комплекс юридических и этических ориентиров для ученых, производителей, пользователей и органов публичной власти в сфере использования робототехники и искусственного интеллекта. В резолюции предлагаются дальнейшие пути общественной дискуссии по поводу статуса умных роботов в рамках общей убежденности в недопустимости ограничения ответственности за вред, причиненный посредством использования роботов. Важно то, что в резолюции поднимается серьезный вопрос об определении субъекта ответственности в том случае, когда вред был причинен роботом при принятии им решения самостоятельного от человека на основе обучения и собственного опыта.

Библиографический список

1. Минделл Д. Восстание машин отменяется. Миф о роботизации. М., 2017. 310 с.

2. Гаджиев Г. А. Является ли робот-агент лицом? (поиск правовых форм для регулирования цифровой экономики) // Журнал российского права. 2018. № 1. С. 29-35.

3. Архипов В. В., Наумов В. Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. N 5. С. 157-170.

4. European Parliament. REPORT with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103 (INL)). Debates,15 February 2017. Available at: http://www.europarl.europa. eu/ sides/getDoc.do?type = CRE&reference=20170215&secondRef=ITEM-014&language = EN&ring =A8-2017-0005 (дата обращения: 01.02.2019).

5. Морхат П. М. К вопросу о правосубъектности «электронного лица» // Юридические исследования. 2018. № 4. С. 1-8. DOI: 10.25136/2409-7136.2018.4.25647.

6. Морхат П. М. Юнит искусственного интеллекта как электронное лицо // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2018. № 2. С. 66-73.

7. Schrijver S. de The Future Is Now: Legal Consequences of Electronic Personality for Autonomous Robots. In: Who's Who Legal, 2018. Available at: http://whoswholegal.com/news/features/article/34313/ future-now-legal-consequences-electronic-personality-autonomousrobots (accessed: 02.04.2018)

8. Гаджиев Г. А., Е. А. Войникас Может ли робот быть субъектом права? (поиск правовых форм для регулирования цифровой экономики) // Право: журнал Высшей школы экономики. 2018. №.4. С. 41-48.

i Надоели баннеры? Вы всегда можете отключить рекламу.