Научная статья на тему 'О ВОЗМОЖНОСТИ ДОКТРИНАЛЬНОГО ВОСПРИЯТИЯ СИСТЕМОЙ ОБЩЕГО ПРАВА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА КАК СУБЪЕКТА ПРЕСТУПЛЕНИЯ: НА ПРИМЕРЕ УГОЛОВНОГО ЗАКОНОДАТЕЛЬСТВА США'

О ВОЗМОЖНОСТИ ДОКТРИНАЛЬНОГО ВОСПРИЯТИЯ СИСТЕМОЙ ОБЩЕГО ПРАВА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА КАК СУБЪЕКТА ПРЕСТУПЛЕНИЯ: НА ПРИМЕРЕ УГОЛОВНОГО ЗАКОНОДАТЕЛЬСТВА США Текст научной статьи по специальности «Право»

CC BY
312
75
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
УГОЛОВНАЯ ОТВЕТСТВЕННОСТЬ / ПРАВОСУБЪЕКТНОСТЬ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / РОБОТ / МОДЕЛИ ПОТЕНЦИАЛЬНОГО РАСПРЕДЕЛЕНИЯ УГОЛОВНОЙ ОТВЕТСТВЕННОСТИ ПРИ ИСПОЛЬЗОВАНИИ ИНТЕЛЛЕКТА КАК ИНСТРУМЕНТА ПРЕСТУПНОГО ДЕЯНИЯ / УГОЛОВНО-ПРАВОВОЕ РЕГУЛИРОВАНИЕ ДЕЯТЕЛЬНОСТИ АВТОНОМНЫХ СИСТЕМ УПРАВЛЕНИЯ / СУБЪЕКТ УГОЛОВНОГО ПРАВА / ACTUS REUS / MENS REA / ДЕЯНИЕ / ВИНОВНОЕ СОСТОЯНИЕ УМА / НАМЕРЕНИЕ / АНГЛО-АМЕРИКАНСКАЯ ПРАВОВАЯ СЕМЬЯ / СИСТЕМА ОБЩЕГО ПРАВА / CRIMINAL LIABILITY / LEGAL PERSONALITY / ARTIFICIAL INTELLIGENCE / ROBOT / MODELS OF POTENTIAL DISTRIBUTION OF CRIMINAL RESPONSIBILITY WHEN INTELLIGENCE IS USED AS AN INSTRUMENT OF A CRIMINAL ACT / CRIMINAL LAW REGULATION OF AUTONOMOUS CONTROL SYSTEMS / SUBJECT OF CRIMINAL LAW / ACT / GUILTY STATE OF MIND / INTENTION / ANGLO-AMERICAN LEGAL FAMILY / COMMON LAW SYSTEM

Аннотация научной статьи по праву, автор научной работы — Шестак Виктор Анатольевич, Волеводз Александр Григорьевич, Ализаде Вера Александровна

Раскрывая вопрос о возможности привлечения искусственного интеллекта к уголовной ответственности с позиций действующего уголовного закона в США, авторы исследуют мнения западных юристов, полагающих, что такая ответственность для машины, управляемой искусственным интеллектом, может иметь место в обозримом будущем. Анализу подвергнуты установленные американским законодателем условия наступления уголовной ответственности: наличие волевого противоправного деяния в форме действия или бездействия (actus reus), намерения (mens rea), т.е. лицо знает о наличии преступного умысла в своих действиях либо действует неосторожно, а также три основные модели уголовной ответственности искусственного интеллекта. Первая - это совершение преступления через деяния иного существа, т.е. случаи, когда субъект совершения преступления не обладает достаточными возможностями мышления, чтобы понимать значение злого умысла или тем более руководствоваться им при совершении действий. К таковым относят малолетних, ограниченно дееспособных и кибернетические системы современного уровня, применительно к которым рано говорить об их способности к мышлению, идентичному человеческому. Последние считаются невиновными в совершении деяния, поскольку последовательность их действий все равно контролируется заданной программой или лицом, осуществляющим опосредованное программное управление. Вторая модель - когда преступление совершается субъектом, объективно виновным в его совершении. В интеллектуальных системах часть программного кода изначально предусматривает некоторую противоправность действий, что может заключаться, к примеру, в заданной команде на безоговорочное уничтожение всех объектов, признаваемых системой опасными для той цели, на достижение которой направлена деятельность подобного искусственного интеллекта. В соответствии с данной моделью требуется привлечение к ответственности лица, отдавшего неправомерную команду. При условии отсутствия элемента сокрытия такого «соисполнителя» уголовной ответственности должно подлежать лицо, отдавшее системе неправомерный приказ, а не исполнитель данного приказа, поскольку сама алгоритмическая система, согласно которой действует исполнитель, является противоправной. Таким образом, ответственности в этом случае подлежат лица, написавшие или использовавшие программу, при условии, что они были осведомлены о противоправности системы приказов, которыми руководствовался исполнитель. К таковым преступлениям следует относить деяния, которые преступны по своей природе, но которые не могут быть предотвращены исполнителем - системой искусственного интеллекта. Третья модель предполагает непосредственную ответственность искусственного интеллекта за деяния, содержащие одновременно как виновное волевое действие, так и противоправное намерение со стороны техники. Такая ответственность возможна в том случае, если искусственный интеллект признается субъектом уголовного права, а также если он на основе самостоятельно выработанного алгоритма совершает деяние, влекущее за собой общественно опасные последствия, либо если таковые наступают в результате невыполнения системой действий, предусмотренных изначальным алгоритмом, т.е. если его действие приобретает волевой виновный характер.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Шестак Виктор Анатольевич, Волеводз Александр Григорьевич, Ализаде Вера Александровна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ON THE POSSIBILITY OF DOCTRINAL PERCEPTION OF ARTIFICIAL INTELLIGENCE AS THE SUBJECT OF CRIME IN THE SYSTEM OF COMMON LAW: USING THE EXAMPLE OF THE U.S. CRIMINAL LEGISLATION

The authors examine the possibility of holding artificial intelligence (AI) criminally liable under the current U.S. criminal legislation and study the opinions of Western lawyers who believe that this possibility for a machine controlled by AI may become reality in the near future. They analyze the requirements for criminal liability as determined by American legislators: a willful unlawful act or omission of an act (actus reus), criminal intent (mens rea), i.e. the person knowingly commits a criminal act or is negligent, as well as three basic models of AI’s criminal liability. In the first model, a crime is committed through the actions of another person, i.e. the cases when the subject of crime does not have sufficient cognitive abilities to understand the criminal intent and, moreover, to be guided by it. This category of persons includes minors, persons with limited legal capacity and modern cybernetic systems, who cannot be viewed as capable of cognition that equals human cognition. The latter are considered to be innocent of a criminal act because their actions are controlled by an algorithm or a person who has indirect program control. In the second model, a crime is committed by a being who is objectively guilty of it. A segment of the program code in intellectual systems allows for some illegal act by default, for example, includes a command to unconditionally destroy all objects that the system recognizes as dangerous for the purpose that such AI is working to fulfill. According to this model, the person who gives the unlawful command should be held liable. If such a «collaborator» is not hidden, criminal liability should be imposed on the person who gives an unlawful command to the system, not on the performer, because the algorithmic system that determines the actions of the performer is itself unlawful. Thus, criminal liability in this case should be imposed on the persons who write or use the program, on the condition that they were aware of the unlawfulness of orders that guide the actions of the performer. Such crimes include acts that are criminal but cannot be prevented by the performer - the AI system. In the third model, AI is directly liable for the acts that contain both a willful action and the unlawful intent of the machine. Such liability is possible if AI is recognized as a subject of criminal law, and also if it independently works out an algorithm to commit an act leading to publically dangerous consequences, or if such consequences are the result of the system’s omission to act according to the initial algorithm, i.e. if its actions are willful and guilty.

Текст научной работы на тему «О ВОЗМОЖНОСТИ ДОКТРИНАЛЬНОГО ВОСПРИЯТИЯ СИСТЕМОЙ ОБЩЕГО ПРАВА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА КАК СУБЪЕКТА ПРЕСТУПЛЕНИЯ: НА ПРИМЕРЕ УГОЛОВНОГО ЗАКОНОДАТЕЛЬСТВА США»

Всероссийский криминологический журнал. 2019. Т. 13, № 4. C. 547-554 ISSN 2500-4255-

УДК 341.01; 343.2/.7

DOI 10.17150|2500-4255.2019.13(4).547-554

О ВОЗМОЖНОСТИ ДОКТРИНАЛЬНОГО ВОСПРИЯТИЯ СИСТЕМОЙ ОБЩЕГО ПРАВА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА КАК СУБЪЕКТА ПРЕСТУПЛЕНИЯ: НА ПРИМЕРЕ УГОЛОВНОГО ЗАКОНОДАТЕЛЬСТВА США

В.А. Шестак, А.Г. Волеводз, В.А. Ализаде

Московский государственный институт международных отношений (университет) Министерства иностранных дел Российской Федерации, г. Москва, Российская Федерация

Аннотация. Раскрывая вопрос о возможности привлечения искусственного интеллекта к уголовной ответственности с позиций действующего уголовного закона в США, авторы исследуют мнения западных юристов, полагающих, что такая ответственность для машины, управляемой искусственным интеллектом, может иметь место в обозримом будущем. Анализу подвергнуты установленные американским законодателем условия наступления уголовной ответственности: наличие волевого противоправного деяния в форме действия или бездействия (actus reus), намерения (mens rea), т.е. лицо знает о наличии преступного умысла в своих действиях либо действует неосторожно, а также три основные модели уголовной ответственности искусственного интеллекта. Первая — это совершение преступления через деяния иного существа, т.е. случаи, когда субъект совершения преступления не обладает достаточными возможностями мышления, чтобы понимать значение злого умысла или тем более руководствоваться им при совершении действий. К таковым относят малолетних, ограниченно дееспособных и кибернетические системы современного уровня, применительно к которым рано говорить об их способности к мышлению, идентичному человеческому. Последние считаются невиновными в совершении деяния, поскольку последовательность их действий все равно контролируется заданной программой или лицом, осуществляющим опосредованное программное управление. Вторая модель — когда преступление совершается субъектом, объективно виновным в его совершении. В интеллектуальных системах часть программного кода изначально предусматривает некоторую противоправность действий, что может заключаться, к примеру, в заданной команде на безоговорочное уничтожение всех объектов, признаваемых системой опасными для той цели, на достижение которой направлена деятельность подобного искусственного интеллекта. В соответствии с данной моделью требуется привлечение к ответственности лица, отдавшего неправомерную команду. При условии отсутствия элемента сокрытия такого «соисполнителя» уголовной ответственности должно подлежать лицо, отдавшее системе неправомерный приказ, а не исполнитель данного приказа, поскольку сама алгоритмическая система, согласно которой действует исполнитель, является противоправной. Таким образом, ответственности в этом случае подлежат лица, написавшие или использовавшие программу, при условии, что они были осведомлены о противоправности системы приказов, которыми руководствовался исполнитель. К таковым преступлениям следует относить деяния, которые преступны по своей природе, но которые не могут быть предотвращены исполнителем — системой искусственного интеллекта. Третья модель предполагает непосредственную ответственность искусственного интеллекта за деяния, содержащие одновременно как виновное волевое действие, так и противоправное намерение со стороны техники. Такая ответственность возможна в том случае, если искусственный интеллект признается субъектом уголовного права, а также если он на основе самостоятельно выработанного алгоритма совершает деяние, влекущее за собой общественно опасные последствия, либо если таковые наступают в результате невыполнения системой действий, предусмотренных изначальным алгоритмом, т.е. если его действие приобретает волевой виновный характер.

* ON THE POSSIBILITY OF DOCTRINAL PERCEPTION OF ARTIFICIAL s INTELLIGENCE AS THE SUBJECT OF CRIME IN THE SYSTEM OF COMMON

1 LAW: USING THE EXAMPLE OF THE U.S. CRIMINAL LEGISLATION

«

m

¡S Victor A. Shestak, Aleksander G. Volevodz, Vera A. Alizade

JÍ Moscow State Institute of International Relations (MGIMO-University) of the MFA of the Russian Federation, Moscow,

g, the Russian Federation

Информация о статье

Дата поступления

13 марта 2019 г.

Дата принятия в печать

2 августа 2019 г.

Дата онлайн-размещения

23 августа 2019 г.

Ключевые слова Уголовная ответственность; правосубъектность; искусственный интеллект; робот; модели потенциального распределения уголовной ответственности при использовании интеллекта как инструмента преступного деяния; уголовно-правовое регулирование деятельности автономных систем управления; субъект уголовного права; actus reus; mens rea; деяние; виновное состояние ума; намерение; англо-американская правовая семья; система общего права

Article info

Received 2019 March 13 Accepted 2019 August 2 Available online 2019 August 23

Keywords

Criminal liability; legal personality; artificial intelligence; robot; models of potential distribution of criminal responsibility when intelligence is used as an instrument of a criminal act; criminal law regulation of autonomous control systems; subject of criminal law; actus reus; mens rea; act; guilty state of mind; intention; Anglo-American legal family; common law system

Abstract. The authors examine the possibility of holding artificial intelligence (AI) criminally liable under the current U.S. criminal legislation and study the opinions of Western lawyers who believe that this possibility for a machine controlled by AI may become reality in the near future. They analyze the requirements for criminal liability as determined by American legislators: a willful unlawful act or omission of an act (actus reus), criminal intent (mens rea), i.e. the person knowingly commits a criminal act or is negligent, as well as three basic models of Al's criminal liability. In the first model, a crime is committed through the actions of another person, i.e. the cases when the subject of crime does not have sufficient cognitive abilities to understand the criminal intent and, moreover, to be guided by it. This category of persons includes minors, persons with limited legal capacity and modern cybernetic systems, who cannot be viewed as capable of cognition that equals human cognition. The latter are considered to be innocent of a criminal act because their actions are controlled by an algorithm or a person who has indirect program control. In the second model, a crime is committed by a being who is objectively guilty of it. A segment of the program code in intellectual systems allows for some illegal act by default, for example, includes a command to unconditionally destroy all objects that the system recognizes as dangerous for the purpose that such AI is working to fulfill. According to this model, the person who gives the unlawful command should be held liable. If such a «collaborator» is not hidden, criminal liability should be imposed on the person who gives an unlawful command to the system, not on the performer, because the algorithmic system that determines the actions of the performer is itself unlawful. Thus, criminal liability in this case should be imposed on the persons who write or use the program, on the condition that they were aware of the unlawfulness of orders that guide the actions of the performer. Such crimes include acts that are criminal but cannot be prevented by the performer — the AI system. In the third model, AI is directly liable for the acts that contain both a willful action and the unlawful intent of the machine. Such liability is possible if AI is recognized as a subject of criminal law, and also if it independently works out an algorithm to commit an act leading to publically dangerous consequences, or if such consequences are the result of the system's omission to act according to the initial algorithm, i.e. if its actions are willful and guilty.

В связи со стремительным развитием цифровых технологий и внедрением их в общество становятся все более актуальными проблемы (не)целесообразности определения правового статуса искусственного интеллекта и его (не) возможной юридической ответственности, в том числе уголовно-правовой. Мы проанализировали ряд доктринальных и законодательных положений системы общего уголовного права на примере такого представителя англо-американской правовой семьи, как США, где правоведами достаточно подробно прорабатывались вопросы о том, кто фактически может нести уголовную ответственность за деяния автономной системы, использующей искусственный интеллект: человек, который создает программу, внедряет ее в юнит такой системы, имеет возможность дистанционно им управлять, или же сама система со своими специальными целями и самостоятельным восприятием своих действий.

В доктрине уголовного права США выделяются такие обязательные элементы преступления, как actus reus (собственно преступное деяние) и mens rea (вина, виновное отношение лица к совершаемому им деянию, виновное состояние

ума), без наличия которых невозможно привлечение лица к уголовной ответственности. Вопрос нашего краткого исследования состоит в том, может ли искусственный интеллект соответствовать признакам названных элементов преступления при совершении им уголовно наказуемого деяния, а если нет, то кто же тот субъект, ответственный за преступные действия автономных систем управления. Итак, обратимся к правовой природе mens rea и actus reus, которые закреплены и в Примерном уголовном кодексе США 1962 г., разработанном комиссией Американского института права и действующем до сих пор. Оговоримся, что этот уголовный закон сам по себе не является юридически обязательным. По словам одного из его разработчиков профессора Л. Шварца, он представляет собой лишь приглашение к правовой реформе, а не догматическое утверждение единственно правильного разрешения трудных проблем уголовного права1. При этом нельзя не отметить, что законодатели подавляющего боль-

1 URL: http://www.ida.up.ac.za/images/un/use-of-force/western-europe-others/UnitedStatesofAmerica/ Model%20Penal%20Code%20United%20States%20of%20 America%201962.pdf.

шинства штатов Америки внесли аналогичные положения, содержащиеся в УК США, в уголовные законы своих территорий.

В соответствии с требованиями п. 1 ст. 2.01 УК США основной объективный (материальный) элемент преступления — это деяние (actus reus), включающее в себя поведение, а также сопутствующие обстоятельства или результат, которые входят в описание запрещаемого поведения в определении посягательства (п. 9 ст. 1.13 УК США). Поведение означает действие (бездействие) и сопровождающее его психическое состояние. Таким образом, согласно уголовному законодательству системы общего права, лицо не является виновным в совершении посягательства, если его ответственность не основана на поведении, включающем в себя волевое действие или несовершение действия, которое оно физически способно совершить. К примеру, в УК штата Огайо (п. С (2) ст. 2901.21) отмечается, что не считаются волевыми действиями телодвижения рефлекторные или конвульсивные, а также осуществленные в бессознательном состоянии или во сне.

Уголовное право США требует различать собственно поведение и мыслительный процесс осознания лицом своих действий. Такая двойственность вытекает из следующих доктри-нальных постулатов: мысли не имеют под собой материально выраженного воплощения; воля может побудить лицо к противоправному деянию, но сама по себе не считается выраженным элементом деяния. В этой связи непроизвольные действия также могут рассматриваться как поведенческий акт.

Другими составными частями actus reus являются сопутствующие обстоятельства и результат (преступные последствия совершенного деяния), если их наличие предусмотрено в законе. В УК США они хотя и называются элементами посягательства (п. 9 ст. 1.13), но в американской юридической литературе традиционно рассматриваются в рамках actus reus. Так, П. Робинсон отмечал, что actus reus посягательства обычно описывается как включающее в себя поведение, составляющее это посягательство, а также какие-либо требуемые обстоятельства или результаты поведения [1, p. 225].

При установлении сопутствующих обстоятельств нередко поднимается вопрос о том, знал ли обвиняемый о существовании этих обстоятельств. Ответ на него может быть получен при анализе второго конститутивного элемента

преступления — mens rea (виновное состояние ума), имеющего в своей основе латинскую максиму «Actus non facit reum, nisi mens sit rea»2. На важнейшее значение доказывания и наличия виновного состояния ума неоднократно обращал внимание в своих решениях и Верховный суд США3. Его особенностью является концепция презумпции mens rea (кроме случаев, прямо предусмотренных законом).

Главный элемент и одновременно форма виновности mens rea — это осознание4 лицом своих действий, причем оно относится только к прошлому или же настоящему. Важно, что применительно к mens rea авторы УК США ввели четыре уровня виновности (culpability). Так, лицо является виновным в совершении посягательства, если оно действовало с целью, с осознанием (заведомо), неосторожно или небрежно в зависимости от того, что требуется по закону в отношении каждого из материальных элементов посягательства (п. 1 ст. 2.02 УК США).

Такие уровни виновности представляют собой следующее. Первый: лицо действует с целью в отношении результата, если его сознательная цель — причинение такого результата. П. Робинсон обращает внимание на то, что, хотя обычно уголовное право относится к мотиву безразлично, цель показывает, что лицо, причиняя определенный результат, имеет какой-то конкретный мотив [2]; второй: лицо действует осознанно в отношении результата, если оно, не преследуя цели достижения результата, осознает, что его поведение практически наверняка причинит такой результат. Отличие осознанного поведения от поведения «с целью» состоит в том, что лицо не желает вызвать результат; третий: лицо действует неосторожно в отношении результата, если оно сознательно пренебрегает существенным и неоправданным риском наступления результата. Различие между второй и третьей формами виновности зависит от степени риска: в случае осознания он является

2 Действие не делает виновным, если невиновна мысль (лат.)

3 Arthur Andersen LLP v. United States, 544 U.S. 696, 705 (2005); United States v. Aguilar, 515 U.S. 593, 599 (1995); United States v. X-Citement Video, Inc., 513 U.S. 64 (1994).

4 Под осознанием в уголовном законодательстве системы общего права понимается восприятие фактической информации с помощью чувств и посредством понимания всех обстоятельств той или иной ситуации, в конце которого происходит понимание сущности происходящего.

значительным (выражен словами «практически наверняка»), а в случае неосторожности — существенным; четвертый: лицо действует небрежно, если оно не осознает существенного и неоправданного риска наступления результата, однако должно это понимать. Небрежность отличается от неосторожности, а также от других форм виновности неосознанием последствий поведения (риска их наступления).

Желание наступления определенных последствий (отношение к результату деяния) еще одно немаловажное положение mens rea. Доктрина уголовного права США признает три уровня такого желания (отношения): 1) намерение (специальное) (intent, specific intent); 2) безразличие (indifference); 3) халатность, безрассудство (rashness), т.е. положения УК США и доктрины дополняют друг друга.

Применительно к концепции потенциального распределения уголовной ответственности при использовании искусственного интеллекта как инструмента преступного деяния профессором уголовного права Академического колледжа Оно в Израиле Г. Халлеви были разработаны три модели [3]. Его теория получила признание таких американских ученых, занимающихся разработками в области IT-технологий и кибер-права, как Д. Гункель, М. Шерер, М. Мелман, Д.В. Берг [4-6].

Первая модель, модель «The Perpetration-by-Another» (совершение через другое лицо), не признает искусственный интеллект субъектом преступления и не требует от него для совершения деяния наличия одновременной совокупности mens rea и actus reus. При этом используемое лицо принимается априори как невиновное (innocent agent или semi-innocent agent). Вышеупомянутый концепт известен с древнейших времен и является частью института субсидиарной ответственности (vicarious liability). В этом случае существуют два возможных субъекта возложения уголовной ответственности за действия искусственного интеллекта. Во-первых, это программист, который разработал специальное программное обеспечение с целью совершить преступление, во-вторых, пользователь, владеющий юнитом искусственного интеллекта и эксплуатирующий его для собственных противоправных интересов. В обоих случаях собственно деяние совершается роботом непосредственно; следовательно, программист и пользователь не соответствуют требованиям actus reus. Однако эта модель рассматривает действие, совершен-

ное роботом, как такое, какое бы совершилось программистом или пользователем [7].

Вторая модель, модель «The Natural-Probable-Consequence Liability» (естественное вероятное следствие), не предполагает наличия ни mens rea, ни actus reus программиста (пользователя). Такая ситуация возникает тогда, когда обычные действия системы искусственного интеллекта могут быть использованы ненадлежащим образом для совершения преступного деяния [8, p. 267, 273]. При этом субъект не должен предвидеть само преступление или его последствие, он должен осознавать и разумно полагать, что совершение такого преступления потенциально может выступать результатом, вытекающим из его ординарных функций. Описанное является небрежностью программиста (пользователя), доказанное наличие которой служит основанием для привлечения лица к уголовной ответственности. Однако данная модель предполагает и другую ситуацию. В случае если робот запрограммирован на совершение определенного преступления, но в процессе его совершения и, возможно, при доведении его до конца отклоняется от заданного плана и совершает другое преступление, то программист будет нести ответственность и за умышленное преступление (планировавшееся изначально), и за то, которое он не планировал, но которое совершил робот [9].

Две первые модели не рассматривают искусственный интеллект в качестве полноценного субъекта преступления вовсе, но считают его инструментом достижения преступного результата. Это позволяет говорить о том, что в таких случаях искусственный интеллект сам по себе лишь орудие или средство совершения преступления, но не лицо, которое пользуется средствами для его совершения.

Третья модель, модель «The Direct Liability», имеет совершенно иную природу. Она рассматривает искусственный интеллект как самостоятельный субъект преступления, которого впоследствии можно привлечь к уголовной ответственности. Как видно из названия модели, она предполагает прямую ответственность искусственного интеллекта без привязки к его деяниям намерения (желания) наступления последствий программиста (пользователя) [10; 11]. Но для воплощения такой модели в жизнь потребуется принятие законодательного решения о наделении искусственного субъекта правосубъектностью, а также установление точного

соответствия действий искусственного интеллекта требованиям mens rea и actus reus [12; 13].

При исследовании названных моделей во взаимосвязи с обязательными элементами субъективной стороны преступления в уголовном законодательстве США мы выявили следующие особенности. Во-первых, с точки зрения УК США причинение вреда автоматическим механизмом, в том числе использующим искусственный интеллект, в результате своего движения (выполнения запрограммированных операций) может рассматриваться как действие; для признания бездействия преступным необходимо наличие у лица предусмотренной законом или договором обязанности, и воздержание от данной обязанности есть бездействие. А значит, у искусственного интеллекта может наличествовать самостоятельное поведение. Во-вторых, в системе общего права признаются только две стадии осознанности (восприятие и анализ), которые присущи и искусственному интеллекту. Так, у автоматизированной системы, использующей искусственный интеллект, есть возможности и соответствующие приспособления для восприятия информации так же, как это делает человек. Она может быть оснащена камерами видеонаблюдения, датчиками движения, света, микрофонами и прочими приспособлениями для восприятия окружающего мира. Следовательно, даже на текущем этапе развития техники можно утверждать, что искусственный интеллект способен воспринимать информацию. Но мало только наличия факта ее восприятия, важно воспроизвести точную картину окружающей действительности, суметь ее проанализировать и сопоставить с прошлыми данными. Рассмотрим, к примеру, автономных роботов по обеспечению безопасности на стратегически важном объекте. Их задача состоит в том, чтобы вычислять посторонних лиц в пределах определенной территории. Сенсоры интеллекта опознают возможного нарушителя по траектории движения, и далее производится более длительный анализ обстановки. С восприятием ситуации человеком подобный процесс внешне сходен, за тем лишь исключением, что у искусственного интеллекта он более быстр. В-третьих, что касается таких аспектов mens rea, как безразличие и халатность, то искусственный интеллект вряд ли покажет их в чистом виде. Все его действия подчинены одной цели — выполнить задачу, возложенную на него. В случае же причинения смерти человеку при выполнении им основных функций нельзя будет применять к

механизму формулировки «по неосторожности» или «в результате небрежного отношения к деянию». Но возможность рассматривать причинение юнитом искусственного интеллекта уголовно наказуемого вреда как результат выполнения его программы остается.

В этой связи в системе общего права искусственный интеллект по своим внешним проявлениям может соответствовать таким обязательным элементам преступления, как mens rea и actus reus, а модель «The direct liability» в будущем может быть применена к его возможностям совершать деяния, по своим признакам сходные с признаками преступления.

Однако рассмотренные модели никак не учитывают ряд весьма любопытных вопросов. Во-первых, применимо ли к электронной системе понятие состояния аффекта или невменяемости, если последние могут быть вызваны внедрением чужеродных программ в систему, скажем, посредством заражения искусственного интеллекта компьютерным вирусом? Ответ на поверхности: подобного рода обстоятельства никаким образом не могут быть применены к искусственному интеллекту. Причина тому проста: искусственный интеллект не является носителем критически важных составляющих индивидуальности. Он лишен таких элементов, как душа, полностью свободное сознание, чувства, интен-циональность и личные интересы [14]. При всем своем развитии и скорости обработки информации, в разы превосходящей даже потенциальные возможности человека, искусственный интеллект остается программой с привязанной к ней материально-технической базой [15]. Именно отсутствие у него личностных черт дает основание говорить об отсутствии для него обстоятельств, смягчающих ответственность, и обстоятельств, исключающих преступность деяния.

Во-вторых, возможно ли применить к искусственному интеллекту обстоятельства, освобождающие от наказания и уголовной ответственности (general defenses)? Может ли он быть в «безумном» состоянии, совершать действия в состоянии необходимой обороны или под принуждением? В теории уголовного права англо-американской правовой семьи выделяется два вида вышеупомянутых оснований — исключения и оправдания (exemptions and justifications). Первые по природе своей относятся к персональным характеристикам правонарушителя, вторые учитывают фактическую среду, в которой совершается преступление. В частности, исключениями можно

назвать недостижение лицом возраста уголовной ответственности, состояние невменяемости (insane) в момент совершения преступления, ошибку в праве, ошибку в факте и пр. К оправданиям относятся состояние самообороны, необходимости, принуждение, исполнение приказа и др.

Например, при беглом взгляде может показаться, что недостижение возраста ответственности не может ассоциироваться с характеристиками искусственного интеллекта. Однако ответ на этот вопрос неоднозначен и зависит от конкретного типа систем — установленные для постоянной автономной работы или системы, которые способны развиваться в процессе выполнения обозначенных ранее функций. К первым, естественно, такое основание неприменимо. Что касается вторых, то изначально автоматизированный юнит может не иметь ментальных способностей осознавать свое поведение, но в процессе работы (автономно развивающейся) приобретает их, и именно с момента начала записи выполненных действий (операций) во встроенную память возможно вести отсчет «несовершеннолетия» автоматизированной системы. Соответственно, в течение определенного периода возникает возможность не рассматривать вопрос о привлечении юнита искусственного интеллекта к уголовной ответственности.

К чему это мы? Первоначально в уголовном законодательстве системы общего права, в том числе и в США, дефиниции обязательных элементов субъективной стороны преступления — mens rea и actus reus (включая понятия осознания, небрежности) — были введены только для физических лиц и не мыслились вне человеческой личности. Однако с течением времени, а именно начиная с XIX в. [16, p. 17], эти определения стали считаться вполне приемлемыми и для юридических лиц — по сути, искусственно созданных субъектов права. И если в настоящее время в странах англо-американской правовой семьи уголовную ответственность за деяния искусственного интеллекта несет организация, которая предоставила последнему возможность выполнять задачи, либо лицо со специальным образованием, разработавшее техническую программу для реализации автоматизированной системы управления возложенных функций, либо оператор юнита, использующего искусственный интеллект, то особых преград для признания в рамках системы общего права в будущем искусственного интеллекта еще одним субъектом уголовного права просто не существует.

Отличается ли в структуре системы общего права искусственный интеллект от искусственно созданных юридических лиц со своими целями деятельности? Разницы нет. И за юридическим лицом, и за искусственным интеллектом стоит человек со своими качествами личности, способностями, со своими знаниями и умением их применить. Все, что осуществляет искусственный интеллект, подчиняется строго заданному заранее человеком алгоритму, и отступление от него является формой вины физического лица, которое создало или вводит в эксплуатацию такую систему.

Вместе с тем для системы общего права характерно непроходящее искушение рассматривать в качестве активных субъектов преступления лиц, отличных от человека. Некоторыми исследователями в качестве обоснования необходимости признания таковыми и юнитов искусственного интеллекта указывается, что последние могут иметь эмоции, интуицию, память и интеллект [17]. Приведенная направленность мысли не может не вызывать негодования, поскольку признание автоматизированных систем активными субъектами уголовного права будет возращением к временам, когда к уголовной ответственности привлекали и животных. Мы поддерживаем мнение о том, что на современном этапе искусственный интеллект необходимо рассматривать только в качестве орудия или предмета преступления, но ни в коем случае не как активного субъекта уголовного права [18, S. 32] хотя бы потому, что роботу недостает онтологической ценности физического лица, которая позволила бы искусственному интеллекту быть активным субъектом преступления.

В контексте защиты позиции о несостоятельности возможности привлечения искусственного интеллекта к уголовной ответственности стоит упомянуть и то, что в некоторых случаях противоправные действия электронной системы могут быть вызваны вирусными программами, такими как троянский вирус, или иным вредоносным программным обеспечением, использующим подвергнутый атаке искусственный интеллект для совершения противоправных действий [19-22]. В подобной ситуации будет неразумным, как нам кажется, признать саму электронную систему виновной в совершении деяния. Ответственность в данном случае должен нести разработчик вредоносного программного обеспечения, внедрение которого в алгоритмическую схему системы и стало прямой

причиной совершения преступления, либо пользователь, совершивший такие же действия.

Признание искусственного интеллекта субъектом преступления — это процесс, требующий не только детального исследования, но и определенной осторожности. Признание правосубъектности искусственного интеллекта неминуемо повлечет за собой как норматив -ное определение его прав и обязанностей, так и гарантии их обеспечения со стороны государ-

ства. Это, в свою очередь, потребует не только коренным образом перестроить базу нормативно-правовых актов, но и изменить направление вектора человеческого мышления, развития правовой культуры. Готовы ли мы к этому? Одно понятно точно: уже сейчас общество должно прогнозировать вероятные риски, уделять внимание разработке концепции ответственности, в том числе уголовно-правовой, при создании и использовании искусственного интеллекта.

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ

1. Robinson P.H. Reforming the Federal Criminal Code and the Model Penal Code: A Top Ten List / P.H. Robinson // Buffalo Criminal Law Review. — 1997. — Vol. 1, № 1. — P. 225-271.

2. Robinson P.H. Mens Rea / P.H. Robinson // Faculty Scholarship. — 2002. — Paper 34. — URL: https://scholarship.law. upenn.edu/faculty_scholarship/34.

3. Hallevy G. The Criminal Liability of Artificial Intelligence Entities — from Science Fiction to Legal Social Control / G. Hal-levy // Akron Intellectual Property Journal. — 2010. — Vol. 4, iss. 2. — P. 171-201.

4. Gunkel D.J. The machine question: Critical Perspectives on AI, Robots, and Ethics / D.J. Gunkel. — Cambridge : MIT Press, 2012. — 270 p.

5. Scherer M.U. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies / M.U. Scherer // Harvard Journal of Law & Technology. — 2015. — Vol. 29, № 2. — P. 353-400.

6. Mehlman M. Robot Law / M. Mehlman, J.W. Berg, S. Ray // Case Legal Studies Research Paper. — 2017. — URL: https:// ssrn.com/abstract=2908488.

7. Debessonet C.G. An Artificial Intelligence Application in the Law: CCLIPS, A Computer Program that Processes Legal Information / C.G. Debessonet, G.R. Cross // High Technology Law Journal. — 1986. — Vol. 1, iss. 2. — P. 329-409.

8. Weng Y.H. Towards the Human-Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots / Y.H. Weng, C.H. Chen, C.T. Sun // International Journal of Social Robotics. — 2009. — № 1. — P. 267-282.

9. Solaiman S. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy / S. Solaiman // Artificial Intelligence and Law. — 2017. — Vol. 25, № 2. — P. 155-179.

10. Freitas P. Criminal Liability of Autonomous Agents: From the Unthinkable to the Plausible / P. Freitas, F.A. de Andrade, P.J. Novais // Ai Approaches to the Complexity of Legal Systems. — Berlin : Springer, 2014. — P. 145-156.

11. Hallevy G. When robots kill: artificial intelligence under criminal law / G. Hallevy. — UPNE (Northeastern University Press), 2013. — 264 p.

12. Levy D. When robots do wrong / D. Levy. — URL: https://share. pdfonline.com/87cad18d73324e8fb2eaae1cddb60f77/ Kathmandu_final_text_October31st.htm.

13. Hallevy G. Liability for Crimes Involving Artificial Intelligence Systems / G. Hallevy. — Dordrecht : Springer, 2015. — 262 p.

14. Philosophical View of Multiculturalism in Modern European Cinematography / Y.V. Nikolaeva [et al.] // European Journal of Science and Theology. — 2018. — № 14 (6). — P. 205-214.

15. Utemov V.V. Full Packaged Learning Solutions for Studying Mathematics at School / V.V. Utemov [et al.]. — DOI: https://doi. org/10.29333/ejmste/95122 // Eurasia Journal of Mathematics, Science and Technology Education. — 2018. — № 14 (12). — em1619.

16. Gruner R.S. Corporate Criminal Liability and Prevention / R.S. Gruner. — New York : Law Journal Press, 2008. — 600 p.

17. Malle B.F. Networks of Social and Moral Norms in Human and Robot Agents / B.F. Malle, M. Scheutz, J.L. Austerweil. — DOI: 10.1007/978-3-319-46667-5_1 // A World with Robots : International Conference on Robot Ethics. — Lisbon, 2015. — P. 3-17.

18. Decker M. Robo- and Information Ethics. Some fundamentals / ed. M. Decker, M. Gutmann. — Berlin : Law, Innovation and Technology, 2012. — 264 S.

19. Brenner S.W. The Trojan Horse Defense in Cybercrime Cases / S.W. Brenner, B. Carrier, J. Henninger // Santa Clara High Technology Law Journal. — 2004. — Vol. 21, iss. 1. — URL: http://digitalcommons.law.scu.edu/chtlj.

20. Energy saving projects as energy security factors / G.M. Kvon [et al.]. — DOI: https://doi.org/10.32479/ijeep.7143 // International Journal of Energy Economics and Policy. — 2018. — Vol. 8, iss. 6. — P. 155-160.

21.Solum L.B. Legal Personhood for Artificial Intelligences / L.B. Solum // North Carolina Law Review. — 1992. — Vol. 70, № 4. — P. 1231-1287.

22. Hibbard B. The Ethics and Politics of Super-Intelligent Machines / B. Hibbard. — URL: http//www.ssec.wisc.edu/~billh/g/ SI_ethics_politics.doc.

REFERENCES

1. Robinson P.H. Reforming the Federal Criminal Code and the Model Penal Code: A Top Ten List. Buffalo Criminal Law Review, 1997, vol. 1, no. 1, pp. 225-271.

2. Robinson P.H. Mens Rea. Faculty Scholarship, 2002, paper 34. Available at: https://scholarship.law.upenn.edu/faculty_ scholarship/34.

3. Hallevy G. The Criminal Liability of Artificial Intelligence Entities — from Science Fiction to Legal Social Control. Akron Intellectual Property Journal, 2010, vol. 4, iss. 2, pp. 171-201.

4. Gunkel D.J. The machine question: Critical Perspectives on AI, Robots, and Ethics. Cambridge, MIT Press, 2012. 270 p.

5. Scherer M.U. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 2015, vol. 29, no. 2, pp. 353-400.

6. Mehlman M., Berg J.W., Ray S. Robot Law. Case Legal Studies Research Paper, 2017. Available at: https://ssrn.com/ab-stract=2908488.

7. Debessonet C.G., Cross G.R. An Artificial Intelligence Application in the Law: CCLIPS, A Computer Program that Processes Legal Information. High Technology Law Journal, 1986, vol. 1, iss. 2, pp. 329-409.

8. Weng Y.H., Chen C.H., Sun C.T. Towards the Human-Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots. International Journal of Social Robotics, 2009, no. 1, pp. 267-282.

9. Solaiman S. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy. Artificial Intelligence and Law, 2017, vol. 25, no. 2, pp. 155-179.

10. Freitas P., Andrade F.A. de, Novais P.J. Criminal Liability of Autonomous Agents: From the Unthinkable to the Plausible. Ai Approaches to the Complexity of Legal Systems, Berlin, Springer, 2014, pp. 145-156.

11. Hallevy G. When robots kill: artificial intelligence under criminal law. UPNE (Northeastern University Press), 2013. 264 p.

12. Levy D. When robots do wrong. Available at https://share. pdfonline.com/87cad18d73324e8fb2eaae1cddb60f77/Kath-mandu_final_text_October31st.htm.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

13. Hallevy G. Liability for Crimes Involving Artificial Intelligence Systems. Dordrecht, Springer, 2015. 262 p.

14. Nikolaeva Y.V., Grimalskaya S.A., Petrosyants D.V., Zulfugarzade T.E., Maystrovich E.V. Philosophical View of Multicultu-ralism in Modern European Cinematography. European Journal of Science and Theology, 2018, no. 14 (6), pp. 205-214.

15. Utemov V.V., Khusainova R.M., Shestak V.A., Sergeeva M.G. Full Packaged Learning Solutions for Studying Mathematics at School. Eurasia Journal of Mathematics, Science and Technology Education, 2018, no. 14 (12), em1619. DOI: https://doi. org/10.29333/ejmste/95122.

16. Gruner R.S. Corporate Criminal Liability and Prevention. New York, Law Journal Press, 2008. 600 p.

17. Malle B.F., Scheutz M., Austerweil J.L. Networks of Social and Moral Norms in Human and Robot Agents. A World with Robots. International Conference on Robot Ethics. Lisbon, 2015, pp. 3-17. DOI: 10.1007/978-3-319-46667-5_1.

18. Decker M., Gutmann M. (eds.). Robo- and Information Ethics. Some fundamentals. Berlin, Law, Innovation and Technology, 2012. 264 S.

19. Brenner S.W., Carrier B., Henninger J. The Trojan Horse Defense in Cybercrime Cases. Santa Clara High Technology Law Journal, 2004, vol. 21, iss. 1. Available at: http://digitalcommons.law.scu.edu/chtlj.

20. Kvon G.M., Prokopyev A.I., Shestak V.A., Ivanova S.A., Vodenko K.V. Energy saving projects as energy security factors. International Journal of Energy Economics and Policy, 2018, vol. 8, iss. 6, pp. 155-160. DOI: https://doi.org/10.32479/ijeep.7143.

21. Solum L.B. Legal Personhood for Artificial Intelligences. North Carolina Law Review, 1992, vol. 70, no. 4, pp. 1231-1287.

22. Hibbard B. The Ethics and Politics of Super-Intelligent Machines. Available at: http//www.ssec.wisc.edu/~billh/g/SI_eth-ics_politics.doc.

ИНФОРМАЦИЯ ОБ АВТОРАХ

Шестак Виктор Анатольевич — профессор кафедры уголовного права, уголовного процесса и криминалистики Московского государственного института международных отношений (университета) Министерства иностранных дел Российской Федерации, доктор юридических наук, доцент, г. Москва, Российская Федерация; e-mail: shestak.v.a@mgimo.ru.

Волеводз Александр Григорьевич — заведующий кафедрой уголовного права, уголовного процесса и криминалистики Московского государственного института международных отношений (университета) Министерства иностранных дел Российской Федерации, доктор юридических наук, доцент, г. Москва, Российская Федерация; e-mail: a.volevodz@inno.mgimo.ru.

Ализаде Вера Александровна — преподаватель кафедры теории права и сравнительного правоведения Московского государственного института международных отношений (университета) Министерства иностранных дел Российской Федерации, г. Москва, Российская Федерация; e-mail: v.alizade@inno.mgimo.ru.

ДЛЯ ЦИТИРОВАНИЯ

Шестак В.А. О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США / В.А. Шестак, А.Г. Волеводз, В.А. Ализаде // Всероссийский криминологический журнал. — 2019. — Т. 13, № 4. — С. 547-554. — DOI: 10.17150/2500-4255.2019.13(4).547-554.

INFORMATION ABOUT THE AUTHORS

Shestak, Victor A. — Professor, Chair of Criminal Law, Criminal Procedure and Criminalistics, Moscow State Institute of International Relations (MGIMO-University) of the Ministry of Foreign Affairs of the Russian Federation, Doctor of Law, Ass. Professor, Moscow, the Russian Federation; e-mail: shestak.v.a@mgimo.ru.

Volevodz, Aleksander G. — Head, Chair of Criminal Law, Criminal Procedure and Criminalistics, Moscow State Institute of International Relations (MGIMO-University) of the Ministry of Foreign Affairs of the Russian Federation, Doctor of Law, Ass. Professor, Moscow, the Russian Federation; e-mail: a.volevodz@inno.mgimo.ru.

Alizade, Vera A. — Lecturer, Chair of Law Theory and Comparative Law, Moscow State Institute of International Relations (MGIMO-University) of the Ministry of Foreign Affairs of the Russian Federation, Moscow, the Russian Federation; e-mail: v.alizade@inno.mgimo.ru.

FOR CITATION Shestak V.A., Volevodz A.G., Alizade V.A. On the possibility of doctrinal perception of artificial intelligence as the subject of crime in the system of common law: using the example of the U.S. criminal legislation. Vserossiiskii kriminologicheskii zhurnal = Russian Journal of Criminology, 2019, vol. 13, no. 4, pp. 547-554. DOI: 10.17150/2500-4255.2019.13(4).547-554. (In Russian).

i Надоели баннеры? Вы всегда можете отключить рекламу.