Научная статья на тему 'СОЦИАЛЬНАЯ ОБУСЛОВЛЕННОСТЬ УГОЛОВНО-ПРАВОВОГО РЕГУЛИРОВАНИЯ ОБЩЕСТВЕННЫХ ОТНОШЕНИЙ, СВЯЗАННЫХ С РОБОТОТЕХНИКОЙ И КИБЕРФИЗИЧЕСКИМИ СИСТЕМАМИ'

СОЦИАЛЬНАЯ ОБУСЛОВЛЕННОСТЬ УГОЛОВНО-ПРАВОВОГО РЕГУЛИРОВАНИЯ ОБЩЕСТВЕННЫХ ОТНОШЕНИЙ, СВЯЗАННЫХ С РОБОТОТЕХНИКОЙ И КИБЕРФИЗИЧЕСКИМИ СИСТЕМАМИ Текст научной статьи по специальности «Право»

CC BY
124
35
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РОБОТ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / РОБОТОТЕХНИКА / УГОЛОВНАЯ ОТВЕТСТВЕННОСТЬ / ПРЕСТУПЛЕНИЕ / ЦИФРОВЫЕ ТЕХНОЛОГИИ / БЕСПИЛОТНЫЕ ТРАНСПОРТНЫЕ СРЕДСТВА / БЕСПИЛОТНЫЕ ЛЕТАТЕЛЬНЫЕ АППАРАТЫ / АВТОНОМНАЯ СИСТЕМА ВООРУЖЕНИЙ / КИБЕРФИЗИЧЕСКАЯ СИСТЕМА / АВТОНОМНОЕ ЛЕТАЛЬНОЕ ОРУЖИЕ / ВОЕННЫЙ РОБОТ / БОЕВОЙ РОБОТ / РОБОТ-УБИЙЦА / АВТОНОМНЫЙ РОБОТ

Аннотация научной статьи по праву, автор научной работы — Бегишев И. Р.

Робототехника и киберфизические системы формируют самостоятельный пласт общественных отношений, характеризующихся повышенной общественной опасностью. Указанное обстоятельство предопределяет признание отдельных категорий роботов источниками повышенной опасности. Темпы развития робототехники и киберфизических систем являются следствием экспонентного, практически взрывного роста интереса к интеллектуальным системам в условиях 4 Промышленной революции и становления Индустрии 4.0, активно поддерживаемого политикой государства на «всеобщую цифровизацию». Поливариативность роботов, высокая степень адаптивности и растущая доступность для широких слоев населения являются предпосылкой для «вовлечения» роботов в различные направления преступной деятельности, вплоть до самостоятельного совершения роботами отдельных преступных посягательств. Являясь комплексными устройствами, обладающими технической, цифровой и энергетической компонентами, робототехника и киберфизические системы подвержены процессам, которые могут стать причиной возникновения вреда для различных групп общественных отношений. Внедрение робототехники и киберфизических систем в промышленность, производство и в военную сферу сопряжено со значительными рисками причинения вреда различным объектам уголовно-правовой охраны. С ростом автономности робототехники неуклонно будут расширяться и сферы, где совершаются посягательства с их участием. В связи с этим требуется проработка механизмов уголовной ответственности в случае причинения вреда системами искусственного интеллекта и робототехники, имеющими высокую степень автономности при принятии решений. Определены критерии запроса на уголовно-правовое регулирование робототехники. Выявлены основные причины возникновения криминологических рисков, связанные с конструктивными особенностями роботов. Несомненно, для уголовного права базисом выступает категория общественной опасности, которая одновременно обеспечивает концептуальное единство уголовноправовых норм, параллельно являясь водоразделом, отграничивающим их от иных отраслей права. Крайне важно определить границы уголовно-правового регулирования, которые формируются исключительно общественной опасностью тех или иных деяний с применением робототехники. Таким образом, следует констатировать, что текущий уровень развития робототехники и киберфизических систем, а также их вовлеченность в процессы жизнедеятельности общества обусловливают необходимость создания эффективных механизмов уголовно-правового регулирования.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SOCIAL CONDITIONALITY OF CRIMINAL LEGAL REGULATION OF PUBLIC RELATIONS RELATED TO ROBOTICS AND CYBER-PHYSICAL SYSTEMS

Robotics and cyber-physical systems form an independent layer of social relations characterized by increased social danger. This circumstance predetermines the recognition of certain categories of robots as sources of increased danger. The pace of development of robotics and cyber-physical systems is a consequence of the exponential, almost explosive growth of interest in intelligent systems under the conditions of the 4th Industrial Revolution and the emergence of Industry 4.0., actively supported by the state's policy of “universal digitalization”. The variety of robots, a high degree of adaptability and growing accessibility for the general population are a prerequisite for the “involvement” of robots in various areas of criminalactivity, up to the robots committing individual criminal encroachments on their own. As complex devices with technical, digital and energy components, robotics and cyber-physical systems are subject to processesthat can cause harm to various groups of social relations. The introduction of robotics and cyber-physical systems into industry, production and the military sphere is associated with significant risks of causing harm to various objects of criminal law protection. With the growth of autonomy, robotics will steadily expand the spheres where attacks are committed with their participation. In this regard, it is required to develop mechanisms for criminal liability in the event of harm caused by artificial intelligence and robotics systems that have a high degree of autonomy in decision-making. The criteria for requesting criminal law regulation of robotics have been determined. The main reasons for the emergence of criminological risks associated with the design features of robots have been identified. Undoubtedly, the basis for criminal law is the category of social danger, which at the same time ensures the conceptual unity of criminal law norms, while simultaneously being a watershed that delimits them from other branches of law. It is extremely important to determine the boundaries of criminal law regulation, which are formed exclusively by the public danger of certain acts with the use of robotics. Thus, it should be stated that the current level of development of robotics and cyberphysical systems, as well as their involvement in the processes of the life of society, necessitate the creation of effective mechanisms of criminal law regulation.

Текст научной работы на тему «СОЦИАЛЬНАЯ ОБУСЛОВЛЕННОСТЬ УГОЛОВНО-ПРАВОВОГО РЕГУЛИРОВАНИЯ ОБЩЕСТВЕННЫХ ОТНОШЕНИЙ, СВЯЗАННЫХ С РОБОТОТЕХНИКОЙ И КИБЕРФИЗИЧЕСКИМИ СИСТЕМАМИ»

УГОЛОВНОЕ ПРАВО И КРИМИНОЛОГИЯ, УГОЛОВНО-ИСПОЛНИТЕЛЬНОЕ ПРАВО

УДК 343+ 004.8

БО1: 10.19073/2658-7602-2021-18-1-17-29

СОЦИАЛЬНАЯ ОБУСЛОВЛЕННОСТЬ УГОЛОВНО-ПРАВОВОГО РЕГУЛИРОВАНИЯ ОБЩЕСТВЕННЫХ ОТНОШЕНИЙ, СВЯЗАННЫХ С РОБОТОТЕХНИКОЙ И КИБЕРФИЗИЧЕСКИМИ СИСТЕМАМИ

БЕГИШЕВ Ильдар Рустамович*

И [email protected]

Ул. Московская, 42, Казань, 420111, Россия

Аннотация. Робототехника и киберфизические системы формируют самостоятельный пласт общественных отношений, характеризующихся повышенной общественной опасностью. Указанное обстоятельство предопределяет признание отдельных категорий роботов источниками повышенной опасности. Темпы развития робототехники и киберфизических систем являются следствием экспонентного, практически взрывного роста интереса к интеллектуальным системам в условиях 4 Промышленной революции и становления Индустрии 4.0, активно поддерживаемого политикой государства на «всеобщую цифровизацию». Поливариативность роботов, высокая степень адаптивности и растущая доступность для широких слоев населения являются предпосылкой для «вовлечения» роботов в различные направления преступной деятельности, вплоть до самостоятельного совершения роботами отдельных преступных посягательств. Являясь комплексными устройствами, обладающими технической, цифровой и энергетической компонентами, робототехника и киберфизические системы подвержены процессам, которые могут стать причиной возникновения вреда для различных групп общественных отношений. Внедрение робототехники и киберфизических систем в промышленность, производство и в военную сферу сопряжено со значительными рисками причинения вреда различным объектам уголовно-правовой охраны. С ростом автономности робототехники неуклонно будут расширяться и сферы, где совершаются посягательства с их участием. В связи с этим требуется проработка механизмов уголовной ответственности в случае причинения вреда системами искусственного интеллекта и робототехники, имеющими высокую степень автономности при принятии решений. Определены критерии запроса на уголовно-правовое регулирование робототехники. Выявлены основные причины возникновения криминологических рисков, связанные с конструктивными особенностями роботов. Несомненно, для уголовного права базисом выступает категория общественной опасности, которая одновременно обеспечивает концептуальное единство уголовно-правовых норм, параллельно являясь водоразделом, отграничивающим их от иных отраслей права. Крайне важно определить границы уголовно-правового регулирования, которые формируются исключительно общественной опасностью тех или иных деяний с применением робототехники. Таким образом, следует констатировать, что текущий уровень развития робототехники и киберфизических систем, а также их вовлеченность в процессы жизнедеятельности общества обусловливают необходимость создания эффективных механизмов уголовно-правового регулирования.

Ключевые слова: робот, искусственный интеллект, робототехника, уголовная ответственность, преступление, цифровые технологии, беспилотные транспортные средства, беспилотные летательные аппараты, автономная система вооружений, киберфизическая система, автономное летальное оружие, военный робот, боевой робот, робот-убийца, автономный робот.

* Старший научный сотрудник Казанского инновационного университета имени В. Г. Тимирясова (ИЭУП), заслуженный юрист Республики Татарстан, кандидат юридических наук.

Social Conditionally of Criminal Legal Regulation of Public Relations

Related To Robotics and Cyber-Physical Systems

Begishev Il'dar R.**

El [email protected]

42 Moskovskaya st., Kazan, 420111, Russia

Abstract. Robotics and cyber-physical systems form an independent layer of social relations characterized by increased social danger. This circumstance predetermines the recognition of certain categories of robots as sources of increased danger. The pace of development of robotics and cyber-physical systems is a consequence of the exponential, almost explosive growth of interest in intelligent systems under the conditions of the 4th Industrial Revolution and the emergence of Industry 4.0., actively supported by the state's policy of "universal digitalization". The variety of robots, a high degree of adaptability and growing accessibility for the general population are a prerequisite for the "involvement" of robots in various areas of criminal activity, up to the robots committing individual criminal encroachments on their own. As complex devices with technical, digital and energy components, robotics and cyber-physical systems are subject to processes that can cause harm to various groups of social relations. The introduction of robotics and cyber-physical systems into industry, production and the military sphere is associated with significant risks of causing harm to various objects of criminal law protection. With the growth of autonomy, robotics will steadily expand the spheres where attacks are committed with their participation. In this regard, it is required to develop mechanisms for criminal liability in the event of harm caused by artificial intelligence and robotics systems that have a high degree of autonomy in decision-making. The criteria for requesting criminal law regulation of robotics have been determined. The main reasons for the emergence of criminological risks associated with the design features of robots have been identified. Undoubtedly, the basis for criminal law is the category of social danger, which at the same time ensures the conceptual unity of criminal law norms, while simultaneously being a watershed that delimits them from other branches of law. It is extremely important to determine the boundaries of criminal law regulation, which are formed exclusively by the public danger of certain acts with the use of robotics. Thus, it should be stated that the current level of development of robotics and cyber-physical systems, as well as their involvement in the processes of the life of society, necessitate the creation of effective mechanisms of criminal law regulation.

Keywords: robot, artificial intelligence, robotics, criminal responsibility, crime, digital technology, unmanned vehicles, unmanned aerial vehicles, autonomous weapons system, cyber-physical system, autonomous lethal weapons, military robot, combat robot, killer robot, autonomous robot.

Норма уголовного права является эффективной, если она социально обусловлена [11, с. 142]. Детерминированность новых уголовно-правовых предписаний о робототехнике также следует считать основой их эффективного действия.

А. В. Незнамов, выделяя дискуссионные моменты, связанные с регулированием робототехники, задается также вопросом целесообразности корректировки института ответственности за вред, причиненный роботом или системой искусственного интеллекта. И одновременно, продолжая логическую мысль, ставит следующий вопрос о ее направленности [23, с. 175].

Утверждение в августе 2020 г. Концепции развития регулирования отношений в сфере

технологий искусственного интеллекта и робототехники до 2024 г., несомненно, стало краеугольным камнем в вопросе становления отечественной системы правового регулирования отношений, связанных с внедрением указанных технологий в жизнедеятельность общества. И позволило наметить ключевые векторы дальнейшей правотворческой деятельности.

В числе задач, заявленных в Концепции, среди прочего обозначены «создание основ правового регулирования новых общественных отношений, формирующихся в связи с применением систем искусственного интеллекта и робототехники, определение правовых барьеров, затрудняющих разработку и применение систем

** Senior Researcher at the Kazan Innovative University named after V. G. Timiryasov (IEML), Honored Lawyer of the Republic of Tatarstan, Candidate of Legal Sciences.

искусственного интеллекта и робототехники в различных отраслях экономики и социальной сферы»1.

Как справедливо отмечается в Концепции, «одним из основных препятствий для расширения применения систем с использованием искусственного интеллекта и робототехники является отсутствие достаточной степени доверия к ним со стороны общества. Повышение степени автономности таких систем, снижение контроля человека за процессом их применения, не полностью прозрачный процесс принятия решений создают общественный запрос на регуляторные ограничения применения систем искусственного интеллекта и робототехники»2. В свою очередь подобного рода запрос представляет собой не что иное, как социальную обусловленность уголовно-правового регулирования.

Справедливо отмечал А. И. Марцев, что «преступление представляет собой один из видов преобразовательной деятельности, поскольку, совершая преступление, субъект производит в объекте определенные изменения или создает своей деятельностью предпосылки для таких изменений. Эти изменения носят деструктивный характер и в социальном плане отрицательно сказываются на функционировании человека, общества или государства. Возможность отрицательного влияния преступлений на социальные условия функционирования человека, общества и государства рассматривается в уголовном праве как общественная опасность. Данная категория закреплена в уголовном законодательстве в качестве регулятора уголовно-правовых отношений» [20, с. 7]. С этой позицией трудно не согласиться, ведь общественная опасность, обладая дуальной природой, характеризуется как социальным аспектом, так и правовым.

В решении Конституционного Суда Российской Федерации от 19 марта 2003 г. N° 3-П в связи с запросом Останкинского межмуниципального

(районного) суда города Москвы и жалобами ряда граждан презюмируется, что «закрепление в законе уголовно-правовых запретов и санкций за их нарушение не может быть произвольным»3, при этом Конституционный Суд Российской Федерации в другом своем решении подтверждает конституционное право государства «на установление уголовной ответственности за общественно опасные деяния, которые в силу своей распространенности причиняют существенный вред и не могут быть предотвращены с помощью иных правовых средств»4.

В данном аспекте следует поддержать мнение о том, что уголовное право, среди прочего, призвано определять социальную обусловленность уголовно-правовых положений и их эффективность [7, с. 14], а исследование вопросов социальной обусловленности предопределяется необходимостью «создания научной основы уголовного правообразования, что позволяет избежать не вызванных реалиями жизни произвольных законодательных решений» [8, с. 27].

Понятие социальной обусловленности уголовного закона не раз становилось предметом детального научного исследования. Мнения авторов были различны: от позиций признания под социальной обусловленностью «объективной необходимости закрепления в уголовном законе отдельных деяний, исходя из общественных потребностей, выявленных закономерностей развития общественных отношений, реальной социально-экономической ситуации» [13, с. 20; 25, с. 1807; 29, с. 130] до признания в нем «идеологических, экономических, нравственных, психологических и иных факторов, вызывающих его необходимость» [31, с. 7].

Профессор А. А. Пионтковский писал, что «общественная опасность деяния есть его социально-политическая характеристика в целом» [26, с. 155]. В указанном ключе уместно говорить о том, что общественная опасность является тем

1 Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года : распоряжение Правительства Рос. Федерации от 19 авг. 2020 г № 2129-р // Собр. законодательства Рос. Федерации. 2020. № 35, ст. 5593.

2 Там же.

3 По делу о проверке конституционности положений Уголовного кодекса Российской Федерации, регламентирующих правовые последствия судимости лица, неоднократности и рецидива преступлений, а также пунктов 1-8 постановления Государственной Думы от 26 мая 2000 года «Об объявлении амнистии в связи с 55-летием Победы в Великой Отечественной войне 1941-1945 годов» в связи с запросом Останкинского межмуниципального (районного) суда города Москвы и жалобами ряда граждан : постановление Конституц. Суда Рос. Федерации от 19 марта 2003 г. № 3-П // Собр. законодательства Рос. Федерации. 2003. № 14, ст. 1302.

4 По делу о проверке конституционности статьи 265 Уголовного кодекса Российской Федерации в связи с жалобой гражданина А. А. Шевякова : постановление Конституц. Суда Рос. Федерации от 25 апр. 2001 г. № 6-П // Собр. законодательства Рос. Федерации. 2001. № 23, ст. 2408.

самым критерием, определяющим объективную необходимость уголовно-правового регулирования рассматриваемых отношений. А любое запрещаемое деяние (преступление) должно представлять собой не только правовое, но и социально обусловленное явление [8; 31].

Не вдаваясь в полемику относительно того, какое из уже существующих в науке определений видится наиболее приемлемым, отметим, что все авторы едины в понимании под социальной обусловленностью наличия в обществе объективного запроса на регулирование уголовно-правовыми средствами определенных общественных отношений, потенциально или объективно обладающих общественной опасностью.

Вместе с тем, учитывая особый статус уголовного закона как крайнего средства государственного реагирования на проявление делинк-вентного поведения5, обратимся к пресловутому критерию общественной опасности, проявляющемуся в конкретных случаях причинения вреда или угрозы его причинения охраняемым уголовным законом общественным отношениям.

Построение достоверной устойчивой системы в любой области знаний начинается с определения базиса, «той исходной научной абстракции, которая концентрировала бы качественную определенность системы знаний в целом, устанавливала бы последовательность расположения понятий в системе и "удельный вес" каждого из них, выступала бы как ее отправной и конечный пункт» [31, с. 48].

Несомненно, для уголовного права такой категорией выступает категория общественной опасности, которая одновременно обеспечивает концептуальное единство уголовно-правовых норм, параллельно являясь водоразделом, отграничивающим их от иных отраслей права. Крайне важно определить границы уголовно-правового регулирования, которые формируются исключительно общественной опасностью тех или иных деяний с применением робототехники.

Как справедливо отмечает Н. А. Лопашенко, «1) опасность всегда связывается с негативными изменениями или последствиями, начиная от просто нежелательных, заканчивая крайней степенью негативности - несчастьем; 2) эти

последствия (изменения) не реализованы, они только ожидаются виде возможности или угрозы» [17, с. 208].

Е. В. Кобзева пишет, что наиболее часто критерием классификации нарушений норм права на преступления, административные правонарушения, гражданско-правовые деликты, дисциплинарные проступки признается социальная вредность (опасность, значимость) деяния. При этом автор выделяет пять основных подходов к толкованию понятий «общественная опасность» и «вредность»:

«1) общественная опасность выступает свойством исключительно преступных деяний, все другие нарушения норм права вредны для интересов общества, но опасности не представляют;

2) общественной опасностью обладают как преступления, так и другие виды правонарушений, при этом различие между ними состоит в степени и/или характере общественной опасности;

3) общественно опасными являются преступления и некоторые виды административных правонарушений;

4) нет никакой разницы между общественной вредностью и общественной опасностью, дискуссия носит исключительно терминологический характер;

5) понятие общественной опасности следует заменить понятием общественной (социальной) вредности» [14, с. 106].

На наш взгляд, оптимальна позиция о признании общественно опасными всех видов правонарушений. Как справедливо отмечает П. К. Блажко, «преступления представляют наибольшую общественную опасность по сравнению с иными правонарушениями. При этом различие необходимо проводить и по характеру, и по степени опасности деяний для общества, зависящим от содержания объекта правонарушения, признаков его субъекта, объективной и субъективной сторон, смягчающих и отягчающих обстоятельств, лежащих за пределами состава правонарушения» [6, с. 7].

В связи с этим уместно будет привести мнение Н. Ф. Кузнецовой, которое нам также близко: «Понятие общественной опасности рассматривается как универсальное понятие, которое

5 Об отказе в принятии к рассмотрению запроса Курганского городского суда Курганской области о проверке конституционности части первой статьи 3, статьи 10 Уголовного кодекса Российской Федерации и пункта 13 статьи 397 Уголовно-процессуального кодекса Российской Федерации : определение Конституц. Суда Рос. Федерации от 10 июля 2003 г. № 270-0 // Вестник Конституц. Суда Рос. Федерации. 2003. № 5.

характеризует все правонарушения. И специфика общественной опасности преступлений в ее характере и степени» [16, с. 247]. В той или иной форме указанная точка зрения приводилась в работах Н. С. Малеина [19, с. 10], Е. Л. Поцелуева [27, с. 22], О. Е. Репетевой [28, с. 34].

Обосновывая необходимость применения риск-ориентированного подхода при оценке преступных посягательств с участием робототехники, мы брали за основу два ключевых критерия: степень тяжести последствий причинения вреда роботами и категорию (характер) общественной опасности.

Согласимся с мнением Н. А. Лопашенко, что «в любом случае уровень возможных негативных последствий от противоправного поведения должен быть высоким, а сама общественная опасность должна определяться как существенная. Понятно, что это крайне оценочный момент в понимании преступления, но придумать точные критерии очень сложно» [17, с. 225].

Выделение указанных сфер является результатом эмпирического исследования инцидентов с участием робототехники и киберфизических систем, а также применения метода предиктив-ной аналитики.

Отметим, что характер общественной опасности в значительной степени зависит от объекта преступного посягательства, при этом чем «важнее» объект преступного посягательства, тем выше его общественная опасность. Несомненно, всецело поддерживая позицию о невозможности выстроить иерархию ценностей, охраняемых уголовным законом, все же отметим, что характер общественной опасности должен находиться в прямой корелляции с характером ожидаемого вреда и его тяжестью. Указанное верно и для общественно опасных деяний с участием робототехники и киберфизических систем.

Нами были выделены четыре, на наш взгляд, ключевых объекта, на которых общественная опасность применения робототехники и кибер-физических систем проявляется наиболее существенно:

- мир и безопасность человечества;

- жизнь и здоровье людей;

- объекты живой природы;

- неживые материальные объекты.

Данные объекты представляют собой сферы

общественных отношений, в которых деяния с участием робототехники и киберфизических

систем создают необходимость уголовно-правовой охраны от причиненного или потенциально возможного причинения им вреда.

Понятие общественной опасности является ключевым критерием (основанием) криминализации. «Криминализация - это процесс установления уголовной ответственности за деяние, ранее не относившееся к числу преступлений» [30, с. 144]. Отдельные авторы предлагают понимать под криминализацией «процесс, так и результат отнесения определенных видов деяний к преступным и уголовно наказуемым. В процессе криминализации изучаются цели, основания и возможность установления уголовной ответственности за то или иное деяние» [15, с. 38; 24, с. 28].

Некоторые авторы выделяют и иные основания криминализации. Например, М. В. Бавсун, помимо общественной опасности деяния и степени его влияния на общественные процессы и общественное сознание, называет также «распространенность деяния и его удельного веса в общем состоянии преступности; степень тяжести преступных последствий, оцениваемых размером причиненного вреда; яркая антисоциальная направленность деяния и лица, противопоставляющего себя обществу» [1, с. 12; 2, с. 12; 3, с. 104]. Аналогичные критерии указываются и в работе А. М. Орлеана [24, с. 30].

H. А. Лопашенко выделяются следующие причины криминализации: «возникновение новых, не существовавших ранее видов общественно опасной деятельности людей, неблагоприятная динамика отдельных видов человеческого поведения, научно-технический прогресс, развивающий потенциально опасные сферы науки и техники» [18, с. 102].

Указанные критерии в полной мере применимы к робототехнике и киберфизическим системам:

I. Робототехника и киберфизические системы формируют собой самостоятельный пласт общественных отношений, характеризующихся повышенной общественной опасностью. Указанное обстоятельство предопределяет признание отдельных категорий роботов источниками повышенной опасности.

В марте 2018 г. экспериментальный автомобиль Uber, работавший в автономном режиме, сбил пешехода и убил его, когда он переходил улицу в Темпе, штат Аризона, США, - первое ДТП с беспилотным транспортным средством

со смертельным исходом6. Перед общественностью и государством сразу же встал вопрос о том, кто должен нести ответственность за такое происшествие.

Однако самый первый случай причинения смерти с участием роботов был зарегистрирован еще в 1979 г., когда промышленный робот на заводе Ford Motor Company причинил смерть Роберту Уильямсу посредством нанесения удара по голове 1-тонной роботизированной рукой. В декабре 1981 г. похожий случай с промышленным роботом произошел на заводе Кавасаки в Heavy Industries Японии. Кэндзи Урада погиб, после того как самоактивировавшийся гидравлический рычаг затащил его в шлифовальный станок, где он был раздавлен7. После долгого расследования было заявлено, что произошедшее стало несчастным случаем, рабочий выключил роботизированную систему при ремонте, но потом он случайно зацепил этот же рычаг, приведя в действие только что отключенное устройство8.

Дефекты могут иметь место на любом из этапов эксплуатации роботов, и предсказать или ограничить это не всегда возможно. На наш взгляд, речь здесь тоже может идти о деяниях, совершенных по легкомыслию или небрежности:

- наезд на пешехода беспилотным транспортным средством;

- столкновение с беспилотным летательным аппаратом;

- сбой в работе промышленного робота по причине несвоевременного выхода из строя той или иной детали (микросхемы), повлекший несчастный случай;

6 Беспилотный автомобиль впервые сбил человека насмерть: кто виноват и как это повлияет на технологию. URL: https://tjournal.ru/tech/67896-bespilotnyy-avtomobil-vpervye-sbil-cheloveka-nasmert-kto-vinovat-i-kak-eto-povliyaet-na-tehnologiyu

7 10 случаев убийства людей роботами. URL: https://www.facts-worldwide.info/10-sluchaev-ubijstva-ljudej-robotami/

8 7 случаев смерти от «рук» промышленных роботов. URL: http://robotforum.ru/novosti-texnogologij/7-sluchaev-smerti-ot-ruk-promyishlennyix-robotov.html

9 Top 10 Strategic Technology Trends for 2018. Gartner. URL: https://www.gartner.com/doc/3811368

10 Инвестиции в искусственный интеллект бьют рекорды. URL: https://www.if24.ru/investitsii-v-iskusstvennyj-intellekt-byut-rekordy/

11 AI in Fintech Market by Component (Solution, Service), Application Area (Virtual Assistant, Business Analytics & Reporting, Customer Behavioral Analytics), Deployment Mode (Cloud, On-Premises), and Region - Global forecast to 2022. URL: https://www.marketsandmarkets.com/Market-Reports/ai-in-fintech-market-34074774.html

12 Подробнее см.: Послание Президента Рос. Федерации В. В. Путина Федеральному Собранию Российской Федерации от 20 февраля 2019 г. // Рос. газета. 2019. 20 февр. ; Послание Президента Российской Федерации В. В. Путина Федеральному Собранию Российской Федерации от 15 января 2020 г. // Там же. 2020. 15 янв. ; О развитии искусственного интеллекта в Российской Федерации : указ Президента Рос. Федерации от 10 окт. 2019 г. № 490 // Собр. законодательства Рос. Федерации. 2019. № 41, ст. 5700 ; Перечень поручений по итогам совещания по вопросам развития технологий в области искусственного интеллекта : утв. Президентом Рос. Федерации 12 июня 2019 г. № Пр-1030. URL: http://www.kremlin. ru/acts/assignments/orders/60748 ; Дорожная карта развития «сквозной» цифровой технологии «Нейротехнологии и искусственный интеллект». URL: https://digital.gov.ru/ru/documents/6658

- отказ в работе той или иной системы медицинского робота, повлекший смерть пациента или серьезное нарушение функционирования организма человека.

2. Темпы развития робототехники и кибер-физических систем являются следствием экспонентного, практически взрывного роста интереса к интеллектуальным системам в условиях 4 Промышленной революции и становления Индустрии 4.0., активно поддерживаемого политикой государства на всеобщую цифро-визацию.

Аналитики во всем мире единогласно называют искусственный интеллект ключевым технологическим трендом9. По прогнозам, к 2020 г. его рынок вырастет до 5 млрд долл. США10 за счет применения технологий машинного обучения и распознавания естественного языка в рекламе, розничной торговле, финансах и здравоохранении11.

Робототехника и искусственный интеллект включены в ряд документов стратегического планирования, однако вопросы правового регулирования при использовании технологий находятся все еще в стадии решения, тогда как их внедрение в жизнедеятельность человека идет активными темпами (это касается беспилотных летательных аппаратов, прогнозирования диагноза больных и пр.) [32, с. 96-106]. Более того, на правовое регулирование искусственного интеллекта направлена целая группа политических нормативных правовых актов и распорядительных документов Президента Российской Федерации и органов государственной власти12.

3. Поливариативность роботов, высокая степень адаптивности и растущая доступность для широких слоев населения является предпосылкой для использования их в различных сферах преступной деятельности, вплоть до самостоятельного совершения роботами отдельных преступных посягательств.

На сегодняшний день можно выделить несколько возможных вариантов деятельности с робототехникой, которая представляется общественно опасной:

«- конструирование робота-убийцы специально для совершения правонарушения;

- отключение программных и аппаратных функций, блокирующих возможность причинения вреда человеку;

- конструирование робота, способного причинить вред человеку;

- конструирование робота без осознания того, что он может быть использован для причинения вреда человеку» [4, с. 73].

Следует отметить, что с использованием возможностей робототехники может быть совершено множество преступлений:

«- общественно опасные деяния, посягающие на жизнь и здоровье человека;

- общественно опасные деяния, посягающие на конституционные права и свободы человека и гражданина;

- общественно опасные деяния, посягающие на общественные отношения, охраняющие сферу экономики от преступных посягательств;

- общественно опасные деяния, посягающие на государственную власть, службу и их интересы;

- общественно опасные деяния, посягающие на общественную безопасность и общественный порядок;

- общественно опасные деяния, посягающие на основы конституционного строя и безопасность государства и т. д.» [5, с. 92].

Ю. В. Грачева и А. А. Арямов в своей работе указывают, что роботы сегодня могут стать полноправными исполнителями ряда преступлений, таких как:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

«- террористический акт (ст. 205 УК РФ), который может выражаться в совершении взрыва, поджога, отравлении источника водоснабжения, лишении жизни людей с использованием робототехники;

- вандализм (ст. 214 УК РФ): легко себе представить использование дрона, переносящего

капсулу с краской и сбрасывающего ее на здание или сооружение для их осквернения;

- приведение в негодность объектов жизнеобеспечения (ст. 2152 УК РФ) путем их разрушения, повреждения или приведение иным способом в негодное для эксплуатации состояние с помощью роботов. Совершение этих действий из корыстных или хулиганских побуждений квалифицируется по ст. 2152 УК РФ; при отсутствии названных мотивов, но при наличии цели подрыва экономической безопасности и обороноспособности РФ - по ст. 282 УК РФ;

- незаконное проникновение на подземный или подводный объект, охраняемый в соответствии с законодательством Российской Федерации о ведомственной или государственной охране с использованием робототехники, включая дроны (ст. 2154 УК РФ);

- хищение ядерных материалов или радиоактивных веществ путем применения робототехники для незаконного проникновения в помещение или хранилища и завладения предметом преступления (ст. 221 УК РФ);

- незаконное приобретение, передача, сбыт, хищение оружия, его основных частей, боеприпасов, взрывчатых веществ, взрывных устройств (ст.ст. 222, 2221, 226 УК РФ), а также его незаконное перемещение через таможенную границу Таможенного союза в рамках ЕврАзЭС либо государственную границу РФ государствами -членами Таможенного союза в рамках ЕврАзЭС (ст. 2261 УК РФ) с использованием робототехники, особенно дронов;

- нападение на морское или речное судно в целях завладения чужим имуществом, совершенное с применением насилия либо с угрозой его применения посредством использования робототехники, включая дроны (ст. 227 УК РФ)» [10, с. 175].

Г. Г. Камалова считает, что «искусственные интеллектуальные системы могут быть использованы для совершения разнообразных преступлений, включая:

- причинение смерти или вреда здоровью человека;

- нарушение права на неприкосновенность частной жизни;

- незаконное получение или неправомерное разглашение охраняемой законом тайны;

- нарушение правил охраны труда;

- мошенничество;

- нарушение безопасности дорожного движения и эксплуатации транспорта;

- террористический акт;

- нарушение правил обращения с оружием и предметами, представляющими повышенную опасность для окружающих;

- нарушение правил оборота наркотических и психотропных веществ;

- преступления в сфере компьютерной информации;

- иные» [12, с. 383].

Роботы также активно используются преступниками и террористами в качестве инструмента для «творческого» совершения преступлений. С 2010 г. наркокартели Мексики начали использовать дроны для перевозки наркотиков. Успех Мексики побудил колумбийские наркокартели использовать дроны, а также испытать тот же метод на своей территории. Фактически, к 2012 г. использование беспилотных летательных аппаратов вдоль границы было широко распространено, о чем свидетельствует перехват США 150 дронов, перевозящих примерно две метрические тонны наркотиков, в первую очередь марихуану, кокаин и героин.

Дроны стали «идеальным наркокурьером» в том смысле, что они несут меньший риск для лиц, занимающихся незаконным оборотом наркотиков. Кроме того, использование дронов значительно менее затратно, чем людей, поскольку наркобарон может заработать до 10 000 долларов за успешную доставку одной партии груза. Новые дроны мексиканского производства отличаются от тех, что используются для личного пользования, поскольку они предположительно могут перевозить от 60 до 100 кг наркотиков за одну поездку. Дроны также используются для контрабанды наркотиков, мобильных телефонов и оружия в тюрьмы. Например, во временном центре содержания под стражей в Сан-Жозе-дус-Кампус в Сан-Паулу (Бразилия) дрон с квадрокоптером пролетел над стенами тюрьмы и сбросил 250 граммов кокаина в присутствии сотрудников тюрьмы. Под Москвой дрон доставил в Тульскую тюрьму 700 граммов кокаина, а в Греции дрон доставил коробку мобильных телефонов. В апреле 2017 г. двое мужчин были заключены в тюрьму в Великобритании за использование таких дронов для доставки наркотиков класса A и B, а также мобильных телефонов

заключенным в трех тюрьмах в Херефордшире. Аналогичные инциденты с проникновением в тюрьмы были зарегистрированы в Канаде, Австралии и США13.

Преимущества использования робототехники для совершения преступлений очевидны: во-первых, возможность их применения в опасных зонах, в том числе биологически опасных; во-вторых, физическая безопасность лица, использующего эти технологии для совершения преступления (поскольку лицо находится, как правило, далеко от места использования дрона, у него нет страха быть обнаруженным, получить ранения или погибнуть, что психологически облегчает принятие решений, связанных с причинением вреда); в-третьих, по использованной робототехнике трудно идентифицировать нападавшего [10, с. 173].

Таким образом, деятельность роботов и искусственного интеллекта может быть признана общественно опасной и причинять вред охраняемым общественным отношениям [22, с. 465]. С приведенным мнением солидарны некоторые отечественные и зарубежные ученые [33-46].

4. Являясь комплексными устройствами, обладающими технической, цифровой и энергетической компонентами, робототехника и кибер-физические системы подвержены процессам, которые могут стать причиной возникновения вреда для различных групп общественных отношений.

Следует отметить, что тот или иной риск может возникнуть по нескольким основным причинам, обусловленным конструктивными особенностями роботов:

1) причины, связанные с механической подсистемой роботов:

- недостатки механизмов (приводов, моторов и т. д.), которые не были выявлены на этапе производства (разработки) или же проявились в процессе эксплуатации роботов;

- умышленное создание недекларированных возможностей механизмов роботов в целях совершения тех или иных действий противоправного характера;

2) причины, связанные с цифровой подсистемой роботов:

- недостатки программного обеспечения (уязвимости программного обеспечения, случайные ошибки программного обеспечения), которые

13 10 преступлений, совершенных с использованием дронов. URL: https://zen.yandex.ru/media/basetop/10-prestuplenii-sovershennyh-s-ispolzovaniem-dronov-5b6ad15e85904900aa272319

не были выявлены на этапе разработки или же проявились в процессе эксплуатации роботов;

- умышленное программирование (перепрограммирование) роботов на совершение тех или иных действий противоправного характера (недекларированные возможности программного обеспечения);

3) причины, связанные с подсистемой энергопитания роботов:

- недостатки питающих элементов (уязвимости питающих элементов), которые не были выявлены на этапе разработки или же проявились в процессе эксплуатации роботов;

- умышленное вмешательство в работу энергоэлементов роботов, направленное на совершение тех или иных действий противоправного характера (нарушение правил эксплуатации и норм безопасности энергопитания роботов).

5. Внедрение робототехники и киберфи-зических систем в промышленность, производство и в военную сферу сопряжено со значительными рисками причинения вреда различным объектам уголовно-правовой охраны. В предыдущих исследованиях нами были приведены примеры несчастных случаев, связанных с использованием робототехники в промышленных целях. Между тем гораздо большую обеспокоенность вызывает использование робототехники и киберфизических систем в военных целях.

Согласимся с опасением, высказанным директором ФСБ России А. В. Бортниковым, что международные террористические и иные экстремистские организации в ближайшем будущем станут более интенсивно использовать робототехнику для осуществления своих целей14.

В числе основных рисков отсутствия запрета на использование автономного летального оружия активистами отмечаются следующие:

1) фактическое предоставление автономному оружию, лишенному социально значимых качеств, таких как сострадание, этичность, права на определение дальнейшей судьбы отдельных лиц или группы людей: кто будет жить, а кто нет, будет решать «бездушная машина»;

2) растущие темпы разработок автономного летального оружия ведут к неизбежной «гонке роботизированного вооружения», что чревато

несомненной эскалацией на мировой арене, особенно, в горячих точках.

3) неспособность роботов отличать военных от мирных жителей может привести к крайне трагическим событиям;

4) отсутствие единых механизмов привлечения к ответственности за противоправные действия, вызванные полностью автономным оружием. На сегодняшний день неясно, кто должен нести ответственность: программист, производитель, оператор или сама машина.

5) возможность использования автономного оружия в невоенных целях. Автономное летальное оружие может использоваться для подавления протестов и поддержки диктаторских режимов. «Сила, задуманная как не смертельная, может стать причиной многих смертей»15.

«Вместе с тем международными экспертами признана необходимость сохранить ответственность человека за принятие решений о применении систем вооружений (такая ответственность не может быть передана машинам). Этот подход следует учитывать на протяжении всего жизненного цикла смертоносной автономной системы вооружений. Оценка рисков и меры по смягчению их последствий должны быть частью системы проектирования, разработки, испытания и развертывания новых технологий в любых оружейных системах» [9, с. 374] и в военных целях [21, с. 70].

6. С ростом автономности робототехники неуклонно будут расширяться и сферы, где совершаются посягательства с их участием. Ввиду чего требуется проработка механизмов уголовной ответственности в случае причинения вреда системами искусственного интеллекта и робототехники, имеющими высокую степень автономности при принятии решений16.

Таким образом, следует констатировать, что текущий уровень развития робототехники и кибер-физических систем, а также их вовлеченность в процессы жизнедеятельности общества обусловливают необходимость создания эффективных механизмов уголовно-правового регулирования.

Запрос на такое регулирование обусловлен:

- повышенной общественной опасностью отношений, складывающихся в сфере применения робототехники и киберфизических систем;

14 Егоров И. Атаки в сети и наяву // Рос. газета. Федерал. вып. 2018. 11 дек.

15 Угроза полностью автономного оружия. URL: https://www.stopkillerrobots.org/leam/

16 Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года : распоряжение Правительства Рос. Федерации от 19 авг. 2020 г. № 2129-р.

- темпами развития робототехники и кибер-физических систем, вследствие взятого государством курса на всеобщую цифровизацию;

- поливариативной природой роботов, высокой степенью адаптивности и их растущей доступностью для широких слоев населения как предпосылки для «вовлечения» роботов в различные направления преступной деятельности, вплоть до самостоятельного совершения ими отдельных преступных посягательств;

- подверженностью робототехники и кибер-физических систем процессам, которые могут

стать причиной возникновения вреда для различных групп общественных отношений;

- активным внедрением робототехники и киберфизических систем в промышленность, производство и в военную сферу, сопряженным со значительными рисками причинения вреда различным объектам уголовно-правовой охраны.

- ростом автономности робототехники и ки-берфизических систем и, как результат, расширением сферы, где совершаются посягательства с их участием.

Список литературы

1. Бавсун М. В. Целесообразность в уголовном праве : автореф. дис. ... канд. юрид. наук. Омск, 2002. 22 с.

2. Бавсун М. В. Целесообразность в уголовном праве. Омск : Омская академия МВД России, 2004. 172 с.

3. Бавсун М. В., Марцев А. И. Целесообразность в уголовном праве // Известия высших учебных заведений. Правоведение. 2003. № 4 (249). С. 94-106.

4. Бегишев И. Р. Уголовно-правовые и криминологические аспекты применения робототехники // Алтайский юридический вестник. 2020. № 4 (32). С. 72-79.

5. Бегишев И. Р., Хисамова З. И. Искусственный интеллект и уголовный закон. М. : Проспект, 2021. 192 с.

6. Блажко П. К. Совокупность правонарушений по советскому праву (понятие и юридическое значение). Казань : Изд-во Казан. гос. ун-та, 1988. 97 с.

7. Бодаевский В. П., Зимин В. М., Чучаев А. И. Уголовное право. Общая часть : учеб. М. : Проспект, 2020. 251 с.

8. Бодаевский В. П., Соловьёв Е. А. Социальная обусловленность уголовно-правового положения // Научный вестник Омской академии МВД России. 2020. № 1 (76). С. 20-25. DOI: 10.24411/1999-625Х-2020-14004.

9. Габов А. В., Хаванова И. А. Автономия боевых роботов и право // Пермский юридический альманах. 2019. № 2. С. 361-378.

10. Грачева Ю. В., Арямов А. А. Роботизация и искусственный интеллект: уголовно-правовые риски в сфере общественной безопасности // Актуальные проблемы российского права. 2020. Т. 15, № 6. С. 169-178. DOI: 10.17803/19941471.2020.115.6.169-178.

11. Григорян Р. Г. Социально-экономические и информационно-технологические основания криминализации мошенничества в сфере компьютерной информации // Юридический вестник Самарского университета. 2019. Т. 5, № 3. С. 141-146. DOI: 10.18287/2542-047Х-2019-5-3-141-146.

12. Камалова Г. Г. Некоторые вопросы уголовно-правовой ответственности в сфере применения систем искусственного интеллекта и робототехники // Вестник Удмуртского университета. Сер.: Экономика и право. 2020. Т. 30, № 3. С. 382-388. DOI: 10.35634/2412-9593-2020-30-3-382-388.

13. Кленова Т. В. Основы теории кодификации уголовно-правовых норм. Самара : Самар. гос. аэрокосм. ун-т им. акад. С. П. Королёва, 2001. 244 с.

14. Кобзева Е. В. О содержании и соотношении понятий «общественная опасность» и «общественная вредность» деяний в общей теории права // Евразийский юридический журнал. 2018. № 12 (127). С. 105-107.

15. Кудрявцев В. Н., Яковлев А. М. Основания уголовно-правового запрета: криминализация и декриминализация. М. : Наука, 1982. 304 с.

16. Кузнецова Н. Ф. Избранные труды. СПб. : Юрид. центр «Пресс», 2003. 834 с.

17. Лопашенко Н. А. Межотраслевая дифференциация уголовной и иных видов юридической ответственности: итоги теоретического моделирования. М. : Юрлитинформ, 2021. 480 с.

18. Лопашенко Н. А. Уголовная политика. М. : Волтерс Клувер, 2009. 579 с.

19. Малеин Н. С. Правонарушение: понятие, причины, ответственность. М. : Юрид. лит., 1985. 192 с.

20. Марцев А. И. Преступление: социально-правовой анализ : учеб. пособие. Омск : Ом. акад. МВД России, 2012. 75 с.

21. Морхат П. М. Особенности правового регулирования применения юнитов искусственного интеллекта в различных целях // Право и образование. 2018. № 8. С. 69-77.

22. Мосечкин И. Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник Санкт-Петербургского университета. Право. 2019. Т. 10, № 3. С. 461-476. DOI: 10.21638/ spbu14.2019.304.

23. Незнамов А. В. О концепции регулирования технологий искусственного интеллекта и робототехники в России // Закон. 2020. № 1. С. 171-185.

24. Орлеан А. М. Теоретические основы исследования оснований и принципов криминализации конкретного деяния // Вектор науки Тольяттинского государственного университета. Сер.: Юридические науки. 2013. № 3 (14). С. 28-31.

25. Петрунин Д. А. Социальная обусловленность уголовной ответственности за уклонение от призыва на военную службу и прохождения альтернативной гражданской службы // Научно-методический электронный журнал «Концепт». 2014. Т. 20. С. 1806-1810.

26. Пионтковский А. А. Учение о преступлении по советскому уголовному праву. Курс советского уголовного права. Общая часть. М. : Госюриздат, 1961. 666 с.

27. Поцелуев Е. Л. Эволюция категории «правонарушение» в истории западной и отечественной юридической мысли (XVII - начало ХХ в.). Иваново : Изд-во Иванов. гос. ун-та, 2004. 156 с.

28. Репетева О. Е. Правонарушения и юридическая ответственность в сфере труда: общетеоретический аспект. Тольятти : Изд-во Тольят. гос. ун-та, 2009. 151 с.

29. Савенок А. Л. Социальная обусловленность уголовного закона // Вестник Академии МВД Республики Беларусь. 2011. № 1 (21). С. 130-135.

30. Телятникова М. О. Основание и критерии криминализации общественно опасного деяния // Труды Оренбургского института (филиала) Московской государственной юридической академии. 2013. Вып. 18. С. 143-146.

31. Тоболкин П. С. Социальная обусловленность уголовно-правовых норм. Свердловск : Сред.-Урал. книж. изд-во, 1983. 177 с.

32. Хисамова З. И., Бегишев И. Р. Сущность искусственного интеллекта и проблема определения правосубъектности // Вестник Московского государственного областного университета. Сер.: Юриспруденция. 2020. № 2. С. 96-106. DOI: 10.18384/2310-6794-2020-2-96-106.

33. Artificial Intelligence as a Subject of Law: Pros and Cons / R. I. Dremliuga, A. Yu. Mamychev, O. A. Dremliuga, Yu. S. Matyuk // Contemporary Dilemmas: Education, Politics and Values. 2019. Vol. 7, № 1. P. 127-130.

34. Ashrafian H. Artificial Intelligence and Robot Responsibilities: Innovating Beyond Rights // Science and Engineering Ethics. 2015. Vol. 21, № 2. P. 317-326. DOI: 10.1007/s11948-014-9541-0.

35. Bryson J. J., Diamantis M. E., Grant T. D. Of, for, and by the People: the Legal Lacuna of Synthetic Persons // Artificial Intelligence and Law. 2017. Vol. 25, № 3. P. 273-291. DOI: 10.1007/s10506-017-9214-9.

36. Criminal Liability of the Artificial Intelligence / D. V. Kirpichnikov, Yu. Grebneva, H. Okagbue, A. Pavlyuk // E3S Web of Conferences. 2020. Vol. 159. P. 04025. DOI: 10.1051/e3sconf/202015904025.

37. Dremliuga R., Kuznetcov P., Mamychev A. Yu. Criteria for Recognition of AI as a Legal Person // Journal of Politics and Law. 2019. Vol. 12, № 3. P. 105-112. DOI: 10.5539/jpl.v12n3p105.

38. Dremliuga R., Prisekina N. The Concept of Culpability in Criminal Law and AI Systems // Journal of Politics and Law. 2020. Vol. 13, № 3. P. 256-262. DOI: 10.5539/jpl.v13n3p256.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

39. Hallevy G. The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control // Akron Intellectual Property Journal. 2010. Vol. 4, iss. 2. P. 171-201.

40. Shestak V. A., Volevodz A. G. Modern Requirements of the Legal Support of Artificial Intelligence: a view from Russia // Russian Journal of Criminology. 2019. Vol. 13, № 2. P. 197-206. DOI: 10.17150/2500-4255.2019.13(2).197-206.

41. Shestak V. A., Volevodz A. G., Alizade V. A. On the Possibility of Doctrinal Perception of Artificial Intelligence as the Subject of Crime in the System of Common Law: using the Example of the U.S. Criminal Legislation // Russian Journal of Criminology. 2019. Vol. 13, № 4. P. 547-554. DOI: 10.17150/2500-4255.2019.13(4).547-554.

42. Simmler М., Markwalder N. Guilty Robots? - Rethinking the Nature of Culpability and Legal Personhood in an Age of Artificial Intelligence // Criminal Law Forum. 2019. Vol. 30, № 1. P. 1-31. DOI: 10.1007/s10609-018-9360-0.

43. Stepanenko D. A., Bakhteev D. V., Evstratova Yu. A. The use of Artificial Intelligence Systems in Law Enforcement // Russian Journal of Criminology. 2020. Vol. 14, № 2. P. 206-214. DOI: 10.17150/2500-4255.2020.14(2).206-214.

44. Sukhodolov A. P., Bychkov A. V., Bychkova A. M. Criminal Policy for Crimes Committed Using Artificial Intelligence Technologies: State, Problems, Prospects // Journal of Siberian Federal University. Humanities & Social Sciences. 2020. Vol. 13, № 1. P. 116-122. DOI: 10.17516/1997-1370-0542.

45. Sukhodolov A. P., Bychkova A. M. Artificial Intelligence in Crime Counteraction, Prediction, Prevention and Evolution // Russian Journal of Criminology. 2018. Vol. 12, № 6. P. 753-766. DOI: 10.17150/2500-4255.2018.12(6).753-766.

46. Theoretical and Legal Bases ofArtificial Intelligence Punishment System Development / R. R. Gaifutdinov, Z. I. Khisamova, E. L. Sidorenko, M. A. Efremova, T. M. Lopatina, D. V. Kirpichnikov // Revista San Gregorio. 2020. № 41. P. 159-164. DOI: 10.36097/rsan.v1i41.1489.

References

1. Bavsun M. V. Tselesoobraznost' v ugolovnom prave. Avtoref. dis. kand. yurid. nauk [Expediency in Criminal Law. Ext. Abstr. Cand. Legal Sci. Dis.]. Omsk, 2002. 22 s.

2. Bavsun M. V. Tselesoobraznost' v ugolovnom prave [Expediency in Criminal Law]. Omsk, Omsk Academy of the Ministry of the Interior of Russia Publ., 2004. 172 p.

3. Bavsun M. V., Martsev A. I. Tselesoobraznost' v ugolovnom prave [Expediency in Criminal Law]. Izvestiya vysshikh uchebnykh zavedenii. Pravovedenie - Proceedings of Higher Educational Institutions. Pravovedenie, 2003, no. 4 (249), pp. 94-106.

4. Begishev I. R. Ugolovno-pravovye i kriminologicheskie aspekty primeneniya robototekhniki [Criminal Legal and Criminological Aspects Applications of Robotics]. Altaiskii yuridicheskii vestnik - Altai Law Journal, 2020, no. 4 (32), pp. 72-79.

5. Begishev I. R., Khisamova Z. I. Iskusstvennyi intellektiugolovnyizakon [Artificial Intelligence and Criminal Law]. Moscow, Prospekt Publ., 2021. 192 p.

6. Blazhko P. K. Sovokupnost'pravonarushenii po sovetskomu pravu (ponyatie i yuridicheskoe znachenie) [The Totality of Offenses Under Soviet Law (Concept and Legal Meaning)]. Kazan, Kazan State University Publ., 1988. 97 p.

7. Bodaevsky V. P., Zimin V. M., Chuchaev A. I. Ugolovnoepravo. Obshchaya chast'[Criminal Law. General Part]. Moscow, Prospekt Publ., 2020. 251 p.

8. Bodaevsky V. P., Soloviev E. A. Sotsial'naya obuslovlennost' ugolovno-pravovogo polozheniya [Social Dependence of Criminal Law Provision]. Nauchnyi vestnik Omskoi akademii MVD Rossii - Scientific Bulletin of the Omsk Academy of the MIA of Russia, 2020, no. 1 (76), pp. 20-25. DOI: 10.24411/1999-625X-2020-14004.

9. Gabov A. V., Khavanova I. A. Avtonomiya boevykh robotov i pravo [Autonomy of Killer Robots and the Law]. Permskii yuridicheskii al'manakh - Perm Legal Almanac, 2019, no. 2, pp. 361-378.

10. Gracheva Yu. V., Aryamov A. A. Robotizatsiya i iskusstvennyi intellekt: ugolovno-pravovye riski v sfere obshchestvennoi bezopasnosti [Robotization and Artificial Intelligence: Criminal Law Risks in the Field of Public Security]. Aktual'nye problemy rossiiskogoprava-ActualProblems of Russian Law, 2020, vol. 15, no. 6, pp. 169-178. DOI: 10.17803/1994-1471.2020.115.6.169178.

11. Grigoryan R. G. Sotsial'no-ekonomicheskie i informatsionno-tekhnologicheskie osnovaniya kriminalizatsii moshenni-chestva v sfere komp'yuternoi informatsii [Socio-Economic and Information Technology Bases of Criminalization of Fraud in Computer Information]. Yuridicheskii vestnik Samarskogo universiteta - Juridical Journal of Samara University, 2019, vol. 5, no. 3, pp. 141-146. DOI: 10.18287/2542-047X-2019-5-3-141-146.

12. Kamalova G. G. Nekotorye voprosy ugolovno-pravovoi otvetstvennosti v sfere primeneniya sistem iskusstvennogo intellekta i robototekhniki [Some Questions of Criminal Legal Responsibility in the Field of Application of Artificial Intelligence Systems and Robotics]. Vestnik Udmurtskogo universiteta. Ser.: Ekonomika i pravo - Bulletin of Udmurt University. Series Economics and Law, 2020, vol. 30, no. 3, pp. 382-388. DOI: 10.35634/2412-9593-2020-30-3-382-388.

13. Klenova T. V. Osnovy teorii kodifikatsii ugolovno-pravovykh norm [Foundations of the Theory of Codification of Criminal Law]. Samara, Samara State Aerospace University named after academician S. P. Korolev Publ., 2001. 244 p.

14. Kobzeva E. V. O soderzhanii i sootnoshenii ponyatii "obshchestvennaya opasnost'" i "obshchestvennaya vrednost'" deyanii v obshchei teorii prava [About the Content and Correlation of Concepts of "Social Danger" and "Social Harm" Acts in the General Theory of Law]. Evraziiskii yuridicheskii zhurnal - Eurasian Law Journal, 2018, no. 12 (127), pp. 105-107.

15. Kudryavtsev V. N., Yakovlev A. M. Osnovaniya ugolovno-pravovogo zapreta: kriminalizatsiya i dekriminalizatsiya [Grounds for Criminal Law Prohibition: Criminalization and Decriminalization]. Moscow, Nauka Publ., 1982. 304 p.

16. Kuznetsova N. F. Izbrannye trudy [Selected Works]. St. Petersburg, Yuridicheskii tsentr "Press" Publ., 2003. 834 p.

17. Lopashenko N. A. Mezhotraslevaya differentsiatsiya ugolovnoi i inykh vidov yuridicheskoi otvetstvennosti: itogi teoreticheskogo modelirovaniya [Cross-Sectoral Differentiation of Criminal and Other Types of Legal Liability: The Results of Theoretical Modeling]. Moscow, Yurlitinform Publ., 2021. 480 p.

18. Lopashenko N. A. Ugolovnayapolitika [Criminal Policy]. Moscow, Volters Kluver Publ., 2009. 579 p.

19. Malein N. S. Pravonarushenie: ponyatie, prichiny, otvetstvennost' [Offense: Concept, Reasons, Responsibility]. Moscow, Yuridicheskaya literatura Publ., 1985. 192 p.

20. Martsev A. I. Prestuplenie: sotsial'no-pravovoi analiz [Crime: Social and Legal Analysis]. Omsk, Omsk Academy of the Ministry of the Interior of Russia Publ., 2012. 75 p.

21. Morkhat P. M. Osobennosti pravovogo regulirovaniya primeneniya yunitov iskusstvennogo intellekta v razlichnykh tselyakh [Features of the Legal Regulation of the Use of Artificial Intelligence Units for Various Purposes]. Pravo i obrazovanie -Law and Education, 2018, no. 8, pp. 69-77.

22. Mosechkin I. N. Iskusstvennyi intellekt i ugolovnaya otvetstvennost': problemy stanovleniya novogo vida sub"ekta prestupleniya [Artificial Intelligence and Criminal Liability: Problems of Becoming a New Type of Crime Subject]. Vestnik Sankt-Peterburgskogo universiteta. Pravo - Vestnik of Saint Petersburg University. Law, 2019, vol. 10, no. 3, pp. 461-476. DOI: 10.21638/spbu14.2019.304.

23. Neznamov A. V. O kontseptsii regulirovaniya tekhnologii iskusstvennogo intellekta i robototekhniki v Rossii [Concept for Artificial Intelligence and Robotics Technology Regulation in Russia]. Zakon, 2020, no. 1, pp. 171-185.

24. Orlean A. M. Teoreticheskie osnovy issledovaniya osnovanii i printsipov kriminalizatsii konkretnogo deyaniya [Theoretical Bases of Research of Criteria for Criminalization]. Vektor nauki Tol ''yattinskogogosudarstvennogo universiteta. Ser.: Yuridicheskie nauki - Science Vector of Togliatti State University. Series: Legal Sciences, 2013, no. 3 (14), pp. 28-31.

25. Petrunin D. A. Sotsial'naya obuslovlennost' ugolovnoi otvetstvennosti za uklonenie ot prizyva na voennuyu sluzhbu i prokhozhdeniya al'ternativnoi grazhdanskoi sluzhby [Social Conditionality of Criminal Liability for Evading Military Service and Alternative Civilian Service]. Nauchno-metodicheskii elektronnyi zhurnal "Kontsept' - Scientific-methodological electronic journal "Koncept", 2014, vol. 20, pp. 1806-1810.

26. Piontkovskii A. A. Uchenie o prestuplenii po sovetskomu ugolovnomu pravu. Kurs sovetskogo ugolovnogo prava. Obshchaya chast' [Teaching About a Crime Under Soviet Criminal Law. The Course of Soviet Criminal Law. A Common Part]. Moscow, Gosyurizdat Publ., 1961. 666 p.

27. Potseluev E. L. Evolyutsiya kategorii "pravonarushenie" v istorii zapadnoi i otechestvennoi yuridicheskoi mysli (XVII -nachalo XX v.) [Evolution of the Category "Offense" in the History of Western and Domestic Legal Thought (XVII - Early XX Century)]. Ivanovo, Ivanovo State University Publ., 2004. 156 p.

28. Repeteva O. E. Pravonarusheniya iyuridicheskaya otvetstvennost'v sfere truda: obshcheteoreticheskii aspect [Offenses and Legal Responsibility in the World of Work: A General Theoretical Aspect]. Togliatti, Togliatti State University Publ., 2009. 151 p.

29. Savenok A. L. Sotsial'naya obuslovlennost' ugolovnogo zakona [Social Conditionality of the Criminal Law]. Vestnik Akademii MVD Respubliki Belarus' - Bulletin of the Academy of the Ministry of Internal Affairs of the Republic of Belarus, 2011, no. 1 (21), pp. 130-135.

30. Telyatnikova M. O. Osnovanie i kriterii kriminalizatsii obshchestvenno opasnogo deyaniya [The Basis and Criteria Criminalization Socially Dangerous Act]. Trudy Orenburgskogo instituta (filiala) Moskovskoi gosudarstvennoi yuridicheskoi akademii - Proceedings of the Orenburg Institute (Branch) of the Moscow State Law Academy, 2013, iss. 18, pp. 143-146.

31. Tobolkin P. S. Sotsial'naya obuslovlennost' ugolovno-pravovykh norm [Social Conditionality of the Criminal Law]. Sverdlovsk, Middle Ural Book Publ., 1983. 177 p.

32. Hisamova Z. I., Begishev I. R. Sushchnost' iskusstvennogo intellekta i problema opredeleniya pravosub"ektnosti [The Nature of Artificial Intelligence and the Problem of Legal Personality Determination]. Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Ser.: Yurisprudentsiya - Bulletin of the Moscow State Region University. Series: Jurisprudence, 2020, no. 2, pp. 96-106. DOI: 10.18384/2310-6794-2020-2-96-106.

33. Dremliuga R. I., Mamychev A. Yu., Dremliuga O. A., Matyuk Yu. S. Artificial Intelligence as a Subject of Law: Pros and Cons. Dilemas Contemporáneos: Educación, Política y Valores - Contemporary Dilemmas: Education, Politics and Values, 2019, vol. 7, no. 1, pp. 127-130.

34. Ashrafian H. Artificial Intelligence and Robot Responsibilities: Innovating Beyond Rights. Science and Engineering Ethics, 2015, vol. 21, no. 2, pp. 317-326. DOI: 10.1007/s11948-014-9541-0.

35. Bryson J. J., Diamantis M. E., Grant T. D. Of, for, and by the People: the Legal Lacuna of Synthetic Persons. Artificial Intelligence and Law, 2017, vol. 25, no. 3, pp. 273-291. DOI: 10.1007/s10506-017-9214-9.

36. Kirpichnikov D. V., Grebneva Yu., Okagbue H., Pavlyuk A. Criminal Liability of the Artificial Intelligence. E3S Web of Conferences, 2020, vol. 159, p. 04025. DOI: 10.1051/e3sconf/202015904025.

37. Dremliuga R., Kuznetcov P., Mamychev A. Yu. Criteria for Recognition of AI as a Legal Person. Journal of Politics and Law, 2019, vol. 12, no. 3, pp. 105-112. DOI: 10.5539/jpl.v12n3p105.

38. Dremliuga R., Prisekina N. The Concept of Culpability in Criminal Law and AI Systems. Journal of Politics and Law, 2020, vol. 13, no. 3, pp. 256-262. DOI: 10.5539/jpl.v13n3p256.

39. Hallevy G. The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control. Akron Intellectual Property Journal, 2010, vol. 4, iss. 2, pp. 171-201.

40. Shestak V. A., Volevodz A. G. Modern Requirements of the Legal Support of Artificial Intelligence: A View from Russia. Russian Journal of Criminology, 2019, vol. 13, no. 2, pp. 197-206. DOI: 10.17150/2500-4255.2019.13(2).197-206.

41. Shestak V. A., Volevodz A. G., Alizade V. A. On the Possibility of Doctrinal Perception of Artificial Intelligence as the Subject of Crime in the System of Common Law: Using the Example of the U.S. Criminal Legislation. Russian Journal of Criminology, 2019, vol. 13, no. 4, pp. 547-554. DOI: 10.17150/2500-4255.2019.13(4).547-554.

42. Simmler M., Markwalder N. Guilty Robots? - Rethinking the Nature of Culpability and Legal Personhood in an Age of Artificial Intelligence. Criminal Law Forum, 2019, vol. 30, no. 1, pp. 1-31. DOI: 10.1007/s10609-018-9360-0.

43. Stepanenko D. A., Bakhteev D. V., Evstratova Yu. A. The Use of Artificial Intelligence Systems in Law Enforcement. Russian Journal of Criminology, 2020, vol. 14, no. 2, pp. 206-214. DOI: 10.17150/2500-4255.2020.14(2).206-214.

44. Sukhodolov A. P., Bychkov A. V., Bychkova A. M. Criminal Policy for Crimes Committed Using Artificial Intelligence Technologies: State, Problems, Prospects. Journal of Siberian Federal University. Humanities & Social Sciences, 2020, vol. 13, no. 1, pp. 116-122. DOI: 10.17516/1997-1370-0542.

45. Sukhodolov A. P., Bychkova A. M. Artificial Intelligence in Crime Counteraction, Prediction, Prevention and Evolution. Russian Journal of Criminology, 2018, vol. 12, no. 6, pp. 753-766. DOI:10.17150/2500-4255.2018.12(6).753-766.

46. Gaifutdinov R. R., Khisamova Z. I., Sidorenko E. L., Efremova M. A., Lopatina T. M., Kirpichnikov D. V. Theoretical and Legal Bases of Artificial Intelligence Punishment System Development. Revista San Gregorio, 2020, no. 41, pp. 159-164. DOI: 10.36097/rsan.v1i41.1489.

Дата поступления статьи | Article received date 31.01.2021

Дата поступления после рецензирования и доработки | Article after peer review and revision received date

26.02.2021

Дата приема к публикации | Article accepted date 04.03.2021

i Надоели баннеры? Вы всегда можете отключить рекламу.