Государственная служба и кадры. 2023. № 5. С. 276 — 279. State service and personnel. 2023;(5):276 — 279.
Научная статья УДК 343
https://doi.org/10.24412/2312-0444-2023-5-276-279 NIION: 2012-0061-05/23-315
EDN: https://elibrary.ru/UDBGZS MOSURED: 77/27-008-2023-05-515
Искусственный интеллект: субъект или способ совершения преступления?
Наталья Викторовна Шмяткова
Иркутский институт (филиал) Всероссийского государственного университета юстиции
(РПА Минюста России), Иркутск, Россия, [email protected]
Аннотация. Актуальность темы исследования обусловлена ростом влияния самообучаемых программ в жизни человека и их высокой интенсивностью развития. Отмечается, что уголовное законодательство не отличается оперативностью изменений, охватывающих появление новых отношений. В законодательстве отсутствуют какие-либо составы преступлений, связанные с совершением общественно опасных деяний посредством использования нейронных сетей, искусственного интеллекта или самим искусственным интеллектом. За последние несколько лет государством принимаются попытки к законодательному урегулированию отношений между человеком и «роботом», но, следует отметить, что законодательство существенно отстаёт от современных реалий. Цель исследования — выявление и теоретическое обоснование решения проблем привлечения к уголовной ответственности за совершение общественно опасных деяний, связанных с использованием искусственного интеллекта или совершаемых самим искусственным интеллектом. Методологической основой исследования традиционно стал диалектический метод познания, поскольку он позволил оценить предмет исследования во взаимосвязи с нормами уголовного, гражданского права и общественными явлениями. Автором предложены варианты внесения изменений в статью 63 УК РФ.
Ключевые слова: искусственный интеллект, преступление, субъект, уголовная ответственность, объективная сторона, преступления, способ совершения преступления
Для цитирования: Шмяткова Н.В. Искусственный интеллект: субъект или способ совершения преступления? // Государственная служба и кадры. 2023. № 5. С. 276—279. https://doi.org/10.24412/2312-0444-2023-5-276-279 EDN: https://elibrary.ru/UDBGZS
Original article
Artificial intelligence: the subject or the method of committing a crime?
Natalya V. Shmyatkova
Irkutsk Institute (branch) of the All-Russian State University of Justice (RPA of the Ministry
of Justice of Russia), Irkutsk, Russia, [email protected]
Abstract. The relevance of the research topic is due to the growing influence of self-learning programs in human life and their high intensity of development. It is noted that criminal legislation is not distinguished by the speed of changes that cover the emergence of new relations. The legislation does not contain any elements of crime related to the commission of socially dangerous acts through the use of neural networks, artificial intelligence, or artificial intelligence itself. Over the past few years, the state has been making attempts to legislatively regulate the relationship between a person and a "robot" but it should be noted that the legislation lags significantly behind modern realities. The purpose of this study is to identify and theoretically substantiate the solution to the problems of bringing to criminal liability for committing socially dangerous acts related to the use of artificial intelligence or committed by artificial intelligence itself. The methodological basis of the study has traditionally been the dialectical method of cognition, since it made it possible to evaluate the subject of research in relation to the norms of criminal, civil law and social phenomena. The author has proposed options for amending Article 63 of the Criminal Code of the Russian Federation.
Keywords: artificial intelligence, crime, subject, criminal liability, objective side, crimes, method of committing a crime
For citation: Shmyatkova N.V. Artificial intelligence: the subject or the method of committing a crime? // State service and personnel. 2023. (5):276—279. (In Russ.). https://doi.org/10.24412/2312-0444-2023-5-276-279 EDN: https:// elibrary.ru/UDBGZS
© WMHTKOBa H.B., 2023
№ 5/2023
За 2022 год наблюдается прирост доли инцидентов, затронувших веб-ресурсы организаций: с 17% до 22% относительно итогов 2021 года. Наибольший удар пришелся на госучреждения: количество успешных атак, направленных на сайты, выросло более чем в 2 раза. В 2022 году выросло количество инцидентов с применением шпионского программного обеспечения, особенно в атаках на частных лиц: к концу 2022 года эти вредоносы использовались в каждой второй успешной атаке на пользователей. Приведенные выше статистические данные свидетельствуют о том, что подобные сайты и системы создаются в целях получения какой-либо выгоды для себя или других лиц.
Подобные действия в уголовно-правовом пространстве практически никак не регулируются. В системе МВД РФ по факту хищения денежных средств с банковских счетов граждан и организаций с помощью роботизированных систем возбуждаются уголовные дела по ст. ст. 158, 159 УК РФ. При совершении подобным способом хищений информации путем взлома интернет-ресурсов возбуждаются уголовные дела по ст. 272 УК РФ. При этом около 90% возбужденных уголовных дел по данным статьям остаются нераскрытыми и подлежат приостановлению в соответствии с п. 1 ч. 1 ст. 208 УПК РФ. То есть, отсутствуют статистические данные о количестве совершенных преступлений с использованием систем искусственного интеллекта.
Степень разработанности темы данной публикации указывает на то, что в последние годы юристы заинтересованы в исследованиях на тему ответственности за вред, причинённый искусственным интеллектом. Доктор юридических наук П.М. Морхат изучал в своей работе вопрос правосубъектности искусственного интеллекта в сфере права [3; 420]. Доктор юридических наук
A.A. Карцхия в своих трудах рассматривал вопросы гражданско-правовой модели регулирования цифровых технологий, выделяя новые цифровые объекты, к числу которых относит искусственный интеллект [2; 44]. Доктор юридических наук E.A. Русскевич в своих исследованиях изучает вопросы ответственности за преступления, совершаемые с использованием информационно-коммуникационных технологий, выделяет проблемы их квалификации, указывая на развитие технологий больших данных, в число которых включает системы искусственного интеллекта [3; 521] Помимо этого, отдельные вопросы общеправового и криминалистического значения технологии искусственного интеллекта рассматривались в работах С.Б. Вехова, И.Р. Бегишева, С.В. Зуева,
B.А. Мещерякова, А.В. Незнамова, А.Н. Охлу-пиной, Н.С. Полевого, В.Ю. Толстолуцкого и
многих других учёных. Значение работ, приведенных выше, велико, в них впервые были подняты вопросы об искусственном интеллекте в правовой системе РФ, о его месте, а также предложены некоторые способы их решения.
Автором было проведено исследование, согласно которому Общее представление о системах искусственного интеллекта из числа сотрудников МУ МВД России «Красноярское» и СЧ ГУ МВД России по Красноярскому краю имеют 90%. Из указанных 90% половина, а именно 50% имеют представление о нормативно-правовом регулировании систем искусственного интеллекта в РФ. Ими было отмечено о необходимости закрепления правового положения систем искусственного интеллекта в РФ, разработке единого понятия, признаков и функций последнего. 100% опрошенных отмечают, что сталкивались с преступлениями, совершаемыми с использованием систем искусственного интеллекта. Однако ввиду отсутствия правового регулирования последнего имеются трудности при разграничении подобных преступлений от преступлений с использованием вредоносных компьютерных программ, не обладающих какими-либо признаками искусственного интеллекта.
Согласно данным опрошенных лиц из числа сотрудников МУ МВД России «Красноярское» подобные преступления чаще всего встречаются в сфере преступлений против собственности. 49 % регистрируемых преступлений из числа преступлений с использованием различных 1Т-тех-нологий и программ- хищения денежных средств с банковского счета; 35% преступлений из числа преступлений с использованием различных 1Т-технологий и программ-мошенничество; 16% преступлений из числа преступлений с использованием различных 1Т-технологий и программ-преступления с использованием вредоносных компьютерных программ. Согласно данным опрошенных лиц из числа сотрудников СЧ ГУ МВД России по Красноярскому краю из общего числа регистрируемых преступлений процент преступлений с использованием различных 1Т-технологий и программ составляет 47%. Из их числа 19% составляют преступления, связанные с хищением денежных средств с банковского счета; 27% преступления, связанные с мошенничеством; 38% преступления, совершаемые в составе организованных преступных групп и преступных сообществах (прим. ст. 210 УК РФ); остальные 16% — преступления с использованием вредоносных компьютерных программ.
При возбуждении уголовных дел исследуемой категории преступлений следователями территориальных органов МУ МВД России «Красноярское» 91% преступлений возбуждаются по факту
№ 5/2023
совершения, то есть в отношении неустановленного лица. При этом при возбуждении уголовных дел исследуемой категории преступлений следователями следственных частей ГУ МВД России по Красноярскому краю 67% преступлений возбуждаются по факту совершения, то есть в отношении неустановленного лица.
В ходе расследования уголовных дел следователями из числа территориальных органов МУ МВД России «Красноярское» в 15% случаях удается установить виновное лицо и привлечь его в качестве обвиняемого по уголовному делу.
В ходе расследования уголовных дел следователями следственных частей ГУ МВД России по Красноярскому краю в 12% случаях удается установить виновное лицо и привлечь его в качестве обвиняемого по уголовному делу.
При изучении вопроса о количестве направленных с обвинительным заключением дел в суд органами предварительного следствия территориальными органами МВД установлено: преступлений с использованием 1Т-технологий и компьютерных программ было направлено в 2021 году — 108, в 2022 году — 194, за период с января по апрель 2023 года — 94.
Необходимо отметить, что в уголовной статистике МВД РФ отсутствует какой-либо критерий «с использованием систем искусственного интеллекта» . В статистических данных лишь проставляются коды «с использованием сети Интернет», «с использованием мессенджеров». То есть, отсутствуют какие-либо статистические данные, позволяющие определить точное количество преступлений, совершаемых именно с использованием систем искусственного интеллекта.
Анализируя способы совершения указанных преступлений, можно отметить, что они совершаются с помощью систем искусственного интеллекта и роботизированных систем, созданных с корыстным мотивом. По своему виду системы искусственного интеллекта можно разделить на «простые» и «сложные». «Простые» системы создаются для определенных целей и способны выполнять одну или несколько заранее заданных задач. В то время как «сложные» создаются для комплекса различных целей и способны выполнять множество различных задач, анализировать и принимать самостоятельно решения. По мнению А.В. Ши-лейко такой «искусственный интеллект» способен к компьютерному моделированию разумного мышления и поведения человека [5; 4].
При совершении преступлений с использованием «простых» систем искусственного интеллекта, можно сказать о том, что они выступают в качестве способа совершения преступления. В связи с чем, считаю необходимым для уголовно-правового регулирования данного вопроса вне-
сти изменения в статью 63 УК РФ и дополнить следующим образом: «п. «с» ч. 1 ст. 63 УК РФ: совершение преступления с использованием систем искусственного интеллекта». Внесение в качестве квалифицирующего признака в особенную часть УК РФ считаю нецелесообразным в связи с тем, что указанные преступления могут совершаться в отношении любых общественных отношений, охраняемых УК РФ. В данном случае виновным за совершение деяния будет признаваться лицо, создавшее данную систему, или его использовавшее.
Что касается «сложного» искусственного интеллекта, то для него характерна самообучаемость. Он может выходить за рамки заранее заданного алгоритма задач и самостоятельно принимать решения. Его деятельность может быть не связана с действиями его производителя или использующего лица. При этом, мотив его создания может быть благородным, он может быть создан в научных целях, но дальнейшее его поведение он определяет самостоятельно, за его действиями не стоит человеческий разум. Фактически он выполняет функции субъекта преступления. Некоторые авторы западной уголовно-правовой доктрины отмечают о необходимости разработки специальной теории уголовной ответственности за действия искусственного интеллекта, которая бы охватывала «производителя и/ или пользователя» систем искусственного интеллекта [4; 244]. По мнению автора, ситуации, когда при создании искусственного интеллекта была допущена ошибка, представляют наибольшую сложность. Могут быть случаи преднамеренного использования систем искусственного интеллекта в целях совершения преступления, либо, когда при создании систем искусственного интеллекта была допущена ошибка. Но и здесь, при установлении виновного лица могут возникнуть серьезные проблемы, необходимо установить, чьи именно действия привели к наступлению общественно-опасных последствий. В создании искусственного интеллекта принимает участие не один человек. При этом, в ходе работы системы «сложного» искусственного интеллекта способны к самообучению и изменению действий в зависимости от условий и факторов. Системы искусственного интеллекта способны к выходу за границы установленных ее создателем ограничений. В связи с чем, определить границы вины разработчика, пользователя и других лиц за наступление последствий в результате действий систем искусственного интеллекта, крайне затруднительно.
Но на данном этапе развития уголовного законодательства признавать искусственный интеллект полноценным субъектом преступления преждевременно. Необходимо в каждом конкретном
№ 5/2023
случае, с учетом всех обстоятельств, решать вопрос об ответственности лица, создавшего или использующего его, и рассматривать такое деяние, совершенное в форме легкомыслия или небрежности. При этом необходимо установление причинно-следственной связи между создателем или пользователем такой системы и наступившими последствиями. То есть, необходимо установить мог ли создатель или пользователь систем искусственного интеллекта каким-либо образом повлиять на его действия, осуществлялся ли дистанционный контроль за искусственным интеллектом в соответствии с инструкциями или же наоборот, не было никакого вмешательства в силу легкомыслия или небрежности.
Так, можно сделать вывод о том, что уголовное законодательство в данной сфере запаздывает. «Сложный» искусственный интеллект самостоятельно может выполнять объективную сторону преступления, его деятельность может нанести вред любым общественным отношениям. Но признавать искусственный интеллект полноценным субъектом преступления преждевременно. При этом необходимо установление уголовной ответственности за умышленное использование систем искусственного интеллекта в корыстных целях, в связи с чем, автором предложено внести изменения в статью 63 УК РФ [1], закрепив его использование в качестве отягчающего уголовную ответственность признака.
Список источников
1. Уголовный кодекс Российской Федерации" от 13.06.1996 N 63-Ф3 (ред. от 04.08.2023)
2. Карцхия A.A. Гражданско-правовая модель регулирования цифровых технологий: автореферат дис. ... доктора юридических наук: 12.00.03 / Карцхия Александр Амиранович; [Место защиты: ФГБОУ ВО Российская государственная академия интеллектуальной собственности]. М., 2019. 44 с.
3. Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: диссертация ... доктора юридических наук: 12.00.03 / Морхат Петр Мечиславович; [Место защиты: Рос. гос. акад. интеллектуал. собственности]. М., 2018. 420 с
4. Русскевич Е.А. Дифференциация ответственности за преступления, совершаемые с использованием информационно-коммуникационных тех-но-логий, и проблемы их квалификации : диссертация ... доктора юридических наук : 12.00.08 / Русскевич Евгений Александрович; [Место защиты: ФГКОУ ВО «Московский университет Министерства внутренних дел Российской Федерации имени В.Я. Кикотя»]. М., 2020. 521 с.
5. Халлеви Г. Когда роботы убивают: искусственный интеллект в уголовном праве. Университетское издательство Новой Англии, 2013. 244 с.
6. Шилейко A.B. Дискуссии об искусственном интеллекте. М.: Знание, 1970. 48 с. С. 4—5.
References
1. Criminal Code of the Russian Federation" dated June 13, 1996 N 63-FZ (as amended on August 4, 2023)
2. Kartskhia A. A. Civil law model of regulation of digital technologies: abstract of dissertation. ... Doctor of Law: 12.00.03 / Kartskhia Alexander Amiranovich; [Place of protection: Federal State Budgetary Educational Institution of Higher Education Russian State Academy of Intellectual Property]. M., 2019. 44 p.
3. Morhat P.M. Legal personality of artificial intelligence in the field of intellectual property law: civil law problems: dissertation ... Doctor of Law: 12.00.03 / Morhat Petr Mechislavovich; [Place of protection: Ros. state acad. intellectual. property]. M., 2018. 420 s.
4. Ruskevich E.A. Differentiation of responsibility for crimes committed using information and communication technologies, and problems of their qualification: dissertation ... Doctor of Law: 12.00.08 / Ruskevich Evgeniy Aleksandrovich; [Place of protection: Federal State Budgetary Educational Institution of Higher Education "Moscow University of the Ministry of Internal Affairs of the Russian Federation named after V.Ya. Kikotya"]. Moscow, 2020. 521 p.
5. Hallevi G. When robots kill: artificial intelligence in criminal law. University Press of New England, 2013. 244 pp.
6. Shileiko A.B. Discussions about artificial intelligence. M.: Knowledge, 1970. 48 p. pp. 4—5.
Информация об авторе
Н.В. Шмяткова — аспирант Иркутского института (филиала) Всероссийского государственного университета юстиции (РПА Минюста России).
Information about the author
N.V. Shmyatkova — Postgraduate student of the Irkutsk Institute (branch) of the All-Russian State University of Justice (RPA of the Ministry of Justice of Russia).
Статья поступила в редакцию 27.10.2023; одобрена после рецензирования 10.11.2023; принята к публикации 28.11.2023. The article was submitted 27.10.2023; approved after reviewing 10.11.2023; accepted for publication 28.11.2023.
№ 5/2023