Пределы уголовной ответственности за использование искусственного интеллекта
Дроздов Владимир Юрьевич,
кандидат юридических наук, доцент, доцент кафедры уголовного права и уголовного процесса, Донбасского государственного университета юстиции E-mail: [email protected]
В статье рассматривается вопрос возможности признания искусственного интеллекта и роботов субъектами уголовной ответственности в контексте их когнитивных способностей и автономии. Вопрос юридической ответственности не «создателя» робота как автора соответствующего программного кода, а именно самого искусственного интеллекта и робота активно обсуждается с начала двадцать первого века, когда человечество вступило в новую информационную эпоху. Технологическое развитие ставит перед юридическом сообществом все новые и новые вопросы, что обуславливает обсуждение предложений о создании правового статуса «электронных лиц» для роботов, а также проблемы определения субъективной составляющей преступлений, совершаемых с использованием систем ИИ. Рассматривается перспектива законодательной адаптации для возможного учета ИИ как новой категории субъектов права в свете его развития и потенциального самосознания.
Ключевые слова: искусственный интеллект, субъекты права, электронные лица, юридическая ответственность, когнитивные способности, автономия, уголовная ответственность, правовой статус роботов.
Современное развитие общества характеризуется активным прогрессом в области искусственного интеллекта (ИИ), который, несмотря на положительные аспекты, влечет за собой новые риски и угрозы. Г.Г. Камалова отмечает, что прогресс в робототехнике и ИИ способствует увеличению высокотехнологичной преступности, включая мошенничество, терроризм, нарушения в дорожной безопасности и нарушения частной жизни [5]. Согласно М.А. Иващенко, преступления с использованием ИИ становятся формой организованной преступности, и в российском уголовном законодательстве отсутствуют нормы для защиты от таких деяний. М.А. Иващенко предлагает ввести в УК РФ статью, направленную на борьбу с преступлениями, совершаемыми с использованием ИИ [4].
Обсуждение ответственности за преступления, совершенные системами ИИ, выдвигает на передний план вопрос о возможности признания ИИ субъектом уголовного права. И.Н. Мосечкин поднимает вопрос о том, могут ли системы ИИ совершать активные действия или бездействия, которые представляют собой реальную угрозу обществу, и следует ли рассматривать ИИ как потенциального участника преступления [7]. В контексте уголовного права, активности ИИ могут причинять ущерб общественным отношениям, защищенным законом. Примером может служить инцидент 2018 г., когда беспилотный автомобиль Uber нарушил правила дорожного движения, что привело к смерти пешехода, подчеркивая потенциальную угрозу ИИ для общественной безопасности.
Исследования показывают, что использование систем ИИ может приводить к ошибкам с серьезными последствиями. Например, в одном из случаев в США медицинская система ИИ неверно диагностировала грипп у ребенка с тяжелой бактериальной инфекцией, что привело к его смерти. С увеличением применения ИИ в различных областях жизни учащаются инциденты, связанные с ошибками систем, что, в свою очередь, усиливает потенциал причинения вреда обществу [6]. Это обстоятельство подчеркивает необходимость внесения существенных изменений в уголовное законодательство и правовую систему для адаптации к новым вызовам, связанным с расширением сферы использования ИИ.
В последние годы в юридической науке как в России, так и за рубежом активно обсуждается вопрос о предоставлении роботам и другим системам искусственного интеллекта статуса субъектов права. Исследования указывают на возможные когнитивные способности роботов, такие как спо-
5 -а
сз ж
<
см о см
собность к обучению и проявление эмоциональных реакций, что влияет на их поведение и принимаемые решения. Анализируется возможность признания искусственных систем юридическими лицами, что позволило бы им участвовать в судебных процессах как истцам и ответчикам. В Европейском союзе предлагалось создать специализированное агентство по вопросам робототехники и ИИ. В России рассматривалась возможность аналогичного юридического статуса роботов с животными и юридическими лицами, включая создание специального реестра. Также обсуждаются сценарии, в которых действия роботов могут рассматриваться как преступные, например, когда они изначально созданы для совершения противоправных действий или когда функции предотвращения вреда отключены или не предусмотрены [1].
Текущее использование ИИ в основном управляется заложенными разработчиками целями, не предусматривающими вред общественным интересам, и можно говорить о виде «преступной небрежности» при случайном нанесении ущерба. Однако динамичное развитие технологий затрудняет точное предсказание всех последствий их функционирования. Признание роботов субъектами права, способными нести уголовную ответственность, актуализирует вопрос о наличии субъективной стороны противоправного деяния, что является неотъемлемой частью уголовного состава.
В современных международных исследованиях акцентируется внимание на сложности определения субъективной составляющей преступлений, совершаемых с использованием систем ИИ. Это связано с тем, что, хотя объективные аспекты таких преступлений могут быть четко определены, установление намерений или сознательной небрежности ИИ представляет собой значительную трудность. Редкие случаи противоправных действий, совершаемые ИИ, обычно характеризуются как результаты ошибок из-за несовершенства алгоритмов. И.Н. Мосечкин утверждает, что ответственность за такие ошибки следует возлагать на разработчиков систем, поскольку они могли предвидеть и минимизировать риски непредсказуемых последствий. В свете этих аргументов, предложение о возможности привлечения ИИ к уголовной ответственности кажется маловероятным и нелогичным [8].
В современной практике возникают сложности с уголовной ответственностью в контексте использования систем искусственного интеллекта и робототехники. Роботы, оснащенные высокоразвитыми ИИ, могут стать инструментами в совершении преступлений, аналогично традиционным средствам, таким как оружие. Уже известны случаи, когда современные технологии использовались как инструмент геополитической борьбы [2]. В таких случаях ответственность обычно ложится на создателя или пользователя робота.
Дополнительные проблемы возникают, когда преступление происходит из-за нарушений в процессе разработки или программирования
устройств, как в случае с авариями автономных автомобилей. Здесь ответственность может быть приписана лицу, использующему технологию, или разработчикам, нарушившим технологические стандарты.
Самый сложный случай связан с преступлениями, совершенными полностью автономными ИИ, способными к самообучению и действиям без человеческого вмешательства. В соответствии с мнением исследователя В.Н. Некрасова, при определении уголовной ответственности за такие преступления необходимо опираться на основные положения национального и международного права, признавая, что любая инновационная разработка является продуктом человеческой деятельности [9]. Учёные-экономисты также сходятся во мнении, что инновационная деятельность направлена на разработку продуктов, способных повысить благосостояние владельцев компании, занимающейся исследованиями и разработками [3]. Таким образом, вина должна быть установлена у лиц, ответственных за нарушения в разработке или программировании устройства.
Согласно мнению некоторых исследователей, обсуждение возможности внесения изменений в уголовное законодательство для включения роботов и систем ИИ в качестве субъектов уголовной ответственности зависит от их дальнейшего развития. На современном этапе технологического развития такие системы не обладают достаточным уровнем самосознания, чтобы рассматриваться как независимые уголовные субъекты, сравнимые с человеческими преступниками. Аналогично, домашние животные, которые могут быть обучены совершать противоправные действия, в законодательстве не рассматриваются в качестве субъектов преступления. Их действия, так же, как и действия роботов, регулируются через ответственность их владельцев или операторов. Таким образом, уголовная ответственность должна применяться к физическим лицам, которые могут контролировать или использовать роботов для совершения преступлений.
Актуальная юридическая доктрина касательно уголовной ответственности ИИ предполагает, что пока данные системы остаются в значительной степени зависимым от человека или находится под его прямым контролем, его нельзя считать полноправным субъектом уголовной ответственности. Согласно преобладающему взгляду в отечественном уголовном праве, любой технический объект, вне зависимости от сложности, контролируемый человеком и связанный с его действиями, должен рассматриваться как инструмент причинения вреда. Это положение подтверждается в работах исследователей В.А. Лаптева, которые утверждают, что нет юридической разницы между ущербом, вызванным простым бытовым предметом, как утюг, или более сложным механизмом, включая роботов и системы ИИ [7]. Изменение этой правовой позиции возможно только в случае, если ИИ обретет полную автономию и будет способен самостоя-
тельно осмысливать свои действия, предвидеть их последствия и управлять собой.
В научной литературе выделяются различные мнения относительно роли ИИ в уголовном праве. Преобладающая точка зрения утверждает, что ИИ не может считаться субъектом преступления, поскольку любые действия, осуществляемые системой ИИ, напрямую зависят от программ, созданных людьми. Следственно, ответственность за противоправные действия, совершенные с помощью ИИ, должны нести разработчики этих программ.
Однако, существует альтернативная перспектива, согласно которой будущее развитие ИИ может позволить таким системам превзойти человеческие когнитивные способности, дойти до уровня самосознания и самостоятельного восприятия. В этом контексте ИИ могут начать осмысливать правовые и этические нормы, что потенциально позволит им действовать как независимые личности с собственными убеждениями и моральными принципами. С учетом таких изменений, законодательство может потребовать адаптации для инкорпорации ИИ как новой категории «искусственного лица», что в свою очередь предполагает возможность уголовно-правового регулирования таких сущностей.
Исследователи подчеркивают, что реализация такой возможности пока что кажется преждевременной, поскольку ИИ не достигли необходимой степени автономии и самосознания, чтобы быть признанными полноправными субъектами права. В связи с этим, на текущем этапе представляется нецелесообразным наделять ИИ правосубъектностью.
Подводя итоги настоящего исследования, следует заключить, что проблематика пределов уголовной ответственности за преступления, совершенные с использованием ИИ породило в профессиональном сообществе множество дискуссий и предложений. На данном этапе развития технологий, как подчеркивается в литературе, ИИ не обладает достаточным уровнем самосознания и автономии, чтобы быть признанным полноценным субъектом уголовного права. Существующая правовая доктрина склоняется к мнению, что ответственность за действия ИИ должна возлагаться на разработчиков, операторов или пользователей систем. Однако растущая интеграция ИИ в повседневную жизнь и его влияние на общественные отношения требуют дальнейших размышлений и возможной адаптации законодательства. Возможно, в будущем, с увеличением автономности и когнитивных способностей ИИ, его статус как уголовного субъекта будет пересмотрен, но до того момента ответственность остается за человеком, стоящим за машиной.
Литература
1. Владимирова З.В. О возможных способах наделения искусственного интеллекта право-
субъектностью // Вестник магистратуры. -2021. - № 8(119). - С. 50-55.
2. Восканян Р.О. Финансовые угрозы национальной безопасности государства // Проблемы экономики и юридической практики. - 2019. -Т. 15, № 1. - С. 61-65.
3. Восканян Р.О. Прогнозирование стоимости инновационной компании с использованием реального опциона в условиях нестабильного развития экономики // Финансовый бизнес. -2015. - № 5(178). - С. 38-42.
4. Иващенко М.А. Искусственный интеллект в уголовном законодательстве России // Академическая мысль. - 2020. - № 4(13). - С. 6265.
5. Камалова Г.Г. Некоторые вопросы уголовно-правовой ответственности в сфере применения систем искусственного интеллекта и робототехники // Вестник Удмуртского университета. Серия Экономика и право. - 2020. - № 3. -С. 382-388.
6. Кашкин С.Ю., Тищенко С.А., Алтухов А.В. Правовое регулирование применения искусственного интеллекта для борьбы с распространением COVID-19: проблемы и перспективы с учетом мирового опыта // Lex Russica. - 2020. -№ 7. - С. 105-114.
7. Лапаева В.В. Международное регулирование отношений в сфере биомедицины: взаимодействие права и морали // Право. Журнал Высшей школы экономики. - 2019. - № 2. - С. 2244.
8. Мосечкин И.Н. Искусственный интеллект в уголовном праве: перспективы совершенствования охраны и регулирования: [монография]. -Киров: Вятский государственный университет, 2020. - 111 с.
9. Некрасов В.Н. Искусственный интеллект как вид общественно опасной инновации в уголовном праве России // Гуманитарные, социально-экономические и общественные науки. -2019. - № 10. - С. 179-181.
THE LIMITS OF CRIMINAL LIABILITY FOR THE USE OF ARTIFICIAL INTELLIGENCE
Drozdov V.Yu.
Donbass State University of Justice
The article raises the question of the possibility of recognizing artificial intelligence and robots as subjects of criminal liability in their ten cognitive abilities and autonomy. The issue of legal liability not of the "creator" of the robot as the author of the red program code, but of artificial intelligence and the robot has been actively discussed since the beginning of the twenty-first century, when the emergence arose in the new information period. Technological development poses more and more new questions to the legal community, which determines the discussion of proposals to create a legal effect of "electronic persons" for robots, as well as the problem of determining the differential induction of oscillations implemented using the AI system. The prospect of legislative adaptation for the possible consideration of AI as a new category of subjects' rights in the world of its development and guaranteed self-awareness is considered.
Keywords: artificial intelligence, legal entities, electronic persons, legal responsibility, cognitive abilities, autonomy, criminal liability, legal status of robots.
5
"O
C3 ж
■с
References
1. Vladimirova Z.V. On possible ways of granting artificial intelligence legal personality // Bulletin of the Magistracy. - 2021. -No. 8 (119). - P. 50-55.
2. Voskanyan R.O. Financial threats to the national security of the state // Problems of Economics and Legal Practice. - 2019. -Vol. 15, No. 1. - P. 61-65.
3. Voskanyan R.O. Forecasting the value of an innovative company using a real option in the context of unstable economic development // Financial business. - 2015. - No. 5 (178). - P. 38-42.
4. Ivaschenko M.A. Artificial Intelligence in the Criminal Legislation of Russia // Academic Thought. - 2020. - No. 4 (13). - P. 6265.
5. Kamalova G.G. Some Issues of Criminal Liability in the Sphere of Application of Artificial Intelligence Systems and Robotics //
2 «s
CM
o
CM
cn
Bulletin of Udmurt University. Series Economics and Law. -2020. - No. 3. - P. 382-388.
6. Kashkin S.Yu., Tishchenko S.A., Altukhov A.V. Legal Regulation of the Use of Artificial Intelligence to Combat the Spread of COVID-19: Problems and Prospects Taking into Account World Experience // Lex Russica. - 2020. - No. 7. - P. 105-114.
7. Lapayeva V.V. International Regulation of Relations in the Sphere of Biomedicine: Interaction of Law and Morality // Law. Journal of the Higher School of Economics. - 2019. - No. 2. -P. 22-44.
8. Mosechkin I.N. Artificial Intelligence in Criminal Law: Prospects for Improving Protection and Regulation: [monograph]. - Kirov: Vyatka State University, 2020. - 111 p.
9. Nekrasov V.N. Artificial Intelligence as a Type of Socially Dangerous Innovation in the Criminal Law of Russia // Humanitarian, Socio-Economic and Social Sciences. - 2019. - No. 10. -P. 179-181.