Научная статья на тему 'Правовой статус систем искусственного интеллекта и модели дифференциации юридической ответственности за причиненный ими вред'

Правовой статус систем искусственного интеллекта и модели дифференциации юридической ответственности за причиненный ими вред Текст научной статьи по специальности «Право»

CC BY
48
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Lex Russica
ВАК
Область наук
Ключевые слова
правосубъектность ИИ / ответственность ИИ / регулирование ИИ / автономность ИИ / искусственный интеллект / машинное обучение / ограничения технологии / состязательные атаки / ошибки ИИ / модели ответственности / AI legal capacity / AI responsibility / AI regulation / AI autonomy / artificial intelligence / machine learning / limitations of technology / adversarial attacks / AI errors / models of responsibility

Аннотация научной статьи по праву, автор научной работы — Бахтеев Дмитрий Валерьевич

Задачей настоящей работы является формулирование моделей ответственности интеллектуальных систем в ситуациях причинения вреда (в виде любых правонарушений, в том числе преступлений). Для этого в статье рассматривается современное состояние технологий искусственного интеллекта с позиций морально-волевой и интеллектуальной автономности для моделирования подходов к их правосубъектности. Такая автономность может быть выражена только через программную часть технологической системы, то есть даже в случае роботов (киберфизических систем) для их правовой оценки требуется анализ того, как осуществляются операции по оценке входящей информации, а не физические характеристики такой системы. Анализируются позиции, согласно которым интеллектуальные системы могут по объему и характеру их правоспособности сопоставляться с юридическими лицами, физическими лицами, животными, метаправовыми конструкциями. Делается вывод о необходимости самостоятельной правовой оценки систем искусственного интеллекта, вне сравнения с уже существующими правовыми категориями. Необходимость обучения системы на ограниченном датасете, то есть без дообучения в реальной среде, состязательные атаки и внутренние ошибки интеллектуальных систем рассматриваются как актуальные примеры технических ограничений технологии, не позволяющих в полной мере ставить на данный момент вопрос о ее субъектности. Автор указывает на то, что для определения ответственности за причиненный интеллектуальной системой вред следует установить круг лиц, между которыми она дифференцируется: сама интеллектуальная система, ее разработчик и оператор (пользователь). На основании этого предлагаются 10 моделей распределения ответственности между ними.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Бахтеев Дмитрий Валерьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The Legal Status of Artificial Intelligence Systems and Models of Differentiation of Legal Liability for Damage Caused by them

The objective of this paper is to define the models of responsibility for intelligent systems in situations when harm is caused (in the form of any wrongdoings, including crimes). For this purpose, the paper examines the current state of artificial intelligence technologies from the standpoint of moral, volitional and intellectual autonomy for modeling approaches to their legal personality. Such autonomy can be expressed only through the software element of a technological system, that is, even in the case of robots (cyberphysical systems), their legal assessment requires an analysis of how operations are carried out in order to evaluate incoming information rather than the physical characteristics of such a system. The author analyzes approaches according to which intelligent systems can be compared with legal entities, individuals, animals, and meta-directional structures in terms of the volume and nature of their legal capacity. The conclusion is made about the need for an independent legal assessment of artificial intelligence systems beyond their comparison with the existing legal categories. The need to train a system using a limited dataset, that is, without additional training in a real environment, adversarial attacks and internal errors of intelligent systems are considered as examples of technical limitations of technology that do not allow to raise the question of its subjectivity at the moment. The author highlights that in order to determine responsibility for the harm caused by an intelligent system, it is necessary to establish a circle of persons between whom it is distrubuted: an intelligent system itself, its developer and the operator (user). Thus, the author defines 10 models of responsibility distribution between them.

Текст научной работы на тему «Правовой статус систем искусственного интеллекта и модели дифференциации юридической ответственности за причиненный ими вред»

ЧАСТНОЕ ПРАВО

JUS PRIVATUM

DOI: 10.17803/1729-5920.2024.209.4.009-023

Д. В. Бахтеев*

Уральский государственный университет имени В.Ф. Яковлева г. Екатеринбург, Российская Федерация

*

Правовой статус систем искусственного интеллекта и модели дифференциации юридической ответственности за причиненный ими вред

Резюме. Задачей настоящей работы является формулирование моделей ответственности интеллектуальных систем в ситуациях причинения вреда (в виде любых правонарушений, в том числе преступлений). Для этого в статье рассматривается современное состояние технологий искусственного интеллекта с позиций морально-волевой и интеллектуальной автономности для моделирования подходов к их правосубъектности. Такая автономность может быть выражена только через программную часть технологической системы, то есть даже в случае роботов (киберфизических систем) для их правовой оценки требуется анализ того, как осуществляются операции по оценке входящей информации, а не физические характеристики такой системы. Анализируются позиции, согласно которым интеллектуальные системы могут по объему и характеру их правоспособности сопоставляться с юридическими лицами, физическими лицами, животными, метаправовыми конструкциями. Делается вывод о необходимости самостоятельной правовой оценки систем искусственного интеллекта, вне сравнения с уже существующими правовыми категориями. Необходимость обучения системы на ограниченном датасете, то есть без дообучения в реальной среде, состязательные атаки и внутренние ошибки интеллектуальных систем рассматриваются как актуальные примеры технических ограничений технологии, не позволяющих в полной мере ставить на данный момент вопрос о ее субъектности. Автор указывает на то, что для определения ответственности за причиненный интеллектуальной системой вред следует установить круг лиц, между которыми она дифференцируется: сама интеллектуальная система, ее разработчик и оператор (пользователь). На основании этого предлагаются 10 моделей распределения ответственности между ними. Ключевые слова: правосубъектность ИИ; ответственность ИИ; регулирование ИИ; автономность ИИ; искусственный интеллект; машинное обучение; ограничения технологии; состязательные атаки; ошибки ИИ; модели ответственности

Для цитирования: Бахтеев Д. В. Правовой статус систем искусственного интеллекта и модели дифференциации юридической ответственности за причиненный ими вред. Lex russica. 2024. Т. 77. № 4. С. 9-23. DOI: 10.17803/1729-5920.2024.209.4.009-023

Благодарности. Исследование выполнено за счет гранта Российского научного фонда № 23-78-10011, URL: https://rscf.ru/project/23-78-10011.

© Бахтеев Д. В., 2024

The Legal Status of Artificial Intelligence Systems and Models of Differentiation of Legal Liability for Damage Caused by them

Dmitriy V. Bakhteev

Yakovlev Ural State University Yekaterinburg, Russian Federation

Abstract. The objective of this paper is to define the models of responsibility for intelligent systems in situations when harm is caused (in the form of any wrongdoings, including crimes). For this purpose, the paper examines the current state of artificial intelligence technologies from the standpoint of moral, volitional and intellectual autonomy for modeling approaches to their legal personality. Such autonomy can be expressed only through the software element of a technological system, that is, even in the case of robots (cyberphysical systems), their legal assessment requires an analysis of how operations are carried out in order to evaluate incoming information rather than the physical characteristics of such a system. The author analyzes approaches according to which intelligent systems can be compared with legal entities, individuals, animals, and meta-directional structures in terms of the volume and nature of their legal capacity. The conclusion is made about the need for an independent legal assessment of artificial intelligence systems beyond their comparison with the existing legal categories. The need to train a system using a limited dataset, that is, without additional training in a real environment, adversarial attacks and internal errors of intelligent systems are considered as examples of technical limitations of technology that do not allow to raise the question of its subjectivity at the moment. The author highlights that in order to determine responsibility for the harm caused by an intelligent system, it is necessary to establish a circle of persons between whom it is distrubuted: an intelligent system itself, its developer and the operator (user). Thus, the author defines 10 models of responsibility distribution between them.

Keywords: AI legal capacity; AI responsibility; AI regulation; AI autonomy; artificial intelligence; machine learning; limitations of technology; adversarial attacks; AI errors; models of responsibility

Cite as: Bakhteev DV. The Legal Status of Artificial Intelligence Systems and Models of Differentiation of Legal Liability for Damage Caused by them. Lex russica. 2024;77(4):9-23. (In Russ.). DOI: 10.17803/17295920.2024.209.4.009-023

Acknowledgements. The research was funded by the Russian Science Foundation grant No. 23-78-10011, https:// rscf.ru/project/23-78-10011.

Введение

Цифровизация и лавинообразное развитие технологий машинного обучения поставили перед юриспруденцией специфичную задачу дифференциации ответственности, неизбежно возникающей в случаях инцидентов правового характера, в том числе имеющих признаки конструкции преступления, при использовании интеллектуальных систем. Эта задача лежит в области lex ferenda — моделирования подходов к будущему состоянию юридической науки, законодательства и правоприменительной практики. Так, отмечается, что «в настоящее время на международном и национальном уровне отсутствует специальный институт или состав деликта, учитывающий специфику искусствен-

ного интеллекта и баланс интересов участников ИИ-отношений»1. Рассмотрение вопроса дифференциации ответственности в настоящей статье включает вопрос о субъектности систем на основе технологий искусственного интеллекта, определение круга лиц, между которыми можно дифференцировать ответственность, и построение на основе этих элементов моделей ответственности за счет комбинаторного перебора вариантов. В статье речь идет об ответственности за вред, причиненный интеллектуальной системой, то есть системой, способной к вариативному поведению на основе машинного обучения; соответственно, вредоносное функционирование заранее запрограммированных систем (например, станков с ЧПУ либо автоматизированных систем целеуказания или наведе-

1 Никитенко С. В. Концепции деликтной ответственности за вред, причиненный системами искусственного интеллекта // Вестник экономического правосудия Российской Федерации. 2023. № 1. С. 156-174. DOI: 10.37239/2500-2643-2022-18-1-156-174.

ния стрельбы) рассматриваться в данном случае не будет, поскольку этот вопрос в достаточной мере можно считать разработанным как в науке, так и на практике. Оговоримся также, что считаем приоритетной в соотношении аппаратной и программной частей интеллектуальных систем вторую, поскольку вред любой формы может быть причинен как роботами (киберфи-зическими устройствами), так и исключительно программными системами. Признание субъ-ектности и наложение ответственности, в свою очередь, требуют интеллектуально-волевого компонента, что и приводит нас к указанной приоритизации.

Правосубъектность искусственного интеллекта: правовой и технический подходы

Учитывая, что субъектом права в полном смысле является только человек, современные исследования сопоставляют системы искусственного интеллекта (чаще всего в виде киберфизиче-ских систем, роботов) с юридическими лицами и животными.

Однако необходимо понимать, что указанные подходы кардинально различаются, в том числе в зависимости от государства, в котором реализуются. Если остановиться на традициях Российской Федерации, то юридическое лицо, объявляясь юридической фикцией, всё же наделяется право-, дее- и деликтоспособностью в рамках гражданско- и административно-правовых отношений. Более того, в последние годы всё активнее обсуждаются вопросы определения юридического лица как субъекта уголовной ответственности2, что уже реализовано в ряде государств3. Таким образом, юридическое лицо в правовой плоскости мыслится как обособленное от его учредителей образование, обладающее независимой волей. В отличие от этого,

животные в отечественном праве признаются исключительно в качестве вещей, даже в статьях Уголовного кодекса, предусматривающих ответственность за жестокое обращение с ними, потерпевшими являются владелец этого животного или люди, ставшие свидетелями жестокого обращения, чье морально-нравственное благополучие было подвергнуто угрозе. Само же животное — лишь предмет соответствующих деяний. Другая форма участия животных в уголовном праве — причинение с их помощью вреда здоровью человека, чужому имуществу — предполагает описание животных через концепт орудия совершения преступления4.

Таким образом, если сравнивать системы, основанные на технологии искусственного интеллекта, с юридическими лицами, следует констатировать, что первые обладают даже большей самостоятельностью, в большей мере независимы от своих создателей, способны на отдельные девиации от запланированного поведения, а значит, теоретически могут признаваться полноправными субъектами права и нести ответственность за «содеянное». Вместе с тем Е. В. Пономарёва отмечает, что «ученые, доказывающие необходимость признания правосубъектности робота, могут признать и наличие правовой воли робота по аналогии с волей юридического лица. Однако такое признание "по аналогии" будет не вполне корректным, поскольку механизмы формирования воли юридического лица и "воли" робота совершенно отличны. Воля юридического лица является неким юридическим абстрагированием от воль лиц, в него входящих»5. Очевидно, автор придерживается позиции, что юридическое лицо является производным по отношению к его создателям субъектом права. Однако зарубежная юридическая практика знает примеры успешной реализации иной концепции, согласно которой юридическое лицо наделяется само-

См., например: Сизова В. Н. Институт уголовной ответственности юридических лиц в системе российского уголовного законодательства: к вопросу определения субъекта // Академическая мысль. 2021. № 4 (17). С. 36-38 ; Bagaev I. Z., Sitnik V. N., Plutalov I. Y. On the Issue of Criminal Liability of Legal Entities in the Russian Federation Through the Prism of Harmonization of Law // Legal Concept. 2021. Vol. 20. No. 3.

P. 200-206. DOI: 10.15688/lc.jvolsu.2021.3.29.

См.: Панаева Л. Е. Модели уголовной ответственности юридических лиц в зарубежных странах // Вестник Южно-Уральского государственного университета. Серия «Право». 2022. Т. 22. № 4. С. 33-37. DOI: 10.14529/law220405.

Постановление Пленума Верховного Суда РФ от 27.12.2002 № 29 (ред. от 15.12.2022) «О судебной практике по делам о краже, грабеже и разбое» (абз. 6 п. 23) // Бюллетень Верховного Суда РФ. 2003. № 2. Пономарёва Е. В. Субъекты и объекты права: теоретико-правовые проблемы разграничения : дис. ... канд. юрид. наук. Екатеринбург, 2019. С. 100.

2

3

4

5

LEX IPS»

стоятельной волей (Швейцария, Франция, Голландия и др.). В этом случае аналогия между системами, функционирующими на основе технологии искусственного интеллекта, и юридическими лицами видится более обоснованной.

В то же время заслуживает внимания позиция С. Е. Чаннова, согласно которой «робот (система искусственного интеллекта) как потенциальный субъект права ближе к физическим лицам, чем к социальным. Юридическое лицо обладает волей лишь как проекцией воль других лиц, в то время как рассуждения о воле и самосознании робота приводят нас к выводу о наличии (либо об отсутствии) указанных элементов у них самих»6. Мы уже указывали, что описанное позиционирование юридических лиц ограничено рамками российского право-понимания, однако весомость приведенной цитаты видится в том факте, что системы искусственного интеллекта изначально разрабатываются для воспроизведения когнитивных способностей именно человека, в связи с чем закономерно подлежат сопоставлению с тем, чему стремятся подражать.

Если же позиционировать такие системы как животных, то следует однозначно говорить об их подчиненном характере, описывать все акты функционирования через понятие активности (в противопоставление с деятельностью) и, соответственно, вести речь о предметно-инструментальном характере технологий искусственного интеллекта в рамках права.

Чтобы определить, какой из двух концептов больше соответствует современной действительности, обратимся к позициям ученых по данной тематике. Так, Е. В. Пономарёва приводит список признаков, которыми должны обладать роботы (а значит, и системы искусственного интеллекта), чтобы быть признанными субъектами права:

1) возможность (потенциальная или реальная) самостоятельно осуществлять субъективные права и юридические обязанности, совершать правомерные и неправомерные поступки;

2) способность нести юридическую ответственность;

3) способность принимать правовые решения, быть решающей инстанцией в праве;

4) наличие собственных правовых интересов, потребностей, правовых устремлений, притязаний;

5) имущественная обособленность7.

На данном этапе искусственные интеллектуальные системы не соответствуют критериям, указанным в последних двух пунктах (наличие собственных устремлений и имущественная обособленность), хотя, к примеру, А. О. Серова, комментируя свойства субъектов права в гражданско-правовом смысле, указывает, что возможность признания за системами искусственного интеллекта или роботами правосубъектности «зависит от оценки фиктивности рассматриваемых положений. Наличие обособленного имущества у многих действующих юридических лиц является условной категорией. Однако сознательное допущение подобной характеристики за иными искусственными образованиями нецелесообразно»8. Пункт 3 (способность принимать юридически значимые решения) является производным от п. 1 (общая способность к самостоятельному принятию решений), а достижение этой характеристики будет свидетельствовать о полной информационной автономии. Однако примеры современных текстовых генеративных нейросетей, таких как ChatGPT, Llama или GigaChat, показывают, что они функционируют на статичном (закрытом) датасете (наборе данных) и не подключены, к примеру, к сети Интернет. Причины такой ограниченности вызваны социальной необходимостью, поскольку практике известен прецедент, когда текстовый робот, получивший доступ к крупнейшему интернет-форуму Reddit, стал склонен создавать сексистские и расистские тексты9. Поэтому говорить об информационной автономности современных интеллектуальных систем явно преждевременно, но не в техническом аспекте, а скорее в этическом и правовом.

Вместе с тем информационная автономность, являющаяся критериальным качеством систем искусственного интеллекта, как раз обеспечивает возможность принятия решений,

6 ЧанновС. Е. Робот (система искусственного интеллекта) как субъект (квазисубъект) права // Актуальные проблемы российского права. 2022. № 17 (12). С. 94-109. DOI: 10.17803/1994-1471.2022.145.12.094-109.

7 Пономарёва Е. В. Указ. соч. С. 91-104.

8 Серова О. А. Роботы как участники цифровой экономики: проблемы определения правовой природы // Гражданское право. 2018. № 3. С. 23. DOI: 10.18572/2070-2140-2018-3-22-24.

9 Robots Enact Malignant Stereotypes / A. Hundt, W. Agnew, V. Zeng [et al.] // Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency. 2022. P. 743-756. DOI: 10.1145/3531146.3533138.

осуществления производных от этого действий, которые, в свою очередь, могут быть квалифицированы как правомерные либо нарушающие право. В свою очередь, для таких систем не имеет значения, какого рода решения они будут принимать: в зависимости от гипотезы существования, заданных параметров и условий обучения системы искусственного интеллекта могут быть ориентированы и на анализ правовых фактов, их квалификацию и принятие решений, влекущих юридические последствия. Мы не согласны с мнением ряда ученых, которые считают, что интеллектуальные системы действуют на основе «изначально записанной программы»10: сама сущность технологии машинного обучения предполагает, что перед интеллектуальной системой ставится задача, ей предлагают определенные данные и она должна найти на их основе решение поставленной задачи. Какой путь или метод она при этом изберет — заранее неизвестно. В связи с этим технологии позволяют обеспечить информационную автономность искусственных интеллектуальных систем, а значит, критериям 1 и 3 они отвечают. Что же касается положения, рассматривающего способность систем искусственного интеллекта нести юридическую ответственность (п. 2), то его мы рассмотрим далее.

Можно выделить подход к рассмотрению интеллектуальной системы в качестве агента, способного к самостоятельному осуществлению прав и несению обязанностей собственника имущества от своего имени, что было отражено в так называемом законопроекте Гришина11, который, однако, даже не был представлен в Государственную Думу. Можно констатировать, что сегодня подобные инициативы не находят поддержки и у большинства представителей научного сообщества.

Так, Ф. В. Ужов обосновывает невозможность признания искусственных интеллектуальных систем субъектами права тем, что они не способны действовать в форс-мажорных ситуациях12. Однако данное положение также выглядит не совсем объективным: современные интеллектуальные системы обучаются

на структурированных датасетах, из которых, как правило, удаляется большинство шумов и экстремальных ситуаций. Соответственно, настройка реакций системы на нежелательные обстоятельства, например при запросе генеративным искусственным сетям сформировать изображение со сценой пыток или текст с алгоритмом создания взрывчатого вещества, осуществляется вручную (первые версии таких систем, как Midjourney или ChatGPT, были способны формировать противоправный контент). Даже такие меры не позволяют предусмотреть весь масштаб возможных угроз; к примеру, в декабре 2023 г. в СЬ^СРТ была обнаружена уязвимость: при просьбе к системе бесконечно повторять произвольное слово она после нескольких сотен повторений начала выдавать случайные фрагменты из своего датасета (который сущностно представляет собой текстовую часть всей сети Интернет), включая отдельные персональные данные.

Таким образом, данные системы не способны адаптивно обработать форс-мажор, поскольку искусственно «оберегаются» от знакомства с критичными обстоятельствами, в результате чего они становятся не способны сами по себе отфильтровывать нежелательные ситуации. Опыт автора статьи по разработке интеллектуальной системы верификации рукописной подписи на основе сравнения изображений достоверно оригинальной и спорной подписей показывает, что такая система, в отличие от эксперта-криминалиста, не способна сформировать вывод формата «Исследование не представляется возможным». Даже если в систему загружаются изображения иных объектов, она пытается найти в них штрихи и сравнить их, так как при обучении ей не демонстрировалось что-либо постороннее — она не знает о существовании чего-то, кроме подписей. Разумеется, в таких случаях можно добавить компоненты идентификации объектов, однако для самой системы поддержки или принятия решений они будут внешними.

Помимо внутренних характеристик (в первую очередь автономности, рациональности и

10 Морхат П. М. Юнит искусственного интеллекта как электронное лицо // Вестник Московского государственного областного университета. Серия «Юриспруденция». 2018. № 2. С. 61-73. DOI: 10.18384/23106794-2018-2-61-73.

11 См.: Нагродская В. Б. Новые технологии (блокчейн / искусственный интеллект) на службе права : научно-методическое пособие / под ред. Л. А. Новоселовой. М. : Проспект, 2019. С. 103.

12 Ужов В. Ф. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. 2017. № 3. С. 357-360.

волевой составляющей) для признания за системой искусственного интеллекта правосубъектности, требуется ее принятие на социальном и экономическом уровнях: «некая сущность является достойным кандидатом на правосубъектность, если она вписывается в наши сети социальных, политических и экономических отношений таким образом, что она может последовательно являться предметом правовых решений»13, является, подобно нациям и народам, своеобразным «метаправовым субъектом»14, формально не участвующим в правовых отношениях, но признаваемым в качестве субъекта права. Для этого понадобится отделить эту технологию от области ее использования, то есть преобразовать инструмент сначала в ассистента, а потом и в равного профессионала.

Экономический аспект связан с финансовой возможностью общества допустить появление нового равноправного людям субъекта. Так, Г. А. Гаджиев, рассматривая проблему признания юридической личности искусственного интеллекта или робота в цифровой экономике, указывает на важность понимания коллективной природы современного предпринимательства, позволяющего себе осуществление больших затрат на производство таких систем15. Автор указывает, что именно крупные корпорации могут не опасаться существенной конкуренции и имеют возможность поставить искусственные интеллектуальные системы на свою службу, а не быть вымещенными ими. Вместе с тем если создание киберфизических систем действительно требует значительных вложений в исследования и разработку (как аппаратных модулей, так и зачастую узкоспециализированного программного кода), то системы искусственного интеллекта, реализованные исключительно в цифровой форме, могут создаваться небольшими компаниями, группами людей или даже отдельными индивидами. Это обеспечивается доступностью как алгоритмов для обучения, так и открытых датасетов, а также тем, что практически все крупные IT-компа-нии (например, Microsoft и Alphabet (Google)) вкладывают свои ресурсы в распространение

открытого программного кода и иных технологических решений. Таким образом, практика сегодняшнего дня показывает, что интеграция систем искусственного интеллекта в экономику идет стремительными темпами.

С другой стороны, С. Чопра и Л. Ф. Уайт, описывая источник правового понимания статуса системы искусственного интеллекта, указывают на то, что «вопрос правосубъектности систем искусственного интеллекта может быть не решен в судах или суды могут оказаться неспособными или не желающими сформировать системный подход, как в случае предоставления защиты интересов крупных юридических лиц. Скорее система предоставления правосубъектности должна быть установлена законодательными органами, возможно, через систему регистрации или "Тест Тьюринга"»16. Указанная идея особенно актуальна для России, как принадлежащей к континентальной системе права, поскольку единичное признание со стороны судов не может считаться достаточным для изменения правовых отношений. Вместе с тем оставлять решение вопроса о наделении систем искусственного интеллекта юридическими правами и обязанностями за людьми в принципе видится нецелесообразным — в этом случае о самостоятельности таких систем нельзя будет вести речь. Законодатель должен будет лишь закрепить решение, принятое совместно людьми и искусственными интеллектуальными системами, когда они будут развиты достаточно для того, чтобы выступить равноправными субъектами в переговорах. Однако достижение этого в ближайшей перспективе видится маловероятным.

Вместе с тем современная история знает примеры того, как искусственные личности наделялись отдельными правами человека. Известный робот София с октября 2017 г. является подданной Королевства Саудовская Аравия, а Shibuya Mirai — программа, не имеющая физического воплощения, имитирующая речь и реакции семилетнего мальчика (де-факто — чат-бот), — была признана гражданином Токио. Как указывает Дж. Робинсон, между 2004

13 ChopraS., White L. F. A Legal Theory for Autonomous Artificial Agents. The University of Michigan Press, 2018. P. 188.

14 См.: Архипов С. И. Субъект права (теоретическое исследование) : автореф. дис. ... д-ра юрид. наук. Екатеринбург, 2005. С. 12-13.

15 Гаджиев Г. А. Является ли робот-агент лицом? (Поиск правовых форм для регулирования цифровой экономики) // Журнал российского права. 2018. № 1. С. 28.

16 Chopra S., White L. F. Op. cit. P. 190.

и 2012 гг. как минимум девять роботов были наделены специальным видом на жительство в Японии17. Очевидно, что эти примеры носят скорее рекламный, популистский характер, однако являются первым прецедентом подобного рода, несмотря на то что фактически нарушают законы соответствующих государств. Так, на 2017 г. в Саудовской Аравии женщина (а София считается именно женщиной) могла выполнять публичные действия только через представителя18, хотя с тех пор законодательство в отношении прав женщин в этом государстве значительно смягчилось.

Комментируя ситуацию с Софией и Shibuya Mirai, А. Атабеков и О. Ястребов указывают, что в обоих случаях были грубо нарушены процедурные правила признания подданства или гражданства: они не обращались с заявлением о предоставлении подданства или гражданства; они не соответствуют возрастному цензу для наделения дееспособностью; они не соответствуют критериям оседлости; они не способны разговаривать на государственном языке19. Отметим, что последний пункт в данных примерах не совсем корректен: и робот, и программа по-своему ориентированы именно на узкие и заранее установленные ситуации взаимодействия с окружающими людьми, то есть в них можно загрузить модуль языка определенного государства, в том числе того, гражданство (подданство) которого они получили.

Н. Н. Апостолова, рассматривая вопрос интеллектуальности искусственного интеллекта, указывает, что «"цифровое сознание" сугубо рационально, оно лишено чувственно-эмоциональной составляющей, имеющей в образе мышления людей немаловажное значение»20. Сходную мысль высказывает Н. В. Спесивов,

указывая на невозможность на настоящем этапе применять к системам искусственного интеллекта такие понятия, как «добросовестность» и «честность»21. Согласимся с основной идеей об отсутствии у интеллектуальных систем сознания, однако отметим, что если нарушения рациональности для человека, как правило, обусловливаются чувствами и эмоциями, то для систем искусственного интеллекта аналогичным фактором могут служить как ошибки при тренировке системы, так и состязательные атаки, в силу чего полностью рациональными их считать нельзя, что, однако, не делает их и эмоциональными. Например, после внедрения интеллектуальной системы, направленной на оценку платежеспособности лица, подавшего заявку на кредит, было выяснено, что система всегда одобряла выдачу кредита, если в заявке в графу «Возраст (полных лет)» пользователь вносил отрицательное число.

Другим негативным явлением служит использование специально разработанных наклеек на лицо, автомобиль или картонных табличек, которые вносят помехи в работу камер наблюдения со встроенными системами компьютерного зрения, делая злоумышленника, по сути, невидимым22. Для человека такие действия являются очевидно подложными, что, однако, не мешает провести идентификацию, тогда как для искусственного интеллекта это уже не столь очевидно и приводит к ошибкам распознавания. В этой связи предпочтительным является общественное или государственное тестирование устойчивости интеллектуальных систем к случайным или целенаправленным атакам.

Известен и эффект «взрывающегося градиента», при котором одна или несколько воз-

17 Robertson J. Human rights vs Robot rights: Forecasts from Japan // Critical Asian Studies. 2014. Vol. 46. Iss. 4. P. 571-598. DOI: 10.1080/14672715.2014.960707.

18 Hubbard B., Yee V. Saudi Arabia Extends New Rights to Women in Blow to Oppressive System // The New York Times. 2019, 2 Aug. URL: https://www.nytimes.com/2019/08/02/world/middleeast/saudi-arabia-guardianship.html (accessed: 16.04.2020).

19 Atabekov A., Yastrebov O. Legal Status of Artificial Intelligence Across Countries: Legislation on the Move // European Research Studies Journal. 2018. Vol. XXI. Iss. 4. P. 777.

20 Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 113. DOI: 10.22394/2074-7306-2021-1-1-112-119.

21 Спесивов Н. В. От фантастических теорий к объективной реальности: есть ли будущее у искусственного интеллекта и предиктивных технологий при отправлении правосудия по уголовным делам? // Lex russica. 2023. № 2. С. 85. URL: https://doi.org/10.17803/1729-5920.2023.195.2.081-090.

22 Thys S., Van Ranst W., Goedeme T. Fooling automated surveillance cameras: adversarial patches to attack person detection // IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). 2019. P. 49-55. DOI: 10.1109/CVPRW.2019.00012.

LEX RUSSICA

никших при обучении системы ошибок распространяются на уже натренированные элементы, приводя к нестабильному функционированию всей системы. При этом данный эффект может не проявиться на этапе валидации результатов обучения, что также несет в себе потенциал высоких рисков.

Вместе с тем, несмотря на описанное выше соответствие систем искусственного интеллекта минимальным требованиям, предъявляемым к субъектам права, и даже их склонность в некоторой мере к «нерациональному» поведению, как это свойственно для человека под влиянием эмоций, до постановки вопроса о наделении таких систем хотя бы ограниченной, но реальной, а не медийной (как в случае с наделением роботов правами человека в Японии и Саудовской Аравии) правосубъектностью пока что далеко. К настоящему времени в среде технических специалистов, а также некоторых исследователей из области гуманитарного знания превалирует скепсис насчет того, что системы искусственного интеллекта в принципе способны достигнуть такого уровня когнитивных способностей, чтобы имелась возможность говорить об очевидной моральной значимости, позволяющей им «иметь права, то есть некоторую долю привилегий, претензий, полномочий или иммунитетов»23. Полагаем, что данная ситуация возможна лишь при значительном качественном прогрессе технологии, фактически — при достижении технологической сингулярности. Более взвешенной к настоящему времени точкой зрения представляется позиция отказа системам искусственного интеллекта в отдельном правовом статусе, сведения к статусу интеллектуальной собственности в форме программы для электронно-вычислительных

машин24. Соглашаясь с тем, что «общество в целом заинтересовано в творческом развитии и доступе к новым объектам интеллектуальной собственности»25, не согласимся с тем, что современные программные комплексы на базе технологии машинного обучения являются принципиально новой формой программы для ЭВМ: они не требуют обособленной аппаратной базы и запускаются в средах программирования и на платформах, равно как и более «классические» формы программного обеспечения.

Основываясь на актуальных темпах развития технологии, эксперты предлагают прогностические модели. Так, высказываются оптимистичные позиции, которые формировались более пяти лет назад: к примеру, известнейший изобретатель Р. Курцвейл считает создание сильного искусственного интеллекта не просто возможным, а неизбежным уже к 2029 г., а к 2045 г., по его мнению, должна наступить технологическая сингулярность, при которой планета начнет превращаться в единый компьютер26. Другой известный прогноз, предложенный М. Соном, обещает появление сверхсильного искусственного интеллекта к 2047 г.27 Данные идеи, как правило, опираются на факт постоянного роста количества транзисторов в процессорах, число которых может превзойти аналогичный показатель нейронов в мозге человека. Отметим, однако, что такой рост не гарантирован: современный подход к развитию компьютерной техники смещается от непосредственной вычислительной мощности за счет аппаратных устройств к оптимизации программного обеспечения28.

Наконец, разрешение вопроса о юридической ответственности систем искусственного интеллекта является, очевидно, необходимым

23 Gunkel D. J. Robot rights. Cambridge, MA : MIT Press, 2018.

24 См., например: Butler T. L. Can a Computer be an Author — Copyright Aspects of Artificial Intelligence // Hastings Communications and Entertainment Journal. 1982. Vol. 4. No. 4. P. 707-747 ; Оморов Р. О. Интеллектуальная собственность и искусственный интеллект // E-Management. 2020. № 1. С. 48-49. DOI: 10.26425/2658-3445-2020-1-43-49.

25 Болотаева О. С. Искусственный интеллект и право интеллектуальной собственности // Право и государство: теория и практика. 2023. № 10. С. 310. DOI: 10.47643/1815-1337_2023_10_309.

26 Galeon D., Reedy C. Ray Kurzweil claims singularity will happen by 2045, 2017 // URL: https://www. thekurzweillibrary.com/futurism-ray-kurzweil-claims-singularity-will-happen-by-2045 (дата обращения: 16.12.2023).

27 Galeon D. Softbank CEO: The Singularity Will Happen by 2047, 2017 // URL: https://futurism.com/softbank-ceo-the-singularity-will-happen-by-2047 (дата обращения: 16.12.2023).

28 IEEE Rebooting Computing Initiative, Standards Association, and Computer Society Introduce New International Roadmap for Devices and Systems to Set the Course for End-to-End Computing // URL: https:// rebootingcomputing.ieee.org/images/files/pdf/rc_irds.pdf (дата обращения: 16.12.2023).

для признания за такими системами правосубъектности. Учитывая, что юридическая ответственность рассматривается как вид ответственности социальной29, необходимо признание и закрепление не только правовой системой, но и обществом конкретного правового статуса интеллектуальных систем в целом или по отдельным отраслям или ситуациям. Эта проблема является одной из основных в правовом понимании рассматриваемой технологии, в связи с чем требует детальной проработки, так как в силу связи между правосубъектностью и способностью нести ответственность окончательное решение вопроса о критериях ответственности систем искусственного интеллекта, по сути, разрешит и вопрос их правового статуса.

Модели ответственности интеллектуальных систем за причиненный вред

Следует констатировать, что нередко общие вопросы правосубъектности, например в части выделения ее критериев, и аспекты ответственности искусственных интеллектуальных систем рассматриваются обособленно. При этом первые носят более оптимистический характер, в связи с чем модель уравнивания искусственного интеллекта с юридическими лицами видится обоснованной и просто реализуемой. Однако если обратить внимание на позиции ученых в части признания систем искусственного интеллекта субъектами противоправных деяний, можно наблюдать преобладание мнения об исключительно предметном их характере, что уже сближает такие системы с животными. Помимо этого, существует и не обозначенная ранее третья модель: сопоставление систем искусственного интеллекта с социальными сетями или открытыми сайтами в сети Интернет30. При таком моделировании администратор сайта вполне соответствует оператору системы искусственного интеллекта, веб-сайт, на котором размещается ресурс, — программно-аппаратной платформе системы искусственного интеллекта, а сам ресурс — такой системе. Соответственно,

система искусственного интеллекта — обычный транслятор действий пользователей и администратора, и вся ответственность за происходящее ложится на одного из них, хотя косвенно, если говорить о более интеллектуальных ресурсах, может пострадать и сама система — в случае ее отключения либо введения запрета на использование.

Именно предметно-ориентированный подход на сегодняшний день превалирует при определении ответственности искусственных интеллектуальных систем. Так, к их операторам предлагается применять нормы об ответственности владельца источника повышенной опасности — вред может причинить как киберфизическая система, так и программное обеспечение, а осведомленность человека о существовании соответствующей угрозы пре-зюмируется. Однако представляется, что данная модель не может быть исчерпывающей, и необходимо разработать иные варианты дифференциации юридической ответственности в случае, если интеллектуальная система принимает решение или совершает действие, в результате которых правам и интересам человека причиняется вред.

В этой связи заслуживает внимания позиция И. А. Филипповой, которая в своей работе приводит четыре основных ситуации, требующих уголовно-правового регулирования:

— при создании системы искусственного интеллекта была допущена ошибка, приведшая к совершению преступления;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

— в систему искусственного интеллекта был осуществлен неправомерный доступ, повлекший повреждение или модификацию ее функций, вследствие чего было совершено преступление;

— искусственный интеллект, обладающий способностью к самообучению, принял решение о совершении действий/бездействия, квалифицируемых как преступление;

— искусственный интеллект был создан преступниками для совершения преступлений31.

Обратим внимание на то, что только в третьей модели речь идет об автономности воли системы искусственного интеллекта, то есть в

29 МалькоА. В.,ЛипинскийД. А., Маркунин Р. С. Юридическая ответственность как средство предупреждения правонарушений: актуальные проблемы // Право. Журнал высшей школы экономики. 2020. № 4. С. 14.

30 Черемисинова М. Е. Социальная интернет-сеть в качестве субъекта правоотношений // Право в сфере Интернета : сборник статей / отв. ред. М. А. Рожкова. М. : Статут, 2018. С. 375-386.

31 Филиппова И. А. Правовое регулирование искусственного интеллекта : учеб. пособие. Н. Новгород : Нижегородский госуниверситет, 2020. С. 62.

да трэж

остальных случаях она с точки зрения права всё же является орудием или средством совершения преступления, а не его субъектом. Одновременно с этим здесь не возникает вопроса о субъекте уголовной ответственности, так как очевидны виновные действия со стороны людей. Трудности, не нашедшие на сегодняшний день разрешения в науке, появляются именно в одной, но критической ситуации — когда поистине интеллектуальная (в том числе киберфизическая) система, то есть способная к самообучению, совершает преступление или иное правонарушение. Даже в этом случае к настоящему времени затруднительно сформировать подход к мерам наказания: привычные для человека или юридического лица меры воздействия в этом случае не подходят, даже отключение или ограничение доступа к информации интеллектуальной системы не приводит к однозначно негативным для нее последствиям, что, впрочем, может поменяться при условии возникновения реального, а не смоделированного самосознания.

В качестве вариантов разрешения указанной проблемы на основании анализа научной и технической литературы, а также принципов правовых систем разных государств, можно предложить потенциальные модели ответственности, дифференцированные между самой интеллектуальной системой, ее разработчиком и оператором. Считаем этот круг субъектов минимально необходимым и достаточным для решения поставленной научной задачи. Разумеется, к их числу могут быть добавлены иные лица, например изготовитель отдельных комплектующих, продавец или третьи лица32. Объем ответственности в настоящем исследовании опирается на цивилистический инструментарий, поскольку мы считаем его более вариативным, а также детальнее проработанным на сегодняшний день, что, однако, не исключает возможности трансляции предложенных моделей на административно- и уголовно-правовые отношения. Формулирование данных моделей осуществлялось по принципам комбинаторики, с целью рассмотреть полный круг возможных вариантов. Итак, ответственность при использовании систем искусственного интеллекта может быть распределена согласно следующим моделям.

1. Девиантные действия систем искусственного интеллекта, отклоняющиеся как от норм права, так и от внутренних правил и алгоритмов поведения. Признаются обстоятельствами непреодолимой силы и потому не влекут какой-либо ответственности.

В поддержку этой позиции можно привести тот факт, что современные системы искусственного интеллекта, хотя и обладают высоким эвристическим потенциалом, настраиваются таким образом, чтобы если не исключить, то минимизировать вредные и опасные эффекты их функционирования. Так, большинство аварий с участием беспилотных автомобилей произошло по вине иных, «человеческих» участников дорожного движения, а системы, основанные на технологии генерации текстов (в том числе голосовые помощники), снабжаются программными модулями, запрещающими им отвечать на отдельные вопросы (например, об инструкции сборки огнестрельного оружия в домашних условиях).

2. Формирование коллективной ответственности разработчиков интеллектуальных систем, в том числе путем создания фондов, за счет которых будет компенсирован причиненный системой вред.

В настоящее время такой вопрос в объединениях разработчиков не ставится, для его появления, вероятно, необходим комплекс разнообразных инцидентов с интеллектуальными системами, что вызовет общественный резонанс, необходимость компенсации значительного ущерба и соответствующую реакцию органов государственной власти.

3. Формирование коллективной ответственности операторов (владельцев) интеллектуальных систем по модели обязательного страхования ответственности.

Однако данная модель ограничена, поскольку приведет к удорожанию искусственных интеллектуальных систем для пользователей и может способствовать теневому их распространению, так как количество систем искусственного интеллекта в условиях предоставления доступа к открытым алгоритмам, о чем писалось ранее, невозможно отследить.

4. Безусловная и безвиновная ответственность разработчика системы в случаях, когда

32 Регулирование робототехники: введение в робоправо. Правовые аспекты развития робототехники и технологий искусственного интеллекта / В. В. Архипов, В. В. Бакуменко, А. Д. Волынец [и др.]. М. : Инфо-тропик Медиа, 2018. С. 159.

внешние относительно самой интеллектуальной системы факторы риска при формировании ситуации причинения вреда исключаются.

Данная модель может быть реализована в ситуации, когда невозможно установить исправность базового алгоритма системы, корректность на всех этапах обучения, а также отсутствие фактов постороннего вмешательства, — то есть когда нельзя исключить вину физических лиц, она, согласно данной модели, должна презюмироваться. Необходимость указанной модели обосновывается тем, что дата-сеты, на которых обучаются интеллектуальные системы, сами по себе представляют значительную ценность. Крупные разработчики с позиций защиты своей интеллектуальной собственности и коммерческой тайны, а значит конкурентного преимущества на рынке, могут согласиться на любые штрафные санкции. Аналогичную модель применительно к причинению вреда в медицинской сфере в форме «возложения персональной (в том числе уголовной) ответственности на субъектов, вовлекаемых в оборот медицинского изделия на всех этапах его жизненного цикла», предлагает А. А. Шутова33. Полагаем, что в случае сохранения инструментального подхода к интеллектуальным системам34 эта позиция останется доминирующей.

5. Безусловная и безвиновная ответственность оператора системы в случаях, когда внутренние факторы риска при формировании ситуации причинения вреда исключаются либо если система выполняла прямые инструкции оператора.

Данная модель представляется более справедливой, нежели описанная в предыдущем пункте, поскольку все возможности искусственного интеллекта на этапе разработки конкретной системы предугадать почти невозможно, а любые действия в материальном мире такая система в любом случае не может на современном этапе выполнять без предварительного стимула со стороны человека. Однако реализация в этом случае возможна только, если удалось установить такого человека и доказать его виновность, что не всегда возможно сделать.

6. Ограниченная безвиновная ответственность оператора или разработчика системы искусственного интеллекта.

Эта модель с определенными оговорками применяется в настоящее время. Так, в большинстве стран требуется, чтобы за рулем автомобиля с функциями беспилотного управления транспортным средством находился человек. При этом презюмируется, что в случае правонарушения ответственность будет возложена именно на него.

7. Солидарная ответственность как оператора, так и разработчика. Альтернативой может быть квазисолидарная ответственность: субъектом ответственности является только оператор, но впоследствии он может обратиться с регрессными требованиями к разработчику.

Именно такая ситуация складывается в настоящее время при причинении вреда автономными транспортными средствами: вред компенсирует водитель (оператор), суды при этом крайне неохотно привлекают к процессу производителя или продавца автомобиля, однако по завершении разбирательства оператор (водитель) чаще всего подает вполне успешный иск к разработчику(производителю транспортного средства). В этом случае, по сути, реализуются одновременно третья и четвертая модели.

8. Распределенная ответственность оператора и разработчика.

Пропорции размера ответственности в этом случае должны быть установлены нормативно в общей части Уголовного кодекса Российской Федерации, санкциях конкретных норм Кодекса Российской Федерации об административных правонарушениях либо в каждом отдельном случае определяться судом.

9. Субсидиарная ответственность оператора и разработчика.

Основной причинитель вреда (основной должник) должен быть определен нормативно, что в настоящее время представляется маловероятным. Вместе с тем логично предположить, что в качестве основного должника будет признан оператор (владелец), поскольку разработчик обладает большими финансовыми ресурсами (а значит, может платить при недостаточности средств оператора), а также именно он, будучи лицом, выпустившим свою систему на рынок, не предусмотрел и не предупредил все возможные варианты ее отклонения от правомерного поведения. В данном случае

33 Шутова А. А. Особенности квалификации преступлений, совершаемых лицами, использующими технологии искусственного интеллекта в здравоохранении // Lex russica. 2023. № 6. С. 116. DOI: 10.17803/17295920.2023.205.12.113-123.

34 Бахтеев Д. В. Искусственный интеллект: этико-правовые основы М. : Проспект, 2023. С. 94-97.

LEX IPS»

может быть проведена аналогия с ответственностью родителей и иных законных представителей за вред, причиненный несовершеннолетними: они платят, если недостаточно средств несовершеннолетнего, и несут персональную ответственность за то, что не воспитали своего ребенка надлежащим образом.

10. Определение правовых режимов наступления ответственности для отдельных классов или даже конкретных интеллектуальных систем.

Интересным представляется в этом контексте режим «этического рычага», предложенного Дж. Контиссой, который «менял бы настройки автомобиля (беспилотного. — Д. Б.) с "полностью альтруистичного" режима на "полностью эгоистичный" и обратно, при этом режим по умолчанию был бы беспристрастным»35. В этом случае, по сути, в одной реальности сочетались бы три отдельных режима: для альтруистического — невиновное причинение вреда, форс-мажор; для нейтрального — одна из моделей 2-9; для эгоистического — виновная (через концепт косвенного умысла) ответственность оператора. Однако эта идея крайне уязвима к злоупотреблениям, например результаты работы такой системы могут быть фальсифицированы, она может быть отключена программно или аппаратно.

11. Личная ответственность системы искусственного интеллекта.

Разумеется, данная модель реализуема лишь при условии закрепления за такими системами статуса субъекта права, что в настоящее время также представляется маловероятным.

Еще раз следует подчеркнуть, что аспекты виновной ответственности в данном случае не рассматривались: основанием постановки вопроса является ли ситуация, в которой человек (как оператор, так и разработчик) не мог непосредственно или опосредованно повлиять на конкретное негативное действие/бездействие системы искусственного интеллекта.

Заключение

Резюмируя всё вышесказанное, укажем, что сегодня искусственный интеллект должен быть

признан новым, но лишь объектом (предметом, инструментом, орудием) в различных правоотношениях; попытки отождествить его с уже существующими юридическими конструкциями, на наш взгляд, будут приводить к порокам правового регулирования. Исходя из этого, и говорить о самостоятельной ответственности данных систем явно преждевременно, ее должны нести оператор и разработчик в объеме, зависящем от специфики конкретной ситуации причинения вреда. Считаем невозможным ограничиться одной моделью из числа предложенных, так как особенности регулирования в различных отраслях права и широкая вариативность реальности вызывают потребность в дифференциации.

К настоящему времени до создания полноценного искусственного интеллекта, способного воспроизводить и превосходить возможности человеческого разума, еще далеко, однако исключать его появление в будущем (в том числе ближайшем) нельзя, поэтому требуется разработка подходов к восприятию систем искусственного интеллекта как личностей и соответствующему правовому регулированию их статуса. Представляется, что Российская Федерация, именно в силу определенного незначительного отставания в рассматриваемой области и, как следствие, отсутствия громких прецедентов, может позволить себе сформировать взвешенный и подкрепленный законодательно подход к статусу систем искусственного интеллекта.

Д. В. Грибанов, подчеркивая важность государственно-правового обеспечения полноценной реализации современных технологий, указывает, что «государство поощряет действия научно-исследовательских учреждений, направленные на объединение усилий с коммерческими организациями для трансформации научных и технологических достижений»36. Для формирования таких подходов уместным представляется использование трех групп факторов: технологических — развитие самой технологии; социально-этических — готовность общества к принятию нового равноправного с людьми субъекта; правовых — возможность введения в разные отрасли права новой категории сущности в том или ином виде. При этом, разрешая последний блок задач, недопустимо

35 Contissa G., Lagioia F., Sartor G. The Ethical Knob: ethically-customisable automated vehicles and the law // Artificial Intelligence Law. 2017. Vol. 25. Iss. 3. P. 365-378. DOI: 10.1007/s10506-017-9211-z.

36 Грибанов Д. В. Проблемы правового регулирования инновационной деятельности в национальном и международном законодательстве // Бизнес, менеджмент и право. 2016. № 1-2 (33-34). С. 36.

на современном этапе ограничиваться единичной моделью: мы не знаем, что нас ждет завтра и каким будет будущее искусственного интеллекта, поэтому обязаны предусмотреть макси-

мальное число возможных путей реагирования на те риски, которые потенциально могут возникнуть на очередном витке технологического развития.

СПИСОК ЛИТЕРАТУРЫ

Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 112-119. DOI: 10.22394/2074-7306-2021-1-1-112-119.

Архипов С. И. Субъект права (теоретическое исследование) : автореф. дис. ... д-ра юрид. наук. Екатеринбург, 2005. 52 с.

Бахтеев Д. В. Искусственный интеллект: этико-правовые основы. М. : Проспект, 2023. 176 с.

Болотаева О. С. Искусственный интеллект и право интеллектуальной собственности // Право и государство: теория и практика. 2023. № 10. С. 309-311. DOI: 10.47643/1815-1337-2023-10-309.

Гаджиев Г. А. Является ли робот-агент лицом? (Поиск правовых форм для регулирования цифровой экономики) // Журнал российского права. 2018. № 1. С. 15-30.

Грибанов Д. В. Проблемы правового регулирования инновационной деятельности в национальном и международном законодательстве // Бизнес, менеджмент и право. 2016. № 1-2 (33-34). С. 29-36.

Малько А. В.,Липинский Д. А., Маркунин Р. С. Юридическая ответственность как средство предупреждения правонарушений: актуальные проблемы // Право. Журнал высшей школы экономики. 2020. № 4. С. 4-24.

Морхат П. М. Юнит искусственного интеллекта как электронное лицо // Вестник Московского государственного областного университета. Серия «Юриспруденция». 2018. № 2. С. 61-73. DOI: 10.18384/2310-67942018-2-61-73.

Нагродская В. Б. Новые технологии (блокчейн / искусственный интеллект) на службе права : научно-методическое пособие / под ред. Л. А. Новоселовой. М. : Проспект, 2019. 128 с.

Никитенко С. В. Концепции деликтной ответственности за вред, причиненный системами искусственного интеллекта // Вестник экономического правосудия Российской Федерации. 2023. № 1. С. 156-174. DOI: 10.37239/2500-2643-2022-18-1-156-174.

Оморов Р. О. Интеллектуальная собственность и искусственный интеллект // E-Management. 2020. № 1. С. 48-49. DOI: 10.26425/2658-3445-2020-1-43-49.

Панаева Л. Е. Модели уголовной ответственности юридических лиц в зарубежных странах // Вестник ЮжноУральского государственного университета. Серия «Право». 2022. Т. 22. № 4. С. 33-37. DOI: 10.14529/law220405.

Пономарёва Е. В. Субъекты и объекты права: теоретико-правовые проблемы разграничения : дис. ... канд. юрид. наук. Екатеринбург, 2019. 208 с.

Регулирование робототехники: введение в робоправо. Правовые аспекты развития робототехники и технологий искусственного интеллекта / В. В. Архипов, В. В. Бакуменко, А. Д. Волынец [и др.]. М. : Инфотропик Медиа, 2018. 232 с.

Серова О. А. Роботы как участники цифровой экономики: проблемы определения правовой природы // Гражданское право. 2018. № 3. С. 22-24. DOI: 10.18572/2070-2140-2018-3-22-24.

Сизова В. Н. Институт уголовной ответственности юридических лиц в системе российского уголовного законодательства: к вопросу определения субъекта // Академическая мысль. 2021. № 4 (17). С. 36-38.

Спесивов Н. В. От фантастических теорий к объективной реальности: есть ли будущее у искусственного интеллекта и предиктивных технологий при отправлении правосудия по уголовным делам? // Lex russica. 2023. № 2. С. 81-90. DOI: 10.17803/1729-5920.2023.195.2.081-090.

Ужов В. Ф. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. 2017. № 3. С. 357-360.

Филипова И. А. Правовое регулирование искусственного интеллекта : учеб. пособие. Н. Новгород : Нижегородский госуниверситет, 2020. 92 с.

Чаннов С. Е. Робот (система искусственного интеллекта) как субъект (квазисубъект) права // Актуальные проблемы российского права. 2022. № 17 (12). С. 94-109. DOI: 10.17803/1994-1471.2022.145.12.094-109.

Черемисинова М. Е. Социальная интернет-сеть в качестве субъекта правоотношений // Право в сфере Интернета : сборник статей / отв. ред. М. А. Рожкова. М. : Статут, 2018. С. 375-386.

LEX 1Р?Ж

Шутова А. А. Особенности квалификации преступлений, совершаемых лицами, использующими технологии искусственного интеллекта в здравоохранении // Lex russica. 2023. № 6. С. 113-123. DOI: 10.17803/17295920.2023.205.12.113-123.

AtabekovA., Yastrebov O. Legal Status of Artificial Intelligence Across Countries: Legislation on the Move // European Research Studies Journal. 2018. Vol. XXI. Iss. 4. P. 773-782.

Bagaev I. Z., Sitnik V. N., Plutalov I. Y. On the Issue of Criminal Liability of Legal Entities in the Russian Federation Through the Prism of Harmonization of Law // Legal Concept. 2021. Vol. 20. No. 3. P. 200-206. DOI: 10.15688/ lc.jvolsu.2021.3.29.

Butler T. L. Can a Computer be an Author — Copyright Aspects of Artificial Intelligence // Hastings Communications and Entertainment Journal. 1982. Vol. 4. No. 4. P. 707-747.

Chopra S., White L. F. A Legal Theory for Autonomous Artificial Agents. The University of Michigan Press, 2018. 264 p.

Contissa G., Lagioia F., Sartor G. The Ethical Knob: ethically-customisable automated vehicles and the law // Artificial Intelligence Law. 2017. Vol. 25. Iss. 3. P. 365-378. DOI: 10.1007/s10506-017-9211-z.

Gunkel D. J. Robot rights. Cambridge, MA : MIT Press, 2018. 256 p.

Robertson J. Human rights vs Robot rights: Forecasts from Japan // Critical Asian Studies. 2014. Vol. 46. Iss. 4. P. 571-598. DOI: 10.1080/14672715.2014.960707.

Robots Enact Malignant Stereotypes / A. Hundt, W. Agnew, V. Zeng [et al.] // Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency. 2022. P. 743-756. DOI: 10.1145/3531146.3533138.

Thys S., Van Ranst W., Goedeme T. Fooling automated surveillance cameras: adversarial patches to attack person detection // IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). 2019. P. 49-55. DOI: 10.1109/CVPRW.2019.00012.

REFERENCES

Apostolova NN. Liability for Damage Caused by Artificial Intelligence. North Caucasus Legal Vestnik. 2021;1:112-119. (In Russ.). DOI: 10.22394/2074-7306-2021-1-1-112-119.

Arkhipov SI. The subject of law (theoretical research): Dr. Sci. Diss. Author's Abstract. Yekaterinburg; 2005. (In Russ.). Arkhipov VV, Bakumenko VV, Volynets AD, et al. Regulation of Robotics: An Introduction to Robolaw. Legal aspects of the development of robotics and artificial intelligence technologies. Moscow: Infotropik Media Publ.; 2018. (In Russ.).

Atabekov A, Yastrebov O. Legal Status of Artificial Intelligence Across Countries: Legislation on the Move. European Research Studies Journal. 2018;XXI(4):773-782.

Bagaev IZ, Sitnik VN, Plutalov IY. On the Issue of Criminal Liability of Legal Entities in the Russian Federation Through the Prism of Harmonization of Law. Legal Concept. 2021;20(3):200-206. DOI: 10.15688/lc.jvolsu.2021.3.29. Bakhteev DV. Artificial Intelligence: Ethical and Legal Foundations. Moscow: Prospekt Publ.; 2023. (In Russ.). Bolotaeva OS. Artificial Intelligence and Intellectual Property Law. Law and State: The Theory and Practice. 2023;10. (In Russ.). DOI: 10.47643/1815-1337_2023_10_309.

Butler TL. Can a Computer be an Author — Copyright Aspects of Artificial Intelligence. Hastings Communications and Entertainment Journal. 1982;4(4):707-747.

Channov SE. Robot (Artificial Intelligence System) as a Subject (Quasi-Subject) of Law. Aktual'nye problemy rossijskogo prava. 2022;17(12):94-109. (In Russ.). DOI: 10.17803/1994-1471.2022.145.12.094-109.

Cheremisinova ME. Rozhkova MA (ed.). Social Internet network as a subject of legal relations. Law in the Field of the Internet: A collection of articles. Moscow: Statut Publ.; 2018. (In Russ.).

Chopra S, White LF. A Legal Theory for Autonomous Artificial Agents. The University of Michigan Press; 2018. Contissa G, Lagioia F, Sartor G. The Ethical Knob: ethically-customisable automated vehicles and the law. Artificial Intelligence Law. 2017;25(3):365-378. DOI: 10.1007/s10506-017-9211-z.

Filipova IA. Legal regulation of artificial intelligence. N. Novgorod: Nizhny Novgorod State University Publ.; 2020. (In Russ.).

Gadzhiev GA. Whether the robot-agent is a person? (search of legal forms for the regulation of digital economy). Journal of Russian Law. 2018;1:15-30. (In Russ.).

Gribanov DV. Problems of legal regulation of innovation activity in national and international legislation. Business, Management and Law. 2016;1-2(33-34):29-36. (In Russ.). Gunkel DJ. Robot rights. Cambridge; MA: MIT Press; 2018.

Hundt A, Agnew W, Zeng V, Kacianka S, Gombolay M. Robots Enact Malignant Stereotypes. Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency; 2022. DOI: 10.1145/3531146.3533138.

Malko AV, Lipinskiy DA, Markunin RS. Legal Responsibility as a Means to Prevent Offences. Pravo. Zhurnal Vysshey shkoly ekonomiki [Law. Journal of the Higher School of Economics]. 2020;4:4-24. (In Russ.).

Morkhat PM. Artificial intelligence unit as Electronic Personality. Bulletin of the Moscow Region State University. Series: Jurisprudence. 2018;2:61-73. (In Russ.). DOI: 10.18384/2310-6794-2018-2-61-73.

Nagrodskaya VB. Novoselova LA (ed.). New technologies (blockchain/artificial intelligence) in the service of law. Academic and Methodological Course book. Moscow: Prospekt Publ.; 2019. (In Russ.).

Nikitenko SV. Concepts of tort liability for damage caused by artificial intelligence systems. Vestnik ekonomicheskogo pravosudiya Rossiyskoy Federatsii. 2023;1:156-174. (In Russ.). DOI: 10.37239/2500-2643-2022-18-1-156-174.

Omorov RO. Intellectual Property and Artificial Intelligence. E-Management. 2020;1:48-49. (In Russ.). DOI: 10.26425/2658-3445-2020-1-43-49.

Panaeva LE. Models of criminal liability of legal entities outside Russia. Bulletin of the South Ural State University. Series «Law». 2022;22(4):33-37. (In Russ.). DOI: 10.14529/law220405.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Ponomareva EV. Subjects and objects of law: Theoretical and legal problems of differentiation. Cand. Sci. Diss. Yekaterinburg; 2019. (In Russ.).

Robertson J. Human rights vs Robot rights: Forecasts from Japan. Critical Asian Studies. 2014;46(4):571-598. DOI: 10.1080/14672715.2014.960707.

Serova OA. Robots as digital economy participants: Issues of legal nature determination. Civil Law. 2018;3:22-24. (In Russ.). DOI: 10.18572/2070-2140-2018-3-22-24.

Shutova AA. Features of Classification of Crimes Committed by Persons using Artificial Intelligence Technologies in Healthcare. Lexrussica. 2023;6:113-123. (In Russ.). DOI: 10.17803/1729-5920.2023.205.12.113-123.

Sizova VN. The institute of criminal liability of legal entities in the system of Russian criminal legislation: On the issue of determining the subject. Akademicheskaya mysl. 2021;4(17):36-38. (In Russ.).

Spesivov NV. From Fantastic Theories to Objective Reality: Is there Future for Artificial Intelligence and Predictive Technologies in Administration of Criminal Justice? Lex russica. 2023;2:81-90. (In Russ.). DOI: 10.17803/17295920.2023.195.2.081-090.

Thys S, Van Ranst W, Goedeme T. Fooling automated surveillance cameras: adversarial patches to attack person detection. IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). 2019;49-55. DOI: 10.1109/CVPRW.2019.00012.

Uzhov VF. Artificial Intelligence as a Subject of Law. Gaps in Russian Legislation. 2017;3:357-360. (In Russ.).

ИНФОРМАЦИЯ ОБ АВТОРЕ

Бахтеев Дмитрий Валерьевич, доктор юридических наук, доцент, профессор кафедры криминалистики Уральского государственного юридического университета имени В. Ф. Яковлева д. 21, Комсомольская ул., г. Екатеринбург 620137, Российская Федерация [email protected]

INFORMATION ABOUT THE AUTHOR

Dmitry V. Bakhteev, Dr. Sci. (Law), Associate Professor, Professor of the Department of Criminology, Yakovlev

Ural State Law University, Yekaterinburg, Russian Federation

[email protected]

Материал поступил в редакцию 17 декабря 2023 г. Статья получена после рецензирования 19 февраля 2024 г. Принята к печати 15 марта 2024 г.

Received 17.12.2023. Revised 19.02.2024. Accepted 15.03.2024.

i Надоели баннеры? Вы всегда можете отключить рекламу.