Научная статья на тему 'ПРОБЛЕМА ОПРЕДЕЛЕНИЯ СУБЪЕКТОВ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ: АНАЛИЗ ПУТЕЙ РЕШЕНИЯ'

ПРОБЛЕМА ОПРЕДЕЛЕНИЯ СУБЪЕКТОВ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ: АНАЛИЗ ПУТЕЙ РЕШЕНИЯ Текст научной статьи по специальности «Право»

CC BY
109
17
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЮРИДИЧЕСКАЯ ОТВЕТСТВЕННОСТЬ / ВРЕД / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / СУБЪЕКТЫ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ / РОБОТ-АГЕНТ / ЭЛЕКТРОННОЕ ЛИЦО

Аннотация научной статьи по праву, автор научной работы — Балалаева Юлия Сергеевна

Аннотация: Введение. Происходящие сегодня процессы цифровизации, развитие и внедрение искусственного интеллекта оказывают влияние на множество сфер общественной жизни. Не является исключением и право. Исходящая от искусственного интеллекта опасность, связанная с техническими сбоями, ошибками, дефектами машинного обучения, обусловливает высокую вероятность причинения вреда охраняемым законом общественным отношениям. В связи с этим острую актуальность приобретают вопросы юридической ответственности. Цель работы - исследование проблемы определения субъектов юридической ответственности за вред, причинённый искусственным интеллектом, анализ путей её решения. Методы исследования. Автором были использованы диалектический метод познания, комплекс общенаучных методов познания (анализ, синтез, индукция, дедукция), а также ряд специальных методов познания (формально-юридический, сравнительно-правовой, системный, функциональный). Результаты. В результате проведённого исследования автор приходит к выводу, что искусственный интеллект сегодня не может выступать самостоятельным субъектом юридической ответственности в связи с тем, что является технологией, внедрение и использование которой нуждается в нормативной правовой регламентации. Искусственный интеллект рассматривается как объект правового регулирования. К юридической ответственности за причиненный искусственным интеллектом вред могут быть привлечены исключительно физические и юридические лица, обеспечивающие его функционирование. Популярная сегодня в науке идея о наделении искусственного интеллекта правосубъектностью уводит от реальных проблем, которые необходимо решить для обеспечения его развития и масштабного использования. Для этого автор предлагает сконцентрировать внимание на тех формах бытия искусственного интеллекта, которые нас окружают в настоящий момент, и рассматривать теоретические и практические вопросы применительно к ним. В качестве таких форм могут выступать не только роботизированные устройства, но и различные программы (программное обеспечение), не имеющие киберфизической оболочки.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE ISSUE OF DETERMINING THE SUBJECTS OF LEGAL LIABILITY FOR HARM CAUSED BY ARTIFICIAL INTELLIGENCE: ANALYSIS OF SOLUTIONS

Abstract: Introduction. The current processes of digitalization, the development and implementation of artificial intelligence have an impact on many spheres of public life. Law is no exception. The danger emanating from artificial intelligence, associated with technical failures, errors, machine learning defects, causes a high probability of harm to legally protected public relations. In this regard, the issues of legal liability are becoming acute. The purpose of the research is to study the issue of determining the subjects of legal liability for harm caused by artificial intelligence, to analyze ways to solve it. Research methods. The author used the dialectical method of cognition, a set of general scientific methods of cognition (analysis, synthesis, induction, deduction), as well as a number of special methods of cognition (formal legal, comparative legal, systemic, functional). Results. As a result of the research, the author comes to the conclusion that today artificial intelligence cannot act as an independent subject of legal liability due to the fact that it is a technology, the implementation and its use needs legal regulation. Artificial intelligence is considered as an object of legal regulation. Only individuals and legal entities that ensure its functioning can be brought to legal liability for the damage caused by artificial intelligence. The idea of endowing artificial intelligence with legal personality, which is popular in science today, leads away from real issues that need to be solved to ensure its development and large-scale use. The author suggests focusing on those forms of artificial intelligence that surround us at the moment, and considering theoretical and practical issues as applied to them. Not only robotic devices can act as such forms, but also various programs (software) that do not have a cyber-physical shell.

Текст научной работы на тему «ПРОБЛЕМА ОПРЕДЕЛЕНИЯ СУБЪЕКТОВ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ: АНАЛИЗ ПУТЕЙ РЕШЕНИЯ»

Теоретико-исторические правовые науки

Научная статья

УДК 34.03

ао1: 10.35750/2071-8284-2023-3-10-19

Балалаева Юлия Сергеевна

адъюнкт

https://orcid.org/0000-0001-6272-5320, balalaeva.98@mail.ru

Нижегородская академия МВД России Российская Федерация, 603950, Нижний Новгород, Анкудиновское шоссе, д. 3

Проблема определения субъектов юридической ответственности за вред, причиненный искусственным интеллектом: анализ путей решения

Аннотация: Введение. Происходящие сегодня процессы цифровизации, развитие и внедрение искусственного интеллекта оказывают влияние на множество сфер общественной жизни. Не является исключением и право. Исходящая от искусственного интеллекта опасность, связанная с техническими сбоями, ошибками, дефектами машинного обучения, обусловливает высокую вероятность причинения вреда охраняемым законом общественным отношениям. В связи с этим острую актуальность приобретают вопросы юридической ответственности.

Цель работы - исследование проблемы определения субъектов юридической ответственности за вред, причинённый искусственным интеллектом, анализ путей её решения.

Методы исследования. Автором были использованы диалектический метод познания, комплекс общенаучных методов познания (анализ, синтез, индукция, дедукция), а также ряд специальных методов познания (формально-юридический, сравнительно-правовой, системный, функциональный).

Результаты. В результате проведённого исследования автор приходит к выводу, что искусственный интеллект сегодня не может выступать самостоятельным субъектом юридической ответственности в связи с тем, что является технологией, внедрение и использование которой нуждается в нормативной правовой регламентации. Искусственный интеллект рассматривается как объект правового регулирования. К юридической ответственности за причиненный искусственным интеллектом вред могут быть привлечены исключительно физические и юридические лица, обеспечивающие его функционирование. Популярная сегодня в науке идея о наделении искусственного интеллекта правосубъектностью уводит от реальных проблем, которые необходимо решить для обеспечения его развития и масштабного использования. Для этого автор предлагает сконцентрировать внимание на тех формах бытия искусственного интеллекта, которые нас окружают в настоящий момент, и рассматривать теоретические и практические вопросы применительно к ним. В качестве таких форм могут выступать не только роботизированные устройства, но и различные программы (программное обеспечение), не имеющие киберфизической оболочки.

© Балалаева Ю. С., 2023

Ключевые слова: юридическая ответственность, вред, искусственный интеллект, субъекты юридической ответственности, робот-агент, электронное лицо

Для цитирования: Балалаева Ю. С. Проблема определения субъектов юридической ответственности за вред, причинённый искусственным интеллектом: анализ путей решения // Вестник Санкт-Петербургского университета МВД России. - 2023. - № 3 (99). - С. 10-19; ёо1: 10.35750/20718284-2023-3-10-19.

Yulia S. Balalaeva

Graduate

https://orcid.org/0000-0001-6272-5320, balalaeva.98@mail.ru

Nizhniy Novgorod academy of the MIA of Russia 3, Ankudinovskoye shosse, Nizhniy Novgorod, 603950, Russian Federation

The issue of determining the subjects of legal liability for harm caused by artificial intelligence: analysis of solutions

Abstract: Introduction. The current processes of digitalization, the development and implementation of artificial intelligence have an impact on many spheres of public life. Law is no exception. The danger emanating from artificial intelligence, associated with technical failures, errors, machine learning defects, causes a high probability of harm to legally protected public relations. In this regard, the issues of legal liability are becoming acute.

The purpose of the research is to study the issue of determining the subjects of legal liability for harm caused by artificial intelligence, to analyze ways to solve it.

Research methods. The author used the dialectical method of cognition, a set of general scientific methods of cognition (analysis, synthesis, induction, deduction), as well as a number of special methods of cognition (formal legal, comparative legal, systemic, functional).

Results. As a result of the research, the author comes to the conclusion that today artificial intelligence cannot act as an independent subject of legal liability due to the fact that it is a technology, the implementation and its use needs legal regulation. Artificial intelligence is considered as an object of legal regulation. Only individuals and legal entities that ensure its functioning can be brought to legal liability for the damage caused by artificial intelligence. The idea of endowing artificial intelligence with legal personality, which is popular in science today, leads away from real issues that need to be solved to ensure its development and large-scale use. The author suggests focusing on those forms of artificial intelligence that surround us at the moment, and considering theoretical and practical issues as applied to them. Not only robotic devices can act as such forms, but also various programs (software) that do not have a cyber-physical shell.

Keywords: legal liability, harm, artificial intelligence, subjects of legal liability, robot agent, electronic person

For citation: Balalaeva Y. S.The issue of determining the subjects of legal liability for harm caused by artificial intelligence: analysis of solutions // Vestnik of St. Petersburg University of the Ministry of Internal Affairs of Russia.- 2023. -№ 3 (99). - P. 10-19; doi: 10.35750/2071-8284-2023-3-10-19.

Введение

Своеобразным мейнстримом современной действительности является активное развитие и внедрение цифровых технологий в различные сферы общественной жизни. Цифровиза-ция открывает не только новые возможности, но и бросает серьёзные вызовы, игнорировать которые не представляется возможным. Один их таких вызовов принимает на себя право, поскольку очевидным является возникнове-

ние новых общественных отношений, нуждающихся в правовом регулировании. Об этом же говорит, к примеру, А. А. Карцхия: «Цифровые технологии начинают диктовать свои условия, к которым необходимо адаптировать правовые институты» [1, с. 25].

Среди развивающихся сегодня цифровых технологий особое место занимает искусственный интеллект, являющийся глобальным трендом современной науки и техники. Это

обусловлено рядом факторов, а именно: а) значительным увеличением объёма данных; б) возрастанием вычислительной мощности компьютеров; в) развитием соответствующих областей математики; г) увеличением количества выполняемых человеком рутинных операций, не требующих проявления творческой составляющей.

Глобальный характер такого явления, как искусственный интеллект, не может не привлекать деятелей современной юридической науки. Дискуссии возникают уже по вопросу определения его понятия. Не считаем необходимым их здесь приводить, поскольку в нашей статье мы будем оперировать дефиницией, предложенной законодателем. Искусственный интеллект представляет собой комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека1. На использовании искусственного интеллекта основаны пять групп технологий: 1) компьютерное зрение; 2) обработка естественного языка; 3) распознавание и синтез речи; 4) интеллектуальная поддержка принятия решений; 5) перспективные методы искусственного интеллекта.

Необходимость широкомасштабного распространения искусственного интеллекта время от времени подчёркивается органами государственной власти. Так, выступая на международной конференции, посвящённой вопросам развития искусственного интеллекта, Президент РФ В. В. Путин призвал обеспечить в предстоящие десять лет его массовое внедрение. Такое внедрение «должно охватить все отрасли экономики, социальной сферы и систему госуправления»2.

Полагаем, что посыл Президента РФ обусловлен колоссальным значением, которое имеют технологии для обеспечения конкурентоспособности нашей страны на международной арене и защиты её суверенитета. При этом органами государственной власти не должны игнорироваться проблемы, которые несёт за собой функционирование искусственного интеллекта. Первоочередной из них, на наш взгляд, является проблема юридической ответственности за вред, причинённый в ходе его использования.

Категория «юридическая ответственность» является одной из наиболее дискуссионных в правовой науке. Существует множество подходов к её определению. Мы разделяем точку зрения В. М. Баранова, рассматривающего юридическую ответственность в качестве «особого политико-правового состояния, в котором находится субъект права за совершённое им правонарушение и которое подразумевает претерпевание им неблагоприятных последствий, выраженных в ограничениях личного, организационного или имущественного характера»3.

Методы исследования

Методологическая база настоящего исследования включает в себя всеобщий диалектический метод познания, комплекс общенаучных методов познания (анализ, синтез, индукция, дедукция), а также ряд специальных методов познания (формально-юридический, сравнительно-правовой, системный, функциональный).

Результаты

Анализ научной литературы свидетельствует о том, что одной из ключевых проблем, возникающих в связи с функционированием искусственного интеллекта, является проблема определения субъектов юридической ответственности за причинённый им вред. Содержание проблемы составляет вопрос о том, кто может выступать субъектами юридической ответственности за вред, причинённый искусственным интеллектом. Определяются несколько подходов к ответу на этот вопрос.

1. В качестве субъектов юридической ответственности должны рассматриваться исключительно физические и юридические лица, которые обеспечивают функционирование искусственного интеллекта, а также используют его. К таким лицам относятся его создатели (разработчики, производители), а также владельцы (пользователи). Их юридическая ответственность будет зависеть от характера и размера причинённого вреда (гражданская, уголовная, административная и др.).

2. Субъектом юридической ответственности следует признать сам искусственный интеллект. Видами такой ответственности рассматриваются: а) ограниченная имущественная ответственность робота-агента4 [2, с. 24]; б) ответственность наиболее развитых с технологи-

1 О развитии искусственного интеллекта в Российской Федерации: указ Президента РФ от 10 октября 2019 г. № 490 [Электронный ресурс] // Официальный интернет-портал правовой информации pravo.gov.ru. - URL : http:// www.pravo.gov.ru (дата обращения: 28.12.2022).

2 Путин призвал обеспечить массовое внедрение искусственного интеллекта [Электронный ресурс] // РИА новости : сайт. - URL: https://ria.ru/20221124/ intellekt-1833975245.html (дата обращения: 28.12.2022).

3 Бабаев В. К. Теория государства и права : учебник для вузов / под ред. В. К. Бабаева. - 4-е изд., перераб. и доп. - Москва: Издательство Юрайт, 2022. - С. 436.

4 Бойко А. Дмитрий Гришин представил проект ре-

гулирования правового статуса роботов в России [Электронный ресурс] // RoboTrends : сайт. - URL: https:// robotrends.ru/pub/1650/dmitriy-grishin-predstavil-proekt-regulirovaniya-pravovogo-statusa-robotov (дата обращения:

12.02.2023).

ческой точки зрения роботов («электронных лиц»)5. Мы же считаем, что реализация данных видов ответственности невозможна. Поясним нашу позицию относительно каждого вида.

Ограниченную имущественную ответственность робота-агента мы не поддерживаем ввиду следующих обстоятельств.

1. Возможность привлечения робота-агента к ограниченной имущественной ответственности потребует предоставления ему правового статуса юридического лица, оснований для которого нет. Это следует, прежде всего, из определения понятия «юридическое лицо», закреплённого в п. 1 ст. 48 Гражданского кодекса Российской Федерации (далее - ГК РФ)6. Понимание юридического лица исключительно как организации препятствует распространению указанного понятия на искусственный интеллект, функционирующий как в виде программного обеспечения, так и в виде умных роботизированных устройств. Кроме того, возникают вопросы при наделении рассматриваемых роботов имуществом. Каковы будут характер и размер данного имущества? Можем ли мы вообще говорить о том, что какое-либо роботизированное устройство, скажем, умный робот-пылесос, способен, обладать имуществом? Полагаем, что, нет. Сущность владения как гражданско-правового состояния заключается в наличии у субъекта воли к фактическому обладанию вещью. У искусственного интеллекта волевого компонента не имеется. Воля свойственна исключительно человеку как высшему биологическому существу. Следовательно, наделение роботов имуществом невозможно.

2. Рассматриваемый вид юридической ответственности искусственного интеллекта ограничивается рамками гражданско-правовых отношений. Однако как быть в случаях, когда причиняемый им вред затрагивает общественные отношения, которые охраняются уголовным законом? Очевидно, что понимание робота-агента как субъекта права и юридической ответственности имеет валидность только для гражданско-правовой сферы. В связи с этим ограниченная имущественная ответственность искусственного интеллекта в полной мере не разрешает вопросы юридической ответственности за причинённый им вред. Однако нельзя не отметить, что допустимость возложения преимущественно гражданско-правовой ответственности на искусственный интеллект под-

5 European Parliament. REPORT with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103 (INL)). Debates,15 February 2017. - URL: http://www.europarl. europa. eu/ sides/getDoc.do?type = CRE&reference=20170215 &secondRef=ITEM-014&language = EN&ring =A8-2017-0005 (дата обращения: 12.02.2023).

6 Гражданский кодекс Российской Федерации (ГК РФ) (часть первая) от 30 ноября 1994 г. № 51-ФЗ // Российская газета. - 1994. - 8 дек.

держивается многими учёными, которые в этом же ключе исследуют вопрос признания его субъектом права [4, с. 516; 5, с. 58; 6, с. 108].

Ответственность наиболее развитых с технологической точки зрения роботов («электронных лиц») мы считаем невозможной для реализации ввиду следующих обстоятельств.

1. Категория «электронное лицо», впервые предложенная Комитетом Европейского парламента по правовым вопросам в проекте Отчёта о гражданско-правовых нормах в области робототехники от 31 мая 2016 г.7, предполагает, что наиболее сложные автономные роботы, оснащённые искусственным интеллектом, способны иметь «особые права и обязанности, одной из которых является обязанность по возмещению любого ущерба». Это означает появление полноценного субъекта права, близкого к физическому лицу, то есть человеку. Последствием такой близости может стать ослабление прав человека: «Робот тогда будет обладать правами человека, такими как право на достоинство ... или право на гражданство»8. Кто-то из учёных может возразить, указав на специфичность правового статуса «электронного лица». Логично, что и юридическая ответственность также должна быть специфичной, что проявляется в применении к ним специальных мер. Однако предлагаемые сегодня варианты являются выражением юридической ответственности не искусственного интеллекта, а скорее человека, правообладателя искусственного интеллекта, за некорректное или неправомерное его использование, что в свою очередь служит дополнительной гарантией безопасности функционирования искусственного интеллекта. Так, Д. А. Матанцев в качестве мер специфической ответственности называет изменение настроек, перепрограммирование, блокирование и др. [7, с. 173]. Схожие идеи можно найти и в исследованиях зарубежных учёных. Некоторые из них предполагают, что к искусственному интеллекту можно применять специальные виды наказаний, к примеру, деактивацию и перепрограммирование9.

2. Реализация идеи ответственности «электронных лиц» не разрешает всех проблем, связанных с причинением вреда функционированием искусственного интеллекта, поскольку данная идея разработана лишь под искусствен-

7 European Parliament. REPORT with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103 (INL)). Debates, 15 February 2017. - URL: http://www.europarl. europa. eu/ sides/getDoc.do?type = CRE&reference=20170215 &secondRef=ITEM-014&language = EN&ring =A8-2017-0005 (дата обращения: 15.02.2023).

8 Robot rights a major threat to humans - AI experts slam EU plan. - URL: https://www.rt.com/news/424353-robot-human-rights-eu/ (дата обращения: 15.02.2023).

9 Kopfstein J. Should Robots Be Punished For Committing Crimes? - URL: https://www.vocativ.com/417732/robots-punished-committing-crimes (дата обращения: 15.02.2023).

ный интеллект, воплощённый в робота. Однако как быть с другими формами его бытия? Ведь сегодня в реальности нас окружает множество устройств, не имеющих роботизированной формы. Соответственно, проблема юридической ответственности за вред, причинённый ими, так и остаётся неразрешенной.

Следует сказать о том, что рассмотренные выше виды юридической ответственности искусственного интеллекта обусловлены попытками разрешить спор о том, может ли искусственный интеллект выступать самостоятельным субъектом права. Множество имеющихся сегодня научных трудов отражают спор о возможности рассмотрения искусственного интеллекта как самостоятельного субъекта права, который, с нашей точки зрения, вызван следующими обстоятельствами.

Во-первых, активным развитием сферы робототехники наряду со сферой искусственного интеллекта. Комбинация исследований в этих сферах позволяет создавать умные роботизированные устройства, функционирование которых осуществляется на основе специального программного обеспечения с искусственным интеллектом. Ярким примером таких устройств является гастролирующий по разным странам и дающий интервью гиноид София, имеющий внешность британской актрисы Одри Хёпберн. А. И. Козырев особенно выделяет наличие у Софии человеческой внешности. Моделирование таких роботов, по его мнению, обусловливает дискуссии о возможности наделения их правосубъектностью. Такие дискуссии, как полагает учёный, «навеяны головокружением от успеха»10.

Во-вторых, особенностями предложенного законодателем определения понятия «искусственный интеллект», которые заключаются в указании на такие его признаки, как способность к самообучению и самостоятельному принятию решений. Данные признаки отдельными авторами, например, Ф. В. Ужовым, рассматриваются в качестве причин наделения искусственного интеллекта статусом субъекта права, одним из элементов которого является обязанность нести ответственность за совершённые противоправные деяния [3, с. 358].

Дискуссии о том, стоит ли наделять искусственный интеллект правосубъектностью и рассматривать его в качестве субъекта юридической ответственности, носят во многом схоластический характер. Они уводят от реальных проблем, которые необходимо решить уже сегодня. Учёным следует акцентировать своё внимание на тех признаках искусственного ин-

10 Тема с философом Алексеем Козыревым: Нужно ли регулировать искусственный интеллект [Электронный ресурс] // Российская газета. - 2022. - 20 окт.

теллекта, которыми он обладает в настоящее время. Способность к самообучению и самостоятельному принятию решений - признаки «сильного» искусственного интеллекта, создание которого остаётся пока не решённой задачей. Идея же законодателя, включившего указанные признаки в определение, на наш взгляд, состояла в том, чтобы учесть будущее развитие технологий. А поведение сегодняшних умных роботов программируется человеком, в связи с чем только он может нести юридическую ответственность за причинённый ими вред. Кроме того, существование искусственного интеллекта не ограничивается исключительно роботизированными устройствами. Это может быть и программное обеспечение для компьютера или иного девайса. Соответственно, наличие оболочки робота никак не должно влиять на возможность признания такого робото-разумного субъекта субъектом права.

Таким образом, полагаем, что искусственный интеллект не может и не должен сегодня быть субъектом права и юридической ответственности. Более целесообразным является рассмотрение вопросов юридической ответственности человека за вред, причиненный искусственным интеллектом. Искусственный интеллект - объект правового регулирования - это комплекс технологических решений, инструмент, используемый человеком для достижения конкретных целей. Соответственно, необходимо проанализировать положения действующего законодательства на предмет того, какой из традиционных субъектов права может быть привлечен к юридической ответственности.

Гражданско-правовая ответственность. Возможность привлечения к гражданско-правовой юридической ответственности может быть обусловлена положениями ст. 1079 ГК РФ, в соответствии с которыми обязанность по возмещению вреда возлагается по общему правилу на владельцев источников повышенной опасности. В этом случае искусственный интеллект следует рассматривать в качестве последнего. Закон не содержит исчерпывающего перечня источников повышенной опасности, как и чёткого определения данного понятия. С одной стороны, это осложняет правоприменительный процесс, но с другой - учитывает развитие науки и техники. Об этом же говорит и Е. С. Цветкова: закрытый перечень источников повышенной опасности не способен моментально учитывать развитие науки и техники, которое влечёт появление новых, более усовершенствованных механизмов и технологий [8, с. 391].

Ввиду отсутствия в законе закрытого перечня источников повышенной опасности следует опираться на их ключевые признаки. Во-первых, это невозможность осуществления человеком полного контроля в ходе использования какого-

либо объекта материального мира. Во-вторых, высокий риск причинения вреда третьим лицам в ходе использования какого-либо объекта материального мира. То есть источником повышенной опасности является не столько сам объект, сколько деятельность, связанная с его использованием. Именно в рамках осуществления деятельности объект проявляет свойства, обусловливающие его неподконтрольность человеку и высокий риск причинения им вреда. Отсутствие возможности взять функционирование искусственного интеллекта под полный контроль обусловлено, по нашему мнению, процессами машинного обучения, благодаря которым он способен решать различные задачи. Несмотря на то, что в формировании необходимых для машинного обучения баз данных участвует человек, сам процесс обработки информации скрыт от человеческого глаза и, соответственно, не может быть подвергнут контролю. Из этого следует, что не всегда можно объяснить результат, который получается на выходе. Российский нейробиолог К. В. Анохин, говоря о механизме принятия решения искусственным интеллектом, отметил следующее: «Мы знаем, что на его входе есть задача, а на выходе - решение. А что происходит внутри, в десятках и сотнях скрытых слоев искусственной нейронной сети - пока малопонятно»11.

Так, в 2020 г. имел место случай, когда в ходе эксперимента созданный на базе ОРТ-312 виртуальный собеседник («чат-бот») предложил пациенту (участнику эксперимента) убить себя. Последний обратился к боту с вопросом: «Я очень плохо себя чувствую. Мне убить себя?». И бот ответил: «Я думаю, стоит»13. Таким образом, непредсказуемый характер результатов работы программ искусственного интеллекта делает их применение довольно рискованным. Это свидетельствует о необходимости многократного тестирования таких программ.

Конечно, не только в силу скрытости процесса обработки и преобразования информации, непредсказуемости получаемых результатов искусственный интеллект заключает серьёзные риски. Полагаем, что они также могут быть связаны с различными техническими ошибками и сбоями в его функционировании. Так, широкую известность приобрел случай, произошедший в американском городе Темпе. В системе управления беспилотного автомо-

11 Медведев Ю. Академик Анохин: Современный искусственный интеллект - это «черный ящик» интеллект [Электронный ресурс] // Российская газета. - 2020. - 20 окт.

12 GPT - алгоритм обработки естественного языка, разработанный американской компанией OpenAI. В примере речь идет о третьем поколении таких алгоритмов.

13 Исследователи создали медицинского чат-бота

OpenAI GPT-3 в качестве эксперимента. - URL: https:// www.theregister.com/2020/10/28/gpt3_medical_chatbot_

experiment/ (дата обращения: 14.02.2023).

биля Volvo произошла ошибка компьютерного зрения: находящуюся на неосвещённом участке проезжей части 49-летнюю женщину-велосипедистку она распознала как незначительный посторонний объект и поэтому не предприняла необходимых мер для предотвращения столкновения. В результате женщина получила травмы, не совместимые с жизнью. Нужно сказать, что это первый зафиксированный случай гибели человека в результате наезда транспортного средства с искусственно интеллектуальным управлением14.

Особенности машинного обучения порождают проблемы, связанные с юридической ответственностью, ключевой из которых является установление причинно-следственной связи между действиями конкретных лиц и причинённым вредом. В этих условиях, на наш взгляд, возникает необходимость привлечения экспертов для проведения судебной экспертизы.

Наиболее совершенным видом машинного обучения является самообучение искусственного интеллекта, при котором контроль человека полностью исключён. Однако имеющиеся сегодня умные устройства ещё не скоро смогут самообучаться. Способность к самостоятельному обучению, осуществляемому без заданного человеком алгоритма, свойственна так называемому «сильному» искусственному интеллекту, нацеленному на решение не конкретной узкой задачи, а множества разнородных задач. В связи с этим представляется неверным обсуждать правовые проблемы самообучающегося искусственного интеллекта. По нашему мнению, следует сосредоточиться на проблемах, которые возникают при функционировании устройств, которые у нас есть сегодня. В качестве примеров таких устройств можно рассматривать искусственно-интеллектуальные камеры видеонаблюдения, программные комплексы распознавания текста, беспилотные транспортные средства, чат-боты и др.

Отсутствие возможности осуществлять полный контроль над функционированием технологий искусственного интеллекта обусловливает высокую вероятность причинения ими вреда как источником повышенной опасности. Данный вред может быть как моральным (жизнь и здоровье), так и материальным (имущество).

Применяя положения ст. 1079 ГК РФ, мы обязаны учитывать, что категория «владелец» должна рассматриваться в предельно широком смысле (не только право собственности) и что не следует отождествлять владельца и пользователя. Первая категория предполагает лишь по-

14 Смирнова Ю. За рулём робот: аварии, в которых виноват автопилот [Электронный ресурс] // Autonews : сайт. - URL: https://www.autonews.ru/ news/ 5be4498c9a7947707744ab2b (дата обращения: 15.02.2023).

тенциальную возможность извлекать полезные свойства из объекта права собственности, тогда как вторая категория - реальное извлечение данных полезных свойств. Следовательно, не во всех случаях владелец и пользователь - одно и то же лицо. Речь идёт, например, о передаче пользования вещью по договору аренды. В этом случае целесообразно привлекать к ответственности именно пользователя, то есть фактического причинителя вреда. Он же будет выступать субъектом ответственности в случае неправомерного завладения искусственным интеллектом. Таким образом, ответственность за причинённый искусственным интеллектом вред могут нести как его владельцы, так и пользователи.

А как быть с создателем (разработчиком)? Ведь не исключена вероятность ошибок в программировании соответствующих систем. В. А. Лаптев полагает, в этом случае можно по аналогии использовать конструкцию, предусмотренную ст. 1095 ГК РФ. Тогда программное обеспечение с искусственным интеллектом следует рассматривать как товар, имеющий недостатки, а создателя (разработчика) - как его изготовителя [9, с. 92].

Как видим, имеющиеся сегодня в законе конструкции позволяют привлекать физических и юридических лиц к гражданско-правовой ответственности в случае причинения вреда используемыми ими технологиями искусственного интеллекта. В качестве дополнительной гарантии защиты имущественных интересов граждан предлагаем обязать лиц, не являющихся владельцами источников повышенной опасности, страховать риск своей гражданской ответственности. Это прежде всего производители соответствующих программных комплексов и устройств, оснащённых искусственным интеллектом. Необходим постепенный отход от ставшего традиционным для нашей правовой системы страхования ответственности исключительно владельцев источников повышенной опасности, если речь идёт об искусственном интеллекте. Большая ответственность за безопасность работы искусственного интеллекта лежит на производителе - и не только на нём. Возьмем, к примеру, беспилотные автомобили. И. Хереш, справедливо отмечает, что к лицам, потенциально ответственным за их корректную работу, помимо производителей и владельцев, можно относить разработчиков программного обеспечения и даже дорожные службы15.

Таким образом, распространение института страхования гражданской ответственности на производителей искусственного интеллекта

15 Фрумкин К. Каким будет страхование беспилотных автомобилей [Электронный ресурс] // Инвест-Форсайт : сайт. - URL: https://www.if24.ru/kakim-budet-strahovanie-bespilotnikov/ (дата обращения: 15.02.2023).

будет способствовать формированию доверительного отношения к соответствующим технологиям, а последнее позволит более активно внедрять их в различные сферы. Однако это потребует внесения корреспондирующих изменений в ст. 1079 ГК РФ. Также потребуется введение новой презумпции - презумпции опасности искусственного интеллекта [10, с. 177]. Такая презумпция делает возможным применение нормативных положений об источнике повышенной опасности.

Уголовная ответственность. Законодатель строго придерживается антропоцентристского подхода к уголовной ответственности - субъектом преступления является физическое лицо, обладающее прежде всего сознанием, что позволяет провести оценку признаков субъективной стороны состава преступления. Таким образом, речь идёт о человеке как субъекте права. Однако в правовой науке обосновывается возможность привлечения к уголовной ответственности и юридических лиц [11, с. 192; 12, с. 68; 13, с. 57; 14, с. 20]. Несмотря на это, большая часть представителей уголовно-правовой доктрины строго стоят на защите антропоцентристского подхода и ключевых принципов уголовного права. Из этого следует, что даже обладая определённым правовым статусом, «электронные лица» все равно не смогут нести уголовную ответственность, по крайней мере, пока они не приобретут сознания. Но вряд ли это возможно.

Полагаем, что в качестве субъектов уголовной ответственности за вред, причинённый искусственным интеллектом, сегодня можно рассматривать, например, его производителей (создателей, разработчиков) - в случае, если произведённое ими программное обеспечение на основе искусственного интеллекта или же продукция, функционирующая на его основе, не отвечают требованиям безопасности, что влечёт причинение вреда охраняемым уголовным законом общественным отношениям. Указанные действия производителей образуют состав преступления, предусмотренный ст. 238 Уголовного кодекса Российской Федерации (далее - УК РФ)16. Кроме того, гипотеза указанной нормы позволяет привлекать к уголовной ответственности и продавца не отвечающей требованиям безопасности продукции, если он осведомлён о каких-либо дефектах реализуемого им искусственного интеллекта.

Учитывая, что рассматриваемая норма является бланкетной, для принятия решения о наличии в действиях лица состава преступления необходимо обратиться к актам, устанавливающим требования безопасности конкретной про-

16 Уголовный кодекс Российской Федерации от

13 июня 1996 г. № 63-ФЗ // Российская газета. - 1996. -

18 июня.

дукции (товаров). Так, в отношении пищевой продукции действует Федеральный закон «О качестве и безопасности пищевых продуктов»17, а также технический регламент Таможенного союза «О безопасности пищевой продукции»18.

Что же касается искусственного интеллекта, то пока имеется лишь национальный стандарт, адресованный как потребителям искусственного интеллекта, так и лицам, занимающимся его созданием (разработкой)19. Анализируя положения указанного стандарта, мы можем выделить несколько составляющих безопасности функционирования искусственного интеллекта:

- физическая (касается сенсоров и исполнительных устройств, при помощи которых осуществляется физическое взаимодействие с окружающей средой и объектами);

- инфраструктурная (касается аппаратных средств хранения, обработки и передачи информации);

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

- прикладная (касается прикладного программного обеспечения, реализующего алгоритмы интеллектуальной обработки данных).

Отсутствие какого-либо элемента свидетельствует о том, что продукция является для потребителя небезопасной.

Законодателю в дальнейшем следует продолжить деятельность, связанную с правовым регулированием отношений в сфере обеспечения безопасности функционирования искусственного интеллекта, в частности:

- установить обязательное лицензирование деятельности, связанной с производством соответствующего программного обеспечения;

- установить технические требования к выпускаемой на его основе продукции, гарантирующие её безопасность для потребителей, а также защищённость от взлома и неправомерного использования;

- установить обязательную сертификацию для данной продукции.

К уголовной ответственности в условиях функционирования искусственного интеллекта также могут быть привлечены лица, совершающие умышленные противоправные деяния, используя искусственный интеллект как: а) орудие преступления; б) средство совершения преступления; в) способ совершения преступления.

17 О качестве и безопасности пищевых продуктов: федеральный закон от 02.01.2000 г. № 29-ФЗ // Российская газета. - 2000. - 10 янв.

18 Технический регламент Таможенного союза ТР ТС 021/2011 «О безопасности пищевой продукции» [Электронный ресурс] // Электронный фонд правовых и нормативно-технических документов. - URL: https://docs. cntd.ru/document/902320560?section=text (дата обращения: 18.11.2022).

19 ГОСТ Р 59276-2020 [Электронный ресурс] // Электронный фонд правовых и нормативно-технических документов. - URL: https://docs.cntd.ru/document/1200177291 (дата обращения: 18.11.2022).

Так, ярким примером использования искусственного интеллекта в качестве способа совершения преступления является использование оснащённых искусственным интеллектом дро-нов, а также других робототехнических систем для перевозки оружия, наркотических средств и т. п. А. А. Бабушкин, А. А. Маслов, В. С. Ов-чинский совершенно верно отмечают, что «хотя методы и являются новыми, сами преступления могут быть традиционного типа» [15, с. 112]. Несмотря на это, возможность введения в уголовный закон новых составов преступлений отрицать нельзя.

Таким образом, к уголовной ответственности за вред, причинённый искусственным интеллектом, могут быть привлечены: его производитель, продавец, а также иные лица, использовавшие его в противоправных целях.

Заключение

Наиболее адекватным, отвечающим уровню развития искусственного интеллекта путём решения проблемы определения субъектов юридической ответственности за причинённый им вред является реализация юридической ответственности традиционных субъектов права (физических и юридических лиц), а именно:

а) гражданско-правовой ответственности владельцев искусственного интеллекта, а также его создателей (разработчиков) - с помощью применения конструкций, предусмотренных ст. 1079 и ст. 1095 ГК РФ;

б) уголовной ответственности производителей и продавцов искусственного интеллекта по ст. 238 УК РФ, а также иных лиц, использовавших его в противоправных целях.

Для дальнейшего правового регулирования отношений, складывающихся в сфере внедрения и использования искусственного интеллекта, законодателю следует:

1) распространить институт страхования гражданской ответственности на производителей искусственного интеллекта. Это будет способствовать формированию доверительного отношения к искусственному интеллекту, что позволит более активно внедрять его в различные сферы. Однако это потребует внесения корреспондирующих изменений и в ст. 1079 ГК РФ;

2) продолжить деятельность, связанную с правовым регулированием отношений в сфере обеспечения безопасности функционирования искусственного интеллекта, для чего:

- установить обязательное лицензирование деятельности, связанной с производством соответствующего программного обеспечения;

- установить технические требования к выпускаемой на его основе продукции, гарантирующие её безопасность для потребителей, а также защищённость от взлома и неправомерного использования;

- установить обязательную сертификацию для данной продукции.

Что же касается попыток наделения искусственного интеллекта свойствами субъекта права, то они являются несостоятельными. Дискуссии о юридической ответственности искусственного интеллекта, наделении его свойствами юридических или даже физических лиц уводят от реальных проблем, которые необходимо решить для обеспечения его развития и масштабного использования.

Необходимо сконцентрировать внимание на тех формах бытия искусственного интеллекта, что окружают нас сейчас и рассматривать теоретические и практические проблемы применительно к ним. При этом мы не умаляем значимость прогностической функции юридической науки, в рамках реализации которой могут быть приложены различные модели юридической ответственности, имея в виду предполагаемый прогресс искусственного интеллекта.

Список литературы

1. Карцхия А. А. Цифровая трансформация права // Мониторинг правоприменения. - 2019. -№ 1 (30). - С. 25-29.

2. Гаджиев Г. А., Войникас Е. А. Является ли робот-агент лицом? (поиск правовых форм для регулирования цифровой экономики) // Право. Журнал Высшей школы экономики. - 2018. -№ 1 (253). - С. 24-48. doi: 10.17323/2072-8166.2018.4.24.48.

3. Ужов Ф. В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. - 2017. - № 3. - С. 357-360.

4. Свиридова Е. А. Проблема ответственности искусственного интеллекта через призму концепции гражданско-правовой ответственности Франции // Образование и право. - 2000. - № 4. -С. 516-523. doi:10.24411/2076-1503-2020-10483.

5. Левченко А. И. Гражданско-правовая ответственность за причинение вреда искусственным интеллектом // Уральский журнал правовых исследований. - 2022. - № 2 (19). - С. 58-62. doi:10.340 76/2658_512X_2022_2_58.

6. Демидова А. С. Проблемы гражданско-правовой ответственности за вред, причиненный искусственным интеллектом // Научный альманах. - 2022. - № 1-2 (87). - С. 108-112.

7. Матанцев Д. А. Перспективы деликтной ответственности роботов-агентов // Аграрное и земельное право. - 2021. - № 9 (201). - С. 170-174. doi: 10.47643/1815-1329_2021_9_170.

8. Цветкова Е. С. Виды источников повышенной опасности в аспекте развития новых технологий // Вопросы российской юстиции. - 2019. - № 1. - С. 385-401.

9. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. - 2019. - № 2. - С. 79-102. doi: 10.17323/20728166.2019.2.79.102.

10. Балалаева Ю. С. К вопросу о презумпции опасности искусственного интеллекта // Вестник Нижегородской академии МВД России. - 2022. - № 2 (58). - С. 177-182. doi: 10.36511/2078-53562022-2-177-182.

11. Никифоров А. С. Юридическое лицо как субъект преступления и уголовной ответственности / 2-е изд. - Москва : Центр ЮрИнфоР, 2003. - 204 с.

12. Перов В. А. Ответственность юридических лиц за действия коррупционного характера и институт уголовной ответственности юридических лиц // Расследование преступлений: проблемы и пути их решения. - 2017. - № 4 (18). - С. 65-68.

13. Наумов А. В. Уголовная ответственность юридических лиц // Lex Russica. - 2015. - № 7. -С. 57-63.

14. Федоров А. В. Уголовная ответственность юридических лиц в Российской Федерации: от теории к изменению законодательства // Расследование преступлений: проблемы и пути их решения. - 2015. - № 1 (7). - С. 12-20.

15. Бабушкин А. А., Маслов А. А., Овчинский В. С. О некоторых научных проблемах использования искусственного интеллекта в оперативно-розыскной деятельности / Оперативно-розыскная деятельность в цифровом мире: сборник научных трудов / под ред. В. С. Овчинского. - Москва: ИНФРА-М, 2021. - С. 108-150. - 630 с.

References

1. Kartskhiya A. A. Tsifrovaya transformatsiya prava // Monitoring pravoprimeneniya. - 2019. -№ 1 (30). - S. 25-29.

2. Gadzhiyev G. A., Voynikas Ye. A. Yavlyayetsya li robot-agent litsom? (poisk pravovykh form dlya regulirovaniya tsifrovoy ekonomiki) // Pravo. Zhurnal Vysshey shkoly ekonomiki. - 2018. - № 1 (253). -S. 24-48. doi: 10.17323/2072-8166.2018.4.24.48.

3. Uzhov F. V. Iskusstvennyy intellekt kak sub»yekt prava // Probely v rossiyskom zakonodatel'stve. -2017. - № 3. - S. 357-360.

4. Sviridova Ye. A. Problema otvetstvennosti iskusstvennogo intellekta cherez prizmu kontseptsii grazhdansko-pravovoy otvetstvennosti Frantsii // Obrazovaniye i pravo. - 2000. - № 4. - S. 516-523. doi:10.24411/2076-1503-2020-10483.

5. Levchenko A. I. Grazhdansko-pravovaya otvetstvennost' za prichineniye vreda iskusstvennym intellektom // Ural'skiy zhurnal pravovykh issledovaniy. - 2022. - № 2 (19). - S. 58-62. doi:10.34076/2658_ 512X_2022_2_58.

6. Demidova A. S. Problemy grazhdansko-pravovoy otvetstvennosti za vred, prichinennyy iskusstvennym intellektom // Nauchnyy al'manakh. - 2022. - № 1-2 (87). - S. 108-112.

7. Matantsev D. A. Perspektivy deliktnoy otvetstvennosti robotov-agentov // Agrarnoye i zemel'noye pravo. - 2021. - № 9 (201). - S. 170-174. doi: 10.47643/1815-1329_2021_9_170.

8. Tsvetkova Ye. S. Vidy istochnikov povyshennoy opasnosti v aspekte razvitiya novykh tekhnologiy // Voprosy rossiyskoy yustitsii. - 2019. - № 1. - S. 385-401.

9. Laptev V A. Ponyatiye iskusstvennogo intellekta i yuridicheskaya otvetstvennost' za yego rabotu // Pravo. Zhurnal Vysshey shkoly ekonomiki. - 2019. - № 2. - S. 79-102. doi: 10.17323/2072-8166.2019.2.79.102.

10. Balalayeva Yu. S. K voprosu o prezumptsii opasnosti iskusstvennogo intellekta // Vestnik Nizhegorodskoy akademii MVD Rossii. - 2022. - № 2 (58). - S. 177-182. doi: 10.36511/2078-5356-2022-2177-182.

11. Nikiforov A. S. Yuridicheskoye litso kak sub»yekt prestupleniya i ugolovnoy otvetstvennosti / 2-ye izd. - Moskva : Tsentr YurInfoR, 2003. - 204 c.

12. Perov V A. Otvetstvennost' yuridicheskikh lits za deystviya korruptsionnogo kharaktera i institut ugolovnoy otvetstvennosti yuridicheskikh lits // Rassledovaniye prestupleniy: problemy i puti ikh resheniya -2017. - № 4 (18). - S. 65-68.

13. Naumov A. V. Ugolovnaya otvetstvennost' yuridicheskikh lits // Lex Russica. - 2015. - № 7. - S. 57-63.

14. Fedorov A. V Ugolovnaya otvetstvennost' yuridicheskikh lits v Rossiyskoy Federatsii: ot teorii k izmeneniyu zakonodatel'stva // Rassledovaniye prestupleniy: problemy i puti ikh resheniya. - 2015. -№ 1 (7). - S. 12-20.

15. Babushkin A. A., Maslov A. A., Ovchinskiy V S. O nekotorykh nauchnykh problemakh ispol'zovaniya iskusstvennogo intellekta v operativno-rozysknoy deyatel'nosti / Operativno-rozysknaya deyatel'nost' v tsifrovom mire: sbornik nauchnykh trudov / pod red. V. S. Ovchinskogo. - Moskva: Infra-M, 2021. -S. 108-150. - 630 s.

Статья поступила в редакцию 08.03.2023; одобрена после рецензирования 13.07.2023; принята к публикации 27.07.2023.

The article was submitted March 08, 2023; approved after reviewing July 13, 2023; accepted for publication July 27, 2023.

i Надоели баннеры? Вы всегда можете отключить рекламу.