JURISPRUDENCE
Научная статья
УДК 347.51
https://doi.org/10.24412/2073-0454-2022-2-75-78
NIION: 2003-0059-2/22-221
MOSURED: 77/27-003-2022-02-420
Ответственность за вред, причиненный искусственным интеллектом:
реальность и перспективы
Марина Евгеньевна Жаглина1, Андрей Вячеславович Жаглин2
1 Центральный филиал Российского государственного университета правосудия, Воронеж, Россия,
2 Воронежский институт МВД России, Воронеж, Россия, [email protected]
Аннотация. Рассматриваются вопросы ответственности за вред, причиненный искусственным интеллектом, как с точки зрения действующего законодательства, так и с позиции необходимости его дальнейшего совершенствования исходя из потребностей правоприменительной практики.
Ключевые слова: искусственный интеллект, робот, источник повышенной опасности, ответственность, вред
Для цитирования: Жаглина М. Е., Жаглин А. В. Ответственность за вред, причиненный искусственным интеллектом: реальность и перспективы // Вестник Московского университета МВД России. 2022. N° 2. С.75-78. https://doi.org/10.24412/2073-0454-2022-2-75-78.
Original article
Liability for damage caused by artificial intelligence: reality and prospects
Marina E. Zhaglina1, Andrey V. Zhaglin2
1 Central Branch of the Russian State University of Justice, Voronezh, Russia, [email protected]
2 Voronezh Institute of the Ministry of Internal Affairs of Russia, Voronezh, Russia, [email protected]
Abstract. The issues of liability for harm caused by artificial intelligence, both from the point of view of the current legislation, and from the position of the need for its further improvement based on the needs of law enforcement practice are being discussed.
Keywords: artificial intelligence, robot, source of increased danger, responsibility, harm
For citation: Zhaglina M. E., Zhaglin A. V. Responsibility for the harm caused by artificial intelligence: reality and prospects. bulletin of the Moscow University of the Ministry of Internal affairs of Russia. 2022;(2):75-78. (In Russ.). https://doi.org/10.24412/2073-0454-2022-2-75-78.
Внедрение в различные сферы нашей жизни новых технологий, особенно в эпоху «ковидных» ограничений, порождает значительный круг правовых проблем, связанных как с определением правовой природы данных объектов, так и круга ответственных лиц в случае причинения ими вреда.
Сегодня цифровые технологии широко применяются в разнообразных видах деятельности: медицине, транспорте, образовании, банковском обслуживании, охране общественного порядка, осуществлении правосудия, промышленности и т. д., что предопределяет необходимость всестороннего правового регулирования порядка и последствий их использования.
Под искусственным интеллектом обычно понимают совокупность технологических решений, позволяющих имитировать когнитивные функции человека (в частности, самообучение и поиск решений без заранее заданных алгоритмов) и получать результаты, сопоставимые с интеллектуальной деятельностью человека. При этом отмечается, что искусственный интеллект включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, сервисы по обработке данных и поиску решений [1].
Искусственный интеллект может воплощаться в различных формах, что оказывает влияние на его правовой режим. Так, он может быть представлен в виде
© ^ar^HHa M. E., ^anrnH A. B., 2022
ЮРИДИЧЕСКИЕ НАУКИ
сложной компьютерной программы, либо киберфизи-ческого устройства, например, робота.
Некоторая (причем, все более расширяющаяся) автономность робототехнических комплексов, делающая невозможным полный контроль за ними со стороны операторов, предопределяет необходимость решения двух этико-правовых вопросов: о безопасности таких систем для человека и об ответственности за вред, причиненный в результате их применения.
В научной литературе в последнее время обсуждается вопрос о субъекте ответственности за вред, причиненный в результате использования технологий искусственного интеллекта. В рамках данного исследования мы не будем рассматривать концепции, предлагающие признать интеллектуального робота самостоятельным «электронным» субъектом права, и, соответственно, ответственным за причиненный им вред [2; 3]. Представляется, сегодня способность робота к абсолютно самостоятельным действиям сильно преувеличена, в силу чего собственного волевого момента в его действиях недостаточно для признания субъектом права, что не означает невозможности возвращения к данному вопросу в будущем.
Если же мы признаем искусственный интеллект исключительно объектом права, даже в этом случае фигура ответственного за вред лица не выглядит однозначно. В различных исследованиях, посвященных данной проблеме, высказываются мнения о возложении ответственности на:
• производителя робота или программного обеспечения для него;
• юридическое или физическое лицо - владельца устройства (программы);
• лицо, непосредственное управляющее роботом (оператора), в момент причинения вреда;
• тьютора (для самообучающихся систем).
По нашему мнению, субъект ответственности должен определяться исходя из ряда критериев:
относится ли устройство с искусственным интеллектом к источникам повышенной опасности (речь, конечно же, идет об устройствах в виде объектов материального мира, например, роботах);
в каких отношениях состоит непосредственный пользователь технологий искусственного интеллекта (оператор) с их владельцем.
В ст. 1079 ГК РФ дан лишь примерный перечень источников повышенной опасности. Поэтому, чтобы определить, относится ли соответствующее устройство к источникам повышенной опасности, необходимо проанализировать сущностные признаки такого объекта.
По нашему мнению, не все подобные устройства отвечают признаку повышенной опасности для окружающих. В то же время применение роботов с высокой степенью автономности исключает полный кон-
троль за ними со стороны человека, поэтому их вполне можно считать источниками повышенной опасности. В частности, в ст. 31 Модельной конвенции о робототехнике и искусственном интеллекте высказывается предложение о необходимости закрепления презумпции опасности для человека искусственного интеллекта, пока не доказано иное [4].
Таким образом, разделение робототехнических систем на те, которые представляют собой источники повышенной опасности, и те, которые к ним не относятся, позволит решить вопрос о субъекте и основаниях ответственности за вред, причиненный такими объектами. В первом случае, ответственность будет наступать по ст. 1079 ГК РФ, которая возлагает ответственность на владельца источника повышенной опасности даже при отсутствии его вины, во втором случае, ответственность будет нести непосредственный причинитель вреда на общих основаниях, т. е. только за вину, по ст. 1064 ГК РФ. При этом, если вред был причинен при исполнении трудовых или служебных обязанностей, субъектом ответственности будет юридическое лицо или гражданин-работодатель (ст. 1068 ГК РФ).
В результате мы можем прийти к выводу, что сегодня гражданское законодательство не предусматривает какой-либо специфики правового регулирования отношений, связанных с использованием устройств с искусственным интеллектом.
В то же время многими исследователями данной проблемы отмечается недостаточность правового регулирования в указанной сфере и невозможность применения действующих, в определенной степени устаревших, правовых конструкций в области возмещения внедоговорного вреда, причиненного роботами с высокой степенью автономности. В этой связи, предлагаются различные варианты решения рассматриваемой проблемы.
Во-первых, возможен дифференцированный подход к решению вопроса о субъекте ответственности в зависимости от вины. В соответствии с данной концепцией субъектом ответственности за вред, причиненный роботом, будет то лицо, которое виновно в наступлении вредоносных последствий: производитель (если вред причинен дефектами конструкции), разработчик программного обеспечения (если вред причинен сбоем программы), оператор (если вред причинен выполнением неверных команд) и т д. [5].
Во-вторых, возможен смешанный режим ответственности, когда степень опасности робота определяет основания ответственности и ее субъекта (в определенной степени он существует уже сейчас, поскольку выбор суда между ст. 1064 и ст. 1079 ГК РФ будет зависеть от характеристик конкретного робота). Тем не менее, высокая автономность некоторых роботов, а также риски взломов и хакерских атак, создающие
76
Вестник Московского университета МВД России
№ 2 / 2022
JURISPRUDENCE
высокую потенциальную угрозу причинения вреда, требуют разработки специального правового режима в отношении данных объектов, поскольку определить 5. конкретное виновное лицо, ответственное за действия робота, может быть весьма проблематично.
В-третьих, предлагается концепция управления рисками, т. е. привлечения к ответственности за действия робота лица, обязанного минимизировать риск 6. причинения вреда. Авторы данной концепции обосновывают ее эффективность тем, что меры ответственности должны применяться к лицу, которое не выполнило свои обязанности по устранению негативных 7. последствий действий робота [6, с. 32]. Очевидно, что при данном подходе возникает проблема определения ответственного лица, а также оснований его ответственности.
В-четвертых, возможен режим коллективной ответственности изготовителя, оператора, собственника и пользователя робота в зависимости от степени вины [7]. 8.
Таким образом, можно констатировать, что ответственность за вред, причиненный устройствами с искусственным интеллектом, может наступать в рамках существующего правового механизма, что не означает отсутствия необходимости выработки нового подхода в рассматриваемой области с учетом сложившихся реалий и потребностей правоприменительной практики. В частности, Сбербанк РФ и Минэкономразвития РФ 1. заявили о разработке к концу 2021 года правил ответственности за вред, причиненный роботами и искусственным интеллектом, а также правил страхования данных рисков [8].
Список источников
1. Федеральный закон от 24 апреля 2020 г. № 123-Ф3 «О проведении эксперимента по установлению специального регулирования
в целях создания необходимых условий для 2
разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 3. Федерального закона «О персональных данных» // Собрание законодательства РФ. 2020 г. № 17. Ст. 2701.
2. Ястребов О. А. Дискуссия о предпосылках для присвоения роботам правового статуса «элек- 4. тронных лиц» // Вопросы правоведения. 2017.
№ 1. С. 189-202.
3. Гаджиев Г. А., Войниканис Е. А. Может ли робот быть субъектом права (поиск правовых 5. норм для регулирования цифровой экономики)? // Право. Журнал Высшей школы экономики. 2018. № 4. С. 24-48.
4. Модельная конвенция о робототехнике и ис- 6. кусственном интеллекте [Электронный ре-
сурс]. URL: https://robopravo.ru/modielnaia_ konvientsiia (дата обращения: 08.12.2021). Не навреди : семь проблем правового регулирования робототехники [Электронный ресурс]. URL: https://trends.rbc.ru/trends/innovati on/5d65246a9a79474c7e708aec (дата обращения: 08.12.2021.
Михалева Е. С., Шубина Е. А. Проблемы и перспективы правового регулирования робототехники // Актуальные проблемы российского права. 2019. № 12 (109). С. 26-35. Юридическая концепция роботизации : монография / Под ред. Ю. А. Тихомирова, С. Б. Намба. М. : Проспект, 2019. [Электронный ресурс]. URL: http://www.consultant.ru/ cons/cgi/online.cgi?base=CMB&n=18874&req =doc#049061320082362303 (дата обращения: 01.12.2021).
Искусственный интеллект и роботы будут нести ответственность за причиненный вред [Электронный ресурс]. URL: https://sovetov. su/news/672_iskusstvennyy_intellekt_i_roboty_ budut_nesti_otvetstvennost_za_prichinennyy_ vred.html (дата обращения: 12.11.2020).
References
Federal Law № 123-FZ of April 24, 2020 «On conducting an experiment to Establish special Regulation in order to create the necessary conditions for the Development and Implementation of artificial intelligence Technologies in the Subject of the Russian Federation — the Federal City of Moscow and Amendments to Articles 6 and 10 of the Federal Law «On Personal Data» // Collection of Legislation of the Russian Federation. 2020. № 17. Art. 2701.
Yastrebov O. A. Discussion on the prerequisites for assigning robots the legal status of «electronic persons» // Questions of Jurisprudence. 2017. № 1. P. 189-202.
Gadzhiev G. A., Voynikanis E. A. Can a robot be a subject of law (search for legal norms to regulate the digital economy)? // Right. Journal of the Higher School of Economics. 2018. № 4. P. 24-48.
Model Convention on Robotics and Artificial Intelligence [Electronic resource]. URL: https:// robopravo.ru/modielnaia_konvientsiia (accessed: 08.12.2021).
Do no harm : seven problems of legal regulation
of robotics [Electronic resource]. URL: https://
trends.rbc.ru/trends/innovation/5d65246a9a79474
c7e708aec (accessed: 08.12.2021).
Mikhaleva E. S., Shubina E. A. Problems and
prospects of legal regulation of robotics // Actual
ЮРИДИЧЕСКИЕ НАУКИ
problems of Russian law. 2019. № 12 (109). P. 26-35.
7. Legal concept of robotization : monograph / Edited by Yu. A. Tikhomirov, S. B. Namba. M. : Prospect, 2019. [Electronic resource]. URL: http:// www.consultant.ru/cons/cgi/online.cgi?base=C MB&n=18874&req=doc#049061320082362303
(accessed: 01.12.2021).
8. Artificial intelligence and robots will be responsible for the damage caused [Electronic resource]. URL: https://sovetov.su/news/672_ iskusstvennyy_intellekt_i_roboty_budut_nesti_ otvetstvennost_za_prichinennyy_vred.html (accessed: 12.11.2020).
Информация об авторах
М. Е. Жаглина — доцент кафедры гражданско-правовых дисциплин Центрального филиала Российского государственного университета правосудия, кандидат юридических наук, доцент;
А. В. Жаглин — старший преподаватель кафедры социально-гуманитарных, экономических и правовых дисциплин Воронежского института МВД России, кандидат юридических наук, доцент.
Information about the authors
M. E. Zhaglina — Associate Professor of the Department of Civil Law Disciplines of the Central Branch of the Russian State University of Justice, Candidate of Legal Sciences, Associate Professor;
A. V. Zhaglin — Senior Teacher of the Department of Socio-Humanitarian, Economic and Law Disciplines of the Voronezh Institute of the Ministry of Internal Affairs of Russia, Candidate of Legal Sciences, Associate Professor.
Вклад авторов: все авторы сделали эквивалентный вклад в подготовку публикации. Авторы заявляют об отсутствии конфликта интересов.
Contribution of the authors: the authors contributed equally to this article. The authors declare no conflicts of interests.
Статья поступила в редакцию 16.12.2021; одобрена после рецензирования 24.01.2022; принята к публикации 21.02.2022.
The article was submitted 16.12.2021; approved after reviewing 24.01.2022; accepted for publication 21.02.2022.
Информационные
r
технологии
в юридическои деятельности
ВТОРОЕ ИЗДАНИЕ
Информационные технологии в юридической деятельности. 2-е изд., перераб. и доп. Учебное пособие. Под ред. А.И. Уринцова. 351 с. Гриф НИИ образования и науки. Гриф МУМЦ «Профессиональный учебник».
Рассмотрены основные понятия и категории информатики в юриспруденции, программное обеспечение, охватывающие практически все области юридической деятельности. Предложена оригинальная схема направлений информатики в аспекте их изучения в юридическом вузе. Приведены примеры использования в юридической деятельности современных информационных технологий, таких как мультимедиа, экспертные системы и др. Отдельные главы посвящены рассмотрению технологий работы с правовыми информационными системами, структуры, состава и принципов функционирования программного обеспечения информационных технологий.
Изложены основы информационной безопасности и защиты информации в компьютерных системах. Разобраны проблемы защиты информации на персональном компьютере от потери и разрушения, несанкционированного доступа, вопросы восстановления утраченных данных, надежного удаления данных и т.д. Особое место отведено вопросам обеспечения защиты информации в компьютерных сетях.
Для студентов вузов, обучающихся по направлению «Юриспруденция» и специальности «Правоохранительная деятельность».
78
Вестник Московского университета МВД России
№ 2/2022