Научная статья на тему 'ПРОБЛЕМЫ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

ПРОБЛЕМЫ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Право»

CC BY
810
146
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ВОЗМЕЩЕНИЕ ВРЕДА / ЗАЩИТА ИМУЩЕСТВЕННЫХ ИНТЕРЕСОВ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ИСТОЧНИК ПОВЫШЕННОЙ ОПАСНОСТИ / ПРИМЕНЕНИЕ ЦИФРОВЫХ ТЕХНОЛОГИЙ / СТРАХОВАНИЕ ОТВЕТСТВЕННОСТИ / ЮРИДИЧЕСКАЯ ОТВЕТСТВЕННОСТЬ

Аннотация научной статьи по праву, автор научной работы — Романова Ирина Николаевна

Функционирование искусственного интеллекта представляет собой своеобразное явление, которое недостаточно изучено с правовой точки зрения, что приводит к разным оценкам последствий его использования. Главной его особенностью является способность к самообучению, позволяющая принимать различные решения в одних и тех же ситуациях, в зависимости от ранее выполненных действий. В этих условиях возникает закономерный вопрос о наличии правовых оснований для юридической ответственности в случае причинения вреда при использовании подобных технологий. В правовой доктрине иногда обосновывается идея о правосубъектности искусственного интеллекта.Объект исследования - общественные отношения, возникающие при решении вопросов юридической ответственности за вред, причиненный при применении технологий искусственного интеллекта. Цель исследования - выявление оснований возникновения юридической ответственности и порядка возмещения вреда, причиненного при использовании технологий искусственного интеллекта, а также определение направлений совершенствования законодательства в этой сфере с учетом зарубежного опыта. Методологическую основу исследования составили диалектический, логический, формально-юридический и системно-структурный методы. Материалы исследования: российское законодательство, научные публикации по проблемам применения искусственного интеллекта и решения вопросов ответственности за причиненный при этом вред. Проведенное исследование позволило автору прийти к выводу о том, что в рамках гражданско-правовой ответственности проблема возмещения вреда (ущерба) при использовании технологий искусственного интеллекта может быть решена с позиции признания их в качестве источника повышенной опасности. Из этого следует возможность постановки вопроса об ответственности лица, которое создало, произвело, владело, пользовалось и распоряжалось соответствующими технологиями. Однако при установлении правил гражданской ответственности для случаев использования искусственного интеллекта необходимо обеспечить баланс между защитой интересов общества и сохранением стимулов для инвестиций в соответствующие инновационные продукты. В силу этого важнейшим элементом защиты имущественных интересов потерпевших должно стать страхование ответственности лиц, использующих технологии искусственного интеллекта. Вопрос об административной и уголовной ответственности следует решать исходя их характера наступивших последствий и формы вины причинителя вреда, в качестве которого следует рассматривать лицо, определявшее условия и параметры использования соответствующей технологии.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PROBLEMS OF LEGAL LIABILITY FOR HARM CAUSED BY THE USE OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES

The functioning of artificial intelligence is a peculiar phenomenon that has not been sufficiently studied from a legal point of view, which leads to different estimates of the consequences of its use. Its main feature is the ability to self-study, which allows you to make different decisions in the same situations, depending on previously performed actions. In these conditions, a natural question arises about the existence of legal grounds for legal liability in the event of harm caused by the use of such technologies. The legal doctrine sometimes jus- tifies the idea of the legal personality of artificial intelligence. The object of the study is social relations arising in solving issues of legal liability for harm caused by the use of artificial intel- ligence technologies. The purpose of the study is to identify the grounds for legal liability and the procedure for compensation for damage caused by the use of artificial intelligence tech- nologies, as well as to identify areas for improving legislation in this area, taking into account foreign experience. The methodological basis of the study was dialectical, logical, formal-legal and system-structural methods. Research materials: Russian legislation, scientific publications on the problems of using artificial intelligence and solving issues of responsibility for the harm caused in this case. The conducted research allowed the author to come to the conclusion that within the framework of civil liability, the problem of compensation for harm (damage) when us- ing artificial intelligence technologies can be solved from the position of recognizing them as a source of increased danger. This implies the possibility of raising the question of the respon- sibility of the person who created, produced, owned, used and disposed of the relevant tech- nologies. However, when establishing rules of civil liability for the use of artificial intelligence, it is necessary to ensure a balance between protecting the interests of society and preserving incentives for investment in relevant innovative products. Because of this, the most important element of protecting the property interests of victims should be liability insurance of persons using artificial intelligence technologies. The issue of administrative and criminal liability should be resolved based on the nature of the consequences that have occurred and the form of the fault of the harm-doer, as which the person who determined the conditions and parameters of the use of the appropriate technology should be considered.

Текст научной работы на тему «ПРОБЛЕМЫ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

УДК 347.51

DOI 10.33463/2687-1238.2022.30(1-4).1.72-77

ИРИНА НИКОЛАЕВНА РОМАНОВА,

кандидат юридических наук, доцент, заведующая кафедрой гражданско-правовых дисциплин, Филиал Московского университета имени С. Ю. Витте в г. Рязани, г. Рязань, Российская Федерация, e-mail: [email protected]

ПРОБЛЕМЫ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Для цитирования

Романова, И. Н. Проблемы юридической ответственности за вред, причиненный при использовании технологий искусственного интеллекта / И. Н. Романова // Человек: преступление и наказание. - 2022. - Т. 30(1-4), № 1. - С. 72-77. - DOI : 10.33463/2687-1238.2022.30(1-4).1.72-77.

Аннотация. Функционирование искусственного интеллекта представляет собой своеобразное явление, которое недостаточно изучено с правовой точки зрения, что приводит к разным оценкам последствий его использования. Главной его особенностью является способность к самообучению, позволяющая принимать различные решения в одних и тех же ситуациях, в зависимости от ранее выполненных действий. В этих условиях возникает закономерный вопрос о наличии правовых оснований для юридической ответственности в случае причинения вреда при использовании подобных технологий. В правовой доктрине иногда обосновывается идея о правосубъектности искусственного интеллекта.

Объект исследования - общественные отношения, возникающие при решении вопросов юридической ответственности за вред, причиненный при применении технологий искусственного интеллекта. Цель исследования - выявление оснований возникновения юридической ответственности и порядка возмещения вреда, причиненного при использовании технологий искусственного интеллекта, а также определение направлений совершенствования законодательства в этой сфере с учетом зарубежного опыта. Методологическую основу исследования составили диалектический, логический, формально-юридический и системно-структурный методы. Материалы исследования: российское законодательство, научные публикации по проблемам применения искусственного интеллекта и решения вопросов ответственности за причиненный при этом вред. Проведенное исследование позволило автору прийти к выводу о том, что в рамках гражданско-правовой ответственности проблема возмещения вреда (ущерба) при использовании

© Романова И. Н., 2022

(cc)(D®@ Статья лицензируется в соответствии с лицензией Creative Commons by nc sa Attribution-NonCommercial-ShareAlike 4.0

технологий искусственного интеллекта может быть решена с позиции признания их в качестве источника повышенной опасности. Из этого следует возможность постановки вопроса об ответственности лица, которое создало, произвело, владело, пользовалось и распоряжалось соответствующими технологиями. Однако при установлении правил гражданской ответственности для случаев использования искусственного интеллекта необходимо обеспечить баланс между защитой интересов общества и сохранением стимулов для инвестиций в соответствующие инновационные продукты. В силу этого важнейшим элементом защиты имущественных интересов потерпевших должно стать страхование ответственности лиц, использующих технологии искусственного интеллекта. Вопрос об административной и уголовной ответственности следует решать исходя их характера наступивших последствий и формы вины причинителя вреда, в качестве которого следует рассматривать лицо, определявшее условия и параметры использования соответствующей технологии.

Ключевые слова: возмещение вреда, защита имущественных интересов, искусственный интеллект, источник повышенной опасности, применение цифровых технологий, страхование ответственности, юридическая ответственность.

Введение

Концепция искусственного интеллекта, появившаяся еще в 1956 г., все больше привлекает к себе внимание юристов, поскольку сфера использования подобных технологий неуклонно расширяется. При этом сами технологии непрерывно совершенствуются, неся не только блага, но и дополнительные, нередко непрогнозируемые риски, обусловленные автономизацией принятия решений искусственным интеллектом, приобретшим способности к обучению и накоплению опыта. Эти риски признаются и разработчиками Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г., утвержденной распоряжением Правительства РФ от 19 августа 2020 г. № 2129-р, которые в качестве принципов деятельности в этой сфере, в частности, провозглашают: обязательность обоснованной оценки рисков причинения вреда жизни и здоровью человека, реализации угроз обороне страны и безопасности государства при применении искусственного интеллекта; запрет на причинение вреда человеку по инициативе систем искусственного интеллекта, что предполагает ограничение разработки, оборота и применения технологий, способных по своей инициативе целенаправленно причинять вред человеку; подконтрольность искусственного интеллекта человеку в той мере, в которой это возможно с учетом требуемой степени автономности таких систем. Исходя их этого ставится вопрос о проработке механизмов гражданско-правовой, уголовной и административной ответственности в случае причинения вреда системами искусственного интеллекта, имеющими высокую степень автономности, при принятии ими решений, в том числе с точки зрения определения лиц, которые будут нести ответственность за их действия, доработки при необходимости механизмов безвиновной гражданско-правовой ответственности, а также возможности использования способов, позволяющих возместить вред, причиненный действиями таких систем, включая механизмы страхования ответственности.

Эта проблема привлекает внимание как российских [1-3], так и зарубежных [4, 5] ученых, которые оценивают имеющиеся правовые инструменты с точки зрения возможности их использования для решения рассматриваемых проблем и выработки предложений

по их совершенствованию. Исходя из этого цель настоящего исследования состоит в выявлении оснований возникновения юридической ответственности и порядка возмещения вреда, причиненного при использовании технологий искусственного интеллекта, а также определении направлений совершенствования законодательства в этой сфере с учетом зарубежного опыта. Методологическую основу исследования составили диалектический, логический, формально-юридический и системно-структурный методы, которые позволили рассмотреть проблему юридической ответственности за вред, причиненный при использовании технологий искусственного интеллекта в контексте соотношения с уже существующими правовыми институтами, и определить логически вытекающие из этого перспективы развития российского законодательства.

Результаты исследования

Отправным моментом в решении рассматриваемой проблемы является определение сущности искусственного интеллекта, где можно выделить два принципиально отличающихся направления в доктринальных подходах к его решению. Первый базируется на признании правосубъектности искусственного интеллекта, которая, впрочем, характеризуется непостоянством и зависит от типа юнита искусственного интеллекта, его изначальной экспектативной или текущей реальной функционально-целевой нагрузки [6, с. 31]. Предлагается конструкция электронного лица как формализованного технико-юридического образа, обладающего некоторыми признаками юридической фикции (по аналогии с юридическим лицом) [6, с. 30]. Второе направление юридической мысли основывается на признании искусственного интеллекта объектом права, средством осуществления деятельности традиционных субъектов права, поскольку даже «возможность сильных самообучающихся роботов превосходить людей в скорости, точности и объеме вычислительных операций... далеко не равнозначно человеческому сознанию, самосознанию и интеллекту» [1, с. 113]. В силу этого говорить об искусственном интеллекте как субъекте уголовной или административной ответственности, где эмоционально-волевая составляющая поведения является основой для его правовой оценки и принятия решения о применении мер государственного принуждения, вряд ли возможно. Впрочем, то же можно сказать и о деликтной ответственности, в основе которой лежит принцип полного возмещения вреда, источник покрытия которого при признании правосубъектности искусственного интеллекта будет найти затруднительно.

Концепция искусственного интеллекта как инструмента находит широкую поддержку и в зарубежной доктрине. Правила строгой ответственности регулируют поведение машины, связывая физическое или юридическое лицо, от имени которого она действовала, независимо от того, планировалось или предусматривалось такое поведение. Действующими лицами могут быть производители машин, систем искусственного интеллекта, пользователи искусственного интеллекта, программисты программного обеспечения, работающего на таких машинах, и их владельцы [5, с. 387]. Однако можно найти и компромиссные подходы. Так, В. А. Лаптев, признавая роботов с искусственным интеллектом объектом права, допускает, что через несколько десятков лет робот (автоматическое устройство) будет наделяться отдельными элементами правосубъектности (например, коллективной правосубъектностью совместно с лицом, управляемым данным роботом, либо определяющим установки по его поведению) [7, с. 32]. Впрочем, в науке существует точка зрения, согласно которой подобный подход может быть реализован уже на современном этапе [3, с. 45].

С учетом обозначенных трактовок сущности искусственного интеллекта решается и вопрос об основаниях и порядке реализации юридической ответственности за вред,

причиненный при использовании подобных технологий. При этом идея о возможности рассмотрения непрогнозируемых действий и решений искусственного интеллекта как обстоятельств непреодолимой силы, исключающей ответственность, не поддерживается. Одни авторы для достоверного определения субъекта, ответственного за последствия применения технологии искусственного интеллекта, предлагают установить лицо, от имени и в интересах которого оно осуществлялось, то есть «ответственность должна... возлагаться на лицо, получающее прибыль от деятельности искусственного интеллекта» [8, с. 64], другие - использовать уже имеющийся в гражданском праве институт гражданско-правовой ответственности за вред, причиненный источником повышенной опасности (ст. 1079 ГК РФ) [1, с. 116].

Некоторые ученые акцентируют внимание на источнике возможной угрозы, заключающемся либо в ошибках программирования и изготовления соответствующих технических устройств, ненадлежащей их эксплуатации либо несанкционированном вмешательстве в их работу. Исходя из этого делается вывод о том, что за негативные последствия использования технологий искусственного интеллекта должны нести ответственность: 1) автор соответствующего изобретения либо программист; 2) юридическое лицо, являющееся правообладателем программного обеспечения либо изготовителем соответствующего технического устройства; 3) пользователь / собственник (как юридическое либо физическое лицо); 4) третье лицо в случае неправомерного завладения роботом или его перепрограммирования на причинение вреда [3, с. 45]. Кроме того, поднимается вопрос и об оценке качества сборки роботов, которая может отразиться на процессе их эксплуатации, становясь причиной наступления негативных последствий [9, с. 185]. Наконец, указывается на необходимость «подумать о дополнении существующей системы специальных деликтов, устанавливающих особые составы правонарушения, прямо предусмотренные законом» [10, с. 68].

Неопределенность в вопросе о субъекте, несущем ответственность за вред, причиненный при использовании технологии искусственного интеллекта, возникающая в том числе из-за объективных трудностей в установлении причин отклонения от заданных алгоритмов, порождает идею об использовании для подобных ситуаций потенциала страхового покрытия подобных рисков. В частности, речь может идти о введении обязательного страхования гражданской ответственности производителей / пользователей роботов за вред, причиненный ими третьим лицам по аналогии с обязательным страхованием ответственности владельцев транспортных средств и иных источников повышенной опасности.

Обсуждение результатов исследования

С учетом оценки существующих в науке подходов к определению сущности искусственного интеллекта представляется необходимым, по крайней мере, для целей привлечения к юридической ответственности исходить из его понимания как инструмента осуществления человеческой деятельности даже при достаточно высокой степени ав-номизации в принятии решений. Для определения лица, ответственного за вред, причиненный при использовании технологии искусственного интеллекта, целесообразно в каждом конкретном случае, исходя из обстоятельств причинения вреда, устанавливать субъекта, создающего, поддерживающего, контролирующего или вмешивающегося в систему искусственного интеллекта, который и должен нести ответственность за вред или ущерб, причиняемый деятельностью, устройством или процессом. Это предполагает выявление причинно-следственной связи между его поведением и наступившими последствиями. При таком подходе в зависимости от характера наступивших последствий

можно будет говорить о возможности установления оснований не только для гражданско-правовой, но и административной и уголовной ответственности, в том числе если искусственный интеллект был запрограммирован и использовался конкретным лицом в противоправных целях.

При этом очевидно, что в публично-правовой сфере речь может идти только о виновной ответственности, в то время как вопрос о возмещении вреда (ущерба) должен решаться в рамках существующего института гражданско-правовой ответственности за вред, причиненный источником повышенной опасности. Как представляется, на современном этапе можно обойтись без расширения системы специальных деликтов, предполагающих формирование особых составов правонарушений. В целях повышения эффективности защиты прав и законных интересов граждан, юридических лиц и государства представляется целесообразным внедрение системы обязательного негосударственного страхования ответственности за вред, причиненный при использовании технологий искусственного интеллекта. Это позволит обеспечить баланс интересов бизнеса, заинтересованного во внедрении передовых технологий, и общества, нуждающегося в действенных мерах защиты от непрогнозируемых рисков использования подобных технологий.

В Резолюции Европейского парламента от 20 октября 2020 г. с рекомендациями Комиссии по режиму гражданской ответственности за искусственный интеллект [2020/2014 (^)] было отмечено отсутствие необходимости наделения систем искусственного интеллекта правосубъектностью, а следовательно, полного пересмотра хорошо функционирующих режимов ответственности при целесообразности конкретных и скоординированных корректировок режимов ответственности во избежание ситуации, при которой потерпевшие останутся без должной компенсации. При этом был сделан акцент на ответственности оператора, которая оправдана тем фактом, что он или она контролирует риск, связанный с системой искусственного интеллекта, сопоставимый с владельцем автомобиля. Кроме того, из-за сложности и связности системы искусственного интеллекта оператор во многих случаях будет первым видимым контактным лицом для пострадавшего лица.

Выводы

Общепризнанные принципы юридической ответственности предполагают, что лицо, деятельность которого создает риски для общества, должно принять меры для минимизации возможного ущерба, а в случае его наступления возместить его. Из этого в зависимости от обстоятельств причинения ущерба следует возможность постановки вопроса об ответственности лица, которое создало, произвело, владело, пользовалось и распоряжалось соответствующими технологиями.

В рамках гражданско-правовой ответственности проблема возмещения вреда (ущерба) при использовании технологий искусственного интеллекта может быть решена с позиции признания их в качестве источника повышенной опасности. Важнейшим элементом защиты имущественных интересов потерпевших должно стать страхование ответственности лиц, использующих подобные технологии.

При постановке вопроса об административной и уголовной ответственности вопрос следует решать исходя их характера наступивших последствий и формы вины причи-нителя вреда, в качестве которого следует рассматривать лицо, определявшее условия и параметры использования соответствующей технологии.

Библиографический список

1. Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 112-119.

2. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102.

3. Цуканова Е. Ю., Скопенко О. Р. Правовые аспекты ответственности за причинение вреда роботом с искусственным интеллектом // Вопросы российского и международного права. 2018. Т. 8, № 4А. С. 42-48.

4. Benhamou, Y. & Ferland, J. 2020, 'Artificial Intelligence & Damages: Assessing Liability and Calculating the Damages (February 8, 2020)', Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law, Forthcoming, viewed 11 November 2021, https://ssrn. com/abstract=3535387.

5. Cerka P., Grigiene J. & Sirbikyte G. 2015, 'Liability for damages caused by artificial intelligence', Computer law & security review, iss. 31, pp. 376-389.

6. Морхат П. М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы : дис. ... д-ра юрид. наук. М., 2018. 420 с.

7. Лаптев В. А. Ответственность «будущего»: правовое существо и вопрос оценки доказательств // Гражданское право. 2017. № 3. С. 32-35.

8. Горохова С. С. Технологии на основе искусственного интеллекта: перспективы и ответственность в правовом поле // Юрист. 2021. № 6. С. 60-67.

9. Регулирование робототехники: введение в «робоправо». Правовые аспекты развития робототехники и технологий искусственного интеллекта / В. В. Архипов [и др.] ; под ред. А. В. Незнамова. М . : Инфотропик Медиа, 2018. 232 с.

10. Шевченко А. С., Шевченко Г. Н. Деликтные обязательства в российском гражданском праве. М. : Статут, 2013. 133 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.