УДК 347.51
DOI 10.33463/2687-1238.2022.30(1-4).1.72-77
ИРИНА НИКОЛАЕВНА РОМАНОВА,
кандидат юридических наук, доцент, заведующая кафедрой гражданско-правовых дисциплин, Филиал Московского университета имени С. Ю. Витте в г. Рязани, г. Рязань, Российская Федерация, e-mail: [email protected]
ПРОБЛЕМЫ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Для цитирования
Романова, И. Н. Проблемы юридической ответственности за вред, причиненный при использовании технологий искусственного интеллекта / И. Н. Романова // Человек: преступление и наказание. - 2022. - Т. 30(1-4), № 1. - С. 72-77. - DOI : 10.33463/2687-1238.2022.30(1-4).1.72-77.
Аннотация. Функционирование искусственного интеллекта представляет собой своеобразное явление, которое недостаточно изучено с правовой точки зрения, что приводит к разным оценкам последствий его использования. Главной его особенностью является способность к самообучению, позволяющая принимать различные решения в одних и тех же ситуациях, в зависимости от ранее выполненных действий. В этих условиях возникает закономерный вопрос о наличии правовых оснований для юридической ответственности в случае причинения вреда при использовании подобных технологий. В правовой доктрине иногда обосновывается идея о правосубъектности искусственного интеллекта.
Объект исследования - общественные отношения, возникающие при решении вопросов юридической ответственности за вред, причиненный при применении технологий искусственного интеллекта. Цель исследования - выявление оснований возникновения юридической ответственности и порядка возмещения вреда, причиненного при использовании технологий искусственного интеллекта, а также определение направлений совершенствования законодательства в этой сфере с учетом зарубежного опыта. Методологическую основу исследования составили диалектический, логический, формально-юридический и системно-структурный методы. Материалы исследования: российское законодательство, научные публикации по проблемам применения искусственного интеллекта и решения вопросов ответственности за причиненный при этом вред. Проведенное исследование позволило автору прийти к выводу о том, что в рамках гражданско-правовой ответственности проблема возмещения вреда (ущерба) при использовании
© Романова И. Н., 2022
(cc)(D®@ Статья лицензируется в соответствии с лицензией Creative Commons by nc sa Attribution-NonCommercial-ShareAlike 4.0
технологий искусственного интеллекта может быть решена с позиции признания их в качестве источника повышенной опасности. Из этого следует возможность постановки вопроса об ответственности лица, которое создало, произвело, владело, пользовалось и распоряжалось соответствующими технологиями. Однако при установлении правил гражданской ответственности для случаев использования искусственного интеллекта необходимо обеспечить баланс между защитой интересов общества и сохранением стимулов для инвестиций в соответствующие инновационные продукты. В силу этого важнейшим элементом защиты имущественных интересов потерпевших должно стать страхование ответственности лиц, использующих технологии искусственного интеллекта. Вопрос об административной и уголовной ответственности следует решать исходя их характера наступивших последствий и формы вины причинителя вреда, в качестве которого следует рассматривать лицо, определявшее условия и параметры использования соответствующей технологии.
Ключевые слова: возмещение вреда, защита имущественных интересов, искусственный интеллект, источник повышенной опасности, применение цифровых технологий, страхование ответственности, юридическая ответственность.
Введение
Концепция искусственного интеллекта, появившаяся еще в 1956 г., все больше привлекает к себе внимание юристов, поскольку сфера использования подобных технологий неуклонно расширяется. При этом сами технологии непрерывно совершенствуются, неся не только блага, но и дополнительные, нередко непрогнозируемые риски, обусловленные автономизацией принятия решений искусственным интеллектом, приобретшим способности к обучению и накоплению опыта. Эти риски признаются и разработчиками Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г., утвержденной распоряжением Правительства РФ от 19 августа 2020 г. № 2129-р, которые в качестве принципов деятельности в этой сфере, в частности, провозглашают: обязательность обоснованной оценки рисков причинения вреда жизни и здоровью человека, реализации угроз обороне страны и безопасности государства при применении искусственного интеллекта; запрет на причинение вреда человеку по инициативе систем искусственного интеллекта, что предполагает ограничение разработки, оборота и применения технологий, способных по своей инициативе целенаправленно причинять вред человеку; подконтрольность искусственного интеллекта человеку в той мере, в которой это возможно с учетом требуемой степени автономности таких систем. Исходя их этого ставится вопрос о проработке механизмов гражданско-правовой, уголовной и административной ответственности в случае причинения вреда системами искусственного интеллекта, имеющими высокую степень автономности, при принятии ими решений, в том числе с точки зрения определения лиц, которые будут нести ответственность за их действия, доработки при необходимости механизмов безвиновной гражданско-правовой ответственности, а также возможности использования способов, позволяющих возместить вред, причиненный действиями таких систем, включая механизмы страхования ответственности.
Эта проблема привлекает внимание как российских [1-3], так и зарубежных [4, 5] ученых, которые оценивают имеющиеся правовые инструменты с точки зрения возможности их использования для решения рассматриваемых проблем и выработки предложений
по их совершенствованию. Исходя из этого цель настоящего исследования состоит в выявлении оснований возникновения юридической ответственности и порядка возмещения вреда, причиненного при использовании технологий искусственного интеллекта, а также определении направлений совершенствования законодательства в этой сфере с учетом зарубежного опыта. Методологическую основу исследования составили диалектический, логический, формально-юридический и системно-структурный методы, которые позволили рассмотреть проблему юридической ответственности за вред, причиненный при использовании технологий искусственного интеллекта в контексте соотношения с уже существующими правовыми институтами, и определить логически вытекающие из этого перспективы развития российского законодательства.
Результаты исследования
Отправным моментом в решении рассматриваемой проблемы является определение сущности искусственного интеллекта, где можно выделить два принципиально отличающихся направления в доктринальных подходах к его решению. Первый базируется на признании правосубъектности искусственного интеллекта, которая, впрочем, характеризуется непостоянством и зависит от типа юнита искусственного интеллекта, его изначальной экспектативной или текущей реальной функционально-целевой нагрузки [6, с. 31]. Предлагается конструкция электронного лица как формализованного технико-юридического образа, обладающего некоторыми признаками юридической фикции (по аналогии с юридическим лицом) [6, с. 30]. Второе направление юридической мысли основывается на признании искусственного интеллекта объектом права, средством осуществления деятельности традиционных субъектов права, поскольку даже «возможность сильных самообучающихся роботов превосходить людей в скорости, точности и объеме вычислительных операций... далеко не равнозначно человеческому сознанию, самосознанию и интеллекту» [1, с. 113]. В силу этого говорить об искусственном интеллекте как субъекте уголовной или административной ответственности, где эмоционально-волевая составляющая поведения является основой для его правовой оценки и принятия решения о применении мер государственного принуждения, вряд ли возможно. Впрочем, то же можно сказать и о деликтной ответственности, в основе которой лежит принцип полного возмещения вреда, источник покрытия которого при признании правосубъектности искусственного интеллекта будет найти затруднительно.
Концепция искусственного интеллекта как инструмента находит широкую поддержку и в зарубежной доктрине. Правила строгой ответственности регулируют поведение машины, связывая физическое или юридическое лицо, от имени которого она действовала, независимо от того, планировалось или предусматривалось такое поведение. Действующими лицами могут быть производители машин, систем искусственного интеллекта, пользователи искусственного интеллекта, программисты программного обеспечения, работающего на таких машинах, и их владельцы [5, с. 387]. Однако можно найти и компромиссные подходы. Так, В. А. Лаптев, признавая роботов с искусственным интеллектом объектом права, допускает, что через несколько десятков лет робот (автоматическое устройство) будет наделяться отдельными элементами правосубъектности (например, коллективной правосубъектностью совместно с лицом, управляемым данным роботом, либо определяющим установки по его поведению) [7, с. 32]. Впрочем, в науке существует точка зрения, согласно которой подобный подход может быть реализован уже на современном этапе [3, с. 45].
С учетом обозначенных трактовок сущности искусственного интеллекта решается и вопрос об основаниях и порядке реализации юридической ответственности за вред,
причиненный при использовании подобных технологий. При этом идея о возможности рассмотрения непрогнозируемых действий и решений искусственного интеллекта как обстоятельств непреодолимой силы, исключающей ответственность, не поддерживается. Одни авторы для достоверного определения субъекта, ответственного за последствия применения технологии искусственного интеллекта, предлагают установить лицо, от имени и в интересах которого оно осуществлялось, то есть «ответственность должна... возлагаться на лицо, получающее прибыль от деятельности искусственного интеллекта» [8, с. 64], другие - использовать уже имеющийся в гражданском праве институт гражданско-правовой ответственности за вред, причиненный источником повышенной опасности (ст. 1079 ГК РФ) [1, с. 116].
Некоторые ученые акцентируют внимание на источнике возможной угрозы, заключающемся либо в ошибках программирования и изготовления соответствующих технических устройств, ненадлежащей их эксплуатации либо несанкционированном вмешательстве в их работу. Исходя из этого делается вывод о том, что за негативные последствия использования технологий искусственного интеллекта должны нести ответственность: 1) автор соответствующего изобретения либо программист; 2) юридическое лицо, являющееся правообладателем программного обеспечения либо изготовителем соответствующего технического устройства; 3) пользователь / собственник (как юридическое либо физическое лицо); 4) третье лицо в случае неправомерного завладения роботом или его перепрограммирования на причинение вреда [3, с. 45]. Кроме того, поднимается вопрос и об оценке качества сборки роботов, которая может отразиться на процессе их эксплуатации, становясь причиной наступления негативных последствий [9, с. 185]. Наконец, указывается на необходимость «подумать о дополнении существующей системы специальных деликтов, устанавливающих особые составы правонарушения, прямо предусмотренные законом» [10, с. 68].
Неопределенность в вопросе о субъекте, несущем ответственность за вред, причиненный при использовании технологии искусственного интеллекта, возникающая в том числе из-за объективных трудностей в установлении причин отклонения от заданных алгоритмов, порождает идею об использовании для подобных ситуаций потенциала страхового покрытия подобных рисков. В частности, речь может идти о введении обязательного страхования гражданской ответственности производителей / пользователей роботов за вред, причиненный ими третьим лицам по аналогии с обязательным страхованием ответственности владельцев транспортных средств и иных источников повышенной опасности.
Обсуждение результатов исследования
С учетом оценки существующих в науке подходов к определению сущности искусственного интеллекта представляется необходимым, по крайней мере, для целей привлечения к юридической ответственности исходить из его понимания как инструмента осуществления человеческой деятельности даже при достаточно высокой степени ав-номизации в принятии решений. Для определения лица, ответственного за вред, причиненный при использовании технологии искусственного интеллекта, целесообразно в каждом конкретном случае, исходя из обстоятельств причинения вреда, устанавливать субъекта, создающего, поддерживающего, контролирующего или вмешивающегося в систему искусственного интеллекта, который и должен нести ответственность за вред или ущерб, причиняемый деятельностью, устройством или процессом. Это предполагает выявление причинно-следственной связи между его поведением и наступившими последствиями. При таком подходе в зависимости от характера наступивших последствий
можно будет говорить о возможности установления оснований не только для гражданско-правовой, но и административной и уголовной ответственности, в том числе если искусственный интеллект был запрограммирован и использовался конкретным лицом в противоправных целях.
При этом очевидно, что в публично-правовой сфере речь может идти только о виновной ответственности, в то время как вопрос о возмещении вреда (ущерба) должен решаться в рамках существующего института гражданско-правовой ответственности за вред, причиненный источником повышенной опасности. Как представляется, на современном этапе можно обойтись без расширения системы специальных деликтов, предполагающих формирование особых составов правонарушений. В целях повышения эффективности защиты прав и законных интересов граждан, юридических лиц и государства представляется целесообразным внедрение системы обязательного негосударственного страхования ответственности за вред, причиненный при использовании технологий искусственного интеллекта. Это позволит обеспечить баланс интересов бизнеса, заинтересованного во внедрении передовых технологий, и общества, нуждающегося в действенных мерах защиты от непрогнозируемых рисков использования подобных технологий.
В Резолюции Европейского парламента от 20 октября 2020 г. с рекомендациями Комиссии по режиму гражданской ответственности за искусственный интеллект [2020/2014 (^)] было отмечено отсутствие необходимости наделения систем искусственного интеллекта правосубъектностью, а следовательно, полного пересмотра хорошо функционирующих режимов ответственности при целесообразности конкретных и скоординированных корректировок режимов ответственности во избежание ситуации, при которой потерпевшие останутся без должной компенсации. При этом был сделан акцент на ответственности оператора, которая оправдана тем фактом, что он или она контролирует риск, связанный с системой искусственного интеллекта, сопоставимый с владельцем автомобиля. Кроме того, из-за сложности и связности системы искусственного интеллекта оператор во многих случаях будет первым видимым контактным лицом для пострадавшего лица.
Выводы
Общепризнанные принципы юридической ответственности предполагают, что лицо, деятельность которого создает риски для общества, должно принять меры для минимизации возможного ущерба, а в случае его наступления возместить его. Из этого в зависимости от обстоятельств причинения ущерба следует возможность постановки вопроса об ответственности лица, которое создало, произвело, владело, пользовалось и распоряжалось соответствующими технологиями.
В рамках гражданско-правовой ответственности проблема возмещения вреда (ущерба) при использовании технологий искусственного интеллекта может быть решена с позиции признания их в качестве источника повышенной опасности. Важнейшим элементом защиты имущественных интересов потерпевших должно стать страхование ответственности лиц, использующих подобные технологии.
При постановке вопроса об административной и уголовной ответственности вопрос следует решать исходя их характера наступивших последствий и формы вины причи-нителя вреда, в качестве которого следует рассматривать лицо, определявшее условия и параметры использования соответствующей технологии.
Библиографический список
1. Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 112-119.
2. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102.
3. Цуканова Е. Ю., Скопенко О. Р. Правовые аспекты ответственности за причинение вреда роботом с искусственным интеллектом // Вопросы российского и международного права. 2018. Т. 8, № 4А. С. 42-48.
4. Benhamou, Y. & Ferland, J. 2020, 'Artificial Intelligence & Damages: Assessing Liability and Calculating the Damages (February 8, 2020)', Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law, Forthcoming, viewed 11 November 2021, https://ssrn. com/abstract=3535387.
5. Cerka P., Grigiene J. & Sirbikyte G. 2015, 'Liability for damages caused by artificial intelligence', Computer law & security review, iss. 31, pp. 376-389.
6. Морхат П. М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы : дис. ... д-ра юрид. наук. М., 2018. 420 с.
7. Лаптев В. А. Ответственность «будущего»: правовое существо и вопрос оценки доказательств // Гражданское право. 2017. № 3. С. 32-35.
8. Горохова С. С. Технологии на основе искусственного интеллекта: перспективы и ответственность в правовом поле // Юрист. 2021. № 6. С. 60-67.
9. Регулирование робототехники: введение в «робоправо». Правовые аспекты развития робототехники и технологий искусственного интеллекта / В. В. Архипов [и др.] ; под ред. А. В. Незнамова. М . : Инфотропик Медиа, 2018. 232 с.
10. Шевченко А. С., Шевченко Г. Н. Деликтные обязательства в российском гражданском праве. М. : Статут, 2013. 133 с.