OF LEGAL RESEARCH
УДК 347.512
DOI 10.34076/2658_512Х_2022_2_58
Левченко Алина Игоревна
Научный сотрудник кафедры уголовного права, Юго-Западного государственного университета
Научный руководитель: Синяева Мария Ивановна
Старший преподаватель кафедры уголовного права Юго-западного государственного университета
Гражданско-правовая ответственность за причинение вреда искусственным интеллектом
Левченко А. И. «Гражданско-правовая ответственность за причинение вреда искусственным интеллектом» // Уральский журнал правовых исследований. 2022. № 2. С. 58-62. DO1 10.34076/2658 512X 2022 2 58
Аннотация:
Развитие искусственного интеллекта приводит к появлению проблем правового характера, в том числе актуальными становятся вопросы гражданско-правовой ответственности за вред, причиненный искусственным интеллектом. Проблема определения субъекта гражданско-правовой ответственности за вред, причиненный искусственным интеллектом, тесно связана с вопросом определения правосубъектности искусственного интеллекта. Создание специального правового режима для искусственного интеллекта могло бы решить сразу несколько проблем, включая определение субъекта гражданско-правовой ответственности. Целью настоящего исследования является попытка осветить некоторые проблемы современного состояния робототехники с искусственным интеллектом с точки зрения правовых аспектов ответственности за причинение вреда действиями интеллектуальных машин. Ключевыми задачами работы выступает определение понятия «искусственный интеллект» и его отличительных признаков; анализ особенностей механизма ответственности нанесения вреда для окружающих при использовании системы искусственного интеллекта на примере реальных ситуаций; поднятие вопроса о субъекте ответственности за вред, причиненный в результате использования технологий искусственного интеллекта. Оцениваются научные точки зрения относительно регулирования использования искусственного интеллекта в области гражданских правоотношений. Используются метод юридического анализа, формально-юридический метод. В статье отмечается слабое законодательное регулирование применения искусственного интеллекта в России с учетом активного и повсеместного внедрения данной технологии в различных сферах жизни. Рассмотрены реальные ситуации причинения вреда человеку роботом с искусственным интеллектом и ситуации. Проведенный общий анализ состояния проблемы показывает, что необходимо уделить должное внимание определению на законодательном уровне субъектов, ответственных за причинение ущерба; разработке вопросов юридической терминологии информационного права; модернизации Гражданского кодекса РФ в сфере применения гражданско-правовой ответственности за новый вид специального деликта.
УДК 347.512
DOI 10.34076/2658_512X_2022_2_58
Alina I. Levchenko
Research fellow at the Criminal Law Department, Southwestern State University
Academic supervisor: Maria Iv. Sinyaeva
Assistant of Criminal Law Department of the Southwestern State University
Civil Liability for Causing Harm by Artificial Intelligence
Alina I. Levchenko, 'Civil liability for causing harm by artificial intelligence', Ural Journal of Legal Research, 2022, No. 2. pp. 58-62. DOI 10.34076/2658 512X 2022 2 58
Abstract:
The development of artificial intelligence leads to the emergence of legal problems, including issues of civil liability for harm caused by artificial intelligence. The problem of determining the subject of civil liability for damage caused by artificial intelligence is closely related to the issue of determining the legal personality of artificial intelligence. The creation of a special legal regime for artificial intelligence could solve several problems at once, including the definition of the subject of civil liability. The purpose of this study is an attempt to highlight some of the problems of the current state of robotics with artificial intelligence from the point of view of the legal aspects of liability for causing harm by the actions of intelligent machines. The key tasks of the work are the definition of the concept of «artificial intelligence» and its distinctive features; analysis of the features of the liability mechanism for causing harm to others when using the artificial intelligence system on the example of real situations; raising the issue of the subject of liability for harm caused as a result of the use of artificial intelligence technologies. Scientific points of view regarding the regulation of the use of artificial intelligence in the field of civil legal relations are evaluated. The method of legal analysis, the formal legal method are used. The article notes the weak legislative regulation of the use of artificial intelligence in Russia, taking into account the active and widespread introduction of this technology in various spheres of life. Real situations of harm to a person by a robot with artificial intelligence and situations are considered. The conducted general analysis of the state of the problem shows that it is necessary to pay due attention to the definition at the legislative level of the subjects responsible for causing damage; development of issues of legal terminology of information law; modernization of the Civil Code of the Russian Federation in the field of application of civil liability for a new type of special tort.
OF LEGAL RESEARCH
Ключевые слова:
искусственный интеллект, гражданско-правовая ответственность, частное право, ответственность за третьих лиц, информационные технологии.
Keywords:
artificial intelligence, civil liability, private law, third party liability, information technology.
Внедрение в различные сферы нашей жизни новых технологий, особенно в эпоху «ковидных» ограничений, порождает значительный круг правовых проблем, связанных как с определением правовой природы информационных объектов, так и круга ответственных лиц в случае причинения ими вреда.
Сегодня цифровые технологии широко применяются в разнообразных видах деятельности: медицине, транспорте, образовании, банковском обслуживании, охране общественного порядка, осуществлении правосудия, промышленности и т.д., что предопределяет необходимость всестороннего правового регулирования порядка и последствий их использования. Кроме того, в современных реалиях робототехнические устройства с искусственным интеллектом стали активно применяться для создания контента, который традиционно относят к объектам интеллектуальной собственности: музыкальные композиции, литературные и художественные произведения.
Под искусственным интеллектом понимают совокупность технологических решений, позволяющих имитировать когнитивные функции человека (в частности, самообучение и поиск решений без заранее заданных алгоритмов) и получать результаты, сопоставимые с интеллектуальной деятельностью человека. При этом отмечается, что искусственный интеллект включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, сервисы по обработке данных и поиску решений1.
Таким образом, главным отличительным признаком искусственного интеллекта является способность к самостоятельному творчеству, которая обычно признается только за человеком. И.А. Филиповой выделяются виды искусственного интеллекта: ограниченный (слабый) искусственный интеллект (создается для решения конкретной задачи или небольшого круга задач); общий (сильный) искусственный интеллект (равнозначен человеческому и способен решать широ -кий круг задач); сверхинтеллект (превосходит уровень человеческого интеллекта в несколько раз) [1, с. 9-10]. Сегодня можно говорить о создании искусственного интеллекта первого вида, способного обобщать значительный объем данных и делать соответствующие прогнозы. В качестве примера таких технологий можно привести беспилотные летательные аппараты и транспортные средства, системы распознавания лиц, голосовые помощники и т.п.
Искусственный интеллект может воплощаться в различных формах, что оказывает влияние на его правовой режим. Так, он может быть представлен в виде сложной компьютерной программы, либо киберфизического устройства, например, робота.
С точки зрения гражданского законодательства киберфизические системы, на сегодняшний момент, определенно относятся к вещам, т.е. предметам материального мира, и, соответственно, подчиняются их правовому режиму. В то же время комплекс технологических решений (искусственный интеллект) необходимо рассматривать как охраняемый результат интеллектуальной деятельности
1 О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»: федер. закон от 24.04.2020 г. N 123-ФЗ // Собр. законодательства Рос. Федерации. 2020. N 17. Ст. 2701.
OF LEGAL RESEARCH
человека, разновидность программы для ЭВМ и базы данных. Зачастую два этих объекта могут соединяться в одном киберфизическом устройстве и, таким образом, иметь двойственный правовой режим.
Между тем, по справедливому замечанию Н.Ф. Поповой, «на сегодняшний день в Российской Федерации отсутствует специальное законодательное регулирование использования роботов, объектов робототехники и искусственного интеллекта в области гражданских правоотношений, т.е. применяются действующие нормы гражданского права» [2, с. 70].
Некоторая (причем, все более расширяющаяся) автономность робототехниче-ских комплексов, делающая невозможным полный контроль за ними со стороны операторов, предопределяет необходимость решения двух этико-правовых вопросов: о безопасности таких систем для человека и об ответственности за вред, причиненный в результате их применения.
В СМИ неоднократно описывались случаи причинения роботами вреда человеку: от наезда на ребенка робота-полицейского в торговом центре до смертельного случая с сотрудником завода Volkswagen, прижатого к плите роботом-манипулятором [2, с. 71]. Различного рода ошибки при создании интеллектуальных систем приводят к серьезным последствиям: самолет Boeing737 потерпел круше -ние из-за ошибочных показаний датчика и системы контроля полета, что привело к неожиданному уходу в пике и гибели 189 человек, находящихся на борту, в другом случае, беспилотный автомобиль сбил пешехода, которого заметил за несколько секунд до столкновения, но программа по неизвестным причинам решила не снижать скорость [3].
Расширение применения технологий искусственного интеллекта в России закономерно приводит к увеличению вероятности причинения вреда. Так, в Екатеринбурге с должником больше месяца работал робот-коллектор, причем догадаться о его «нечеловеческой» сущности, по словам потерпевшего, было невозможно. Робот представлялся руководителем коллекторского агентства, задавал вопросы и рекомендовал погасить долги, которые были погашены несколько лет назад. После обращения в службу судебных приставов и проведения проверки, последовало обращение в суд, который оштрафовал агентство на 75 тыс. рублей [4]. Данный случай актуализировал проблему использования автоматизированных роботов-агентов в коллекторской деятельности и необходимость законодательного закрепления самого понятия «робот-коллектор», в связи с чем, Министерством юстиции РФ был разработан законопроект, направленный на модернизацию существующих правил взыскания просроченной задолженности [5].
В научной литературе в последнее время обсуждается вопрос о субъекте ответственности за вред, причиненный в результате использования технологий искусственного интеллекта. В рамках данного исследования мы не будем рассматривать концепции, предлагающие признать интеллектуального робота самостоятельным «электронным» субъектом права, и, соответственно, ответственным за причиненный им вред [6, с. 220]. Поскольку представляется, что сегодня способность робота к абсолютно самостоятельным действиям сильно преувеличена, в силу чего собственного волевого момента в его действиях недостаточно для признания субъектом права, что не означает невозможности возвращения к данному вопросу в будущем.
Если же мы признаем искусственный интеллект исключительно объектом права, даже в этом случае фигура ответственного за вред лица не выглядит однозначно. В различных исследованиях, посвященных робототехнике, высказываются мнения о возложении ответственности на:
ОР ЬЕСАЬ РЕБЕАПСН
- производителя робота или программного обеспечения для него [7, с. 67];
- юридическое или физическое лицо - владельца устройства (программы) [8, с. 68];
- лицо, непосредственное управляющее роботом (оператора), в момент причинения вреда;
- тьютора (для самообучающихся систем).
Субъект ответственности должен определяться исходя из ряда критериев:
1) относится ли устройство с искусственным интеллектом к источникам повышенной опасности (речь, конечно, же идет об устройствах в виде объектов материального мира, например, роботах);
2) в каких отношениях состоит непосредственный пользователь технологий искусственного интеллекта (оператор) с их владельцем.
В ст. 1079 Гражданского кодекса РФ2 (далее - ГК РФ) дан лишь примерный перечень источников повышенной опасности. Поэтому, чтобы определить, относится ли робототехническая система к источникам повышенной опасности, необходимо проанализировать сущностные признаки такого объекта.
Однако не все подобные устройства отвечают признаку повышенной опасности для окружающих. В то же время применение роботов с высокой степенью автономности исключает полный контроль за ними со стороны человека, поэтому их вполне можно считать источниками повышенной опасности. Таким образом, разделение робототехнических систем на те, которые представляют собой источники повышенной опасности, и те, которые к ним не относятся, позволит решить вопрос о субъекте и основаниях ответственности за вред, причиненный такими объектами. В первом случае, ответственность будет наступать по ст. 1079 ГК РФ, которая возлагает ответственность на владельца источника повышенной опасности даже при отсутствии его вины [9, с. 116], во втором случае, ответственность будет нести непосредственный причинитель вреда на общих основаниях, т.е. только за вину, по ст. 1064 ГК РФ. При этом, если вред был причинен при исполнении трудовых или служебных обязанностей, субъектом ответственности будет юридическое лицо или гражданин-работодатель (ст. 1068 ГК РФ).
В результате можно прийти к выводу, что сегодня гражданское законодательство не предусматривает какой-либо специфики правового регулирования отношений, связанных с использованием устройств с искусственным интеллектом.
В то же время многими исследователями данной проблемы отмечается недостаточность правового регулирования в указанной сфере и невозможность применения действующих, в определенной степени устаревших, правовых конструкций в области возмещения внедоговорного вреда, причиненного роботами с высокой степенью автономности. В этой связи, предлагаются различные варианты решения рассматриваемой проблемы - ответственность виновного субъекта, лица, обязанного минимизировать риск причинения вреда, коллективная ответственность изготовителя, оператора, собственника и пользователя в зависимости от степени вины и др.
Таким образом, можно констатировать, что ответственность за вред, причиненный устройствами с искусственным интеллектом, может наступать в рамках существующего правового механизма, что не означает отсутствия необходимости выработки нового подхода в рассматриваемой области с учетом сложившихся реалий и потребностей правоприменительной практики. Следует уже
2 Гражданский кодекс Российской Федерации (часть вторая): федер. закон от 26.01.1996 г. N 14-ФЗ (ред. от
01.07.2021 г.) (с изм. от 08.07.2021 г.) // Собр. законодательства Рос. Федерации. 1996. N 5. Ст. 410.
OF LEGAL RESEARCH
сейчас предусмотреть в действующем ГК РФ нормой, которая бы содержала правила применения гражданско-правовой ответственности за новый вид специального деликта, а именно, возмещение вреда, причиненного искусственным интеллектом.
Библиографический список:
1. Филипова И.А. Правовое регулирование искусственного интеллекта: учебное пособие.
- Нижний Новгород: Нижегородский госуниверситет, 2020. - 90 с.
2. Попова Н.Ф. Основные направления развития правового регулирования использования искусственного интеллекта, роботов и объектов робототехники в сфере гражданских правоотношений // Современное право. 2019. N 10. С. 69-73
3. Чем опасно внедрение технологий с искусственным интеллектом. Рядом с нами появились электронные личности // Российская газета. 2020. N 18(8072)
4. Робот и долги. Суд оштрафовал коллекторов, которые изводили клиента звонками бота // Российская газета. 2020. N 13(8067)
5. Терминатор напомнит о долге. В законе появятся правила использования роботов-коллекторов // Российская газета. 2020. N 218(8272).
6. Юридическая концепция роботизации: монография / отв. ред. Ю.А. Тихомирова, С.Б. Намба. - М.: Проспект, 2019. - 240 с.
7. Мельничук М.А., Ченцова Д.В. Гражданско-правовая ответственность искусственного интеллекта // Закон и право. 2020. N 6. С. 66-68
8. Ирискина Е.Н., Беляков К.О. Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями Робота как квазисубъекта гражданско-правовых отношений // Гуманитарная информатика. 2016. N 10. С. 63-72
9. Апостолова Н.Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. N 1. С. 112-119
References:
1. Filipova I.A. (2020). Legal regulation of artificial intelligence: textbook, Nizhny Novgorod. Nizhny Novgorod State University. p. 90
2. Popova N.F. (2019). The main directions of development of legal regulation of the use of artificial intelligence, robots and objects of robotics in the sphere of civil legal relations. Modern law. 10. pp. 69-73
3. Matsiong E. (2020). What is the danger of introducing technologies with artificial intelligence. Electronic personalities appeared next to us. Rossiyskaya Gazeta. 18 (8072)
4. Matsiong E. (2020). Robot and debts. The court fined collectors who harassed the client with bot calls. Rossiyskaya Gazeta. 13 (8067)
5. Kulikov V. (2020). The terminator will remind you of the debt. Rules for the use of robotic collectors will appear in the law. Rossiyskaya Gazeta. 218 (8272)
6. Tikhomirova Yu.A., Namba S.B. (ed). (2019). Legal concept of robotization: monograph, - M.: Prospekt. p. 240
7. Melnichuk M.A., Chentsova D.V. (2020). Civil liability of artificial intelligence. Legislation and law. 6. pp. 66-68
8. Iriskina E.N., Belyakov K.O. (2016). Legal aspects of civil liability for causing harm by the actions of the Robot as a quasi-subject of civil law relations. Humanitarian Informatics. 10. pp. 63-72
9. Apostolova N.N. (2021). Responsibility for harm caused by artificial intelligence. North Caucasian Legal Bulletin. 1. pp. 112-119