Научная статья на тему 'ГРАЖДАНСКО-ПРАВОВАЯ ОТВЕТСТВЕННОСТЬ ПРИ РАЗРАБОТКЕ И ПРИМЕНЕНИИ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И РОБОТОТЕХНИКИ: ОСНОВНЫЕ ПОДХОДЫ'

ГРАЖДАНСКО-ПРАВОВАЯ ОТВЕТСТВЕННОСТЬ ПРИ РАЗРАБОТКЕ И ПРИМЕНЕНИИ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И РОБОТОТЕХНИКИ: ОСНОВНЫЕ ПОДХОДЫ Текст научной статьи по специальности «Право»

CC BY
564
107
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ГРАЖДАНСКО-ПРАВОВАЯ ОТВЕТСТВЕННОСТЬ / САМООБУЧАЮЩЕЕСЯ ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ / ВЗАИМОДЕЙСТВИЕ ЧЕЛОВЕКА С МАШИНОЙ / РИСКИ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / СТАНДАРТИЗАЦИЯ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Аннотация научной статьи по праву, автор научной работы — Харитонова Ю.С., Савина В.С., Паньини Ф.

Введение: изучение вопросов правового обеспечения безопасности и адекватности применения систем искусственного интеллекта привело нас к неизбежности обращения к проблемам ответственности при использовании систем искусственного интеллекта. Приоритет отдан исследованию цивилистических аспектов ответственности за вред, причиненный системами искусственного интеллекта и робототехники. Развитие технологий требует переосмысления многих юридических механизмов обеспечения безопасности применения искусственного интеллекта на основе баланса в части поддержания и стимулирования инновационных отраслей. Оценка реального уровня развития технологии искусственного интеллекта заставляет не только смотреть в будущее и реагировать на имеющиеся вызовы времени, но и создавать правила для ближайших прогнозов. И если раньше считалось, что не потребуется кардинальных изменений в регулировании института юридической ответственности, то сегодня оснований так говорить с абсолютной уверенностью уже нет. Причиной стало повышение степени автономности систем искусственного интеллекта при расширении спектра возможностей их применения. Искусственный интеллект обыденно применяется в креативных индустриях, при принятии решений в различных сферах человеческой деятельности, в беспилотном транспорте и т. д. Но все еще далеки от завершения дискуссии о субъектном составе систем искусственного интеллекта, ответственных за причинение вреда, о возможности применения механизмов безвиновной гражданско-правовой ответственности и даже надлежащих уровней регулирования подобных отношений. Цель: сформировать представление о направлениях правового регулирования гражданско-правовой ответственности при применении технологии искусственного интеллекта на основе анализа российских и зарубежных научных концепций и законодательства. Методы: эмпирические методы сравнения, описания, интерпретации; теоретические методы формальной и диалектической логики; частнонаучные методы: юридико-догматический и метод толкования правовых норм. Результаты: вопрос об ответственности разработчиков и владельцев (пользователей) систем искусственного интеллекта является весьма дискуссионным. Во многих странах принимаются кодексы этики искусственного интеллекта, однако необходима именно правовая регламентация, например подход к системе искусственного интеллекта как к источнику повышенной опасности, в отсутствие соответствующих правовых норм целесообразно использование механизма деликтной ответственности исходя из аналогии закона. Важное значение в плане выявления и привлечения к ответственности разработчиков и эксплуатантов систем искусственного интеллекта также приобретает стандартизация в рассматриваемой сфере (стандартизация баз данных, программного обеспечения, инфраструктуре и др.), нарушение требований которой также может служить условием привлечения в гражданско-правовой ответственности. Новым содержанием наполняются традиционные правовые понятия предмета, объекта и субъекта причинения вреда как для сферы договорной, так и внедоговорной ответственности. Выводы: анализ показал, что на современном этапе в законодательстве различных стран появляется мягкое регулирование в сфере ответственности за вред, причиненный системами искусственного интеллекта. Однако постепенно от выработки стратегий пора сделать конкретные шаги к созданию эффективных механизмов минимизации рисков причинения ущерба без привлечения к ответственности установленных лиц. Поскольку в процесс разработки систем искусственного интеллекта вовлечено много участников, обладающих самостоятельным правовым статусом (поставщик данных, разработчик, производитель, программист, дизайнер, пользователь), установить субъекта гражданско-правовой ответственности, если что-то пойдет не так, достаточно сложно и необходимо учитывать множество факторов. В отношении причинения вреда третьим лицам подход к системе искусственного интеллекта как к источнику повышенной опасности представляется закономерным и логичным, а в отсутствие соответствующих правовых норм целесообразно использование механизма деликтной ответственности исходя из аналогии закона. В рамках модели договорной ответственности требуется выработка общих подходов к определению продукта и последствий нарушений условий договора.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CIVIL LIABILITY IN THE DEVELOPMENT AND APPLICATION OF ARTIFICIAL INTELLIGENCE AND ROBOTIC SYSTEMS: BASIC APPROACHES

Introduction: when studying legal issues related to safety and adequacy in the application of artificial intelligence systems (AIS), it is impossible not to raise the subject of liability accompanying the use of AIS. In this paper we focus on the study of the civil law aspects of liability for harm caused by artificial intelligence and robotic systems. Technological progress necessitates revision of many legislative mechanisms in such a way as to maintain and encourage further development of innovative industries while ensuring safety in the application of artificial intelligence. It is essential not only to respond to the challenges of the moment but also to look forward and develop new rules based on short-term forecasts. There is no longer any reason to claim categorically that the rules governing the institute of legal responsibility will definitely not require fundamental changes, contrary to earlier belief. This is due to the growing autonomy of AIS and the expansion of the range of their possible applications. Artificial intelligence is routinely employed in creative industries, decision-making in different fields of human activity, unmanned transportation, etc. However, there remain unresolved major issues concerning the parties liable in the case of infliction of harm by AIS, the viability of applying no-fault liability mechanisms, the appropriate levels of regulation of such relations; and discussions over these issues are far from being over. Purpose: basing on an analysis of theoretical concepts and legislation in both Russia and other countries, to develop a vision of civil law regulation and tort liability in cases when artificial intelligence is used. Methods: empirical methods of comparison, description, interpretation; theoretical methods of formal and dialectical logic; special scientific methods: legal-dogmatic and the method of interpretation of legal norms. Results: there is considerable debate over the responsibilities of AIS owners and users. In many countries, codes of ethics for artificial intelligence are accepted. However, what is required is legal regulation, for instance, considering an AIS as a source of increased danger; in the absence of relevant legal standards, it is reasonable to use a tort liability mechanism based on analogy of the law. Standardization in this area (standardization of databases, software, infrastructure, etc.) is also important - for identifying the AIS developers and operators to be held accountable; violation of standardization requirements may also be a ground for holding them liable under civil law. There appear new dimensions added to the classic legal notions such as the subject of harm, object of harm, and the party that has inflicted the harm, used with regard to both contractual and non-contractual liability. Conclusions: the research has shown that legislation of different countries currently provides soft regulation with regard to liability for harm caused by AIS. However, it is time to gradually move from the development of strategies to practical steps toward the creation of effective mechanisms aimed at minimizing the risks of harm without any persons held liable. Since the process of developing AIS involves many participants with an independent legal status (data supplier, developer, manufacturer, programmer, designer, user), it is rather difficult to establish the liable party in case something goes wrong, and many factors must be taken into account. Regarding infliction of harm to third parties, it seems logical and reasonable to treat an AIS as a source of increased danger; and in the absence of relevant legal regulations, it would be reasonable to use a tort liability mechanism by analogy of the law. The model of contractual liability requires the development of common approaches to defining the product and the consequences of violation of the terms of the contract.

Текст научной работы на тему «ГРАЖДАНСКО-ПРАВОВАЯ ОТВЕТСТВЕННОСТЬ ПРИ РАЗРАБОТКЕ И ПРИМЕНЕНИИ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И РОБОТОТЕХНИКИ: ОСНОВНЫЕ ПОДХОДЫ»

2022

ВЕСТНИК ПЕРМСКОГО УНИВЕРСИТЕТА. ЮРИДИЧЕСКИЕ НАУКИ

PERM UNIVERSITY HERALD. JURIDICAL SCIENCES

Выпуск 58

Информация для цитирования:

Харитонова Ю. С., Савина В. С., Паньини Ф. Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы // Вестник Пермского университета. Юридические науки. 2022. Вып. 58. C. 683-708. DOI: 10.17072/1995-4190-2021-58-683-708.

Kharitonova Yu. S., Savina V. S., Pagnini F. Grazhdansko-pravovaya otvetstvennost'pri razrabotke iprimene-nii sistem iskusstvennogo intellekta i robototekhniki: osnovnye podkhody [Civil Liability in the Development and Application of Artificial Intelligence and Robotic Systems: Basic Approaches]. Vestnik Permskogo universiteta. Juridicheskie nauki - Perm University Herald. Juridical Sciences. 2022. Issue 58. Pp. 683-708. (In Russ.). DOI: 10.17072/1995-4190-2021-58-683-708.

УДК 347.2

DOI: 10.17072/1995-4190-2022-58-683-708

ГРАЖДАНСКО-ПРАВОВАЯ ОТВЕТСТВЕННОСТЬ ПРИ РАЗРАБОТКЕ И ПРИМЕНЕНИИ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И РОБОТОТЕХНИКИ: ОСНОВНЫЕ ПОДХОДЫ

Ю. С. Харитонова В. С. Савина Ф. Паньини

Московский государственный Российский экономический LOYTEC Electronics GmbH

университет имени М. В. Ломоносова университет имени Г. В. Плеханова (Вена, Австрия)

E-mail: sovet2009@rambler.ru E-mail: savin-viktoriya@yandex.ru E-mail: fabric3p@gmail.com

Поступила в редакцию 05.07.2022

Введение: изучение вопросов правового обеспечения безопасности и адекватности применения систем искусственного интеллекта привело нас к неизбежности обращения к проблемам ответственности при использовании систем искусственного интеллекта. Приоритет отдан исследованию цивилистических аспектов ответственности за вред, причиненный системами искусственного интеллекта и робототехники. Развитие технологий требует переосмысления многих юридических механизмов обеспечения безопасности применения искусственного интеллекта на основе баланса в части поддержания и стимулирования инновационных отраслей. Оценка реального уровня развития технологии искусственного интеллекта заставляет не только смотреть в будущее и реагировать на имеющиеся вызовы времени, но и создавать правила для ближайших прогнозов. И если раньше считалось, что не потребуется кардинальных изменений в регулировании института юридической ответственности, то сегодня оснований так говорить с абсолютной уверенностью уже нет. Причиной стало повышение степени автономности систем искусственного интеллекта при расширении спектра возможностей их применения. Искусственный интеллект обыденно применяется в креативных индустриях, при принятии решений в различных сферах человеческой деятельности, в беспилотном транспорте и т. д. Но все еще далеки от завершения дискуссии о субъектном составе систем искусственного интеллекта, ответственных за причинение вреда, о возможности применения механизмов безвиновной гражданско-правовой ответственности и даже надлежащих уровней регулирования подобных отношений. Цель: сформировать представление о направлениях правового регулирования гражданско-правовой ответственности при применении технологии искусственного интеллекта на основе анализа российских и зарубежных научных

© Харитонова Ю. С., Савина В. С., Паньини Ф., 2022

@ ®

концепций и законодательства. Методы: эмпирические методы сравнения, описания, интерпретации; теоретические методы формальной и диалектической логики; частнона-учные методы: юридико-догматический и метод толкования правовых норм. Результаты: вопрос об ответственности разработчиков и владельцев (пользователей) систем искусственного интеллекта является весьма дискуссионным. Во многих странах принимаются кодексы этики искусственного интеллекта, однако необходима именно правовая регламентация, например подход к системе искусственного интеллекта как к источнику повышенной опасности, в отсутствие соответствующих правовых норм целесообразно использование механизма деликтной ответственности исходя из аналогии закона. Важное значение в плане выявления и привлечения к ответственности разработчиков и экс-плуатантов систем искусственного интеллекта также приобретает стандартизация в рассматриваемой сфере (стандартизация баз данных, программного обеспечения, инфраструктуре и др.), нарушение требований которой также может служить условием привлечения в гражданско-правовой ответственности. Новым содержанием наполняются традиционные правовые понятия предмета, объекта и субъекта причинения вреда как для сферы договорной, так и внедоговорной ответственности. Выводы: анализ показал, что на современном этапе в законодательстве различных стран появляется мягкое регулирование в сфере ответственности за вред, причиненный системами искусственного интеллекта. Однако постепенно от выработки стратегий пора сделать конкретные шаги к созданию эффективных механизмов минимизации рисков причинения ущерба без привлечения к ответственности установленных лиц. Поскольку в процесс разработки систем искусственного интеллекта вовлечено много участников, обладающих самостоятельным правовым статусом (поставщик данных, разработчик, производитель, программист, дизайнер, пользователь), установить субъекта гражданско-правовой ответственности, если что-то пойдет не так, достаточно сложно и необходимо учитывать множество факторов. В отношении причинения вреда третьим лицам подход к системе искусственного интеллекта как к источнику повышенной опасности представляется закономерным и логичным, а в отсутствие соответствующих правовых норм целесообразно использование механизма деликтной ответственности исходя из аналогии закона. В рамках модели договорной ответственности требуется выработка общих подходов к определению продукта и последствий нарушений условий договора.

Ключевые слова: искусственный интеллект; гражданско-правовая ответственность; самообучающееся программное обеспечение; взаимодействие человека с машиной; риски применения искусственного интеллекта; стандартизация систем искусственного интеллекта

CIVIL LIABILITY IN THE DEVELOPMENT AND APPLICATION OF ARTIFICIAL INTELLIGENCE AND ROBOTIC SYSTEMS: BASIC APPROACHES

Yu. S. Kharitonova

Lomonosov Moscow State University E-mail: sovet2009@rambler.ru

Received 05 Jul 2022

V. S. Savina

Plekhanov Russian University of Economics

E-mail: savin-viktoriya@yandex.ru

F. Pagnini

LOYTEC Electronics GmbH (Vienna, Austria) E-mail: fabric3p@gmail.com

Introduction: when studying legal issues related to safety and adequacy in the application of artificial intelligence systems (AIS), it is impossible not to raise the subject of liability accompanying the use of AIS. In this paper we focus on the study of the civil law aspects of liability for harm caused by artificial intelligence and robotic systems. Technological progress necessitates revision of many legislative mechanisms in such a way as to maintain and encourage fur-

ther development of innovative industries while ensuring safety in the application of artificial intelligence. It is essential not only to respond to the challenges of the moment but also to look forward and develop new rules based on short-term forecasts. There is no longer any reason to claim categorically that the rules governing the institute of legal responsibility will definitely not require fundamental changes, contrary to earlier belief. This is due to the growing autonomy of AIS and the expansion of the range of their possible applications. Artificial intelligence is routinely employed in creative industries, decision-making in different fields of human activity, unmanned transportation, etc. However, there remain unresolved major issues concerning the parties liable in the case of infliction of harm by AIS, the viability of applying no-fault liability mechanisms, the appropriate levels of regulation of such relations; and discussions over these issues are far from being over. Purpose: basing on an analysis of theoretical concepts and legislation in both Russia and other countries, to develop a vision of civil law regulation and tort liability in cases when artificial intelligence is used. Methods: empirical methods of comparison, description, interpretation; theoretical methods of formal and dialectical logic; special scientific methods: legal-dogmatic and the method of interpretation of legal norms. Results: there is considerable debate over the responsibilities of AIS owners and users. In many countries, codes of ethics for artificial intelligence are accepted. However, what is required is legal regulation, for instance, considering an AIS as a source of increased danger; in the absence of relevant legal standards, it is reasonable to use a tort liability mechanism based on analogy of the law. Standardization in this area (standardization of databases, software, infrastructure, etc.) is also important - for identifying the AIS developers and operators to be held accountable; violation of standardization requirements may also be a ground for holding them liable under civil law. There appear new dimensions added to the classic legal notions such as the subject of harm, object of harm, and the party that has inflicted the harm, used with regard to both contractual and non-contractual liability. Conclusions: the research has shown that legislation of different countries currently provides soft regulation with regard to liability for harm caused by AIS. However, it is time to gradually move from the development of strategies to practical steps toward the creation of effective mechanisms aimed at minimizing the risks of harm without any persons held liable. Since the process of developing AIS involves many participants with an independent legal status (data supplier, developer, manufacturer, programmer, designer, user), it is rather difficult to establish the liable party in case something goes wrong, and many factors must be taken into account. Regarding infliction of harm to third parties, it seems logical and reasonable to treat an AIS as a source of increased danger; and in the absence of relevant legal regulations, it would be reasonable to use a tort liability mechanism by analogy of the law. The model of contractual liability requires the development of common approaches to defining the product and the consequences of violation of the terms of the contract.

Keywords: artificial intelligence; civil liability; self-learning software; human-machine interaction; risks of artificial intelligence; standardization of artificial intelligence systems

Изучение вопросов правового обеспечения безопасности и адекватности применения систем искусственного интеллекта привело нас к неизбежности обращения к проблемам ответственности при использовании систем искусственного интеллекта. В работе мы сосредоточены на исследовании цивилистических аспектов ответственности за вред, причиненный системами искусственного интеллекта и робототехники. Развитие технологий связано с переосмыслением многих юридических механизмов обеспече-

Введение

ния безопасности применения искусственного интеллекта на основе баланса в части поддержания и стимулирования инновационных отраслей. Оценка реального уровня развития технологии искусственного интеллекта заставляет смотреть в будущее и не только реагировать на имеющиеся вызовы времени, но создавать правила для ближайших прогнозов. И если раньше считалось, что не потребуется кардинальных изменений в регулировании института юридической ответственности, то сегодня оснований говорить так с абсолютной уверенностью уже нет.

Причиной стало повышение степени автономности систем искусственного интеллекта при расширении спектра возможностей их применения. Искусственный интеллект обыденно применяется в креативных индустриях, при принятии решений в различных сферах человеческой деятельности, в беспилотном транспорте и т. д. Но все еще далеки от завершения дискуссии о субъектном составе систем искусственного интеллекта, ответственных за причинение вреда, о возможности применения механизмов безвиновной гражданско-правовой ответственности и даже надлежащих уровней регулирования подобных отношений.

Полагаем, что актуальности рассматриваемой проблематике добавляет неопределенность юридического подхода к автономным системам и программному обеспечению систем искусственного интеллекта. С. А. Чеховская обратила внимание на классификацию, разработанную Франческо Кореа. Мы также обратимся к ней как достойной отправной точке исследования. «Технологиями ИИ считаются: роботизированная автоматизация процессов (RPA); экспертные системы; нечеткие системы (основаны на правилах, которые отображают переменные значений от 0 до 1, в отличие от традиционной цифровой логики, которая приводит к результату 0/1); компьютерное зрение (CV); обработка естественного языка (NLP) (понимание языка, генерация языка и машинный перевод); нейронные сети (NNs или ANNs с основными подклассами - глубокое обучение и генеративные состязательные сети (GANs - две сети, которые обучают друг друга)); автономные системы (сочетание робототехники и интеллектуальных систем); распределенный искусственный интеллект (DAI, класс технологий, которые решают проблемы, распределяя их между автономными "агентами", взаимодействующими друг с другом); мультиагентные системы (MAS); аффективные вычисления (Affective Computing (AC), распознавание эмоций, интерпретация и моделирование); эволюционные алгоритмы (EA) (в том числе генетические алгоритмы); индуктивное логическое программирование (ILP); сети принятия решений (Decision Networks) (обобщение наиболее известных байесовских сетей (Bayesian networks)/ выводов); вероятностное программирование

(Probabilistic Programming, фреймворк, который не заставляет жестко кодировать конкретную переменную, а скорее работает с вероятностными моделями; байесовский программный синтез (BPS) - в некотором роде форма вероятностного программирования, где байесовские программы пишут новые байесовские программы, а не человек, как в более широком подходе вероятностного программирования); окружающий интеллект (AmI) (технология, которая требует физических устройств в цифровой среде, чтобы чувствовать, воспринимать и реагировать с контекстной осведомленностью на внешний стимул, обычно вызванный действием человека)» [18; 29].

В этих условиях законодатели и правоприменители всего мира подбирают доступные механизмы для минимизации рисков безнаказанного причинения вреда с применением систем искусственного интеллекта. Так, в США в октябре 2022 г. Управление научно-технической политики Администрации Президента выпустило документ "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People, в котором под лозунгом «От принципов - к практике» определило пять принципов, которыми следует руководствоваться при разработке, использовании и развертывании автоматизированных систем для защиты американского населения в эпоху искусственного интеллекта. В этом «справочнике для всех, кто стремится включить эти средства защиты в политику и практику», названы принципы технологического проектирования, включая безопасность и эффективность систем ИИ и необходимость человеческого контроля1.

В сфере уголовного права одним из наиболее серьезных исследований данной проблематики стала диссертационная работа И. Р. Бе-гишева на тему «Уголовно-правовая охрана общественных отношений, связанных с робототехникой», представленная на соискание ученой степени доктора юридических наук и успешно защищенная в 2022 году [1]. В российской ци-вилистической науке пока такого обобщающего исследования нам обнаружить не удалось.

1 Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People. URL: https://www.whitehouse.gov/ostp/ai-bill-of-rights/.

1. Современные подходы к определению цивилистической ответственности

за причинение вреда с применением искусственного интеллекта

Законодательные и общеправовые теории ответственности за вред, причиненный в результате взаимодействия человека и машины, обсуждаются юристами в разных аспектах. Автоматизация производственных и креативных процессов, появление Интернета вещей, человекоподобных роботов наводит ученых на мысль о том, что «вопрос об автономных объектах зависит не от того, "если", а от того, "когда" такая технология будет внедрена, поэтому регулятивное измерение может иметь решающее значение в этом отношении, равно как и предварительное выявление социально сложных ситуаций, в которых не только пользователь, но и другие лица могут быть затронуты неблагоприятными последствиями» [46]. Полагаем, восприятие передовых технологий как альтернативы объектам, контролируемым человеком, как безопасных и эффективных возможно при надлежащем регулировании.

Таким образом, современные предприятия и технологические разработки должны иметь соответствующее регулирование, которое будет контролировать связанные с ними уровни опасности и, таким образом, позволит отраслям высоких технологий процветать. В то же время регулирование должно быть достаточно гибким, чтобы закон не ограничивал технологическое развитие. Учитывая, что отрасль и потребители становятся все более умными, за ними должны последовать разумные регуляторные решения [43], установив правильный баланс между безопасностью, ответственностью и конкуренцией, с одной стороны, и инновациями и гибкостью - с другой. Однако автономия, которую правопорядок готов предоставить машинам, может сделать многие устоявшиеся правовые доктрины устаревшими.

Авторы настоящего исследования сосредоточены на анализе влияния требований к безопасности систем искусственного интеллекта в гражданско-правовых отношениях. Однако нельзя не упомянуть, что в глобальном плане обсуждается, какому виду ответственности угрожает тот или иной аспект автоматизации и почему это имеет значение [26].

Существуют пробелы регулирования и доктрины в вопросах определения вины, моральной ответственности, публичной подотчетности и др. В 2004 году Андреас Маттиас представил то, что он назвал проблемой «пробела ответственности», с помощью «обучающихся автоматов» [37]. Кратко о сути его концепции: интеллектуальные системы, наделенные способностью обучаться на основе взаимодействия с другими агентами и окружающей средой, сделают человеческий контроль и прогнозирование их поведения очень значимыми, но ответственность, возлагаемая на человека, требует знаний и контроля. А. Маттиас сформулировал содержание «пробела ответственности» как риска того, что ни один человеческий агент не может быть законно обвинен или признан виновным в нежелательных результатах действий, опосредованных системами искусственного интеллекта. Поэтому перед нами, человечеством, стоит дилемма: либо мы продолжаем разрабатывать и использовать обучающие системы, тем самым отказываясь от возможности иметь человека ответственным за свое поведение, либо мы сохраняем человеческую ответственность и тем самым отказываемся от внедрения обучающих систем в общество [37].

Эта идея была поддержана исследователями. Значительное внимание в дальнейшем было уделено «пробелу в ответственности» в связи с автономными системами [32] в рамках дискуссии об объяснимости алгоритмов и искусственного интеллекта [38; 39; 27; 45]. Юридическую перспективу решения вопросов ответственности исследовали Райан Кало [24] и Уго Пагалло [44]. В последнее время развернулась большая юридическая и политическая дискуссия о том, насколько внедрение автоматизированного (административного) принятия решений на основе искусственного интеллекта является желательным и законным (в рамках Европейской комиссии1; [33] и др.).

В частности, в Европейском союзе ведутся деликатные дискуссии о том, кто должен быть компетентен устанавливать правила в этом отношении: государства-члены или институты ЕС. Кроме того, важно, чтобы этот процесс регулирования не обходил принципы демократического управления и промышленность была

1 URL: https://digital-strategy.ec.europa.eu/en/policies/euro-реап-арргоаЛ-а!11Йиа1-Ме1%епсе.

включена в процесс регулирования, а также чтобы саморегулирование заменяло законодательство, где это возможно, и только общие требования регулирования устанавливались государственными органами, а рынок мог определять технические решения. Уже сейчас высказываются сомнения в том, что положения Общего регламента защиты персональных данных (General Data Protection Regulation, GDPR) гарантируют достаточную прозрачность и доступность этих механизмов для тех, на кого они распространяются [28; 49]. Многие дискуссии указывают на тот факт, что алгоритмическое принятие решений часто трудно понять и объяснить людям из-за различных, иногда непостижимых для человека, способов работы искусственного интеллекта: так называемая проблема «черного ящика» [25] остается весьма актуальной. Однако Ното Ла Диега [42], обосновывая необходимость введения регулирования актуальных вопросов, замечает, что вопросы объяс-нимости могут возникать не только из-за технических «черных ящиков», но и из-за того, что он называет организационными и юридическими «черными ящиками», создаваемыми или усугубляемыми внедрением искусственного интеллекта в государственное управление.

Вовлеченные в сферу разработки профессионалы указывают на необходимость правовых решений для практики. Поскольку в процесс разработки систем искусственного интеллекта вовлечено много участников, обладающих самостоятельным правовым статусом (поставщик данных, разработчик, производитель, программист, дизайнер, пользователь), установить субъекта гражданско-правовой ответственности, в случае если что-то пойдет не так, достаточно сложно, необходимо учитывать множество способов применения искусственного интеллекта1.

Пользователь или владелец может быть привлечен к ответственности, если нарушена инструкции применения искусственного интеллекта, в особенности это касается ситуаций, когда до пользователя доводились какие-либо специфические требования по эксплуатации системы. Если мы говорим о пользователе или владельце, то ближе всего к данному виду отношений модель ответственности за вред, при-

1 URL: https://www.dentons.com/en/insights/articles/2018/de-cember/20/robots-and-liability.

чиненный источником повышенной опасности. Поставщик данных несет ответственность, если вред возник в период, когда система все еще обучалась, либо в случае предоставления некачественных данных. Также следует учитывать, что система искусственного интеллекта может быть снабжена открытым исходным кодом. В таком случае в литературе возникает вопрос о привлечении к ответственности программистов. За что? Также в некоторых случаях, если вред причинен по глубинным проблемам системы искусственного интеллекта, появляется вопрос о привлечении к ответственности дизайнера или изготовителя системы искусственного интеллекта2. Поскольку системы искусственного интеллекта часто работают в упомянутой парадигме «черного ящика», встает вопрос о невозможности в некоторых случаях вообще установить лицо, по чьей воле или по неосторожности причинен вред.

Все эти вопросы пока не нашли окончательных и ясных ответов, но можно увидеть первые шаги государств и международных сообществ на пути их решения.

2.2. Режим гражданской ответственности за применение технологии искусственного интеллекта

2.1. Правовое обеспечение безопасности технологии искусственного интеллекта, ответственность за причинение вреда и условия возложения ответственности

Сегодня в России, как и во всем мире, в условиях цифровизации общественные отношения в информационной сфере выступают в качестве импульса, непосредственно влияющего на развитие права. Право сталкивается с новыми вызовами, в том числе необходимо детальное осмысление всех аспектов, связанных с развитием систем искусственного интеллекта и роботизированного производства. В условиях масштабного внедрения в экономику и иные сферы жизни общества систем искусственного интеллекта весьма актуальным становится вопрос об ответственности при применении систем искусственного интеллекта.

Это закономерно, поскольку в современных условиях цифровизации широко исполь-

2 URL: https://cms.law/en/gbr/publication/artificial-intelligence-who-is-liable-when-ai-fails-to-perform.

зуются системы искусственного интеллекта. Сегодня они активно применяются в банковской деятельности, военном деле, на транспорте, в самых разных отраслях промышленности.

В отчете Всемирной организации интеллектуальной собственности «Технологические тренды 2019: искусственный интеллект» [52] было указано на то, что в период, начавшийся в 50-е годы ХХ века (эпоха создания прообразов систем искусственного интеллекта), в патентные ведомства было подано около 340 000 заявок на получение патентов, связанных с данными системами, а также выпущено более 1,6 млн публикаций в научных изданиях. Сегодня среди технологий искусственного интеллекта доминирует машинное обучение, оно описано в источниках, раскрывающих сущность более чем 1/3 запатентованных в данной сфере изобретений.

В течение последнего десятилетия в целом ряде государств мира были приняты различные стратегические, программные документы, связанные с нормативным регулированием робототехники и искусственного интеллекта: в Великобритании, Германии, Китае, США, Японии, Южной Корее1, причем существенное место в принимаемых документах отведено основаниям и условиям возникновения ответственности при использовании указанных технологических решений. Так, Комитет по политике в области робототехники Японии предусмотрел в качестве одного из эффективных подходов к решению либо предотвращению проблем, обусловленных созданием и использованием роботов нового поколения «разработку стандартов проектирования и производства роботов, предполагающих определение ответственности производителей за вред, причиненный действиями роботов»2.

1 Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)), 31.05.2016 / Committee on Legal Affairs / European Parliament; Rapporteur: Mady Delvaux. URL: http://www.europarl.europa.eu/ sides/getDoc.do?pubRef=//ep//nonsgml%2bcomparl%2bpe58 2.443% 2b01%2bdoc%2bpdf%2bv0//en. British lawmakers intend to regulate artificial intelligence; Mady Delvaux: «Robotics will bring about a revolution». URL: http://www.euro-parl.europa.eu/news/en/headlines/economy/20150422STO-43701/mady-delvaux-robotics-will-bring-about-a-revolution.

2 Japan Ministry of Economy, Trade and Industry Robot Policy Council. Robot Policy Council Report, May 2006 (in Japanese). Cit. along: Weng Y.H., Chen C.H., Sun C.T. The legal crisis of next generation robots: on safety intelligence // Proceedings of the 11th international conference on Artificial intelligence and law. 2007. P. 206.

Что касается России, то в вопросах регламентации ответственности в сфере создания и использования искусственного интеллекта следует, во-первых, руководствоваться Стратегией развития информационного общества в Российской Федерации, утвержденной указом Президента Российской Федерации от 9 мая 2017 г. № 2033. Стратегия дает определение искусственного интеллекта: это «совокупность технологических решений, включающих в себя не только информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе с использованием методов машинного обучения), но и процессы, сервисы, посредством которых осуществляется обработка данных и поиск оптимальных решений»3. Указанные решения способны выступить в качестве объектов стандартизации, поскольку таковыми, согласно подпункту 6 статьи 2 Федерального закона от 29 июня 2015 г. № 162-ФЗ (в редакции от 30.12.2020 г. № 523-ФЗ) «О стандартизации в Российской Федерации», могут являться «продукция (работы, услуги), процессы, системы управления, терминология, условные обозначения, исследования (испытания) и измерения (в том числе выборочный) и методы испытаний, маркировка, процедуры подтверждения соответствия и другие объекты»4.

Стратегию развития информационного общества в Российской Федерации на 20172030 гг. можно рассматривать как основу нормативно-правовой регламентации в современном праве, не исключение в этом отношении и обязательственное право, традиционно регулирующее договорные и внедоговорные обязательства. Несомненно, оно также подверглось влиянию общей тенденции цифровизации общества, различных сфер экономики и, наконец, частного права как в Российской Федерации, так и во всем мире.

Далее, в соответствии с распоряжением Правительства РФ от 28 июля 2017 г. № 1632-р «Об утверждении программы «Цифровая эко-

3 Стратегия развития информационного общества в Российской Федерации: утв. указом Президента Рос. Федерации 9 мая 2017 г. № 203 // Собр. законодательства Рос. Федерации. 2017. № 20, ст. 2901.

4 О стандартизации в Российской Федерации [Электронный ресурс]: Федер. закон от 29 июня 2015 г. № 162-ФЗ (в ред. от 30.12.2020 г. № 523-ФЗ). Доступ из справ.-пра-вовой системы «КонсультантПлюс».

номика Российской Федерации»1, была принята соответствующая программа (в 2019 г. она была заменена Национальной программой «Цифровая экономика Российской Федерации»2). Существенную составляющую содержания данной Программы представляет детализированный план ее внедрения во все сферы экономики, причем в отношении каждого направления сформулирован перечень задач, период их выполнения, а также сроки достижения конкретных результатов (с 2018 по 2024 г.). Для целей нашего исследования важно отметить, что представленный в программе план действий содержит также вопросы, касающиеся обеспечения информационной безопасности.

Что касается нормативного регулирования, то здесь предполагается назначить ответственный в данной сфере федеральный орган исполнительной власти, а также создать центр соответствующих компетенций. Затем планируется разработка концепции мер по совершенствованию нормативно-правового регулирования, а также ее внедрение, для чего необходимо разработать план ее реализации, содержащий детально проработанную систему среднесрочных мероприятий, необходимых для осуществления в условиях развития цифровой экономики.

Следует обратить внимание на то, что указанная программа предполагает принятие нормативно-правовых актов, обеспечивающих устранение препятствий для развития цифровой экономики, и напротив, формирование правовых условий создания унифицированной цифровой среды для осуществления всех операций, в том числе сбора, хранения и обработки полученных данных.

Однако здесь, как справедливо отмечают исследователи [12], возникает ряд весьма актуальных проблем: обеспечение безопасности передачи данных и хранения их на транзитных серверах; обеспечение доверия пользователей и иных заинтересованных лиц к используемым технологиям и их защищенности. В качестве потенциальных вызовов в отношении примене-

1 Об утверждении программы «Цифровая экономика Российской Федерации [Электронный ресурс]: распоряжение Правительства Рос. Федерации от 28 июля 2017 г. № 1632-р. Доступ из справ.-правовой системы «КонсультантПлюс».

2 Национальная программа «Цифровая экономика»: утв. протоколом заседания президиума Совета при Президенте Рос. Федерации по стратегическому развитию и национальным проектам от 4 июня 2019 г. № 7. URL: https://di-gital.gov.ru/ru/activity/directions/858/.

ния указанных технологий можно назвать: возможность раскрытия либо подмены персональных данных, обеспечение безопасности хранения данных и ограничение доступа в соответствующую базу данных; потребность в создании специального программного обеспечения, в применении специальных устройств; обеспечение пользователей специальными идентификационными системами.

Некоторые ответы на эти вызовы (потенциальные риски) можно найти, проанализировав положения Методических рекомендаций по внедрению Интернета вещей для оптимизации контрольно-надзорной деятельности, которые также содержат предложения «отказаться от избыточного сбора персональных данных, ограничить его в соответствии с целями обработки, а также установить регламентированный порядок их раскрытия, допустимые сценарии агрегирования и обезличивания»3. Данные Рекомендации представляют интерес еще в связи и с тем, что в них содержится определение понятия «промышленный Интернет вещей, используемый в контрольно-надзорной деятельности» - под ним понимается «совокупность автоматических или автоматизированных средств измерения, передачи и обработки данных, систем реагирования и дистанционного контроля, обеспечивающих контрольно-надзорные органы достоверной информацией о состоянии проверяемого объекты»4.

На наш взгляд, достоверность подобной информации возможно обеспечить лишь с помощью стандартизации. Необходимость и своевременность принятия технических стандартов систем искусственного интеллекта становятся все более очевидными, поскольку в отечественной правоприменительной практике все чаще возникают проблемы как договорной, так и деликтной ответственности, в том числе возмещения убытков в связи с использованием роботов, вопросы конфиденциальности и безопасности в процессе такого использования, а также правового положения роботов, ответственности их разработчиков и пользователей, третьих лиц и т.п.

3 Методические рекомендации по внедрению Интернета вещей для оптимизации контрольно-надзорной деятельности [Электронный ресурс]: утв. протоколом заседания проектного комитета от 9 нояб. 2017 г. № 73 (13) Доступ из справ.-правовой системы «КонсультантПлюс».

4 Там же.

Попытки решения данных проблем предпринимаются в различных сферах экономики. Так, например, в финансовой сфере была разработана Регулятивная платформа Банка России, применяемая при внедрении и апробации инновационных технологий по линии искусственного интеллекта и соответствующих финансовых услуг, предполагающих внесение изменений в нормативно-правовую базу. В рамках этой «регуляторной песочницы» запланировано моделирование процессов применения указанных новых цифровых финансовых сервисов, продуктов и технологий в целях проверки их функционирования в условиях, приближенных к реальным. Как отмечают исследователи данной технологии, «по результатам такой работы технология может быть дополнительно одобрена и применена с необходимой нормативной базой. Такая платформа даст правильную оценку эффективности новых финансовых технологий, а также поможет быстро изменить действующее законодательство» [47].

Таким образом, предпосылкой нормативно-правового регулирования процессов создания и функционирования систем искусственного интеллекта стало принятие целого ряда стратегических программных документов. Сформированные в Стратегии развития информационного общества в Российской Федерации положения находят свое отражение и в целом ряде иных нормативных документов - Стратегии национальной безопасности Российской Федерации1, Национальной стратегии развития искусственного интеллекта2, Концепции регулирования искусственного интеллекта и робототехники3 и др. Здесь также учитывает основные положения международных документов, регламентирующих основные подходы к стандартизации систем искусственного интеллекта. Все указанное подтверждает тот факт, что в Российской Феде-

1 О Стратегии национальной безопасности Российской Федерации [Электронный ресурс]: указ Президента Рос. Федерации от 2 июля 2021 г. № 400. Доступ из справ.-правовой системы «КонсультантПлюс».

2 О развитии искусственного интеллекта в Российской Федерации [Электронный ресурс]: указ Президента Рос. Федерации от 10 окт. 2019 г. № 490. Доступ из справ.-правовой системы «КонсультантПлюс».

3 Об утверждении Концепции развития регулирования

отношений в сфере технологий искусственного интеллек-

та и робототехники на период до 2024 года [Электронный ресурс]: распоряжение Правительства Рос. Федерации от 19 авг. 2020 г. № 2129-р. Доступ из справ.-правовой системы «КонсультантПлюс».

рации вопросам искусственного интеллекта в системе нормативно-технического регулирования уделяется значительное внимание.

Анализ принятых в последние годы нормативных документов, регулирующих применение систем искусственного интеллекта, показывает, что налицо тенденция как можно более детального регулирования вопроса об ответственности. Так, указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации»4, а также принятая согласно ему «Национальная стратегия развития искусственного интеллекта на период до 2030 года» предусматривают формирование в данной сфере норм этики. Для реализации данного подхода была разработана «Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года»5, согласно которой стал создаваться Национальный кодекс этики в сфере искусственного интеллекта. Подобные документы были приняты во многих странах, и эту тенденцию в развитии регламентации ответственности разработчиков систем искусственного интеллекта нельзя игнорировать.

Наблюдающаяся в настоящее время тенденция к осуществлению соответствующего регулирования с помощью этических норм, на наш взгляд, свидетельствует о наличии попыток наделения систем искусственного интеллекта правосубъектностью. Следует отметить, что такого рода попытки неоднократно предпринимались в науке и нашли свое отражение и в законодательстве отдельных стран. Некоторые ученые отмечают тесную связь между этикой роботов, робототехникой и законами о роботах, исследуют особенности их общения друг с другом. Вен Юэ-Сюань даже предлагает разработать для этого специальную функциональную платформу - «Законодательный консорциум по социальной робототехнике» [51].

Данный подход привел законодателей к разработке своего рода «этических кодексов», применимых к функционированию роботов. Например [40], в Германии в 2017 году принят Кодекс этики для автономных роботизирован-

4 О развитии искусственного интеллекта в Российской Федерации.

5 Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года.

ных транспортных средств (Доклад Комиссии по этике Федерального министерства транспорта и цифровой инфраструктуры Германии «Автоматизированное и подключенное вождение»)1. В Республике Корея в 2007 году был разработан Южнокорейский этический кодекс для роботов, позже измененный в 2012 году2.

Что касается Российской Федерации, то она не отстает от этой мировой тенденции, следуя которой в 2021 году был разработан Кодекс этики в сфере искусственного интеллекта (далее - Кодекс), который устанавливает общие этические принципы и стандарты поведения, адресованные субъектам отношений в сфере искусственного интеллекта (здесь они именуются акторами искусственного интеллекта). При этом в Кодексе подчеркивается, что его действие «распространяется на отношения, связанные с этическими аспектами создания (проектирования, конструирования, пилотирования), внедрения и использования технологий искусственного интеллекта на всех этапах жизненного цикла, которые в настоящее время не урегулированы законодательством Российской Федерации и/или актами технического регулирования. Рекомендации настоящего Кодекса рассчитаны на системы искусственного интеллекта, применяемые исключительно в гражданских (не военных) целях».3 Таким образом, положения Кодекса носят субсидиарный, дополнительный характер по отношению к нормам права и техническим стандартам в области искусственного интеллекта. Однако некоторые из них позволяют определить ориентиры в отношении отдельных аспектов ответственности в исследуемой сфере.

1 Automatisiertes und Vernetztes Fahren: Bericht der EthikKommission, juni 2017 / Eingefügt durch den Bundesminister für Verkehr und digitale Infrastruktur [Automated and connected driving: Report of the Ethics Commission of the Federal Ministry of Transport and Digital Infrastructure of Germany, June 2017]. URL: https://www.bmvi.de/SharedDocs/DE/Pub-li-kationen/DG/bericht-der-ethik-kommission.html?nn=12830.

2 South Korean Code of Ethics for Robots 2007

(2007)] [South Korean Robot Ethics Charter 2007]. URL: http://www.itnews.or.kr/?p=18007; http://www.iro-botnews.com/news/articleView.html?idxno=1606; South Korean Code of Ethics for Robots 2012. URL: https://aki-kok012um1.wordpress.com/south-korean-robot-ethics-charter-2012/. URL: https://www.bmvi.de/SharedDocs/ DE/Publika-tionen/DG/bericht-der-ethik-kommission.pdf?blob=publica-tionFile>.

3 Кодекс этики в сфере искусственного интеллекта // Альянс в сфере искусственного интеллекта: [сайт]. URL: https://clck.ru/YTDCn.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Итак, помимо стратегических, программных документов, во многих юрисдикциях принимаются кодексы этики искусственного интеллекта. Тем не менее полагаем, что при урегулировании вопроса об ответственности в сфере создания и применения систем искусственного интеллекта необходима в первую очередь именно правовая регламентация. Только она позволяет ответить на ключевой вопрос об ответственности при функционировании систем искусственного интеллекта. Кроме того, при разработке, тестировании и эксплуатации систем искусственного интеллекта необходимо разрабатывать скорее нормы технических стандартов, а не этические нормы. Мы полагаем, что формулировка этих норм применительно к системам искусственного интеллекта так или иначе связана с попыткой обосновать наличие у систем искусственного интеллекта определенной правосубъектности, чего следует избегать. Мы придерживаемся подхода, изложенного в Стратегии-2030, и исходим из того, что искусственный интеллект — это технология, а не субъект права.

Обратимся к условиям гражданско-правовой ответственности. Традиционно ими являются:

во-первых, противоправное деяние (действие или бездействие), нарушающее правовые нормы и посягающее на субъективные права других граждан. Не подлежит возмещению вред, причиненный правомерными действиями, например, в состоянии необходимой обороны, если не было превышения ее пределов. Необходимую оборону в цивилистической доктрине принято рассматривать в качестве одного из способов самозащиты права. Согласно статье 12 ГК, самозащита права относится к способам защиты гражданских прав, хотя ее можно рассматривать и как отдельную форму защиты, в рамках которой предпринимаются непосредственные действия управомоченного субъекта, самостоятельного характера, не предполагающие обращения за защитой к уполномоченным органам публичной власти.

Что касается гражданско-правового института возмещения вреда, причиненного в состоянии крайней необходимости, то такое возмещение может осуществлять как причинитель вреда, так и лицо, для защиты интересов которого были совершены действия, или может быть распределено между ними (несут ответст-

венность один или другой либо наступает долевая ответственность). Таким образом, вред, причиненный правомерными действиями, подлежит возмещению только в случаях, предусмотренных законом. В возмещении вреда может быть отказано, если вред причинен по просьбе или с согласия потерпевшего, а действия причинителя вреда не нарушают нравственных принципов общества;

во-вторых, должно иметь место наличие вреда жизни, здоровью, имуществу. При применении систем искусственного интеллекта таким вредом может стать:

1) причинение вреда личным неимущественным правам и свободам человека, в том числе жизни и (или) здоровью человека, нарушение его автономии воли, свободы в принятии решений, при осуществлении права выбора, дискриминация интеллектуальных способностей человека по сравнению с машинным интеллектом; умаление когнитивных способностей человека и его творческого потенциала;

2) негативные социальные последствия для человека, общества и государства, в том числе посягательство на нравственные, духовные и культурные ценности; культурное и языковое многообразие, самобытность; посягательство на сохранение национальной идентичности и самосознания, разглашение сведений о частной жизни, расовая, национальная дискриминация, а также по иным признакам - в зависимости от половой принадлежности, политических, религиозных убеждений, возраста, социального и экономического статуса, а также принадлежности к какой-либо социальной группе;

3) нарушения правил обработки, хранения, использования персональных данных, что осуществляется системами искусственного интеллекта или использующими и субъектами в целях разработки и совершенствования указанных систем; несанкционированный доступ третьих лиц к персональным данным; использование некачественных и нерепрезентативных наборов данных, полученных с нарушением закона и (или) из ненадежных источников;

4) причинение вреда имуществу, в том числе экологического вреда, возникновение негативных социально-экономических последствий;

в-третьих, должна иметься в наличии причинная связь между совершенным деянием и причинением вреда. В случае применения систем искусственного интеллекта выявить при-

чинную связь между действиями определенного субъекта (физического или юридического лица) и возникшим вредом может быть довольно сложно. Регламентация процедур принятия решений в какой-то мере способствует повышению транспарентности, однако при использовании сильного искусственного интеллекта и ее может быть недостаточно.

Выходом в такой ситуации может стать обращение к оспоримой презумпции. Этот путь рассматривается в Европейском союзе. В опубликованном в октябре 2022 г. проекте Директивы ЕС об особенностях применения внедого-ворной гражданской ответственности к системам искусственного интеллекта1 заложена идея

0 том, что причинная связь между нарушением ответчиком Регламента ЕС об искусственном интеллекте и действием или бездействием системы искусственного интеллекта, приведшим к причинению вреда истцу, предполагается, если иное не доказано стороной;

четвертое условие ответственности - вина причинителя вреда - психическое отношение к содеянному, выражающееся в форме умысла или неосторожности. Так как в гражданском законодательстве учитывается вина в форме умысла в целом, то ее видовые особенности не влияют на решение суда. Необходимое требование связано лишь с тем, чтобы умысел имел своей целью именно причинение вреда потерпевшему, а не было поставлено какой-либо другой цели. В цивилистической доктрине и законодательстве употребляется также термин «грубая неосторожность» (например, в ст. 693, 901 ГК РФ), однако данный термин законодатель не поясняет. Трудности в его уяснении приводят нас к анализу критериев, которые были выработаны правовой доктриной и породили необходимость разъяснения его в актах судебной практики. Так, например, при выявлении наличия грубой неосторожности целесообразно принимать во внимание, в частности, характеристику поведения лица, степень предвидения последствий такого поведения (так, согласно п. 23 постановления Пленума ВС РФ № 3, грубой неосторожностью может быть признано состояние алкогольного опьянения потерпевшего). При этом сложившийся в законодательстве

1 Proposal for a Directive on adapting non contractual civil liability rules to artificial intelligence. URL: https://ec.euro-pa.eu/mfo/files/proposal-directive-adapting-non-contractual-civil-liability-rules-artificial-intelligence.

и правоприменительной практике подход свидетельствует о том, что вина потерпевшего в форме грубой неосторожности способна повлечь снижение размера возмещения либо отказ в нем.

В отношении гражданских правонарушений оценка действий потерпевшего с точки зрения формы вины оставлена на усмотрение суда. В постановлении Пленума ВС РФ № 3 предусмотрено, что «вопрос о том, является ли неосторожность потерпевшего грубой небрежностью или простой неосмотрительностью, не влияющей на размер возмещения вреда, должен быть разрешен в каждом случае с учетом конкретных обстоятельств». Грубая неосторожность потерпевшего влечет только снижение размера возмещения в тех случаях, когда ответственность причинителя основывается на вине. Размер возмещения снижается в зависимости от степени вины причинителя и потерпевшего. В этих случаях нередко говорят о смешанной вине или смешанной ответственности. Вина причинителя вреда при этом презюмируется. Законом может быть предусмотрено возмещение вреда и при отсутствии вины причинителя вреда.

2.2. Субъекты ответственности

за применение технологии

искусственного интеллекта

Неуклонное развитие робототехнической индустрии неизбежно вызывает целый комплекс вопросов, как правового, так и этического характерах. Анализу обусловленных этим проблем посвящены многочисленные научные работы, изданные в последние годы [11; 9; 5; 22; 23; 7; 48]. Кроме того, в связи с развитием цифровых технологий в доктрине, в законотворческой и правоприменительной деятельности в последние годы активно дискутируется вопрос о потенциальной правосубъектности систем искусственного интеллекта [10; 14].

Действительно, системами искусственного интеллекта генерируются самые разные объекты, в том числе тексты, изображение, музыка, причем технологии такой генерации стали настолько совершенными, что порой их невозможно отличить от произведений, созданных людьми.

Исходя из этого можно сформулировать следующие проблемные вопросы.

Во-первых, возможно ли компьютерное творчество в принципе? Способны ли системы искусственного интеллекта создавать что-то принципиально новое, ранее неизвестное человечеству, или же они только перерабатывают информацию, не производя ничего нового? Думается, что второе более вероятно. Машина, не обладающая присущими человеку креативностью, воображением, способна только воспроизводить, пусть даже в несколько измененном виде, ту информацию, те тексты и изображения, которые были заложены в нее человеком. Поэтому полагаем, что истинного творчества, создания совершенно нового объекта в данном случае не происходит.

Во-вторых, кто будет нести ответственность при использовании системы искусственного интеллекта? Разработчик системы искусственного интеллекта либо ее пользователь, который задал ей определенный алгоритм или поместил в систему определенный объем информации, затратил средства?

В-третьих, кому должен принадлежать сгенерированный системой искусственного интеллекта контент - создателю этой системы или же ее пользователю?

Таким образом, вопрос о субъектах ответственности при применении систем искусственного интеллекта до сих пор является весьма дискуссионным. По общим правилам обязательственного права, ответственными лицами (должниками) выступают дееспособные граждане, юридические лица (за вред, причиненный работником при исполнении служебных обязанностей), в том числе законные представители.

Согласно пункту 1.3 второго раздела Кодекса этики в сфере искусственного интеллекта, субъектами отношений в сфере искусственного интеллекта выступают российские и иностранные граждане, а также юридические лица, принимающие непосредственное участие «в жизненном цикле СИИ при его реализации на территории Российской Федерации или в отношении лиц, находящихся на территории Российской Федерации, включая предоставление товаров и оказание услуг». Исходя из анализа содержания данного документа, к ним, в частности, могут быть отнесены:

1) лица, осуществляющие нормативное регулирование в сфере искусственного интеллекта (граждане либо юридические лица), включая разработчиков нормативно-технической доку-

ментации, технических условий, регламентов, руководств, иного рода регуляторных положений, требований, а также технических стандартов в сфере создания и использования систем искусственного интеллекта;

2) разработчики моделей и систем искусственного интеллекта (граждане) - это лица, осуществляющие их создание, обучение, тестирование;

3) поставщики данных, используемых моделями и системами искусственного интеллекта (граждане либо юридические лица);

4) лица, осуществляющие формирование наборов данных в целях использования их в моделях и системах искусственного интеллекта (граждане либо юридические лица);

5) изготовители (граждане либо юридические лица), осуществляющие производство моделей и систем искусственного интеллекта;

6) лица, реализующие модели и системы искусственного интеллекта (граждане либо юридические лица), а также предназначенные для их функционирования программные (аппаратные) комплексы и несущие ответственность за обеспечение безопасности в отношении их конструкции;

7) операторы (граждане либо юридические лица), непосредственно применяющие модели и системы искусственного интеллекта;

8) эксперты (граждане), производящие анализ, измерение либо оценивающие параметры разработанных моделей и систем искусственного интеллекта;

9) заказчики (граждане либо юридические лица) систем искусственного интеллекта;

10) владельцы (пользователи) моделей и систем искусственного интеллекта (граждане либо юридические лица), которые на законном основании владеют указанными системами, пользуются ими согласно их назначению и практически выполняют решение различных прикладных задач посредством применения моделей и систем искусственного интеллекта;

11) другие субъекты (граждане либо юридические лица), деятельность которых потенциально способна оказать влияние на функционирование моделей и систем искусственного интеллекта, либо лица, осуществляющие принятие решений с помощью использования систем искусственного интеллекта.

В законодательстве до сих пор нет однозначного ответа на вопрос о субъекте соответ-

ствующих отношений, на которого должна быть возложена ответственность за инциденты, возникающие в процессе работы с искусственным интеллектом. Не следует также забывать о том, что обучение и эффективная работа большинства систем искусственного интеллекта предполагает обработку значительных объемов информации, что порождает проблему конфиденциальности данных. Создаваемые искусственным интеллектом проекты не всегда обеспечены необходимым уровнем безопасности для сохранности данных, в связи с чем вопрос об ответственности за разглашение данных приобретает новое звучание.

В цивилистической литературе, посвященной проблемам правового регулирования создания и функционирования систем искусственного интеллекта, можно встретить разнообразные мнения относительно принципов привлечения к ответственности за действия, связанные с функционированием систем искусственного интеллекта, а также субъектов такой ответственности. В качестве наиболее распространенных среди имеющихся подходов можно назвать, например, следующие:

• освобождение от ответственности за действия систем искусственного интеллекта в полном объеме (по аналогии с обстоятельствами непреодолимой силы);

• частичное освобождение от ответственности (предполагается отсутствие ответственности какого-либо лица с возмещением потерпевшим компенсации имущественного и иного вреда из различных источников);

• виновная ответственность (наступает лишь при наличии вины конкретного субъекта, например изготовителя, разработчика системы искусственного интеллекта либо лица, ответственного за обучение искусственного интеллекта, владельца, пользователя и т. д.);

• безвиновная ответственность (действует презумпция вины конкретного лица (например, изготовителя либо разработчика системы искусственного интеллекта);

• личная ответственность систем искусственного интеллекта (предполагается наделение роботов правосубъектностью - правами и обязанностями, статусом электронной личности).

В любом случае ответственность за использование систем искусственного интеллекта должна быть возложена на предусмотренные законодательством субъекты права (физиче-

ские, юридические лица либо публично-правовые образования). Это предполагает обеспечение контроля, надзор со стороны человека за функционированием систем искусственного интеллекта в объеме и порядке обусловленных назначением данных систем, включая, например, возможность человека принимать все существенные решения на каждом из этапов создания и функционирования систем искусственного интеллекта; предусматривать либо, наоборот, пресекать принятие социально и юридически значимых решений и действий систем искусственного интеллекта на любом этапе жизненного цикла систем искусственного интеллекта - там, где это разумно применимо. При этом недопустима передача полномочий ответственного нравственного выбора систем искусственного интеллекта, делегирование ответственности за последствия принятия решений систем искусственного интеллекта - за любые последствия их деятельности несет юридическую ответственность только существующий субъект права (физическое или юридическое лицо, являющееся субъектом ответственности, согласно действующим нормам законодательства Российской Федерации). Субъекты соответствующих отношений должны принимать все возможные меры в целях установления ответственности каждого из конкретных участников жизненного цикла систем искусственного интеллекта с учетом их роли и специфики каждого этапов создания и функционирования систем искусственного интеллекта.

При этом следует учитывать, что эффективное развитие технологий искусственного интеллекта предполагает сотрудничество разработчиков, использование наиболее достоверной и сравнимой информации о возможностях систем искусственного интеллекта, корректное сравнение, а также обеспечение единства методики измерений. Это необходимо для безопасной и эффективной работы с данными системами. Направлениями сотрудничества являются:

- уведомление обо всех выявленных критических уязвимостях систем искусственного интеллекта во избежание повсеместного их распространения;

- повышение качества и доступности ресурсов в сфере разработки систем искусственного интеллекта, например, посредством повышения доступности данных, обеспечения

совместимости разрабатываемых систем искусственного интеллекта;

- формирование национальной школы развития технологий искусственного интеллекта и создание для этого необходимых условий (например, создание общедоступных национальных репозиториев, библиотек и моделей сетей, доступных национальных средств разработки, открытых национальных фреймворков, обмен информацией о лучших практиках развития технологий искусственного интеллекта, организация и проведение научно-практических конференций, публичных конкурсов, школьных и студенческих олимпиад и т.п.);

- формирование и расширение использования открытых баз знаний для повышения их доступности;

- создание условий для привлечения инвестиций российских частных инвесторов, бизнес-ангелов, венчурных фондов и фондов прямых инвестиций в развитие технологий искусственного интеллекта;

- стимулирование различных форм и направлений научной, образовательной, просветительской деятельности в сфере искусственного интеллекта, организация участия в соответствующих проектах и деятельности ведущих научно-исследовательских и образовательных организаций Российской Федерации.

Рекомендуемые в Кодексе этики в сфере искусственного интеллекта подходы также предполагают обеспечение высокого уровня транспарентности и верификации информирования об уровне развития систем искусственного интеллекта, возможностях их применения и сопутствующих исках. Для обеспечения достоверности информации разработчики соответствующих технологий должны предоставлять пользователям систем искусственного интеллекта необходимую и достоверную информацию об указанных системах, допустимых областях и наиболее эффективных методах применения данных систем, а также о последствиях (как в виде вреда, так и пользы) и существующих ограничениях в части их использования. Необходимо увеличение информированности относительно этических принципов применения систем искусственного интеллекта. Субъектам, действующим в соответствующей сфере, рекомендуется организовывать различные мероприятия, призванные повысить уровень доверия и уровень знаний лиц, являющих-

ся пользователями систем искусственного интеллекта, а также общества в целом (это касается различных видов информации, например систем искусственного интеллекта, и любых имеющихся способов, включая подготовку соответствующих научных, научно-популярных материалов, организацию и проведение научных и научно-практических конференций и семинаров, а также включения в сопроводительную документацию (правила эксплуатации систем искусственного интеллекта, инструкции, руководства пользователя) норм об этичном поведении их пользователей).

2.3. Внедоговорная ответственность.

Искусственный интеллект

как источник повышенной опасности

Вопрос относительно ответственности за действия, осуществляемые системами искусственного интеллекта, является предметом многочисленных дискуссий как в научной, так и в научно-популярной литературе. Можно обсуждать последствия применения данных систем на транспорте, в медицине, в процессе освоения космоса и многих других сферах экономики и жизни общества в целом. Ясно одно - наиболее остро этот вопрос стоит в тех сферах, где такие последствия не в полной мере подконтрольны человеку и возникает необходимость доверять действиям системы искусственного интеллекта.

Следует обратить внимание на опыт Европейского союза в данном отношении. Принятая в 2006 году Директива Европейского союза о машинном оборудовании1 подвергалась пересмотру для уточнения ряда вопросов, включая вопрос об ответственности. 21 апреля 2021 года был опубликован первый проект Регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent) (далее - Регламент Евросоюза)2. Исходя из анализа его содержания, можно сделать вывод о фокусировании его, в основном, на регламентации систем искусственного интеллекта, представляющих повышенную опасность. Тем не

1 Directive 2006/42/EC of the European Parliament and of the Council of 17 May 2006 on machinery, and amending Directive 95/16/EC (recast). URL: https://www.icqc.eu/userfiles/ File/Directive%202006%2042%20EC%20certification.pdf.

2 Регламент Европейского союза «О европейском подходе

для искусственного интеллекта». URL: https://eur-lex.euro-pa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206.

менее очевидно, что системы, подразумеваемые в Регламенте Евросоюза об искусственном интеллекте, только отчасти могут совпадать с источниками повышенной опасности, признаваемыми в качестве таковых в соответствии с нормами российского гражданского законодательства.

Как справедливо отметил А. В. Незнамов, автор проекта «Робоправо», при анализе вопроса об ответственности систем искусственного интеллекта следует учитывать ряд обстоятельств: «Во-первых, институты ответственности могут иметь отдельные нюансы для разных категорий роботов в зависимости от степени их общественной опасности, контролируемости или способности к обучению. Во-вторых, в ряде случаев, в принципе, трудно восстановить фактические обстоятельства причинения вреда. В-третьих, одна и та же ситуация может получить разное решение с точки зрения конкретной юрисдикции. Поэтому национальные особенности конкретной правовой системы часто не позволяют учитывать существующий опыт других стран»3.

В классической цивилистике источник повышенной опасности - это вещь или деятельность, способная причинить вред жизни, здоровью человека, имуществу или окружающей среде. Данный подход прослеживается и в Регламенте Евросоюза, где выделяются системы искусственного интеллекта с высоким уровнем риска. Их использование в силу потенциально высокой опасности причинения вреда предполагает установление ответственности независимо от вины. В силу этого Регламент Евросоюза подлежит к применению в отношении любых систем искусственного интеллекта, в том числе не связанных с обработкой персональных данных, однако способных оказывать существенное влияние на интересы или основные права и свободы человека. При этом разработчиками данного документа акцент сделан на предотвращении в основном не физического, а нематериального вреда.

В Регламенте отмечается, что использование искусственного интеллекта с его специфическими характеристиками (например, непрозрачность, сложность, зависимость от данных, автономное поведение) может негативно повлиять на ряд основных прав, закрепленных в

3 URL: https://ethics.cdto.center/3_3.

Хартии основных прав Европейского союза1: права на человеческое достоинство (ст. 1), уважения частной жизни и защиты личные данные (ст. 7 и 8), недискриминация (ст. 21) и равенство между женщинами и мужчинами (ст. 23). Он направлен на предотвращение сдерживающего воздействия на права и свободу выражения мнений (ст. 11) и свободу собраний (ст. 12), на обеспечение защиты права на эффективное средство правовой защиты и на справедливое судебное разбирательство, права на защиту и презумпцию невиновности (ст. 47 и 48), а также на общий принцип надлежащего управления. Кроме того, применительно к определенным областям это предложение положительно повлияет на права ряда особых групп, такие как права работников на справедливые условия труда (ст. 31), высокий уровень защиты прав потребителей (ст. 28), права ребенка (ст. 24) и интеграция инвалидов (ст. 26). Право на высокий уровень охраны окружающей среды и улучшение качества окружающей среды (ст. 37) также актуально, в том числе в отношении здоровья и безопасности людей. Обязательства по предварительному тестированию, управлению рисками и человеческому надзору также будут способствовать соблюдению других основных прав, сводя к минимуму риск ошибочных или предвзятых решений с помощью искусственного интеллекта в таких важнейших областях, как образование и обучение, трудоустройство, жизненно важные услуги, правоохранительные органы и судебная власть. Если нарушения основных прав все еще имеют место, эффективное возмещение ущерба для пострадавших станет возможным благодаря обеспечению прозрачности и отслеживаемости систем искусственного интеллекта в сочетании со строгим постфактум-контролем.

Данный подход предполагает некоторые ограничения в отношении свободы ведения предпринимательской деятельности и свободы творчества для обеспечения соблюдения приоритетных общественных интересов, таких как здоровье, безопасность, защита потребителей и защита других основных прав («ответственные инновации»), когда разрабатывается и используется технология искусственного интеллекта с

1 Хартия основных прав Европейского союза [Электронный ресурс]: принята в г. Ницце 07.12.2000 г. // Доступ из справ.-правовой системы «КонсультантПлюс».

высоким риском. Эти ограничения пропорциональны и ограничиваются минимально необходимым для предотвращения и смягчения серьезных рисков безопасности и возможных нарушений основных прав.

Не отрицая подхода, используемого в Регламенте Евросоюза, отметим, что представляется вполне логичным подход к системе искусственного интеллекта как к источнику повышенной опасности, владелец которого несет ответственность перед третьими лицами за причинение различных видов вреда не только их основным правам и свободам, но и имуществу, физического вреда жизни и здоровью и т. д. Несмотря на кажущуюся разницу в природе указанных явлений, принципиальных противоречий здесь нет, и пока соответствующие правовые нормы не приняты, вполне возможно использование механизма деликтной ответственности исходя из аналогии закона.

Деликтное обязательство представляет собой гражданско-правовое обязательство, в силу которого потерпевший имеет право требовать от лица, ответственного за причинение вреда, возмещения имущественного вреда в натуре либо возмещения причиненных деянием (действием или бездействием) убытков, приостановления или прекращения производственной деятельности причинителя вреда; кроме того, причинитель вреда обязан в случаях, предусмотренных законом, компенсировать потерпевшему возникший у него в силу причинения ему нравственных страданий моральный вред.

Основанием деликтной ответственности выступает деяние (действие либо бездействие) лица, причиняющее вред личности или имуществу другого лица. При этом причинитель вреда и потерпевший не состоят друг с другом в договорных отношениях либо состоят, однако вред причинен в результате совершения действий, непосредственным образом не связанных с исполнением договорных обязательств. Условия и размер деликтной ответственности за причинение вреда определяются только законом и не могут быть изменены в соответствии с достигнутым сторонами соглашением, возможно только закрепление обязанности причинителя вреда выплачивать потерпевшему дополнительную компенсацию сверх возмещения вреда.

Как нами было отмечено выше, возможно применение в отношении ответственности в сфере создания и использования систем искус-

ственного интеллекта норм об источнике повышенной опасности. В соответствии с нормой статьи 1079 ГК РФ, предусмотрена ответственность за вред, причиненный деятельностью, создающей повышенную опасность для окружающих. Юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов, электрической энергии высокого напряжения, атомной энергии, взрывчатых веществ, сильнодействующих ядов и т.п.; осуществление строительной и иной связанной с нею деятельности и др.), обязаны возместить вред, причиненный источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего. Владелец источника повышенной опасности может быть освобожден судом от ответственности полностью или частично также по основаниям, предусмотренным пунктами 2 и 3 статьи 1083 ГК РФ. При этом обязанность возмещения вреда возлагается на юридическое лицо или гражданина, которые владеют источником повышенной опасности на праве собственности, праве хозяйственного ведения или праве оперативного управления либо на ином законном основании (на праве аренды, по доверенности на право управления транспортным средством, в силу распоряжения соответствующего органа о передаче ему источника повышенной опасности и т.п.).

Следует также обратить внимание на то, что статья 1065 ГК РФ предусматривает возможность предъявления исков о приостановлении или прекращении деятельности, если такая деятельность уже повлекла за собой причинение вреда либо она лишь создает опасность причинения вреда в будущем. Данная норма носит превентивный характер в отношении так называемого экологического вреда, т.е. вреда, причиненного в результате нарушения норм экологического законодательства. Она рассчитана, прежде всего, на опасную, а также потенциально опасную деятельность, представляющую собой повышенную опасность для окружающих и осуществляемую на ядерных, химических, биологических и иных опасных производственных объектах. Суд вправе отказать в иске о приостановлении или прекращении соответствующей деятельности, если это противоречит общественным интересам, однако по-

терпевшие, в любом случае, имеют право на возмещение причиненного им вреда.

Конечно, доказывание потенциальной угрозы применения системы искусственного интеллекта является весьма сложным делом: необходимо представить суду доказательства нарушения норм и правил безопасности ее применения, содержащихся в стандартах и иных требованиях, что может привести к аварии или иному инциденту с негативными последствиями. Сбор таких доказательств частным лицами может быть значительно затруднен, тем более что соответствующие технические сведения могут составлять результат интеллектуальной деятельности, коммерческую тайну, государственную либо иную тайну.

В то же время применение данного механизма предполагает и определенную ответственность органов публичной власти. Механизм деликтной ответственности, таким образом, включается в комплексный правовой механизм обеспечения безопасности наряду с мерами административной ответственности за нарушение норм в области государственного регулирования этой сферы в форме лицензирования, сертификации, стандартизации, проведения экологической экспертизы, экспертизы промышленной безопасности. Данная сфера, по существу, представляет собой область пересечения частных и публичных интересов.

Полагаем, что использование механизма деликтной ответственности к ответственности в сфере создания и использования систем искусственного интеллекта представляется закономерным и логичным, а в отсутствие соответствующих правовых норм целесообразно применение аналогии закона.

2.4. Гражданско-правовая ответственность при использовании систем искусственного интеллекта при наличии договора

Разработка вопросов об ответственности в связи с использованием технологии искусственного интеллекта идет по нескольким направлениям. Государственная политика, лежащая в основе деликтного права, переносит ответственность с пострадавших на правонарушителей исходя из идеи, что «мотивированный рациональный правонарушитель будет сокращать потенциально вредную деятельность в той степени, в которой стоимость несчастных слу-

чаев превышает выгоды от этой деятельности» [19]. Но в отдельных случаях использование системы искусственного интеллекта, основанного на машинном обучении и анализе обновляемых данных, подпадает и под действие правил об ответственности по договору.

В случае нарушения договора наступает гражданско-правовая ответственность, которая может быть договорной или внедоговорной. В отличие от зарубежного законодательства и права [16] в российском правопорядке исключается конкуренция договорного и деликтного исков, что делает необходимым четко разграничивать договорную и деликтную ответственность [15]. В учебнике гражданского права под редакцией профессора Е. А. Суханова показано, что при причинении вреда вследствие недостатков товаров в договорных отношениях имеет место конкуренция договорных и де-ликтных исков, право выбора остается за потерпевшим [13].

В российской литературе основное разграничение договорной ответственности от де-ликтной проводится в зависимости от наличия или отсутствия договора между участниками правоотношения. Деликтная ответственность характеризуется вредом личности или имуществу, т. е. нарушением абсолютных прав, и не связана с неисполнением или ненадлежащим исполнением нарушителем обязанностей, лежащих на нем в силу договора с потерпевшей стороной [3]. Напротив, договорная ответственность наступает за нарушение относительных договорных прав и обязанностей [4].

Для возложения ответственности за причиненный системой искусственного интеллекта вред необходимо выявить, какого рода обязательства возникают между сторонами. В условиях, когда в Российской Федерации отсутствует специальное законодательное регулирование использования роботов, объектов робототехники и искусственного интеллекта в области гражданских правоотношений, в целях определения предмета и содержания договора на передачу технологии искусственного интеллекта во многих юрисдикциях обращаются к модели продажи товара или оказания услуг.

В иностранной литературе делается акцент на том, что договорный режим ответственности в случае создания и использования систем искусственного интеллекта связан с параметрами качества продукции. Так, в юридической лите-

ратуре выделяется множество случаев, когда система искусственного интеллекта может стать причиной нарушения договора: ошибки в работе программы, которые могли быть обнаружены разработчиком; неправильная или неадекватная база знаний; неправильные или неадекватные документация или предупреждения; неактуальность знаний; пользователь предоставляет неверные входные данные; пользователь чрезмерно полагается на выходные данные или использует программу не по назначению [30].

Ответ на вопрос о том, привело ли использование системы искусственного интеллекта к причинению вреда, зависит от того, рекомендует ли система искусственного интеллекта действие в данной ситуации (как это делают многие экспертные системы) или непосредственно совершает это действие (как это делают беспилотные автомобили) [21]. И если в первой ситуации в причинении вреда окажется задействованным, как минимум, еще один участник правоотношений, что приведет к сложностям установления причинно-следственной связи, то во второй ситуации сделать это будет гораздо проще.

В российской практике обсуждался вопрос о том, какие возможности есть у пользователя программного обеспечения системы искусственного интеллекта. Если разработчик выполняет заказ или передает права по лицензии пользователю, то возникает проблема защиты прав в связи с некачественным программным обеспечением. Данный вопрос крайне мало затронут в литературе и в судебной практике почти не исследован. Обзор дел в данной сфере представлен А. Мокшановым. Он указал, что передача прав на программное обеспечение, которым является искусственный интеллект как технологическое решение, разрабатывается и передается пользователю или заказчику на основании разных договорных моделей. Если будет выявлено, что программное обеспечение в виде системы искусственного интеллекта обладает недостатками, которые не позволяют использовать его по назначению, т.е. является некачественным, применяются меры гражданско-правовой ответственности.

Изучая вопрос заключения договора на предоставление права использования программного обеспечения в российском правопорядке, исследователь выбрал несколько видов

договоров, которые чаще всего используются, чтобы защитить права приобретателя. Возможно заключение лицензионного договора о передаче исключительных прав на программное обеспечение, а также на его варианты в виде предоставления права использования программного обеспечения посредством заключения «договора поставки лицензионного программного обеспечения» либо смешанного договора, содержащего элементы поставки и лицензионного договора, и договора поставки оборудования с предустановленным программным обеспечением [8].

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Вопрос ответственности по результату использования технологии искусственного интеллекта связан с качеством программного обеспечения. Такой подход затруднительно реализовать в рамках лицензионных соглашений. В них предметом является передача исключительного права, дефекты которого не связаны с качеством результата применения технологии искусственного интеллекта как результатом работы программного обеспечения. Применение же к отношениям о передаче программного обеспечения правил о поставках позволяет судам указывать, что недостижение цели, ради которой приобретено программное обеспечение, говорит о недостатках результата работы с применением последствий, по пункту 3 статьи 723 ГК РФ (решение Арбитражного суда г. Москвы от 25.04.2012 г. по делу № А40-11051/12-109-41 оставлено в силе постановлением Девятого арбитражного апелляционного суда от 03.07.2012 г. № 09АП-16792/2012-ГК по делу № А40-11051/ 12-109-41). Г. В. Цепов и Н. В. Иванов указывают, что «со ссылкой на общие положения о купле-продаже и нормы о поставке удовлетворяются требования пользователей и тогда, когда компьютерная программа была ими приобретена на основании договора поставки оборудования с предустановленным программным обеспечением либо на основании смешанного договора, объединяющего в себе предметы договора поставки (в отношении оборудования) и лицензионного договора (в отношении программы)» [17]. Согласно данному подходу, при заключении договора поставки оборудования, в состав которого входит программное обеспечение, и выявлении недостатков в работе этого программного обеспечения к некачественному программному обеспечению применяются правила о поставке, поскольку оно является неотъ-

емлемым элементом оборудования, которое без него не работоспособно [8]. Фактически это означает, что товар без функционирующего программного обеспечения становится некачественным (см., например, постановление Девятого арбитражного апелляционного суда от 13.07.2020 г. № 09АП-20901/2020 по делу № А40-315582/2019; определением Верховного Суда РФ от 05.02.2021 г. № 305-ЭС20-23072 отказано в передаче дела № А40-315582/2019 в Судебную коллегию по экономическим спорам Верховного Суда РФ для пересмотра в порядке кассационного производства данного постановления).

В зарубежных правопорядках вопрос о квалификации договоров с передачей роботов, оснащенных искусственным интеллектом, либо программного обеспечения систем искусственного интеллекта без оборудования также является дискуссионным. В частности, широко обсуждается вопрос о возможности распространения на отношения между разработчиком и пользователем программного обеспечения системы искусственного интеллекта правил о продаже «продукта».

Сусана Навас [41], исследуя вопросы правовой ответственности в случае причинения вреда при использовании систем искусственного интеллекта, указывает, что в подобных ситуациях применима Директива 85/374/ЕЕС от 5 июля 1985 г. о сближении законов, правил и административных положений государств-членов относительно ответственности за дефектные продукты (PLD; OJL 210, 7.08.1985)1. Директива основана на принципе, согласно которому производитель несет ответственность за дефекты, за ущерб, вызванный дефектом продукта, который он выпустил в обращение. Несмотря на то что в ней речь идет о деликтной ответственности, режим Директивы служит эффективным инструментом и способствует усилению защиты потребителей, инноваций и безопасности продукции, используются некоторые ключевые концепции и правила, принятые в 1985 году2. В то же время в связи с по-

1 Directive 85/374/EEC of 5 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning Liability for Defective products (=PLD; OJL 210, 7.08.1985).

2 Commission Staff Working Document, Evaluation of Council Directive 85/374/EEC, SWD(2018) 157; Report on the Council Directive, COM(2018) 246 final.

тенциальными рисками новых цифровых технологий юристы активно пересматривают содержание понятий «продукт», «дефект», «основания ответственности».

Если предположить, что программное обеспечение действительно является продуктом, то разработчики систем искусственного интеллекта обязаны гарантировать, что их системы не имеют дефектов проектирования, производственных дефектов, неадекватных предупреждений или инструкций.

Системы искусственного интеллекта как программное обеспечение ставят под сомнение содержание самого понятия товара. Прежде всего потому, что в системах искусственного интеллекта внедрение программных продуктов и оказание услуг юридически тесно связаны и трудно провести их четкое разграничение. Вызывают сомнение вопросы: охватывается ли программное обеспечение юридическим понятием продукта или оно выступает только как составная часть продукта? Включены ли обновления и модернизации или другие передачи данных в понятие «продукт»? Имеет ли значение, что программное обеспечение встроено или не встроено в продукт? На квалификацию систем искусственного интеллекта как продукта по договору влияет, является ли это программное обеспечение автономной системой (Stand-Alone-Software) либо встроенным цифровым содержимым материального продукта (Embedded Digital Content).

В первом случае важное значение приобретает возможность обновления и модернизации контента, данных ввода и баз данных, на анализе которых основана работа искусственного интеллекта. Этот вопрос был поднят учеными в связи с дебатами об ответственности за ущерб, который может быть причинен в результате управления системами искусственного интеллекта, пока они основаны на компьютерных программах [50; 36]. Таким образом, продукт, включающий автономное программное обеспечение, может обладать недостатками -быть дефектным1, когда речь идет о стандартизированном программном обеспечении. Создание программного обеспечения на заказ квалифицируется в рамках категории «программное обеспечение как услуга» [41]. Как и в россий-

1 BEUC (2020). Product Liability 2.0. How to make EU rules fit for consumers in the digital age.

ском правопорядке, в европейском праве нет единства в понимании разделения между продуктом и услугой в этой области [34].

Технология искусственного интеллекта не является готовым продуктом, она постоянно развивается даже после того, как была введена в обращение на рынке. Сами по себе обновления и модернизации представляют собой компьютерные программы, которые изменяют первоначальное программное обеспечение. Происходят постоянные обновления, модернизации и адаптации цифрового контента, меняющие существо самого продукта (make the notion of the product) в отличие от его первоначального юридического обозначения (legal concept of the product).

В отношении так называемого встроенного цифрового содержимого обращается внимание: если программное обеспечение встроено в товар таким образом, что отсутствие этого контента препятствует выполнению товаром своих функций, применимой нормой [20] является art. 3 para. 3 Директивы (ЕС) 2019/771 Европейского парламента и Совета от 20 мая 2019 г. о некоторых аспектах, касающихся договоров купли-продажи товаров (OJ L 136/28, 22.05.2019)2. В этом случае товар, в который встроен цифровой контент, может иметь «дефект безопасности» (ст. 6 п. 1 PLD), связанный с конструкцией программного обеспечения, который, кроме того, может подразумевать невозможность его использования по назначению. Речь идет о так называемых «неэффективных продуктах» («ineffective products») [31]. Помимо дефекта, который причиняет ущерб согласно правилам об ответственности за продукцию, существует несоответствие, которое позволяет потерпевшему предъявить продавцу требование о возмещении такого ущерба (ст. 68 Директивы 2019/771). Дефекты продуктов со встроенным контентом подразделяются на виды (производственный дефект, дефект дизайна и информационный дефект), и в зависимости от вида дефекта наступает тот или иной вид гражданско-правовой ответственности.

Также в рамках договора с разработчиком устанавливаются гарантии, которым будет соответствовать система искусственного интел-

2 Art. 3 para. 3 of the Directive (EU) 2019/771 of the European Parliament and of the Council of 20 May 2019 on certain aspects concerning contracts for the sale of goods (OJ L 136/28, 22.05.2019).

лекта. Даже если разработчик - продавец (или пользователь) - не дает явной гарантии, во многих правопорядках существует подразумеваемая гарантия в том, что продукт «удовлетворителен в соответствии с описанием и пригоден для использования в течение разумного времени» (см., например: британский Закон о продаже товаров 1979 года (The Sale of Goods Act 1979). Аналогичные правила содержатся в российском законодательстве о купле-продаже товаров. Товар признается не соответствующим обязательным требованиям, условиям договора, когда его дефект приводит к невозможности или недопустимости использования данного товара по назначению (п. 13 постановления Пленума Верховного Суда РФ от 28.06.2012 г. № 17; п. 2 Обзора судебной практики, утв. Президиумом Верховного Суда РФ 20.10.2021 г.).

В некоторых юрисдикциях подразумеваемые гарантии могут быть аннулированы положениями договора [35]. Однако когда система искусственного интеллекта приобретается встроенной в другие товары (например, в автомобиль), то представляется маловероятным, что подобные договорные исключения (например, между производителем автомобиля и поставщиком программного обеспечения искусственного интеллекта) могут быть успешно переложены на покупателя автомобиля.

В то же время интерес представляет идея о возможности установления границ ответственности разработчиков за дефекты создания выпущенных в оборот систем искусственного интеллекта.

Как указывает Д. Н. Кархалев, «основаниями исключения и освобождения от применения мер ответственности признаются юридические факты, с наличием которых закон связывает полное или частичное снятие обязанности (освобождение) претерпевать данные меры за совершенное правонарушение либо установление недопустимости (исключение) реализации указанных мер при отсутствии правонарушения» [6].

Возможным решение для поддержки инноваций стало бы освобождение от гражданско-правовой договорной ответственности разработчиков программного обеспечения систем искусственного интеллекта. Введение такого правила об освобождении от ответственности предполагает существование определенных «извинительных», по выражению Д. Н. Карха-

лева, обстоятельств, при наличии которых ответственность не наступает. Возможной сферой для правового эксперимента могут стать так называемые регуляторные песочницы. Сейчас, как подчеркивают исследователи [2], ответственность разработчика правового обеспечения систем искусственного интеллекта, например, в медицинской сфере перед врачом или медицинским учреждением за дефекты в работе диагностирующего программного обеспечения отдельно не регламентирована.

Выводы

Анализ показал, что на современном этапе в законодательстве различных стран появляется мягкое регулирование в сфере ответственности за вред, причиненный системами искусственного интеллекта. Однако постепенно от выработки стратегий пора сделать конкретные шаги в направлении создания эффективных механизмов минимизации рисков причинения ущерба без привлечения к ответственности установленных лиц. Поскольку в процесс разработки систем искусственного интеллекта вовлечено много участников, обладающих самостоятельным правовым статусом (поставщик данных, разработчик, производитель, программист, дизайнер, пользователь), установить субъекта гражданско-правовой ответственности в случае, если что-то пойдет не так, достаточно сложно и необходимо учитывать множество факторов. Можно выявить нескольких субъектов, ответственных за вред, причиняемый системами искусственного интеллекта. Возможно применение правил как о договорной, так и де-ликтной ответственности. В отношении причинения вреда третьим лицам подход к системе искусственного интеллекта как к источнику повышенной опасности представляется закономерным и логичным, а в отсутствие соответствующих правовых норм целесообразно использование механизма деликтной ответственности исходя из аналогии закона. В рамках модели договорной ответственности требуется выработка общих подходов к определению продукта и последствий нарушений условий договора.

Библиографический список

1. Бегишева И. Р. Уголовно-правовая охрана общественных отношений, связанных с

робототехникой: дис. ... д-ра юрид. наук. Казань, 2022. 506 с.

2. Васин Е. «Что делать?» ИИ «Кто виноват?». Ответственность в «цифровых песочницах». URL: https://zakon.ru/blog/2020/9/28/chto

_delat_ii_kto_vinovat_voprosy_otvetstvennosti_v

_gryaduschih_epr_chast_1_aibolit?ysclid=l9a1mh kt2o615990975.

3. Гражданское право: учебник / под ред. Ю. К. Толстого. М.: Проспект, 2009. Т. 1. 784 с.

4. Гражданское право: учебник; в 2 т. 2-е изд., перераб. и доп. М.: БЕК, 2003. Т. 1. 704 с.

5. Гурко А. В. Искусственный интеллект и авторское право: взгляд в будущее // Интеллектуальная собственность. Авторское право и смежные права. 2017. № 12. С. 7-18.

6. Кархалев Д. Н. Освобождение от договорной ответственности // Актуальные проблемы российского права. 2018. № 4. С. 64-70. DOI: 10.17803/1994-1471.2018.89.4.064-070.

7. Матвеев А. Г., Синельникова В. Н. Объекты интеллектуальной собственности, получающие охрану в XXI веке // Вестник Пермского университета. Юридические науки. 2019. Вып. 44. C. 285-313. DOI: 10.17072/1995-41902019-44-285-313.

8. Мокшанов А. Некачественное программное обеспечение: защита интересов правопри-обретателя. URL: https://zakon.ru/blog/2016/11/9 /nekachestvennoe_programmnoe_obespechenie_za schita_interesov_pravopriobretatelya?ysclid=l961 rolp89975382693.

9. Морхат П. М. Искусственный интеллект: правовой взгляд: монография / РОО «Институт государственно-конфессиональных отношений и права». М.: Буки Веди, 2017. 257 с.

10. Морхат П. М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: дис. ... д-ра юрид. наук. М., 2018. 420 с.

11. Понкин И. В., Редькина А. И. Искусственный интеллект с точки зрения права // Вестник Российского университета дружбы народов. Серия: Юридические науки. 2018. Т. 22, № 1. С. 91-109.

12. Реутов С. И. Теоретические и нормативные основы внедрения и развития цифрови-зации российского общества // Пермский юридический альманах. 2019. С. 38-49.

13. Российское гражданское право: учебник; в 2 т. 2-е изд. М.: Статут, 2011. Т. 2. 1208 с.

14. Сесицкий Е.П. Проблемы правовой охраны результатов, создаваемых системами искусственного интеллекта: автореф. дис. ... канд. юрид. наук. М., 2019. 27 с.

15. Туршук Л.Д. Проблемы разграничения договорной и деликтной ответственности при оказании социальных услуг // Социальное и пенсионное право. 2019. № 2. С. 26-30.

16. Цвайгерт К., Кетц Х. Введение в сравнительное правоведение в сфере частного права. Т. 2. Договор. Неосновательное обогащение. Деликт. М.: Междунар. отношения, 1998. 512 с.

17. Цепов Г. В., Иванов Н. В. К цивилисти-ческой теории смарт-контрактов // Закон. 2022. № 3. С. 149-172.

18. Чеховская С. А. Использование систем искусственного интеллекта для принятия решений: построение системы принципов регулирования // Предпринимательское право. 2021. № 1. С. 24-35.

19. Abbott R. The reasonable computer: Disrupting the paradigm of tort liability // The George Washington Law Review. 2018. Vol. 86, № 1. 45 р.

20. Alheit K. The applicability of the EU product liability directive to software // Comparative and International Law Journal of Southern Africa. 2001. № 34(2). Pp. 188-209.

21. Bertsia C. Legal liability of artificial intelligence driven-systems (AI). 2019. 57 p.

22. Brynjolfsson E. Information assets, technology and organization // Management Science. 1994. № 40(12). Pp. 1645-1662.

23. Kerber W. Governance of data: Exclusive property vs. access // International Review of Intellectual Property and Competition Law. 2016. № 47(7). Pp. 759-762.

24. Calo R. Robotics and the lessons of cy-berlaw // California Law Review. 2015. № 103(3). Pp. 513-563. DOI: 10.2139/ssrn. 2402972.

25. Castelvecchi D. Can we open the black box of AI? // Nature. 2016. № 538(7623). Pp. 20-23.

26. Di Nucci E., & Santoni de Sio F. Drones and Responsibility: Mapping the Feld Routledge. 2016. Pp.1-13.

27. Doran D., Schulz S., & Besold T. R. What does explainable ai really mean? A new conceptualization of perspectives. arXiv preprint ar-Xiv:1710.00794. 2017. Pp. 1-8.

28. Edwards L. & Veale M. Slave to the algorithm? Why a right to explanationn is probably not the remedy you are looking for // Duke Law and Technology Review. 2017. № 16(1). Pp. 1-65. DOI: 10.2139/ ssrn.2972855.

29. Corea F. AI Knowledge Map: how to classify AI technologies. A Sketch of a New AI Technology Landscape / Corea F. An Introduction to Data: Everything You Need to Know About AI, Big Data and Data Science. Cham. Springer, 2019. С. 25-29.

30. Gerstner M. E.: Comment, Liability Issues with Artificial Intelligence Software // Santa Clara Law Review, 1993. Vol. 33, № 1. URL: http://digitalcommons.law.scu.edu/lawreview/vol 33/iss1/7.

31. Ghosh A., Chakraborty, D. & Law A. Artificial intelligence in Internet of things. // CAAI Transactions on Intelligence Technology. 2018. № 3(4). Pp. 208-218.

32. Heyns C. Report of the Special Rapporteur on Extra-Judicial, Summary or Arbitrary Executions. United Nations. 2013. 24 p.

33. Hildebrandt M. Privacy as protection of the incomputable self: From agnostic to agonistic machine learning // Theoretical Inquiries in Law. 2019. № 20 (1). Pp. 83-121.

34. Hojnik J. Technology neutral EU law: digital goods within the traditional goods/services distinction // International Journal of Law and Information Technology. 2017. № 25(1). Pp. 63-84.

35. Kingston J. K. Artificial intelligence and legal liability. In International conference on innovative techniques and applications of artificial intelligence. 2016. Pp.269-279.

36. European Product Liability: An Analysis of the State of the Art in the Era of New Technologies. Ed. P. Machnikowski. Intersentia: Plymouth. 2016. 715 p. DOI: https://doi.org/10.1017/ 9781780685243.

37. Matthias A. The responsibility gap: Ascribing responsibility for the actions of learning automata // Ethics and Information Technology, 2004. № 6(3). Pp. 175-183. DOI: 10.1007/s10676-004-3422-1.

38. Meloni C. State and Individual Responsibility for Targeted Killings by Drones // Drones and Responsibility: Legal, Philosophical and So-cio-Technical Perspectives on Remotely Controlled Weapons. Eds. E. Di Nucci, F. Santoni de Sio. Routledge. 2016. Pp.47-64.

39. Mittelstadt B. D., Alio P., Taddeo M., Wachter S. & Floridi L. The ethics of algorithms: Mapping the debate. Big Data & Society, 2016. № 3(2). Pp. 1-21. DOI: 10.1177/20539517 16679679.

40. Morhat P. M. Legal personality of AI in the field of intellectual property law: civil law problems: Dr. Jurid. Sciences dis. M., 2018. 420 p.

41. Navas, S. Producer Liability for AI-Based Technologies in the European Union // International Law Research. 2020. № 9(1). Pp. 77-84.

42. Noto La Diega, G. Against the Dehuma-nisation of Decision-Making - Algorithmic Decisions at the Crossroads Of Intellectual Property, Data Protection, and Freedom of Information // Journal of Intellectual Property, Information Tech-

nology and Electronic Commerce Law. 2018. № 19(1). Pp. 3-34.

43. Oettinger G. Europe's future is digital, Speech at Hannover Messe // Speech. 2015. № 154772. URL: http://europa.eu/rapid/press-release_ SPEECH-15-4772_en.htm.

44. Pagallo U. The laws of robots: Crimes, contracts, and torts. Springer, 2013. 200 p.

45. Pasquale F. The black box society: the secret algorithms that control money and information. Harvard University Press, 2016. 310 p.

46. Perc M., Ozer M., & Hojnik J. Social and juristic challenges of artificial intelligence // Palgrave Communications. 2019. №5(1). Pp. 1-7.

47. Rakhmatulina R. Sh., Sviridova E. A., Sa-vina V. S. Legal Regulation of Artificial Intelligence and Robotization as a New Stage in the Development of the Economy // Humanities and Law Research. 2019. Issue 4. Pp. 209-216.

48. Ramalho A. Patentability of AI-Generated Inventions: Is a Reform of the Patent System Needed? Institute of Intellectual Property, Foundation for Intellectual Property of Japan, 2018. United States Patent and Trademark Office. 2019. 32 p.

49. Wachter S., Mittelstadt B. & Floridi L. Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation // International Data Privacy Law. 2017. № 7(2). Pp. 76-99. DOI: 10.1093/ idpl/ipx005.

50. Wagner G. Robot Liability // Liability for Artificial Intelligence and the Internet of Things/ Eds. S. Lohsse, R. Schulze, D. Staudenmayer. Baden Baden: Nomos Verlag, 2018. Pp. 27-63.

51. Weng Y.-H. Beyond robot ethics: on a legislative consortium for social robotics // Advanced Robotics. 2010. Vol. 24, № 13. Pp. 1919-1926. URL: https://www.researchgate.net/publication/ 46914077_Beyond_Robot_Ethics_On_a_Legisla-tive_Consortium_for_Social_Robotics.

52. WIPO technology trends 2019: artificial intelligence. WIPO, 2019. 158 p.

References

1. Begisheva I. R. Ugolovno-pravovaya ok-hrana obshchestvennykh otnosheniy, svyazannykh s robototekhnikoy: dis. ... d-rayurid. nauk [Criminal Law Protection of Social Relations Connected with Robotics: Dr. jurid. sci. diss.]. Kazan, 2022. 506 p. (In Russ.).

2. Vasin E. «Chto delat'?» II «Kto vino-vat?». Otvetstvennost' v «tsifrovykh pesochnit-sakh» ['What Is It to Be Done?', 'Who Is to Blame?'. Responsibility in 'Digital Sandboxes']. Available at: https://zakon.ru/blog/2020/9/28/chto _delat_ii_kto_vinovat_voprosy_otvetstvennosti

_v_gryaduschih_epr_chast_1_aibolit?ysclid=l9a1 mhkt2o615990975. (In Russ.).

3. Grazhdanskoe pravo [Civil Law: textbook]. Ed. by Yu. K. Tolstoy. Moscow, 2009. Vol. 1. 784 p. (In Russ.).

4. Grazhdanskoe pravo [Civil Law: textbook: in 2 vols.]. Ed. by E. A. Sukhanov. 2nd ed., rev. and exp. Moscow, 2003. Vol. 1. 704 p. (In Russ.)

5. Gurko A. V. Iskusstvennyy intellekt i av-torskoe pravo: vzglyad v budushchee [Artificial Intelligence and Copyright: a Glimpse into the Future]. Intellektual'naya sobstvennost'. Avtorskoe pravo i smezhnye prava - Intellectual Property. Copyright and Related Rights. 2017. Issue 12. Pp. 7-18. (In Russ.).

6. Karkhalev D. N. Osvobozhdenie ot dogo-vornoy otvetstvennosti [Exemption from Contractual Liability]. Aktual'nye problemy rossiyskogo prava - Actual Problems of Russian Law. 2018. Issue 4. Pp. 64-70. DOI: 10.17803/1994-1471. 2018. 89.4.064-070. (In Russ.).

7. Matveev A. G., Sinel'nikova V. N. Ob"ek-ty intellektual'noy sobstvennosti, poluchayushchie okhranu v XXI veke [Intellectual Property Objects Acquiring Protection in the 21st Century]. Vestnik Permskogo universiteta. Juridicheskie nauki -Perm University Herald. Juridical Sciences. 2019. Issue 44. Pp. 285-313. DOI: 10.17072/1995-41902019-44-285-313. (In Russ.).

8. Mokshanov A. Nekachestvennoe pro-grammnoe obespechenie: zashchita interesov pra-vopriobretatelya [Substandard Software: Protection of Interests of the One Acquiring the Right]. Available at: https://zakon.ru/blog/2016/11/9/neka-chestvennoe_programmnoe_obespechenie_zaschi-ta_interesov_pravopriobretatelya?ysclid=l961rolp8 9975382693. (In Russ.).

9. Morkhat P. M. Iskusstvennyy intellekt: pravovoy vzglyad [Artificial Intelligence: Legal View: scientific monograph]. Moscow, 2017. 257 p. (In Russ.).

10. Morkhat P. M. Pravosub"ektnost' iskusstvennogo intellekta v sfere prava intellek-tual 'noy sobstvennosti: grazhdansko-pravovye problemy: dis. ... d-rayurid. nauk [Legal Personality of Artificial Intelligence in the Sphere of Intellectual Property Law: Civil Law Problems: Dr. jurid. sci. diss.]. Moscow, 2018. 420 p. (In Russ.).

11. Ponkin I. V., Red'kina A. I. Iskusstvennyy intellekt s tochki zreniya prava [Artificial Intelligence from the Perspective of Law]. Vestnik Ros-siyskogo universiteta druzhby narodov. Seriya: Yuridicheskie nauki - RUDN Journal of Law. 2018. Vol. 22. Issue 1. Pp. 91-109. (In Russ.).

12. Reutov S. I. Teoreticheskie i normativnye osnovy vnedreniya i razvitiya tsifrovizatsii ros-siyskogo obshchestva [Implementation and Devel-

opment of Digitalization in the Russian Society: Theoretical and Normative Bases]. Permskiy yuri-dicheskiy al'manakh - Perm Legal Almanac. 2019. Issue 2. Pp. 38-49. (In Russ.).

13. Rossiyskoe grazhdanskoe pravo [Russian Civil Law: textbook: in 2 vols.]. Vol. II: Obyaza-tel'stvennoe pravo [Law of Obligations]. Ed. by E. A. Sukhanov. Moscow, 2011. 1208 p. (In Russ.).

14. Sesitskiy E. P. Problemy pravovoy ok-hrany rezul 'tatov, sozdavaemykh sistemami iskusstvennogo intellekta: avtoref. dis. ... kand. yurid. nauk [Problems of Legal Protection of Results Created by Artificial Intelligence Systems: Synopsis of Cand. jurid. sci. diss.]. Moscow, 2019. 27 p. (In Russ.).

15. Turshuk L. D. Problemy razgranicheniya dogovornoy i deliktnoy otvetstvennosti pri okazanii sotsial'nykh uslug [Problems of Distinguishing Contractual and Tort Liability in the Provision of Social Services]. Sotsial'noe i pensionnoe pravo -Social and Pension Law. 2019. Issue 2. Pp. 26-30. (In Russ.).

16. Zweigert K., Kötz H. Vvedenie v sravni-tel'noe pravovedenie v sfere chastnogo prava [Introduction to Comparative Law in the Sphere of Private Law]. Moscow, 1998 p. Vol. 2. 512 p. (In Russ.).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

17. Tsepov G. V., Ivanov N. V. K tsivilisti-cheskoy teorii smart-kontraktov [To the Civil Theory of Smart Contracts]. Zakon - Law. 2022. Issue 3. Pp. 149-172. (In Russ.).

18. Chekhovskaya S. A. Ispol'zovanie sistem iskusstvennogo intellekta dlya prinyatiya resheniy: postroenie sistemy printsipov regulirovaniya [The Use of Artificial Intelligence Systems for Decision-Making: the Construction of a System of Regulatory Principles]. Predprinimatel'skoe pravo - Entrepreneurial Law. 2021. Issue 1. Pp. 24-35. (In Russ.).

19. Abbott R. The Reasonable Computer: Disrupting the Paradigm of Tort Liability. George Washington Law Review. 2018. Vol. 86. Issue 1. 45 p. (In Eng.).

20. Alheit K. The Applicability of the EU Product Liability Directive to Software. Comparative and International Law Journal of Southern Africa. 2001. Issue 34(2). Pp. 188-209. (In Eng.).

21. Bertsia C. Legal Liability of Artificial Intelligence Driven-Systems (AI). 2019. 57 p. (In Eng.).

22. Brynjolfsson E. Information Assets, Technology and Organization. Management Science. 1994. Issue 40 (12). Pp. 1645-1662. (In Eng.).

23. Kerber W. Governance of Data: Exclusive Property vs. Access. International Review of Intellectual Property and Competition Law. 2016. Issue 47(7). Pp. 759-762. (In Eng.).

24. Calo R. Robotics and the Lessons of Cy-berlaw. California Law Review. 2015. Issue 103(3). Pp. 513-563. DOI: 10.2139/ssrn.2402972. (In Eng.).

25. Castelvecchi D. Can We Open the Black Box of AI? Nature. 2016. Issue 538 (7623). Pp. 20-23. (In Eng.).

26. Di Nucci E., Santoni de Sio F. Drones and Responsibility: Mapping the Field. 13 p. (draft chapter for Drones and Responsibility: Legal, Philosophical and Socio-Technical Perspectives on Remotely Controlled Weapons. Ed. by Di Nucci E., Santoni de Sio F. Routledge, 2016). (In Eng.).

27. Doran D., Schulz S., Besold T. R. What Does Explainable AI Really Mean? A New Conceptualization of Perspectives. arXiv preprint ar-Xiv:1710.00794. 2017. 8 p. (In Eng.).

28. Edwards L., Veale M. Slave to the Algorithm? Why a 'Right to Explanation' is Probably Not the Remedy You Are Looking for. Duke Law and Technology Review. 2017. Issue 16 (1). Pp. 18-84. DOI: 10.2139/ssrn.2972855. (In Eng.).

29. Corea F. AI Knowledge Map: How to Classify AI Technologies. A Sketch of a New AI Technology Landscape. Corea F. An Introduction to Data: Everything You Need to Know About AI, Big Data and Data Science. Cham: Springer, 2019. Pp. 25-29. (In Eng.).

30. Gerstner M. E. Comment, Liability Issues with Artificial Intelligence Software. Santa Clara Law Review. 1993. Vol. 33. Issue 1. Available at: http://digitalcommons.law.scu.edu/lawre-view/vol33/iss1/7. (In Eng.).

31. Ghosh A., Chakraborty D., Law A. Artificial Intelligence in Internet of Things. CAAI Transactions on Intelligence Technology. 2018. Issue 3 (4). Pp. 208-218. (In Eng.).

32. Heyns C. Report of the Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions. United Nations, 2013. 24 p. (In Eng.).

33. Hildebrandt M. Privacy as Protection of the Incomputable Self: From Agnostic to Agonistic Machine Learning. Theoretical Inquiries in Law. 2019. Issue 20 (1). Pp. 83-121. (In Eng.).

34. Hojnik J. Technology Neutral EU Law: Digital Goods within the Traditional Goods/Services Distinction. International Journal of Law and Information Technology. 2017. Issue 25(1). Pp. 63-84. (In Eng.).

35. Kingston J. K. Artificial Intelligence and Legal Liability. International Conference on Innovative Techniques and Applications of Artificial Intelligence. 2016. Pp. 269-279. (In Eng.).

36. European Product Liability: An Analysis of the State of the Art in the Era of New Technologies. Ed. by P. Machnikowski. Intersentia: Plymouth, 2016. ix+705 p. DOI: 10.1017/ 9781780685243. (In Eng.).

37. Matthias A. The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata. Ethics and Information Technology. 2004. Issue 6 (3). Pp. 175-183. DOI: 10.1007/ s10676-004-3422-1. (In Eng.).

38. Meloni C. State and Individual Responsibility for Targeted Killings by Drones. Drones and Responsibility: Legal, Philosophical and Socio-Technical Perspectives on Remotely Controlled Weapons. Ed. by E. Di Nucci, F. Santoni de Sio. Routledge, 2016. Pp. 47-64. (In Eng.).

39. Mittelstadt B. D., Allo P., Taddeo M., Wachter S., Floridi L. The Ethics of Algorithms: Mapping the Debate. Big Data & Society. 2016. Issue 3 (2). 21 p. DOI: 10.1177/2053951716 679679. (In Eng.).

40. Morhat P. M. Legal Personality of AI in the Field of Intellectual Property Law: Civil Law Problems: Dr. jurid. sci. diss. Moscow, 2018. 420 p. (In Eng.).

41. Navas S. Producer Liability for AI-Based Technologies in the European Union. International Law Research. 2020. Issue 9 (1). Pp. 77-84. (In Eng.).

42. Noto La Diega G. Against the Dehuma-nisation of Decision-Making. Journal of Intellectual Property, Information Technology and Electronic Commerce Law. 2018. Issue 19 (1). Pp. 334. (In Eng.).

43. Oettinger G. Europe's Future Is Digital. Speech at Hannover Messe. Speech. 2015. No. 154772. Available at: http://europa.eu/rapid/press-release_SPEECH-15-4772_en.htm. (In Eng.).

44. Pagallo U. The Laws of Robots: Crimes, Contracts, and Torts. Springer, 2013. 200 p. (In Eng.).

45. Pasquale F. The Black Box Society: The Secret Algorithms that Control Money and Information. Harvard University Press, 2016. 310 p. (In Eng.).

46. Perc M., Ozer M., Hojnik J. Social and Juristic Challenges of Artificial Intelligence. Palgrave Communications. 2019. Issue 5(1). 7 p. (In Eng.).

47. Rakhmatulina R. Sh., Sviridova E. A., Sa-vina V. S. Legal Regulation of Artificial Intelligence and Robotization as a New Stage in the Development of the Economy. Humanities and Law Research. 2019. Issue 4. Pp. 209-216. (In Eng.).

48. Ramalho A. Patentability of AI-Generated Inventions: Is a Reform of the Patent System Needed? Institute of Intellectual Property, Foundation for Intellectual Property of Japan, 2018. United States Patent and Trademark Office, 2019. 32 p. (In Eng.).

49. Wachter S., Mittelstadt B., Floridi L. Why a Right to Explanation of Automated Deci-

sion-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law. 2017. Issue 7(2). Pp. 76-99. DOI: 10.1093/idpl/ipx005. (In Eng.).

50. Wagner G. Robot Liability. Liability for Artificial Intelligence and the Internet of Things. Ed. by S. Lohsse, R. Schulze, D. Staudenmayer. Baden-Baden: Nomos Verlag, 2018. Pp. 27-63. (In Eng.).

Информация об авторах:

Ю. С. Харитонова, доктор юридических наук, профессор,

профессор кафедры предпринимательского права

Руководитель НОЦ «Центр правовых исследований

искусственного интеллекта и цифровой экономики»

Московский государственный университет

имени М. В. Ломоносова

119991, Россия г. Москва, Ленинские горы, 1

ORCID: 0000-0001-7622-6215 ResearcherID: K-7495-2016

Статьи в БД «Scopus» /«Web of Science»: DOI: 10.17072/1995-4190-2019-43-121-145 DOI: 10.17072/1995-4190-2020-49-524-549 DOI: 10.17072/1995-4190-2016-34-451-460 DOI: 10.1007/978-3-030-90324-4_125 DOI: 10.1007/978-3-030-93244-2_30 DOI: 10.47576/2712-7516_2022_5_1_79 DOI: 10.17072/1995-4190-2021-53-488-515

В. С. Савина, доктор юридических наук, доцент,

профессор кафедры гражданско-правовых дисциплин

Российский экономический университет

имени Г. В. Плеханова

117997, г. Москва, пер. Стремянный, 36

ORCID: 0000-0002-8385-9421 ResearcherID: G-2782-2014

Статьи в БД «Scopus» / «Web of Science»: DOI: 10.17072/1995-4190-2020-49-524-549 DOI: 10.17072/1995-4190-2021-53-488-515

Ф. Паньини, технический инженер

LOYTEC Electronics GmbH 1170, Австрия, г. Вена, Блюменгассе, 35 ORCID: 0000-0003-4618-0740 ResearcherID: AAU-6991-2021

51. Weng Y.-H. Beyond Robot Ethics: On a Legislative Consortium for Social Robotics. Advanced Robotics. 2010. Vol. 24. Issue 13. Pp. 1919-1926. Available at: https://www.re-searchgate.net/publication/46914077_Beyond_Ro-bot_Ethics_On_a_Legislative_Consortium_for_So cial_Robotics. (In Eng.).

52. WIPO Technology Trends 2019: Artificial Intelligence. WIPO, 2019. 158 p. (In Eng.).

About the authors:

Yu. S. Kharitonova

Lomonosov Moscow State University 1, Leninskie Gory, Moscow, 119991

ORCID: 0000-0001-7622-6215 ResearcherID: K-7495-2016

Articles in Scopus / Web of Science: DOI: 10.17072/1995-4190-2019-43-121-145 DOI: 10.17072/1995-4190-2020-49-524-549 DOI: 10.17072/1995-4190-2016-34-451-460 DOI: 10.1007/978-3-030-90324-4_125 DOI: 10.1007/978-3-030-93244-2_30 DOI: 10.47576/2712-7516_2022_5_1_79 DOI: 10.17072/1995-4190-2021-53-488-515

V. S. Savina

Plekhanov Russian University of Economics 36, Stremyanny pereulok, Moscow, 117997, Russia

ORCID: 0000-0002-8385-9421 ResearcherID: G-2782-2014

Articles in Scopus / Web of Science: DOI: 10.17072/1995-4190-2020-49-524-549 DOI: 10.17072/1995-4190-2021-53-488-515

F. Pagnini

LOYTEC Electronics GmbH

35, Blumengasse, Vienna, 1170, Austria

ORCID: 0000-0003-4618-0740

ResearcherID: AAU-6991-2021

Articles in Scopus / Web of Science:

DOI: 10.17072/1995-4190-2021-53-488-515

Статьи в БД «Scopus» / «Web of Science»: DOI: 10.17072/1995-4190-2021-53-488-515

i Надоели баннеры? Вы всегда можете отключить рекламу.