Научная статья на тему 'Системы искусственного интеллекта и внедоговорная гражданско-правовая ответственность: риск-ориентированный подход'

Системы искусственного интеллекта и внедоговорная гражданско-правовая ответственность: риск-ориентированный подход Текст научной статьи по специальности «Право»

CC BY
8
1
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Lex Russica
ВАК
Область наук
Ключевые слова
искусственный интеллект / системы ИИ / базовые модели / строгая ответственность / виновная ответственность / источники повышенной опасности / риск-подход / непрозрачность / автономность / вред / artificial intelligence / AI systems / basic models / strict liability / culpable liability / sources of increased danger / risk approach / opacity / autonomy / harm

Аннотация научной статьи по праву, автор научной работы — Ижаев Осман Аликович

Согласно законодательству при причинении вреда системами искусственного интеллекта (ИИ) третьим лицам восстановление нарушенных прав осуществляется по правилам строгой или виновной ответственности. Строгая ответственность применяется в случае, если система ИИ признается источником повышенной опасности или имеет недостаток. Для всех остальных случаев используется виновная гражданско-правовая ответственность. Авторами разработан новый подход к внедоговорной гражданско-правовой ответственности для случаев причинения вреда системами ИИ, основанный на учете уровня рисков систем ИИ. В соответствии с ним для систем ИИ, создающих неприемлемый или высокий риск в отношении прав и свобод человека, предлагается применять строгую ответственность их разработчика, а для систем ИИ, относящихся к классификационной группе с низким риском, использовать правила виновной ответственности для восстановления нарушенных прав и компенсации причиненного вреда. В отношении базовых моделей предусматривается использование виновной ответственности, за исключением ситуаций, когда на их основе создаются ИИ-продукты с неприемлемым или высоким риском. Предлагаемый подход может стать альтернативой использованию концепции источника повышенной опасности применительно к системам ИИ и позволит перенести строгую ответственность от владельцев высокорисковых систем ИИ к их разработчикам, которые в большей мере влияют на безопасность и надежность систем ИИ.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Artificial Intelligence Systems and Non-Contractual Civil Liability: A Risk-Based Approach

Under the legislation, when artificial intelligence (AI) systems cause harm to third parties, the restoration of violated rights is carried out according to the rules of strict or culpable liability. Strict liability is applied if the AI system is recognized as a source of increased danger or has a defect. For all other cases, culpable civil liability is used. The authors have developed a new approach to non-contractual civil liability for cases of harm caused by AI systems based on the criterion of the risk level of AI systems. According to this approach, for AI systems that create unacceptable or high risk in relation to human rights and freedoms, it is proposed to apply strict liability to their developer, and for AI systems belonging to the low-risk classification group, the rules of culpable liability to restore violated rights and compensate for the harm caused should be applied. With regard to the basic models, the use of culpable liability is envisaged, except situations where AI products with unacceptable or high risk are created on their basis. The proposed approach can become an alternative to using the concept of a source of increased danger in relation to AI systems and will allow transferring strict responsibility from owners of high-risk AI systems to their developers, who have a greater impact on the safety and reliability of AI systems.

Текст научной работы на тему «Системы искусственного интеллекта и внедоговорная гражданско-правовая ответственность: риск-ориентированный подход»

DOI: 10.17803/1729-5920.2024.211.6.023-034

О. А. Ижаев Д. Л. Кутейников

Тюменский государственный университет г. Тюмень, Российская Федерация

Системы искусственного интеллекта и внедоговорная гражданско-правовая ответственность: риск-ориентированный подход

Резюме. Согласно законодательству при причинении вреда системами искусственного интеллекта (ИИ) третьим лицам восстановление нарушенных прав осуществляется по правилам строгой или виновной ответственности. Строгая ответственность применяется в случае, если система ИИ признается источником повышенной опасности или имеет недостаток. Для всех остальных случаев используется виновная гражданско-правовая ответственность. Авторами разработан новый подход к внедоговорной гражданско-правовой ответственности для случаев причинения вреда системами ИИ, основанный на учете уровня рисков систем ИИ. В соответствии с ним для систем ИИ, создающих неприемлемый или высокий риск в отношении прав и свобод человека, предлагается применять строгую ответственность их разработчика, а для систем ИИ, относящихся к классификационной группе с низким риском, использовать правила виновной ответственности для восстановления нарушенных прав и компенсации причиненного вреда. В отношении базовых моделей предусматривается использование виновной ответственности, за исключением ситуаций, когда на их основе создаются ИИ-продукты с неприемлемым или высоким риском. Предлагаемый подход может стать альтернативой использованию концепции источника повышенной опасности применительно к системам ИИ и позволит перенести строгую ответственность от владельцев высокорисковых систем ИИ к их разработчикам, которые в большей мере влияют на безопасность и надежность систем ИИ.

Ключевые слова: искусственный интеллект; системы ИИ; базовые модели; строгая ответственность; виновная ответственность; источники повышенной опасности; риск-подход; непрозрачность; автономность; вред

Для цитирования: Ижаев О. А., Кутейников Д. Л. Системы искусственного интеллекта и внедоговорная гражданско-правовая ответственность: риск-ориентированный подход. Lexrussica. 2024. Т. 77. № 6. С. 2334. DOI: 10.17803/1729-5920.2024.211.6.023-034

Osman A. Izhaev Dmitriy L. Kuteynikov

Tyumen State University Tyumen, Russian Federation

Abstract. Under the legislation, when artificial intelligence (AI) systems cause harm to third parties, the restoration of violated rights is carried out according to the rules of strict or culpable liability. Strict liability is applied if the AI system is recognized as a source of increased danger or has a defect. For all other cases, culpable civil liability is used. The authors have developed a new approach to non-contractual civil liability for cases of harm caused by AI systems based on the criterion of the risk level of AI systems. According to this approach, for AI systems that create unacceptable or high risk in relation to human rights and freedoms, it is proposed to apply

© Ижаев О. А., Кутейников Д. Л., 2024

Artificial Intelligence Systems and Non-Contractual Civil Liability: A Risk-Based Approach

strict liability to their developer, and for AI systems belonging to the low-risk classification group, the rules of culpable liability to restore violated rights and compensate for the harm caused should be applied. With regard to the basic models, the use of culpable liability is envisaged, except situations where AI products with unacceptable or high risk are created on their basis. The proposed approach can become an alternative to using the concept of a source of increased danger in relation to AI systems and will allow transferring strict responsibility from owners of high-risk AI systems to their developers, who have a greater impact on the safety and reliability of AI systems. Keywords: artificial intelligence; AI systems; basic models; strict liability; culpable liability; sources of increased danger; risk approach; opacity; autonomy; harm

Cite as: Izhaev OA, Kuteynikov DL. Artificial Intelligence Systems and Non-Contractual Civil Liability: A Risk-Based Approach. Lexrussica. 2024;77(6):23-34. (In Russ.). DOI: 10.17803/1729-5920.2024.211.6.023-034

Первое предположение о возможности создания умных машин было выдвинуто Аланом Тьюрингом в 1947 г. Сам термин «искусственный интеллект» был введен в научный оборот Джоном Маккарти в 1956 г. Он определил его как науку и технологию создания интеллектуальных машин. Сейчас под искусственным интеллектом понимается: а) отрасль науки; б) совокупность научных методов; в) программное обеспечение, основанное на различных технологиях.

Анализ законодательных документов 127 стран, проведенный Стэнфордским университетом, показывает, что количество принятых законов, содержащих словосочетание «искусственный интеллект», выросло с одного в 2016 г. до 37 в 2022 г.1 Изучение этих актов свидетельствует о том, что определения искусственного интеллекта составляются на основе разной комбинации присущих таким системам признаков, таких как выполняемые задачи, роль человека в постановке задач, среда функционирования, автономность, самообучаемость, возможность повторять способности человека.

В Российской Федерации термин «искусственный интеллект» определен Указом Президента РФ от 10.10.2019 № 4902 и означает «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их». Под техноло-

гиями искусственного интеллекта в документе понимается «совокупность технологий, включающая в себя компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы искусственного интеллекта».

В работе мы будем использовать термин «система искусственного интеллекта», под которой понимается техническая система, которая может для заданного набора задач, определенных человеком, делать прогнозы, рекомендации или принимать решения, влияющие на реальную или виртуальную среду. Иными словами, система искусственного интеллекта будет рассматриваться как конкретный программный продукт, который способен взаимодействовать с человеком.

В мире наблюдается очередной скачок развития систем искусственного интеллекта (ИИ). Помимо уже привычных систем ИИ продолжают развиваться базовые модели и системы ИИ общего назначения. Они обучаются на больших объемах данных и могут быть адаптированы для осуществления неопределенного перечня функций (например, генерации текста, аудио или изображений) и интеграции в самые разные приложения. Присущие им универсальность и широкие возможности означают, что прогнозирование всего спектра их потенциальных применений является сложной задачей даже для их разработчиков. Создаваемые системами ИИ риски причинения вреда человеку и обществу вследствие особенностей их функционирования являются фундаменталь-

1 Artificial Intelligence Index Report 2023 / Stanford Institute for Human-Centered Artificial Intelligence // URL: https://aiindex.stanford.edu/report/ (дата обращения: 20.02.2024).

2 Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с Национальной стратегией развития искусственного интеллекта на период до 2030 года) // Официальный интернет-портал правовой информации. URL: pravo.gov.ru (дата обращения: 10.03.2024).

ной проблемой, признаваемой во всем мире3. Например, в целях ее разрешения в рамках инициативы G7 «Хиросимский процесс искусственного интеллекта» подготовлены два документа — Международные руководящие принципы искусственного интеллекта4 и Кодекс поведения для разрабатывающих системы ИИ-компаний5.

Многие технологические компании утверждают, что ими принимаются необходимые меры для разработки ответственных систем ИИ. В частности, практикуется использование этических кодексов6, чек-листов7, карточек моделей8 и датасетов9, направленных на разработку безопасных и надежных систем ИИ. Несмотря на принятие подобных мер, организация создания ИИ-продуктов не лишена недостатков. В одном из исследований анализ «технической документации» более 400 компаний, занимающихся разработкой генеративных систем ИИ, показал, что почти все они имеют только маркетинговые материалы и не придерживаются никаких технических стандартов10. В другой работе обращено внимание на проблемы, связанные с недостаточным пониманием со стороны конкретных разработчиков

своей роли в создании безопасных продуктов11. В рамках исследования были опрошены 27 инженеров и академических сотрудников из индустрии ИИ12 для определения их отношения к своей роли в обеспечении безопасности ИИ-продуктов, в создании которых они участвуют (от разработки модели до осуществления тонкой настройки). Опрашиваемые часто полагали, что выполнение различных положений из руководств по созданию ответственных систем ИИ, принятых в их организациях, не входит в круг их обязанностей. Большинство из опрошенных считали, что соблюдение упомянутых руководств является обязанностью других сотрудников. Учитывая, что в создании и эксплуатации систем ИИ часто принимает участие несколько независимых друг от друга субъектов (компаний, групп разработчиков), возрастает риск выхода на рынок опасных для человека и общества ИИ-продуктов.

К наиболее распространенным видам вреда, который может быть нанесен системой ИИ, как правило, относят физический, экономический, репутационный, психологический и социальный вред13. К настоящему времени в мире известно достаточно большое количество ин-

Гаджиев Г. А., Войниканис Е. А. Может ли робот быть субъектом права (поиск правовых норм для регулирования цифровой экономики)? // Право. Журнал Высшей школы экономики. 2018. № 4. С. 45-46 ; Balkin J. M. The Path of Robotics Law // California Law Review. 2015. Vol. 6. P. 46.

International Guiding Principles // URL: https://ec.europa.eu/newsroom/dae/redirection/document/99643 (дата обращения: 10.03.2024).

Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems // URL: https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-code-conduct-advanced-ai-systems (дата обращения: 10.03.2024).

Ведущие технологические компании России приняли Кодекс этики в сфере искусственного интеллекта // URL: https://a-ai.ru/?page_id=783 (дата обращения: 10.03.2024).

Co-Designing Checklists to Understand Organizational Challenges and Opportunities around Fairness in AI // URL: https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/overview/ (дата обращения:

10.03.2024).

Model Cards for Model Reporting // URL: https://arxiv.org/abs/1810.03993 (дата обращения: 01.12.2023). Cards: Purposeful and Transparent Dataset Documentation for Responsible AI // URL: https://arxiv.org/ abs/2204.01075 (дата обращения: 10.03.2024).

Moës N., Ryan F. Heavy is the Head that Wears the Crown: A risk-based tiered approach to governing GeneralPurpose AI // URL: https://thefuturesociety.org/heavy-is-the-head-that-wears-the-crown/ (дата обращения: 10.03.2024).

Widder D., Nafus D. Dislocated accountabilities in the «AI supply chain»: Modularity and developers' notions of responsibility // Big data & Society. 2023. January-June. P. 3.

Опрошенные в основном были из Северной Америки (16) и Европы (9), из Азии и Африки было по одному участнику.

Generating Harms: Generative AI's Impact & Paths Forward // URL: https://epic.org/documents/generating-harms-generative-ais-impact-paths-forward/ (дата обращения: 10.03.2024) ; Hoffmann M., Fras H. Adding Structure to AI Harm // URL: https://cset.georgetown.edu/wp-content/uploads/20230022-Adding-structure-to-AI-Harm-FINAL.pdf (дата обращения: 10.03.2024).

3

4

5

6

7

8

9

10

11

12

13

LEX IPS»

цидентов с участием систем ИИ, в результате которых человеку был причинен тот или иной вред. Это подтверждается общедоступными базами данных, в которые регулярно вносится информация о конкретных происшествиях, связанных с системами ИИ14.

На уровень безопасности и надежности функционирования систем ИИ может влиять большое количество разных субъектов (разработчики модели; лица, отвечающие за сбор данных и обучение модели; субъекты, адаптирующие модели под решение конкретных задач; производители отдельных компонентов системы; профессиональные эксплуатанты; владельцы и т.п.)15. Кроме того, системы ИИ обладают такими специфическими характеристиками, как непрозрачность принятия решений (т.н. черный ящик), автономность, самообучаемость и непредсказуемость16. Учитывая указанные характеристики, потерпевшему от действий системы ИИ будет сложно определить виновного субъекта среди такого количества лиц, потенциально ответственных за причиненный ему вред. Между тем даже если будет установлена предположительно виновная сторона, то потерпевший по общему правилу столкнется с необходимостью доказывания в суде причинно-следственной связи между действиями ответчика и причиненным вредом, что может оказаться для истца очень сложной, а порой и невозможной процедурой17.

При этом в зависимости от конкретных обстоятельств ответственность за вред, причиненный системами ИИ, может возлагаться в рамках как гражданского, так и уголовного права. Представляется, что необходимость изменения подходов к уголовно-правовому регулированию является вопросом отдаленной перспективы18.

В то же время разрешение гражданско-правовых споров, вытекающих из причинения вреда системами ИИ третьим лицам, более актуально. В связи с этим в данной работе будет рассматриваться внедоговорная гражданско-правовая ответственность, распространяющаяся на случаи причинения вреда системами ИИ.

Как в Российской Федерации, так и в других странах мира до сих пор отсутствует однозначное понимание того, каким образом следует разрешать проблемы возложения внедоговор-ной гражданско-правовой ответственности за вред, причиненный системами ИИ. С одной стороны, регулирование должно стимулировать развитие индустрии ИИ и не предусматривать чрезмерно обременительные положения для разработчиков и профессиональных эксплуа-тантов, а с другой — необходимо обеспечить высокий уровень защиты прав человека и общества, поскольку последние в таких спорах будут заведомо слабой стороной. Таким образом, очевидна актуальность поиска оптимальных и адекватных подходов к правовому регулированию юридической ответственности.

В Российской Федерации первые шаги по разработке нормативного правового регулирования в сфере ИИ связаны с утверждением в 2019 г. национальной программы «Цифровая экономика Российской Федерации»19. В частности, в рамках ее реализации был принят Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации»20, вступивший в силу в 2021 г. Данный закон оказывает большое влияние на отрасль, поскольку разрешает вводить в оборот в рамках особых правовых режимов системы ИИ в таких сферах, как медицина, транспорт, сельское хозяйство, финансы,

14 AI Incident Database // URL: https://incidentdatabase.ai/ (дата обращения: 10.03.2024) ; AIAAIC Repository // URL: https://www.aiaaic.org/aiaaic-repository (дата обращения: 10.03.2024).

15 Algorithms and Law / ed. by M. Ebers, S. Navas. UK : Cambridge University Press, 2020. P. 198.

16 Liability Regimes in the Age of AI: a Use-Case Driven Analysis of the Burden of Proof / D. F. Llorca [et al.] // Journal of Artificial Intelligence Research. 2023. Vol. 76. P. 618.

17 Buiten M., Street A., Peitz M. The law and economics of AI liability // Computer Law & Security Review. 2023. Vol. 48. P. 6.

18 Research Handbook on the Law of Artificial Intelligence / ed. by W. Barfield, U. Pagallo. UK : Edward Elgar Publishing Limited, 2018. P. 399.

19 Паспорт национального проекта «Национальная программа "Цифровая экономика Российской Федерации"» // Официальный интернет-портал правовой информации. URL: pravo.gov.ru (дата обращения: 10.03.2024).

20 Федеральный закон от 31.07.2020 № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации» // Официальный интернет-портал правовой информации. URL: pravo.gov.ru (дата обращения: 10.03.2024).

продажа товаров (работ, услуг) дистанционным способом, градостроительство, государственное управление и промышленность21. Примечательно, что в декабре 2023 г. Правительство РФ внесло в Государственную Думу РФ проект закона22, который в том числе посвящен совершенствованию механизма привлечения к гражданско-правовой ответственности за вред, причиненный системами ИИ, используемыми в рамках экспериментальных правовых режимов. В частности, законопроектом предусматривается то, что программа экспериментального правового режима должна содержать требования к условиям страхования гражданско-правовой ответственности, в том числе к минимальному размеру страховой суммы, перечню рисков и страховых случаев.

Позднее был издан Указ Президента РФ от 10.10.2019 № 490, которым утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года»23. В Стратегии определены ключевые направления нормо-творческой политики до 2030 г. Регулирование вопросов, касающихся ответственности, непосредственно в этот перечень не включено. Наиболее приближенными по смыслу являются положения, предусматривающие необходимость разработки этических правил взаимодействия человека с искусственным интеллектом. В рамках реализации данного направления в 2021 г. принят Кодекс этики в сфере ИИ24. Кодекс представляет собой систему принципов и правил, направленных на регламентацию взаимодействия человека с ИИ. Положения Кодекса распространяются на отношения, связанные с этиче-

скими аспектами создания (проектирования, конструирования, пилотирования), внедрения и использования технологий ИИ на всех этапах жизненного цикла, которые не урегулированы законодательством РФ и/или актами технического регулирования. Стоит отметить, что документ имеет рекомендательную силу для участников делового оборота.

В 2020 г. распоряжением Правительства РФ утверждена «Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники»25. В рассматриваемом документе выделен ряд концептуальных проблем, требующих своего правового разрешения. Одной из них является такая концептуальная проблема, как юридическая ответственность за вред, причиненный системами ИИ. Вместе с тем интересно, что в Концепции указывается на то, что «реальный уровень развития технологий искусственного интеллекта и робототехники не предполагает кардинальных изменений в регулировании института юридической ответственности». В период действия данного документа какие-либо акты, направленные на решение этой проблемы, приняты не были.

Вышеуказанные нормативные правовые акты составляют основу правового регулирования сферы ИИ в Российской Федерации. Современное состояние этой области характеризуется тем, что органами власти приняты различные нормативные правовые акты, которые носят преимущественно концептуальный характер либо посвящены этическим аспектам разработки и применения систем ИИ26. Отсут-

21 На момент написания статьи в Российской Федерации действует 12 экспериментальных правовых режимов, в рамках которых тестируются различные инновации (Реестр экспериментальных правовых режимов в сфере цифровых инноваций // URL: https://www.economy.gov.ru/material/directions/ gosudarstvennoe_upravlenie/normativnoe_regulirovanie_cifrovoy_sredy/eksperimentalnye_pravovye_ rezhimy/reestr_eksperimentalnyh_pravovyh_rezhimov/ (дата обращения: 10.03.2024)).

22 О внесении изменений в Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации» // URL: https://sozd.duma.gov.ru/bill/512628-8 (дата обращения: 10.03.2024).

23 Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с Национальной стратегией развития искусственного интеллекта на период до 2030 года) // Официальный интернет-портал правовой информации. URL: pravo.gov.ru (дата обращения: 10.03.2024).

24 Кодекс этики в сфере ИИ // URL: https://a-ai.ru/code-of-ethics/ (дата обращения: 10.03.2024).

25 Распоряжение Правительства РФ от 19.08.2020 № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» // Официальный интернет-портал правовой информации. URL: pravo.gov.ru (дата обращения: 10.03.2024).

26 PapyshevG., Yarime M. The limitation of ethics-based approaches to regulating artificial intelligence: regulatory gifting in the context of Russia // AI & Society. 2022. P. 1. URL: https://doi.org/10.1007/s00146-022-01611-y.

LEX 1Р?Ж

ствуют акты, направленные на совершенствование регулирования общего порядка привлечения к ответственности за причинение вреда системами ИИ. Возникающие в связи с этим споры разрешаются в соответствии с текущим законодательством.

В настоящее время в Российской Федерации в случае причинения третьему лицу вреда системой ИИ будут применяться традиционные положения гражданского законодательства. Так, обязательства, возникающие вследствие причинения вреда, регулируются главой 59 Гражданского кодекса РФ27. По общему правилу вред, причиненный личности или имуществу гражданина, а также имуществу юридического лица, подлежит возмещению лицом, причинившим вред.

В соответствии с п. 2 ст. 1064 ГК РФ причинившее вред лицо освобождается от его возмещения, если докажет, что вред причинен не по его вине. Из этого правила существуют многочисленные исключения. Одно из таких исключений предусмотрено статьей 1079 ГК, которая посвящена причинению вреда деятельностью, создающей повышенную опасность для окружающих. В таких случаях лица, владеющие соответствующим источником повышенной опасности28, обязаны возместить причиненный вред вне зависимости от наличия или отсутствия вины29. В Российской Федерации многие системы ИИ (беспилотные транспортные средства, дроны, роботы-хирурги и т.д.) могут квалифицироваться как источники повышенной опасности, а их применение — как деятельность, несущая повышенный риск для окружающих.

Если же вред был причинен в связи с недостатком системы ИИ, в том числе произведенных работ или оказанных услуг в этой сфере, то будут применяться положения ст. 1096 ГК. В соответствии с ней такой вред подлежит возмещению продавцом или изготовителем по выбору потерпевшего, а в случае причинения вреда вследствие недостатков работы или услуги вред должен быть компенсирован исполнителем. Аналогичные положения содержатся и

в ст. 14 Федерального закона «О защите прав потребителей»30. Кроме того, согласно п. 4 указанной статьи изготовитель(исполнитель)несет ответственность за причиненный вред вне зависимости от того, позволял ли уровень научных и технических знаний выявить их особые свойства. Применимой к рассматриваемым случаям является и статья 1098 ГК, в соответствии с которой лицо освобождается от ответственности, если докажет, что вред был причинен из-за того, что потребитель нарушил установленные правила пользования товаром, результатами работы или услуги.

Для случаев причинения вреда системами ИИ, которые не будут признаваться в конкретном споре источниками повышенной опасности либо обладающими недостатками, по общему правилу будет действовать виновная гражданско-правовая ответственность, поскольку законодательство не содержит каких-либо специальных положений по этому вопросу.

Таким образом, согласно действующему законодательству, при причинении вреда системами ИИ восстановление нарушенных прав потерпевших и компенсация вреда в зависимости от обстоятельств могут осуществляться по правилам строгой или виновной ответственности. Строгая ответственность будет применяться, если конкретная система ИИ признается источником повышенной опасности либо имел место недостаток. В первом случае ответственность будет возлагаться на владельца, а во втором — на изготовителя, продавца или исполнителя. На наш взгляд, возложение строгой ответственности за вред, причиненный системами ИИ вследствие их недостатка, является обоснованным. В то же время дискуссионным является то, что для остальных случаев причинения вреда системами ИИ применяется строгая ответственность их владельцев в рамках ст. 1079 ГК.

Так, по мнению В. А. Лаптева, системы ИИ являются источниками повышенной опасности, и поэтому целесообразно применение строгой ответственности владельца. Автор полагает, что возложение ответственности за работу системы

27 Гражданский кодекс Российской Федерации (часть вторая) от 26.01.1996 № 14-ФЗ // Официальный интернет-портал правовой информации. URL: pravo.gov.ru (дата обращения: 10.03.2024).

28 К ним относятся, например, транспортные средства, механизмы, электрическая энергия высокого напряжения, атомная энергия, взрывчатые вещества, сильнодействующие яды и т.п.; осуществление строительной и иной связанной с ней деятельности.

29 Агибалова Е. Н. Деликтные обязательства : учеб. пособие. Волгоград : РАНХиГС, 2021. С. 83.

30 Закон РФ от 07.02.1992 № 2300-1 «О защите прав потребителей» // Официальный интернет-портал правовой информации. URL: pravo.gov.ru (дата обращения: 10.03.2024).

ИИ на владельца должно стать общим правилом31. Аналогичной точки зрения придерживаются Ю. С. Харитонова и др., которые считают, что в случае причинения вреда третьим лицам системами ИИ наиболее логично и закономерно квалифицировать такие средства в качестве источников повышенной опасности и, следовательно, признать ответственным субъектом их владельцев32. По мнению Н. Н. Апостоло-вой, для случаев причинения вреда без умысла (с неосторожной формой вины) можно применять ст. 1079 ГК РФ и рассматривать системы ИИ как источник повышенной опасности33. В науке существует и более компромиссная позиция, в соответствии с которой предлагается уточнить критерии источников повышенной опасности в гражданском законодательстве с учетом массового распространения систем ИИ в общественном пространстве34.

Очевидно, что существуют различные виды систем ИИ: от робота-пылесоса до автономных дронов, используемых в вооружениях. Большое количество примитивных систем ИИ не будут обладать характеристиками, способными нанести какой-либо существенный вред человеку. В связи с этим использование по умолчанию ст. 1079 ГК РФ и приравнивание всех систем ИИ к источникам повышенной опасности представляется спорным35. Отчасти можно согласиться с целесообразностью детализации критериев источников повышенной опасности применительно к системам ИИ36. При этом необходимо учитывать, что на практике для определения источника повышенной опасности в конкретной ситуации может использоваться т.н. деятельностный

подход37. Его суть отражена в постановлении Пленума Верховного Суда РФ от 26.01.2010 № 138. В документе указано, что по смыслу ст. 1079 ГК РФ источником повышенной опасности следует признавать любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами. Такая интерпретация дает возможность суду определять в каждом конкретном случае, является ли та или иная система ИИ источником повышенной опасности.

Однако использование концепции источника повышенной опасности, ведущее к возложению строгой ответственности на владельцев систем ИИ, имеет ряд существенных недостатков. Во-первых, безопасность и надежность функционирования систем ИИ находится вне контроля их владельцев. Системы ИИ обладают автономностью, способностью к самообучению, и тем самым уровень безопасности их функционирования в гораздо большей мере зависит от действий разработчиков, а не владельцев. Последние фактически являются пользователями таких систем. Во-вторых, если владельцы не могут контролировать системы ИИ, то безусловное возложение на них ответственности не достигает одной из значимых целей — побудить их к поведению, обеспечивающему безопасность соответствующих систем39. И в-третьих, приобретение и эксплуатация систем ИИ при

31 Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 91.

32 Харитонова Ю. С., Савина В. С., Паньини Ф. Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы // Вестник Пермского университета. Юридические науки. 2022. Вып. 58. С. 698.

33 Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 116.

34 Smith B., Neznamov A., It's Not the Robot's Fault! Russian and American Perspectives on Responsibility for Robot Harms // Duke Journal of Comparative & International Law. 2019. Vol. 30:141. P. 161.

35 Харитонова Ю. С., Савина В. С., Паньини Ф. Указ. соч. С. 703.

36 Smith B., Neznamov A. Op. cit. P. 161.

37 Щедрин Н. В. Источник повышенной опасности, объект повышенной охраны и меры безопасности // Государство и право. 2008. № 7. С. 17.

38 Постановление Пленума Верховного Суда РФ от 26.01.2010 № 1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина» // Официальный интернет-портал правовой информации. URL: pravo.gov.ru (дата обращения: 01.03.2024).

39 Buiten M., Streel A, Peitz M. Op. cit. P. 9.

LEX RUSSICA

таких условиях будет для владельцев непривлекательным, поскольку они не захотят брать на себя чрезмерно высокие сопутствующие риски. Это может оказать на владельцев сильное де-стимулирующее воздействие, что негативным образом отразится на развитии индустрии ИИ.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Представляется, что концепция источников повышенной опасности не в полной мере отражает всю многогранность общественных отношений в сфере ИИ: широкий круг субъектов, их различный вклад в функционирование систем ИИ, определенный уровень автономности и возможность к самообучению, сложность технической конструкции. Системы ИИ являются гораздо более сложными средствами, они могут обладать существенно разными функциями и использоваться в самых разных целях. Соответственно, правовое регулирование должно отражать эту специфику.

В мировой практике сейчас распространено регулирование, основанное на риск-ориентированном подходе. Известный пример — Европейский Союз, в котором принят Регламент ЕС «Об искусственном интеллекте», представляющий собой комплексный нормативный правовой акт, предусматривающий различный объем требований к поставщикам систем ИИ в зависимости от того, к какому уровню риска относятся те или иные продукты40. Отличается от европейского подхода концепция, принятая в Великобритании. Несмотря на то что они не пошли по пути ЕС, отказавшись от непосредственной классификации систем ИИ, тем не менее в принятом ими т.н. проинновационном подходе предусмотрен учет рисков от использования систем ИИ. В частности, планируется регулирование только в отношении очевидно опасных систем ИИ, а не тех, использование которых несет гипотетический или низкий риск для человека41. Уровень риска систем ИИ учитывается и в рассматриваемом в парламенте

Канады проекте закона в сфере ИИ, в соответствии с которым предусматривается наличие отдельных требований к системам ИИ высокого воздействия (high impact systems)42.

Основной целью классификации систем ИИ является формулирование юридических требований к участникам общественных отношений, соразмерных уровню их риска в отношении прав и свобод человека. Однако она также может способствовать существенному усовершенствованию правового регулирования установления субъекта ответственности за вред, причиненный системами ИИ43. Классификация позволит выделить отдельные системы ИИ в различные группы риска, в зависимости от чего можно определять то, по правилам строгой или виновной ответственности следует разрешать конкретные споры, вытекающие из причинения вреда. Иными словами, чем выше будет уровень риска, которую создает отдельная система ИИ, тем более строгий подход к ответственности следует применять.

В Российской Федерации можно осуществлять классификацию систем ИИ на основе уровня риска с учетом автономности и сферы их применения44. Этому вопросу посвящено достаточное количество работ в зарубежной литературе, в том числе и с критикой классификации, разработанной в Европейском Союзе45. Однако с учетом целей настоящей статьи представляется достаточным представить три условные группы систем ИИ, создающих неприемлемый, высокий и низкий риск для прав и свобод человека. Соответственно, в случае причинения вреда третьим лицам системами ИИ, относящимися к группе неприемлемого или высокого риска, целесообразно применять правила строгой ответственности. Для всех остальных случаев следует использовать виновную ответственность.

Системы ИИ с неприемлемым риском должны быть запрещены и за их разработку необхо-

40 Kuteynikov D. L., Izhaev O. A. Analysing Risk-Based Approach in the Draft EU Artificial Intelligence Act // Legal Issues in the Digital Age. 2023. No. 3. Vol. 4. P. 97-116.

41 AI regulation: a pro-innovation approach // URL: https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach (дата обращения: 10.03.2024).

42 Digital Charter Implementation Act, 2022 // URL: https://www.parl.ca/DocumentViewer/en/44-1/bill/C-27/ first-reading (дата обращения: 10.03.2024).

43 Chamberlain J. The Risk-Based Approach of the European Union's Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective // European Journal of Risk Regulation. 2023. Vol. 14. Iss. 1. P. 8.

44 В работе отсутствует цель обоснования классификации систем ИИ, данному вопросу авторы планируют посвятить отдельное исследование.

45 Taking AI risks seriously: a new assessment model for the AI Act / C. Novelli [et al.] // AI & Society. 2023. Vol. 38. No. 3. P. 2.

димо предусмотреть юридическую ответственность. В то же время если такая система ИИ причинит вред третьим лицам, то очевидно, что ее разработчик должен нести строгую гражданско-правовую ответственность и компенсировать причиненный вред потерпевшей стороне вне зависимости от каких-либо обстоятельств. При этом гражданско-правовая ответственность будет возлагаться одновременно с той ответственностью, которая будет предусмотрена за разработку запрещенного продукта.

В случаях, когда вред причинен высокорисковой системой ИИ, целесообразно использовать строгую ответственность разработчиков. Связано это с тем, что такие системы ИИ по своей природе способны оказать значительное негативное воздействие на права и свободы человека, в связи с чем последний должен обладать повышенными гарантиями защиты.

Отдельного внимания заслуживают базовые модели и системы ИИ общего назначения, которые характеризуются возможностью решения широкого спектра задач. По общему правилу их следует определять как системы ИИ низкого риска. Однако если в результате «тонкой настройки» они используются в продуктах, обладающих высоким риском, то такие системы также должны признаваться высокорисковыми с соответствующими последствиями при разрешении споров, вытекающих из причинения вреда46. При этом важно обратить внимание на то, что строгую ответственность можно будет возлагать в зависимости от конкретных обстоятельств как на разработчика базовой модели, так и на других субъектов, например на тех, кто осуществляет «тонкую настройку» базовой модели для ее применения в конкретных системах ИИ.

Ко всем остальным случаям можно применять виновную ответственность. Представляется, что системы ИИ, создающие низкий риск для прав и свобод человека, будут менее сложны технически и будут обладать невысоким уровнем автономности. Следует согласиться с мнением, что потенциал применения виновной ответственности значительно зависит от уровня автономности продукта47. Чем ниже автономность, тем легче будет определить вклад раз-

ных субъектов в обеспечение безопасности функционирования системы ИИ и тем самым выявить противоправное поведение потенциального ответчика. Кроме того, в соответствии с отечественным гражданским законодательством бремя доказывания невиновности лежит на обвиняемой стороне48, то есть действует презумпция вины ответчика, поэтому потерпевшей стороне будет относительно несложно доказать вину разработчика, владельца или иного субъекта, вследствие действий (бездействия) которых ему был причинен вред.

Таким образом, существенным вкладом в развитие правового регулирования внедого-ворной гражданско-правовой ответственности, возникающей при причинении вреда системами ИИ, может стать использование риск-ориентированного подхода.

В соответствии с предлагаемым подходом в случае причинения вреда системами ИИ, относящимися к классификационной группе, создающей неприемлемый или высокий риск правам и свободам человека, целесообразным будет применение строгой ответственности соответствующего разработчика. Для других случаев, в которых вред был причинен системами ИИ низкого риска, для восстановления прав потерпевших следует использовать правила виновной ответственности с необходимостью доказывания вины ответчика и причинно-следственной связи между виной и нанесенным вредом.

Реализация такого подхода может способствовать достижению целей, которые стоят сегодня перед законодателем.

Это позволит преодолеть сложившуюся правовую неопределенность, выражающуюся в том, что законодательство однозначно не регулирует общественные отношения, возникающие вследствие причинения вреда системами ИИ третьим лицам. Исчерпывающим образом не определены права и обязанности сторон при возникновении соответствующих внедоговор-ных гражданских правоотношений, между тем как все участники общественных отношений, возникающих в сфере ИИ, должны в полной мере знать и понимать юридические последствия, которые возникнут при причинении вреда системами ИИ.

46 Philipp H. The European AI liability directives — Critique of a half-hearted approach and lessons for the future // Computer Law & Security Review. 2023. Vol. 51. P. 40.

47 The Cambridge Handbook of Artificial Intelligence. Global perspectives on law and ethics / ed. by L. A. Dimatteo [et al.]. UK : Cambridge university press, 2022. P. 104.

48 Российское гражданское право / отв. ред. Е. А. Суханов. 4-е изд. М. : Статут, 2015. Т. 1. С. 464.

Заинтересованность разработчиков и профессиональных эксплуатантов систем ИИ в создании безопасных и надежных систем ИИ будет способствовать повышению спроса среди граждан на приобретение данных продуктов и пользование ими. Таким образом, это положительно повлияет на развитие индустрии ИИ в целом.

Граждане, которым потенциально может быть причинен вред системами ИИ, будут обеспечены эффективными юридическими инструментами восстановления своих нарушенных прав и получения компенсации. Высокий уровень гарантий прав человека является важным фактором в создании доверия населения к системам ИИ и технологическим компаниям.

СПИСОК ЛИТЕРАТУРЫ

Агибалова Е. Н. Деликтные обязательства : учеб. пособие. Волгоград : РАНХиГС, 2021.

Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 112-119.

Гаджиев Г. А., Войниканис Е. А. Может ли робот быть субъектом права (поиск правовых норм для регулирования цифровой экономики)? // Право. Журнал Высшей школы экономики. 2018. № 4. С. 24-48.

Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102.

Российское гражданское право. Т. 1 / отв. ред. Е. А. Суханов. 4-е изд. М. : Статут, 2015.

Харитонова Ю. С., Савина В. С., Паньини Ф. Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы // Вестник Пермского университета. Юридические науки. 2022. Вып. 58. С. 683-708.

Щедрин Н. В. Источник повышенной опасности, объект повышенной охраны и меры безопасности // Государство и право. 2008. № 7. С. 16-24.

Algorithms and Law / еd. by M. Ebers, S. Navas. UK : Cambridge University Pres, 2020.

Balkin J. M. The Path of Robotics Law // California Law Review. 2015. Vol. 6. P. 45-60.

Buiten M., Streel A., Peitz M. The law and economics of AI liability // Computer Law & Security Review. 2023. Vol. 48. Art. 105794.

Chamberlain J. The Risk-Based Approach of the European Union's Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective // European Journal of Risk Regulation. 2023. Vol. 14. Iss. 1. P. 1-13.

Kuteynikov D. L., Izhaev O. A. Analysing Risk-Based Approach in the Draft EU Artificial Intelligence Act // Legal Issues in the Digital Age. 2023. No. 3. Vol. 4. Р. 97-116.

Liability Regimes in the Age of AI: a Use-Case Driven Analysis of the Burden of Proof / D. F. Llorca [et al.] // Journal of Artificial Intelligence Research. 2023. Vol. 76. P. 613-644.

Papyshev G., Yarime M. The limitation of ethics-based approaches to regulating artificial intelligence: regulatory gifting in the context of Russia // AI & Society. 2022. P. 1-16. URL: https://doi.org/10.1007/s00146-022-01611-y.

Philipp H. The European AI liability directives — Critique of a half-hearted approach and lessons for the future // Computer Law & Security Review. 2023. Vol. 51. P. 1-42.

Research Handbook on the Law of Artificial Intelligence / ed. by W. Barfield, U. Pagallo. UK : Edward Elgar Publ., 2018.

Smith B., Neznamov A. It's Not the Robot's Fault! Russian and American Perspectives on Responsibility for Robot Harms // Duke Journal of Comparative & International Law. 2019. Vol. 30:141.

Taking AI risks seriously: a new assessment model for the AI Act / C. Novelli [et al.] // AI & Society. 2023. Vol. 38. No. 3.

The Cambridge Handbook of Artificial Intelligence. Global perspectives on law and ethics / ed. by L. A. Dimatteo [et al.]. UK : Cambridge University Press, 2022.

Widder D., Nafus D. Dislocated accountabilities in the «AI supply chain»: Modularity and developers' notions of responsibility // Big data & Society. 2023. January-June: 1-12.

REFERENCES

Agibalova EN. Tort obligations: A course book. Volgograd: RANEPA Publ.; 2021. (In Russ.).

Apostolova NN. Responsibility for the harm caused by artificial intelligence. North Caucasus Legal Vestnik. 2021;1:112-119. (In Russ.).

Balkin JM. The Path of Robotics Law. California Law Review. 2015;6.

Barfield W, Pagallo U. (eds.). Research Handbook on the Law of Artificial Intelligence. UK: Edward Elgar Publ.; 2018.

Buiten M. et al. The law and economics of AI liability. Computer Law & Security Review. 2023;48.

Chamberlain J. The Risk-Based Approach of the European Union's Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective. European Journal of Risk Regulation. 2023;14(1).

Dimatteo A. et al. (ed.). The Cambridge Handbook of Artificial Intelligence. Global perspectives on law and ethics. UK: Cambridge University Press; 2022.

Ebers M, Navas S. Algorithms and Law. UK: Cambridge University Pres; 2020.

Gadzhiev GA, Voynikanis EA. Could robot be a legal subject? (in search of legal forms for digital economy regulation)? Law. Journal of the Higher School of Economics. 2018;4:24-48. (In Russ.).

Kharitonova YuS, Savina VS, Pagnini F. Civil liability in the development and application of artificial intelligence and robotic systems: basic approaches. Perm University Herald. Juridical Sciences. 2022;58. (In Russ.).

Kuteynikov DL, Izhaev O. Global perspectives Analysing Risk-Based Approach in the Draft EU Artificial Intelligence Act. Legal Issues in the Digital Age. 2023;3(4).

Laptev VA. Artificial intelligence and liability for its work. Law. Journal of the Higher School of Economics. 2019;2:79-102. (In Russ.).

Llorca DF. et al. Liability Regimes in the Age of AI: a Use-Case Driven Analysis of the Burden of Proof. Journal of Artificial Intelligence Research. 2023;76.

Novelli C. et al. Taking AI risks seriously: a new assessment model for the AI Act. AI & Society. 2023;38(3).

Papyshev G, Yarime M. The limitation of ethics-based approaches to regulating artificial intelligence: regulatory gifting in the context of Russia. AI & Society. 2022;1-16. DOI: 10.1007/s00146-022-01611-y

Philipp H. The European AI liability directives — Critique of a half-hearted approach and lessons for the future. Computer Law & Security Review. 2023;51:1-42.

Shchedrin NV. A source of increased danger, an object of increased security and security measures. State and Law. 2008;7. (In Russ.).

Smith B, Neznamov A. It's Not the Robot's Fault! Russian and American Perspectives on Responsibility for Robot Harms. Duke Journal of Comparative & International Law. 2019;30:141.

Sukhanov EA (ed.). Russian civil law. Vol. 1. Moscow: Statute Publ.; 2015. (In Russ.).

Widder D, Nafus D. Dislocated accountabilities in the «AI supply chain»: Modularity and developers' notions of responsibility. Big data & Society. 2023; January — June.

ИНФОРМАЦИЯ ОБ АВТОРАХ

Ижаев Осман Аликович, кандидат юридических наук, доцент кафедры теоретических и публично-правовых дисциплин Института государства и права Тюменского государственного университета д. 16, Ленина ул., г. Тюмень 625003, Российская Федерация izhaev.osman@gmail.com

Кутейников Дмитрий Леонидович, кандидат юридических наук, руководитель лаборатории

«Социально-правовые подходы использования искусственного интеллекта и робототехники»

Тюменского государственного университета

д. 16, Ленина ул., г. Тюмень 625003, Российская Федерация

kuteynikov@me.com

INFORMATION ABOUT THE AUTHORS

Osman A. Izhaev, Cand. Sci. (Law), Associate Professor, Department of Theoretical and Public Law Disciplines, Institute of State and Law, Tyumen State University, Tyumen, Russian Federation izhaev.osman@gmail.com

Dmitry L. Kuteynikov, Cand. Sci. (Law), Head of the Laboratory of Socio-Legal Approaches

to the Use of Artificial Intelligence and Robotics, Tyumen State University, Tyumen, Russian Federation

kuteynikov@me.com

Материал поступил в редакцию 10 января 2024 г. Статья получена после рецензирования 11 мая 2024 г. Принята к печати 15 мая 2024 г.

Received 10.01.2024. Revised 11.05.2024. Accepted 15.05.2024.

i Надоели баннеры? Вы всегда можете отключить рекламу.