Научная статья на тему 'О ГРАЖДАНСКО-ПРАВОВОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

О ГРАЖДАНСКО-ПРАВОВОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Право»

CC BY
1
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
гражданско-правовая ответственность / искусственный интеллект / роботы / вред / правовое регулирование / законодательство / civil liability / artificial intelligence / robots / harm / legal regulation / legislation

Аннотация научной статьи по праву, автор научной работы — Архиереев Николай Викторович

В России с начала 2000-х годов ведется широкомасштабная работа по цифровизации всех сфер деятельности государства, начало которой положило принятие в 2002 г. федеральной целевой программы «Электронная Россия», действовавшей в 2002–2010 гг.1 По сути, можно говорить о начале процесса глобальной цифровизации каждого человека, его жизни. В настоящее время эти процессы идут в рамках реализации национальной программы «Цифровая экономика Российской Федерации»2 по следующим направлениям: – нормативное регулирование цифровой среды; – кадры для цифровой экономики; – информационная инфраструктура; – информационная безопасность; – цифровые технологии; – цифровое государственное управление; – искусственный интеллект; – развитие кадрового потенциала ИТ-отрасли; – обеспечение доступа в Интернет за счет развития спутниковой связи3. Особый научный интерес вызывают вопросы применения технологий искусственного интеллекта как наиболее, по нашему мнению, перспективного и многообещающего направления, способного кардинально изменить (улучшить) качество жизни людей. Однако внедрение любых новых технологий несет определенные риски возникновения негативных последствий, соответственно, возникают вопросы ответственности за вред, причиненный при применении этих технологий. Цель: анализ вопросов гражданско-правовой ответственности за вред, причиненный при использовании искусственного интеллекта. Методы: эмпирические методы сравнения, описания, интерпретации; теоретические методы формальной и диалектической логики; частнонаучные методы: юридико-догматический и толкования правовых норм. Результаты: выявлены проблемные аспекты применения искусственного интеллекта в части правового регулирования вреда, причиненного при использовании данной технологии. Автором представлен на обсуждение научного сообщества ряд предложений, реализация которых позволит минимизировать риски причинения вреда при использовании искусственного интеллекта или уменьшить последствия такого вреда. 1 О федеральной целевой программе «Электронная Россия (2002–2010 годы) : постановление Правительства РФ от 28.01.2002 № 6 // Доступ из справ.-правовой системы «КонсультантПлюс». 2 Паспорт национального проекта «Национальная программа "Цифровая экономика Российской Федерации"», утв. президиумом Совета при Президенте РФ по стратегическому развитию и национальным проектам (протокол от 04.06.2019 № 7) // Доступ из справ.-правовой системы «КонсультантПлюс». 3 Цифровая экономика РФ [Электронный ресурс] // Министерство цифрового развития, связи и массовых коммуникаций РФ : сайт. URL: https://digital.gov.ru/ru/ activity/directions/858/ (дата обращения: 29.11.2023).

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Архиереев Николай Викторович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CIVIL LIABILITY FOR HARM CAUSED BY THE USE OF ARTIFICIAL INTELLIGENCE

In Russia, since the early 2000s, a largescale work has been carried out to digitize all areas of state activity, which started with the adoption of the Federal Target Program «Electronic Russia» in 2002 and was in effect from 2002 to 2010. In fact, we can talk about the beginning of the process of global digitalization of every person and his life. Currently, these processes are taking place within the framework of the implementation of the National Program «Digital Economy of the Russian Federation» in the following areas: – Normative regulation of the digital environment; – Digital economy personnel; – Information infr astructure; – Information securit y; – Digital technologies; – Digital public administr ation; – Artificial intelligence; – Development of human resources in the IT industry; – Providing Internet access through the development of sat ellite communications. Of particular scientific interest are the issues of artificial intelligence technologies application, as the most, in our opinion, perspective and promising direction that can fundamentally change (improve) the quality of people’s lives. However, the introduction of any new technologies carries certain risks of negative consequences, and, accordingly, there are issues of liability for harm caused by the use of these technologies. Purpose: to analyze the issues of civil liability for harm caused by the use of artificial intelligence. Methods: empirical methods of comparison, description, interpretation; theoretical methods of formal and dialectical logic; specific scientific methods: legal-dogmatic and interpretation of legal norms. Results: the study identifies problematic aspects of the use of artificial intelligence in terms of legal regulation of harm caused when using this technology. The author presents a number of proposals for discussion by the scientific community, the implementation of which will minimize the risks of harm when using artificial intelligence or reduce the consequences of such harm.

Текст научной работы на тему «О ГРАЖДАНСКО-ПРАВОВОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

ЧАСТНО-ПРАВОВЫЕ (ЦИВИЛИСТИЧЕСКИЕ) НАУКИ

PRIVATE LAW (CIVILISTIC) SCIENCES

Научная статья УДК 347.1

DOI 10.33184/pravgos-2024.3.12

АРХИЕРЕЕВ Николай Викторович

Арбитражный суд Республики Башкортостан; Уфимский университет науки и технологий, Уфа, Россия,

e-mail: nick.mr@rambler.ru, https://orcid.org/0000-0002-5471-8195

Original article

ARKHIEREEV Nikolay Viktorovich

Arbitration Court of the Republic of Bashkortostan; Ufa University of Science and Technology, Ufa, Russia.

О ГРАЖДАНСКО-ПРАВОВОЙ ОТВЕТСТВЕННОСТИ ЗА ВРЕД, ПРИЧИНЕННЫЙ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

CIVIL LIABILITY FOR HARM CAUSED BY THE USE OF ARTIFICIAL INTELLIGENCE

Аннотация. В России с начала 2000-х годов ведется широкомасштабная работа по цифровизации всех сфер деятельности государства, начало которой положило принятие в 2002 г. федеральной целевой программы «Электронная Россия», действовавшей в 2002-2010 гг.1 По сути, можно говорить о начале процесса глобальной цифровизации каждого человека, его жизни. В настоящее время эти процессы идут в рамках реализации национальной программы «Цифровая экономика Российской Федерации»2 по следующим направлениям:

- нормативное регулирование цифровой среды;

- кадры для цифровой экономики;

- информационная инфраструктура;

- информационная безопасность;

- цифровые технологии;

- цифровое государственное управление;

- искусственный интеллект;

- развитие кадрового потенциала ИТ-отрасли;

- обеспечение доступа в Интернет за счет развития спутниковой связи3.

© Архиереев Н.В., 2024

1 О федеральной целевой программе «Электронная Россия (2002-2010 годы) : постановление Правительства РФ от 28.01.2002 № 6 // Доступ из справ.-правовой системы «КонсультантПлюс».

2 Паспорт национального проекта «Национальная программа "Цифровая экономика Российской Федерации"», утв. президиумом Совета при Президенте РФ по стратегическому развитию и национальным проектам (протокол от 04.06.2019 № 7) // Доступ из справ.-право-вой системы «КонсультантПлюс».

3 Цифровая экономика РФ [Электронный ресурс] // Министерство цифрового развития, связи и массовых коммуникаций РФ : сайт. URL: https://digital.gov.ru/ru/ activity/directions/858/ (дата обращения: 29.11.2023).

Abstract. In Russia, since the early 2000s, a large-scale work has been carried out to digitize all areas of state activity, which started with the adoption of the Federal Target Program «Electronic Russia» in 2002 and was in effect from 2002 to 2010. In fact, we can talk about the beginning of the process of global digitalization of every person and his life. Currently, these processes are taking place within the framework of the implementation of the National Program «Digital Economy of the Russian Federation» in the following areas:

- Normative regulation of the digital environment;

- Digital economy personnel;

- Information infrastructure;

- Information security;

- Digital technologies;

- Digital public administration;

- Artificial intelligence;

- Development of human resources in the IT industry;

- Providing Internet access through the development of satellite communications.

Of particular scientific interest are the issues of artificial intelligence technologies application, as the most, in our opinion, perspective and promising direction that can fundamentally change (improve) the quality of people's lives. However, the introduction of any new technologies carries certain risks of negative consequences, and, accordingly, there are issues of liability for harm caused by the use of these technologies. Purpose: to analyze the issues of civil liability for harm caused by the use of artificial intelligence. Methods: empirical methods of comparison,

104

Особый научный интерес вызывают вопросы применения технологий искусственного интеллекта как наиболее, по нашему мнению, перспективного и многообещающего направления, способного кардинально изменить (улучшить) качество жизни людей. Однако внедрение любых новых технологий несет определенные риски возникновения негативных последствий, соответственно, возникают вопросы ответственности за вред, причиненный при применении этих технологий. Цель: анализ вопросов гражданско-правовой ответственности за вред, причиненный при использовании искусственного интеллекта. Методы: эмпирические методы сравнения, описания, интерпретации; теоретические методы формальной и диалектической логики; частнонаучные методы: юридико-догматический и толкования правовых норм. Результаты: выявлены проблемные аспекты применения искусственного интеллекта в части правового регулирования вреда, причиненного при использовании данной технологии. Автором представлен на обсуждение научного сообщества ряд предложений, реализация которых позволит минимизировать риски причинения вреда при использовании искусственного интеллекта или уменьшить последствия такого вреда.

description, interpretation; theoretical methods of formal and dialectical logic; specific scientific methods: legal-dogmatic and interpretation of legal norms. Results: the study identifies problematic aspects of the use of artificial intelligence in terms of legal regulation of harm caused when using this technology. The author presents a number of proposals for discussion by the scientific community, the implementation of which will minimize the risks of harm when using artificial intelligence or reduce the consequences of such harm.

Ключевые слова: гражданско-правовая ответственность, искусственный интеллект, роботы, вред, правовое регулирование, законодательство

Keywords: civil liability, artificial intelligence, robots, harm, legal regulation, legislation

Для цитирования: Архиереев Н.В. О гражданско-правовой ответственности за вред, причиненный при использовании искусственного интеллекта / Н.В. Архиереев. - DOI 10.33184/ pravgos-2024.3.12 // Правовое государство: теория и практика. - 2024. - № 3. - С. 104-109.

For citation: Arkhiereev N.V. Civil Liability for Harm Caused by the Use of Artificial Intelligence. Pravovoe gosudarstvo: teoriya i praktika = The Rule-of-Law State: Theory and Practice, 2 024, no. 3, pp. 104-109. (In Russian). DOI 10.33184/ pravgos-2024.3.12.

Активные работы в области искусственного интеллекта начались еще в 1960-х годах. Тогда в Вычислительном центре Академии наук СССР был выполнен ряд исследований под руководством психолога В.Н. Пушкина и кибернетика Д.А. Поспелова, который в конце 1980-х годов возглавил Советскую, а позже Российскую ассоциацию искусственного интеллекта. А автором современных представлений об искусственном интеллекте является один из крупнейших математиков XX в. -советский ученый А.Н. Колмогоров.

Сегодня новые тенденции развития права, науки и технологий требуют формирования

новых решений, проведения новых исследований, выработки иных подходов к уже возникшим отношениям, в том числе и по поводу использования искусственного интеллекта, опираясь на разработки советских ученых, которые помогут выработать новые нормы, новый правопорядок, необходимый в эпоху современной цифровой индустрии.

Можно согласиться с тем, что внедрение цифровых технологий в современных условиях развития технологических процессов уже привело к кардинальному изменению качества экономики [1, с. 5]. Технологии искусственного интеллекта активно внедряются

105

во все сферы деятельности человека, от образования, медицины, государственного управления до военного дела.

Тем не менее еще в недалеком прошлом представление об искусственном интеллекте было чем-то из области фантастики, а вопросы правового регулирования его применения вообще казались абсурдными и ненаучными. Но с развитием технологий меняются подходы, правовая наука и законодательство.

На современном этапе по теме искусственного интеллекта уже защищено большое количество диссертаций в области права, техники, медицины, философии.

В своем Послании Федеральному Собранию 20 февраля 2019 г. Президент РФ высказался о необходимости запустить масштабную программу национального уровня в области искусственного интеллекта, чтобы в середине теперь уже нынешнего десятилетия войти в число лидеров по этому научно-технологическому направлению, которое будет определять будущее всего мира4.

Искусственный интеллект - это технология, применение которой несет массу положительного, но не следует относиться к ней, как к некоему исключительно полезному и безопасному. Ранее нами уже было выявлено значительное количество рисков и негативных последствий широкого и бесконтрольного распространения искусственного интеллекта [2].

Как верно отмечает В.Д. Зорькин, цифро-визация социальной жизни привела к появлению ранее неизвестных так называемых цифровых прав5. И конечно же, эти права должны защищаться государством.

По мнению А.В. Минбалеева, развитие использования цифровых профилей физических и юридических лиц порождает ряд вызовов современной системе гражданско-правовой защиты личных неимущественных прав граж-

4 Послание Президента РФ Федеральному Собранию от 20.02.2019 [Электронный ресурс]. URL: http://www.kremlin.ru/events/president/news/59863/ (дата обращения: 23.11.2023).

5 Зорькин В.Д. Право в цифровом мире. Размышление на полях Петербургского международного юридического форума [Электронный ресурс]. URL: https://rg.ru/2018/05/29/zorkin-zadacha-gosudarstva-priznavat-i-zashchishchat-cifrovye-prava-grazhdan.html./

(дата обращения: 17.11.2023).

дан и необходимость оперативного реагирования на них [3, с. 11]. При этом представляется очевидным, что при использовании искусственного интеллекта непременно возникнут вопросы ответственности.

Но прежде чем говорить о гражданско-правовой ответственности за вред, причиненный при использовании искусственного интеллекта, следует более детально подойти к изучению самого искусственного интеллекта как явления, как объекта правоотношений, его природы. Отметим, что на данный момент термин «искусственный интеллект» применяется примерно в 900 официальных документах - федеральных законах, указах Президента РФ, постановлениях Правительства РФ и других нормативных актах. А по состоянию на сентябрь 2019 г. этот термин фигурировал лишь примерно в 80 документах.

В научных трудах сформулированы десятки определений искусственного интеллекта. Однако, на мой взгляд, основополагающим должно быть определение, содержащееся в Национальной стратегии развития искусственного интеллекта на период до 2030 г., утвержденной Указом Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации», в которой искусственный интеллект понимается как комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека. Данный комплекс включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе то, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений6.

Исходя из приведенного определения, возникает вопрос: почему существующих норм об ответственности недостаточно, ведь речь идет

6 О развитии искусственного интеллекта в Российской Федерации» (вместе с Национальной стратегией развития искусственного интеллекта на период до 2030 года) : Указ Президента РФ от 10.10.2019 № 490 // Доступ из справ.-правовой системы «КонсультантПлюс».

106

о компьютерной программе, программном обеспечении, и на протяжении многих лет мы справлялись с ситуацией? Ответ содержится в самом определении. Объект, оборудованный искусственным интеллектом, способен на самостоятельное принятие решений без активного участия человека, такой объект способен взаимодействовать с человеком, который может не понимать, что он коммуницирует с машиной. В случае возникновения негативных последствий при использовании искусственного интеллекта появляются вопросы определения причинителя вреда, надлежащего ответчика, установления обстоятельств произошедшего, например, когда происходит взаимодействие двух и более систем искусственного интеллекта. В частности, некорректная работа искусственного интеллекта в торговой и банковской сфере может привести к возникновению существенных финансовых потерь.

В упомянутой Национальной стратегии изложены основные принципы развития и использования технологий искусственного интеллекта, в числе которых защита прав и свобод человека и безопасность, то есть недопустимость использования искусственного интеллекта в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий искусственного интеллекта.

Распоряжением Правительства РФ от 19 августа 2020 г. № 2129-р утверждена Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г.7 Этот документ является весьма важным с точки зрения постановки (обозначения) тех правовых проблем, которые возникают перед наукой гражданского (да и не только) права при использовании искусственного интеллекта.

В Концепции констатируется, что в настоящее время в мире отсутствуют единые подходы к регулированию технологий ис-

7 Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года : распоряжение Правительства РФ от 19.08.2020 № 2129-р // Доступ из справ.-правовой системы «КонсультантПлюс».

кусственного интеллекта и робототехники, что связано с наличием ряда проблем, не имеющих однозначного решения. В ней довольно подробно описаны проблемные направления регулирования искусственного интеллекта, среди которых выделены следующие:

- соблюдение баланса между требованиями по защите персональных данных и необходимостью их использования для обучения систем искусственного интеллекта;

- определение предмета и границ регулирования сферы использования систем искусственного интеллекта и робототехники;

- идентификация системы искусственного интеллекта при взаимодействии с человеком, включая его информирование о взаимодействии с такой системой;

- правовое «делегирование» решений системам искусственного интеллекта и робототехники;

- ответственность за причинение вреда с использованием систем искусственного интеллекта и робототехники;

- правовой режим результатов интеллектуальной деятельности, созданных с использованием систем искусственного интеллекта;

- использование для принятия решений системами искусственного интеллекта вероятностных оценок и невозможность в ряде случаев полного объяснения принятого ими решения (проблема алгоритмической прозрачности систем искусственного интеллекта).

В зависимости от обстоятельств гражданско-правовая ответственность за вред, причиненный при использовании искусственного интеллекта, может быть возложена:

1) на создателя и продавца программы искусственного интеллекта;

2) на производителя и продавца объекта, оснащенного искусственным интеллектом;

3) на лицо, обслуживающее такой объект, производящее его настройку, модернизацию и т. д.;

5) на собственника или пользователя подобного объекта;

6) на лицо, причинившее вред объекту, оборудованному искусственным интеллектом, либо незаконно завладевшее им и с его помощью совершившее деликт.

107

В этой связи мною выработан ряд предложений, реализация которых позволит минимизировать риски причинения вреда при использовании искусственного интеллекта или уменьшить последствия такого вреда. Главное, на что хочется обратить внимание, -это то, что государство должно предвидеть все риски использования искусственного интеллекта и заранее создать соответствующую сбалансированную систему контроля. Итак:

1) любой искусственный интеллект в своем базовом коде должен иметь ограничения и запрет противоправного поведения. В частности, поскольку у искусственного интеллекта имеется способность к саморазвитию, то должно быть создано программное обеспечение, не допускающее самостоятельного изменения базовых настроек;

2) создание запрета на использование объекта, оборудованного искусственным интеллектом, неуполномоченными людьми, в частности малолетними детьми или людьми с психическими заболеваниями;

3) любой объект, оборудованный искусственным интеллектом, должен иметь идентифицирующие данные;

4) введение уведомительного режима об использовании искусственного интеллекта: любое лицо должно быть уведомлено о том, что взаимодействует с искусственным интеллектом;

5) разработка и ведение реестра систем искусственного интеллекта;

6) создание системы отслеживания программ искусственного интеллекта;

7) введение системы страхования по аналогии с ОСАГО;

8) возможно создание специального компенсационного фонда для возмещения вреда;

9) возможно применение института ограничения ответственности, когда между субъектами подписываются соглашения, в которых стороны указывают случаи, при наступлении которых они не несут ответственность;

10) установление административной ответственности за использование систем искусственного интеллекта, не учтенных в реестре;

11) особого регулирования требуют автономные и перемещающиеся в пространстве роботы (например, роботы-доставщики, дро-ны или автомобили), поскольку они являются доступными объектами для злоумышленных действий (кража, перенастройка, разбор на запчасти) либо для поломки с непредсказуемыми последствиями. Возникают вопросы регламентации обнаружения, аварийного дистанционного отключения, возврата владельцу, уничтожения в случае невозможности восстановления контроля, установления причин некорректной работы, привлечения виновных лиц к ответственности. Необходимо подумать о возможности дистанционного использования роботов для государственных нужд в четко регламентированных ситуациях (например, в случае поиска правонарушителей), о системе информирования роботами экстренных служб при обнаружении ими техногенных аварий, пожаров и т. д.;

12) требуют урегулирования вопросы бесхозяйных роботов, не утративших способности к перемещению в пространстве, вопросы утилизации роботов с учетом наличия в них мощных источников питания, драгоценных металлов, а также возможного сохранения персональных данных, собранных роботами за время работы.

В отношении искусственного интеллекта на данном этапе правового регулирования можно применять правовые нормы, регулирующие вопросы причинения вреда при использовании источника повышенной опасности. Однако, на наш взгляд, данный механизм является временной мерой, представляется, что такой нормативной базы на сегодняшний момент недостаточно именно из-за самостоятельности подобных механизмов, оборудованных искусственным интеллектом, непредсказуемости работы его алгоритма.

Безусловно, перечень высказанных предложений не является исчерпывающим.

Известно, что любое регулирование замедляет процесс развития. Но в отношении искусственного интеллекта недостаточное правовое регулирование может привести к весьма негативным последствиям.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

108

Список источников

1. Белых В.С. Понятие, значение и тенденции развития цифрового права / В.С. Белых, М.О. Болобонова // Юрист. - 2020. - № 1. - С. 5-14.

2. Архиереев Н.В. Положительные и отрицательные аспекты искусственного интеллекта. Правовая оценка / Н.В. Архиереев // Уфимский гуманитарный научный форум. - 2021. - № 4 (8). - С. 159-172.

3. Минбалеев А.В. Проблемы гражданско-правовой защиты личных неимущественных прав в процессе цифрового профилирования граждан / А.В. Минбалеев // Гражданское право. - 2022. - № 2. - С. 9-11.

References

1. Belykh V.S., Bolobonova M.O. The concept, Meaning and Tendencies of Digital Law Development. Yurist = Jurist, 2020, no. 1, pp. 5-14. (In Russian).

2. Arkhiereev N.V. Positive and Negative Aspects of Artificial Intelligence. Legal Assessment. Ufimskij gumanitarnyj nauchnyj forum = Ufa Humanitarian Scientific Forum, 2021, no. 4 (8), pp. 159-172. (In Russian).

3. Minbaleev A.V. Problems of the Civil Law Protection of Personal Non-Property Rights in the Process of the Digital Profiling of Citizens. Grazhdanskoe pravo = Civil Law, 2022, no. 2, pp. 9-11. (In Russian).

Информация об авторе

Архиереев Николай Викторович - председатель Арбитражного суда Республики Башкортостан; кандидат юридических наук, доцент кафедры гражданского права Института права.

Information about the Author

Arkhiereev Nikolay Viktorovich - Chairman of the Arbitration Court of the Republic of Bashkortostan; Candidate of Sciences (Law), Assistant Professor of the Chair of Civil Law of the Institute of Law.

Статья поступила в редакцию 03.07.2024; одобрена после рецензирования 05.08.2024; принята к публикации 05.08.2024. The article was submitted 03.07.2024; approved after reviewing 05.08.2024; accepted for publication 05.08.2024.

109

i Надоели баннеры? Вы всегда можете отключить рекламу.