Научная статья на тему 'ПРОБЛЕМЫ ОПРЕДЕЛЕНИЯ ПРАВОВОГО ПОЛОЖЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИЙСКОМ ГРАЖДАНСКОМ ПРАВЕ'

ПРОБЛЕМЫ ОПРЕДЕЛЕНИЯ ПРАВОВОГО ПОЛОЖЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИЙСКОМ ГРАЖДАНСКОМ ПРАВЕ Текст научной статьи по специальности «Право»

CC BY
68
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
гражданское право / искусственный интеллект / объект права / правовое положение / система искусственного интеллекта / субъект права / civil law / artificial intelligence / object of law / legal position / artificial intelligence system / subject of law

Аннотация научной статьи по праву, автор научной работы — Плахотная Ирина Сергеевна

в статье приводится определение понятия «искусственный интеллект», данное в современном российском законодательстве. Рассматривается проблема отсутствия указанного понятия в Гражданском кодексе РФ. Приводятся различные подходы российских правоведов к определению правового положения искусственного интеллекта. Автором произведена попытка самостоятельно определить место искусственного интеллекта в гражданском праве. Кроме того, автором делаются предположения о возможных правовых последствиях избрания конкретного варианта разрешения данного вопроса.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PROBLEMS OF DETERMINING THE LEGAL STATUS OF ARTIFICIAL INTELLIGENCE IN RUSSIAN CIVIL LAW

the article provides the definition of the concept of "artificial intelligence" given in the modern Russian legislation. The problem of the absence of this concept in the Civil Code of the Russian Federation is considered. Different approaches of Russian jurists to the definition of the legal status of artificial intelligence are given. The author makes an attempt to independently determine the place of artificial intelligence in civil law. In addition, the author makes assumptions about the possible legal consequences of choosing a particular option for resolving this issue.

Текст научной работы на тему «ПРОБЛЕМЫ ОПРЕДЕЛЕНИЯ ПРАВОВОГО ПОЛОЖЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИЙСКОМ ГРАЖДАНСКОМ ПРАВЕ»

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

Плахотная Ирина Сергеевна Челябинский государственный университет

Институт права Россия, Челябинск me. irina. plakhotnaya@yandex. ru Plakhotnaya Irina Chelyabinsk State University Institute of Law Russia, Chelyabinsk

ПРОБЛЕМЫ ОПРЕДЕЛЕНИЯ ПРАВОВОГО ПОЛОЖЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИЙСКОМ ГРАЖДАНСКОМ праве Аннотация: в статье приводится определение понятия «искусственный интеллект», данное в современном российском законодательстве. Рассматривается проблема отсутствия указанного понятия в Гражданском кодексе РФ. Приводятся различные подходы российских правоведов к определению правового положения искусственного интеллекта. Автором произведена попытка самостоятельно определить место искусственного интеллекта в гражданском праве. Кроме того, автором делаются предположения о возможных правовых последствиях избрания конкретного варианта разрешения данного вопроса.

Ключевые слова: гражданское право, искусственный интеллект, объект права, правовое положение, система искусственного интеллекта, субъект права.

PROBLEMS OF DETERMINING THE LEGAL STATUS OF ARTIFICIAL INTELLIGENCE IN RUSSIAN CIVIL LAW

УДК 34

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

Annotation: the article provides the definition of the concept of "artificial intelligence" given in the modern Russian legislation. The problem of the absence of this concept in the Civil Code of the Russian Federation is considered. Different approaches of Russian jurists to the definition of the legal status of artificial intelligence are given. The author makes an attempt to independently determine the place of artificial intelligence in civil law. In addition, the author makes assumptions about the possible legal consequences of choosing a particular option for resolving this issue.

Key words: civil law, artificial intelligence, object of law, legal position, artificial intelligence system, subject of law.

На сегодняшний день цифровые технологии являются одним из приоритетных и стремительно развивающихся направлений научной деятельности, а продукты, созданные в рамках этой отрасли, постепенно становятся объектами массового потребления. Это влечет за собой возникновение определенных правовых вопросов. В рамках обозначенной области исследования, основным, пожалуй, является вопрос определения правового положения искусственного интеллекта (далее - «ИИ»). Отсутствие единого понимания истинного правового положения ИИ создает проблему недостатка правового регулирования вопросов, связанных с правоотношениями, возникающими по поводу его использования.

Давая правовую характеристику ИИ следует, в первую очередь, отметить,

что для российского законодательства данное понятие является относительно

новым. Впервые в истории российского права определение названного термина

было дано в Национальной стратегии развития искусственного интеллекта на

период до 2030года, утвержденной Указом Президента Российской Федерации

от 10.10.2019 № 490 [4]. Позже оно было продублировано в подп. 2 п. 1 ст. 2

Федерального закона «О проведении эксперимента по установлению

специального регулирования в целях создания необходимых условий для

168

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» от 24.04.2020 № 123-Ф3 [3]. Данная норма закона определяет ИИ как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека». При этом в подп. 3 п. 1 ст. 2 этого же закона специально указано, что комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.

Можно сказать, что ИИ - это целая система, представляющая собой некий программный, технологический комплекс, и обладающая когнитивными функциями, что позволяет ей в определенной степени имитировать мыслительную деятельность человека. Понкин И.В. и Редькина А.И. приписывают ИИ следующие свойства [8, с. 95]:

- субстантивность, т.е., некая самостоятельность и автономность существования;

- способность к самообучению, которая включает в себя возможность воспринимать и анализировать информацию, строить логические цепочки и на этой основе моделировать окружающие образы и символы, отношения, процессы и обстановку, что сочетается со способностью осуществлять анализ полученного опыта и собственного поведения в целях прогнозирования исхода ситуации и поиска наиболее оптимальных решений;

- замкнутость системы, которая подразумевает возможность ИИ вырабатывать омологированные протоколы и способы коммуницирования внутри себя и с другими ИИ.

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

Кроме того, если проанализировать вышеприведенные правовые акты, можно увидеть, что законодатель разделяет понятия ИИ и технологии ИИ. Представляется, что технология ИИ - это нечто производное, входящее в состав целой системы и обеспечивающее выполнение отдельных ее задач. В данной работе будет исследоваться конкретно понятие ИИ, так как именно единая система с тем набором свойств, что были названы выше, может претендовать на юридическое определение ее правового положения.

Следует отметить, что на сегодняшний день понятие ИИ не нашло своего закрепления в Гражданском кодексе РФ (далее - «ГК РФ»), который, однако, является основой для юридического регулирования разнообразных гражданских правоотношений. Это несколько осложняет определение места ИИ, т.к. отсутствие упоминания о нем в каком-либо разделе ГК РФ не позволяет однозначно отнести его к разряду субъектов или объектов права, а также решить вопрос о возложении ответственности за причиненный ИИ вред. Такое положение дел повлекло за собой возникновение в юридической доктрине дискуссии по данному вопросу.

Согласно одной из точек зрения, ИИ является вещью, представляющей собой источник повышенной опасности [9]. Однако такой подход может быть подвергнут критике ввиду нескольких причин.

Во-первых, ИИ нельзя строго отнести к вещам. Самое очевидное свойство вещи - это то, что она является предметом материального мира. В свою очередь, ИИ, в силу присущих ему особых свойств, перечисленных ранее, сам по себе не имеет материальной формы.

Во-вторых, вещь создается, как правило, с целью удовлетворения

потребностей человека, а значит, имеет конкретное назначение. При этом

существование вещи и ее действие напрямую зависит от воли лица

воспользоваться ею в определенных целях. И хотя на сегодняшний день

системы ИИ создаются физическими лицами - разработчиками, а

направленность их действия зачастую зависит от запроса пользователя,

170

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

способность ИИ к самообучению и «поиску решений без заранее заданного алгоритма» указывают на наличие у него некой области деятельности, не контролируемой в полной мере человеком.

В-третьих, повышенная опасность представляет собой такое свойство объекта (в частности, некоторых вещей) или деятельности человека, в силу которого объект или деятельность способны причинить вред человеку или окружающей среде. На сегодняшний день деятельность ИИ обусловлена алгоритмами, заложенными в него разработчиком. Даже та область действия, в которой ИИ автономен, не выбывает полностью из-под контроля человека. При этом следует особо отметить, что наличие у объекта черт, позволяющих отнести его к источникам повышенной опасности, само по себе еще не создает реальной угрозы причинения вреда. Законодатель в ст. 1079 ГК РФ устанавливает ответственность именно за деятельность лица, связанную с повышенной опасностью. Ввиду вышесказанного, ИИ может представлять собой источник повышенной опасности постольку, поскольку у разработчиков будет умысел на внедрение в ИИ алгоритмов, предопределяющих его способность к причинению вреда, а у потребителей - на использование ИИ в целях причинения вреда.

В силу этого лицом, ответственным за причинение вреда ИИ, как

источником повышенной опасности, будет именно его владелец - физическое

или юридическое лицо, которому принадлежат права на конкретную систему

ИИ (например, разработчик). При этом согласно абз. 2 п. 19 Постановления

Пленума Верховного Суда РФ от 26.01.2010 № 1 «О применении судами

гражданского законодательства, регулирующего отношения по обязательствам

вследствие причинения вреда жизни или здоровью гражданина» не признается

владельцем источника повышенной опасности лицо, управляющее им в силу

исполнения своих трудовых (служебных, должностных) обязанностей на

основании трудового договора (служебного контракта) или гражданско-

правового договора с собственником или иным владельцем источника

171

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

повышенной опасности [5]. Предполагается, что данное положение по аналогии может быть применено к пользователям ИИ - так, они не будут нести ответственность за вред, причиненный им, поскольку не они будут являться непосредственно его владельцами.

В рамках концепции определения ИИ как объекта гражданских правоотношений существует и такая точка зрения, что ИИ является результатом интеллектуальной деятельности человека. Так, Арзамасов Ю.Г. отмечает: «ИИ - это не что иное, как современное высокотехнологическое изобретение, которое можно в дальнейшем совершенствовать, изменять, а при соблюдении определенных юридических процедур - запатентовать, продать, сдать в аренду и т.д.» [6, с. 253].

В правоприменительной практике по гражданским спорам отсутствуют примеры разрешения спора об ответственности за вред, причиненный результатом интеллектуальной деятельности, ввиду чего нет такой специфической нормы, которая могла бы быть применена по аналогии для разрешения данного вопроса. Предполагается, что в случае признания ИИ результатом интеллектуальной деятельности, вопрос об ответственности будет разрешаться так же, как и в случае его отнесения к источникам повышенной опасности.

Что касается определения ИИ как субъекта, следует сказать, что, хотя потенциал ИИ может быть довольно высоким, большинство юристов, например, Арзамасов Ю.Г. [6, с. 256], Васильев А.А. [7, с. 78], придерживаются мнения о том, что на данный момент нет оснований для отнесения ИИ к разряду субъектов и наделения его собственными правами, обязанностями и ответственностью.

Специалисты-правоведы, изучающие искусственный интеллект, склонны

именовать его либо специфическим объектом права, либо квази-субъектом

права [7, с. 77]. Однако, как правило, авторы делают оговорку о том, что приход

к признанию субъектности ИИ на правовом уровне является, скорее,

172

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

перспективой, напрямую зависящей от степени развитости ИИ. При этом степень развитости определяется возможностью приравнять его по уровню когнитивных способностей к человеческому интеллекту.

Такая точка зрения представляется верной в силу того, что, несмотря на обозначенные выше признаки, ИИ на данном уровне развития науки и техники не обладает всеми критериями субъекта. Называя кого-то (или что-то) субъектом, мы предполагаем наличие у него правоспособности и дееспособности. В свою очередь, полноценное содержание правоспособности и дееспособности присуще только человеку. Юридические лица, государства и прочие квази-субъекты, обладающие собственными, специфическими критериями правосубъектности, тем не менее, подчиняются воле физических лиц, участвующих в их деятельности. Таким образом, необходимым условием для отнесения чего-либо к субъектам права является возможность самостоятельно, по своей воле принимать реальное участие в общественных отношениях и влиять на них своими волевыми решениями, действиями или бездействием.

При нынешнем уровне развития систем ИИ они могут имитировать интеллектуальную деятельность человека, действуя при этом по заранее заданным алгоритмам исходя из запросов пользователей. Нельзя сказать, что сегодняшний ИИ способен в привычном смысле осознавать себя как отдельную личность и на этой основе вырабатывать собственную волю, а также осознавать последствия принимаемых решений. Кроме того, ИИ не обладает, в силу отсутствия полного самосознания, чувствами и эмоциями, честью и достоинством, которые являлись бы мотивацией его проявлений, в отличие от человека.

Подводя итоги проведенного исследования, можно сделать вывод, что

подход к определению ИИ как результата интеллектуальной деятельности

наиболее приближен к настоящему положению вещей: на данный момент ИИ

недостаточно развит, чтобы обладать всеми или большинством признаков

173

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

истинного субъекта гражданских правоотношений. Однако, нельзя назвать ИИ вещью, как минимум по той причине, что он неосязаем и существует в виде программы, размещённой на материальном носителе, и при этом сам носитель не является частью ИИ - это два отдельных объекта. В то же время при создании систем ИИ, а также их развитии человек руководствуется творческой идеей и использует интеллектуальный труд, что позволяет говорить о той или иной системе как об уникальном объекте, требующем особой правовой охраны.

Предлагается в целях устранения пробела в правовом регулировании ввести в ст. 1225 ГК РФ понятие «искусственный интеллект» и закрепить, таким образом, его относимость к результатам интеллектуальной деятельности. Предполагается, что это позволит определить способы правовой охраны ИИ. Кроме того, введение данной общей нормы заложит основу для создания особой системы норм, регулирующих специфическую область правоотношений, складывающихся по поводу использования ИИ, с тем пониманием, что ИИ - это одна из разновидностей результатов интеллектуальной деятельности.

Список литературы:

1. Гражданский кодекс Российской Федерации. Часть первая от 30.11.1994 № 51-ФЗ // Собрание законодательства Российской Федерации, 1994г., № 32, ст.3301.

2. Гражданский кодекс Российской Федерации. Часть четвертая от 18.12.2006 № 230-ФЗ // Собрание законодательства Российской Федерации, 2006г., №52, ст.5496(Часть I).

3. О проведении эксперимента по установлению специального

регулирования в целях создания необходимых условий для разработки и

внедрения технологий искусственного интеллекта в субъекте Российской

Федерации - городе федерального значения Москве и внесении изменений в

статьи 6 и 10 Федерального закона «О персональных данных»: федеральный

174

ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №28

закон от 24.04.2020 № 123-Ф3 // Собрание законодательства Российской Федерации, 2020г., № 17, ст.2701.

4. О развитии искусственного интеллекта в Российской Федерации: указ Президента Российской Федерации от 10.10.2019 № 490 // Собрание законодательства Российской Федерации, 2019 г., № 41, ст. 5700.

5. Постановление Пленума Верховного Суда РФ от 26.01.2010 № 1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина» // «Бюллетень Верховного Суда РФ», № 3, 31.03.2010.

6. Арзамасов Ю. Г. Комплексный подход к определению искусственного интеллекта. / Ю. Г. Арзамасов. [Электронный ресурс] // URL: https://cyberlenmka.m/article/n/kompleksnyy-podhod-k-opredeleniyu-iskusstvennogo-intellekta (дата обращения: 14.10.2023).

7. Васильев А. А., Печатнова Ю. В. Место искусственного интеллекта среди элементов состава правоотношения / А. А. Васильев, Ю. В. Печатнова. [Электронный ресурс] // URL: https://elibrary.ru/item.asp?id=44532285 (дата обращения: 15.10.2023).

8. Понкин И. В., Редькина А. И. Искусственный интеллект с точки зрения права / И. В. Понкин, А. И. Редькина. [Электронный ресурс] // URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-s-tochki-zreniya-prava (дата обращения: 13.10.2023).

9. Шилкина Е. П. Проблемы правосубъектности искусственного интеллекта / Е. П. Шилкина. [Электронный ресурс] // URL: https://moluch.ru/archive/454/100155/ (дата обращения: 13.10.2023).

i Надоели баннеры? Вы всегда можете отключить рекламу.