Проблема правовой охраны объектов интеллектуальной собственности, созданных с использованием цифровых технологий
Аннотация. В статье рассмотрены ключевые проблемы охраны интеллектуальной собственности и результатов интеллектуальной деятельности в условиях стремительного развития цифровых технологий. Ключевыми факторами, влияющими на развитие права интеллектуальной собственности в современных условиях, являются транспаретность отношений в цифровой среде, отсутствие фактических границ в рамках всемирного цифрового пространства, смешение различных отраслей знаний, науки и техники. Автор считает, что переосмысление роли роботов в общественной жизни ставит задачу гуманного подхода к правовому регулированию использования ИИ. Объективно возникает необходимость решить вопрос о введении ответственности за действие ИИ, о ее юридическом обосновании и закреплении. Также автор считает, что правосубъектность ИИ будет выстраиваться по аналогии с правосубъектностью юридических лиц, и в настоящее время достаточно внесения изменений в Гоажданский кодекс РФ. Это на текущем этапе применения искусственного интеллекта позволит определить базовые принципы и правовое регулирование данной сферы.
Ключевые слова: объекты интеллектуальной собственности, охрана, цифровые технологии, искусственный интеллект, правосубъектность, цифровые технологии.
DOI: 10.17803/2311-5998.2023.101.1.127-138
MARIA A. EGOROVA,
Professor of Competition Law Department of the Kutafin Moscow State Law University (MSAL), Dr. Sci. (Law), Professor [email protected] 9, ul. Sadovaya-Kudrinskaya, Moscow, Russia, 125993
The Problem of Legal Protection of Intellectual Property Objects Created Using Digital Technologies
Abstract. The article deals with the key problems of protection of intellectual property and the results of intellectual activity in the context of the rapid development of digital technologies. The key factor influencing the development of intellectual property rights in modern conditions is the transparency of relations in the digital environment, the absence of actual borders within
Мария Александровна ЕГОРОВА,
доктор юридических наук, профессор, профессор кафедры конкурентного права Университета имени О.Е. Кутафина (МГЮА), сопрезидент Международного союза юристов и экономистов (Франция), директор Международного научно-образовательного центра сравнительного правоведения Московского отделения Ассоциации юристов России, эксперт Российской академии наук [email protected] 125993, Россия, г. Москва, ул. Садовая-Кудринская, д. 9
© Егорова М. А., 2023
в М УНИВЕРСИТЕТА
™ и мени О. Е. Кугафи на (МПОА)
the global digital space, the mixing of various branches of knowledge, science and technology. The author believes that rethinking the role of robots in public life poses the task of a humane approach to the legal regulation of the use of AI. Objectively, there is a need to resolve the issue of introducing responsibility for the action of AI, its legal justification and consolidation. The author also believes that the legal personality of AI will be built by analogy with the legal personality of legal entities, currently it is sufficient to amend the Civil Code of the Russian Federation. This, at the current stage of the application of artificial intelligence, will allow us to determine the basic principles and legal regulation of this sphere. Keywords: intellectual property objects, protection, digital technologies, artificial intelligence, legal personality, digital technologies.
В настоящее время в ходе тотальной и повсеместной цифровизации и информатизации общества все большее распространение получает внедрение технологии искусственного интеллекта (ИИ) в самые различные сферы деятельности человека. Как отмечает профессор В. В. Блажеев, «активное использование технологий искусственного интеллекта ставит перед юридическим сообществом задачу разработки системы правового регулирования искусственного интеллекта, основанной как на действующих нормах российского права, опосредующих применение новейших технологий, так и на передовом мировом опыте регламентации искусственного интеллекта»1. В связи с этим потребность в регулировании различных решений на основе искусственного интеллекта возрастает.
По мере того, как системы искусственного интеллекта усложняются, а также изменяется их роль в обществе, аргументы в пользу того, что они должны иметь какую-либо форму правосубъектности, приобретают все большее значение. Применение искусственного интеллекта, как правило, рассматривается через призму пользователей (например, в юридических услугах — как доступное программное обеспечение ИИ на рынке2). Поскольку ИИ — неоднородное явление, его регулирование не может быть единым, даже в отношении ответственности. Высказывается мнение, что любая попытка регулировать ИИ должна быть привязана к конкретной технологии3. В данном контексте это спорная позиция.
Согласно докладу Всемирной организации интеллектуальной собственности (ВОИС) «Тенденции развития технологий — искусственный интеллект», который был опубликован в январе 2019 г, имеется двадцать наиболее продвинутых областей человеческой деятельности, где искусственный интеллект активно внедряется, к ним, в частности, относятся: транспортное функционирование, медицина,
1 Блажеев В. В. Предисловие // Правовое регулирование искусственного интеллекта в условиях пандемии и инфодемии : монография / под общ. ред. В. В. Блажеева, М. А. Егоровой. М. : Проспект, 2020. 240 с.
2 Repina A. Artificial Intelligence in Legal Service: State-of-Art and users expectations in Russia. Moscow : HSE, 2019. P. 7.
3 Artificial Intelligence and Civil Liability. European Parliament. Requested by the JURI committee. July 2020. P. 11.
банковский сектор, индустрия развлечений, различные системы безопасности, промышленность, сельское хозяйство4.
Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» определяет искусственный интеллект как комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека. Подчеркивается, что комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе то, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
В соответствии с Национальной стратегией развития искусственного интеллекта на период до 2030 года должны быть созданы условия для эффективного взаимодействия государства, организаций, в том числе научных, и граждан в сфере развития искусственного интеллекта, что позволит российским технологиям искусственного интеллекта занять значительную долю мирового рынка.
Все это неизбежно вызывает вопрос о степени самостоятельности искусственного интеллекта и возможности принимать им юридически значимые решения. Если искусственный интеллект может в некоторой степени «думать», как человек, то он приобретает не пассивную, а активную роль в жизни социума.
На данном этапе научно-технического развития системы искусственного интеллекта уже рассматриваются как феномен современности не столько с позиции их философского осмысления, аналогии с человеческой мыслительной деятельностью, сколько с точки зрения выявления роли ИИ в решении значимых государственных задач управления национальной безопасностью, минимизации рисков неправомерного использования ИИ для общества, необходимости рационального подхода к изменениям законодательства для стимулирования, а не ограничения внедрения систем ИИ. Системы ИИ разнообразны по сложности, поэтому в будущем, вероятно, будут созданы приближенные к человеческому мышлению системы ИИ.
С онтологической точки зрения все передовые технологии не являются субъектами, а просто объектами, и нет никаких оснований предоставлять им права
тия технологий — искусственный интеллект» // URL: https://www.wipo.int/tech_trends/ru/
J=
или привлекать их к юридической ответственности. Даже в свете существующих
правил юридической ответственности на основе различных правовых критериев р
всегда теоретически возможно идентифицировать человека, который понесет от- т □
ветственность за ущерб, возникший в результате производства или эксплуатации
устройства с системой ИИ. В этом смысле система ответственности может быть
неоптимальной, например потому, что это приводит к дорогостоящим и сложным
судебным разбирательствам, но исключает наличие разрыва в ответственности.
С функциональной точки зрения возможно определить некоторые условия, Од
при которых было бы целесообразно приписать (уточнить) фиктивную форму дО
Е7
ТА
4 Доклад Всемирной организации интеллектуальной собственности «Тенденции разви-
ЬЯ
artificialJnteNigence/ (дата обращения: 10.08.2021). НОСТИ
>
УНИВЕРСИТЕТА
O.E. Кугафина (МПОА)
правосубъектности определенному классу приложений, юниту5. Такие условия определяются необходимостью обеспечить координацию между несколькими сторонами. Например, несколько субъектов участвуют в предоставлении услуги или продукта на основе ИИ и разделение ответственности каждого из них может оказаться достаточно трудным, а нередко и невозможным. Тогда необходимо обеспечить прозрачность посредством регистрации и обязанности по раскрытию информации для выявления тех сторон, которые имеют экономический или иной интерес в функционировании устройства с технологией ИИ, а также ограничить ответственность, чтобы упростить как распределение доходов, так и пропорциональное распределение убытков, нанесенных технологией ИИ.
Присвоение правосубъектности, вероятно, не единственный юридический инструмент, который можно использовать для решения проблемы дальнейшей юридической ответственности6.
Вместе с тем, нет оснований для радикального исключения возможности предоставления правосубъектности определенным классам систем ИИ в будущем, поэтому возникает вопрос, можно ли считать искусственный интеллект субъектом правоотношений, т.е. наделенным правосубъектностью?
Как справедливо отмечает В. Н. Синюков, «правовое регулирование постепенно заменяется правовой коммуникацией субъектов права, где право есть лишь способ коммуникации, формальный принцип взаимодействия субъектов, где законодатель — посредник и где формируется новая тоталитарность»7.
Правосубъектность, как известно, включает правоспособность, дееспособность и деликтоспособность. Разные субъекты гражданского права обладают разной правоспособностью. Так, физические лица обладают равной гражданской правоспособностью с рождения, правоспособность юридических лиц и публично-правовых образований — целевая8. В этом контексте рациональнее приравнять правоспособность искусственного интеллекта к правоспособности юридических лиц и публично-правовых образований с точки зрения ее цели. Искусственный интеллект как технология внедряется в какие бы то ни было процессы для достижения определенных целей. По сути, искусственный интеллект, в отличие от человека, не имеет самостоятельной ценности.
В соответствии со ст. 1 Гражданского кодекса РФ, физические и юридические лица приобретают и осуществляют свои гражданские права своей волей и в своем интересе. Изначально «воли и интереса» у искусственного интеллекта нет и быть не может. Однако дискуссии вызывает вопрос о наличии сознания у искусственного интеллекта, учитывая, что он может не только принимать решения, но и самообучаться.
5 Морхат П. М. Юнит искусственного интеллекта как электронное лицо // Вестник Московского государственного областного университета. 2018. № 2. С. 64.
6 Artificial Intelligence and Civil Liability. European Parliament. P. 9—12.
7 Синюков В. Н. Право XX и XXI веков: преемственность и новизна // Lex russica. 2021. № 74 (2). № 2 (171). С. 14.
8 Дурнева П. Н. Искусственный интеллект: анализ с точки зрения классической теории правосубъектности // Гражданское право. 2019. № 5.
В то же время правоспособность — это возможность своими действиями приобретать и осуществлять субъективные права. Если искусственный интеллект используется, например, для покупки ценных бумаг на бирже, то своими «действиями» он приобретает некие права. В своем ли интересе? Нет, в интересах того, кто внедрил технологию в свою систему.
Искусственный интеллект порождает множество вопросов в связи с тем, что некая небиологическая сущность производит процессы, сходные с процессами, происходящими в человеческом сознании. Возможность «примерить» на искусственный интеллект психологические аспекты личности представляется довольно спорной9. Регулирование ИИ — сложная и дуальная задача. Чрезмерное регулирование ИИ может отрицательно сказаться на инновациях, в то время как недостаточное регулирование ИИ может привести к серьезному ущербу прав граждан, а также к потере возможности формировать будущее цивилизованное общество.
Регулирование не может быть технологически нейтральным, поскольку оно направлено на управление социальными изменениями, которые сама технология с ее особенностями вызывает. Технологическая нейтральность влечет за собой возможность одного конкретного регулирования, применимого в равной степени к любой технологической ситуации. В случае с технологиями ИИ это проблематично и приведет к неэффективности правового регулирования ИИ.
Регулирование — развивающийся процесс, который необходимо модифицировать вместе с технологическим прогрессом, и он должен положительно влиять на индивидуальные и социальные права членов общества. Искусственный интеллект проникает в самые разные области —медицинскую, финансовую, сфер потребления и услуг и т.д., и регулирование ИИ повлечет за собой новые решения на основе искусственного интеллекта в этих секторах. Однако эти сферы регулируются специальным отраслевым законодательством, и будущее регулирование ИИ также возможно по направлению конкретизации, а не общих положений.
Еще одной сложностью является признание деликтоспособности искусственного интеллекта. «Гражданско-правовая ответственность — это обеспеченное государственным принуждением возложение предусмотренных законом или договором лишений имущественного характера на лицо, совершившее неправомерное действие»10.
Как указывают Д. А. Пашенцев и В. В. Гарамита, «вина представляет собой ц
сознательное и осознанное психическое отношение правонарушителя к своему противоправному поведению и его результату, проявляющееся в пренебреже- р
нии или безразличии к интересам государства и общества и, соответственно, в тО
выборе противоправного, антисоциального варианта поведения. Помимо этого, составляющей вины выступает отношение самого общества к правонарушителю
СН
9 См.: Архипов В. В., Наумов В. Б. Искусственный интеллект и автономные устройства Кп
П
в контексте права: о разработке первого в России закона о робототехнике // Труды ^В
СПИИРАН. 2017. Вып. 55. С. 46—62 ; Понкин И. В., Редькина А. И. Искусственный интел- Д Р
лект с точки зрения права // Вестник Российского университета дружбы народов. Серия : Я <1
Юридические науки. 2018. № 1. Т. 22. С. 96. ЕпЦ
10 Гражданское право : учебник : в 2 т. / С. С. Алексеев, О. Г. Алексеева, К. П. Беляев [и др.] ; Ь Я
под ред. Б. М. Гонгало. 3-е изд., перераб. и доп. М. : Статут, 2018. Т. 1. С. 114. НОСТИ
>
в М УНИВЕРСИТЕТА
L-—и мени О. Е. Кугафи на (МПОА)
и его поведению, однако приоритет при характеристике вины отдается первому признаку»11.
Ни понятие вины, ни лишения имущественного характера к искусственному интеллекту не могут быть применены. Искусственный интеллект не может чувствовать вины, не может чувствовать каких бы то ни было лишений. Если действия человека ограничиваются осознанием негативных последствий, то трудно представить, что какие бы то ни было негативные последствия могут ограничивать действия искусственного интеллекта.
Если искусственный интеллект приобретает какие-либо материальные ценности, это не означает возникновения у него правоспособности, аналогичной правоспособности человека.
При рассмотрении правового регулирования правосубъектности искусственного интеллекта В. Шершульский отмечает: «Вскоре информационные системы смогут принимать важные решения, касающиеся финансовых транзакций, управления автомобилями, медицинских процедур и применения оружия. Кто будет отвечать за последствия?»12. В соответствии со ст. 1064 ГК РФ вред, причиненный личности или имуществу гражданина, а также вред, причиненный имуществу юридического лица, подлежит возмещению в полном объеме лицом, причинившим вред. Очевидно, что искусственный интеллект может причинить вред, но возместить ничего не может.
Необходимо отметить, что в Европейском союзе после трагических инцидентов с применением беспилотных автомобилей стали широко обсуждать возможность наделения роботов правовым статусом и, как следствие, возможностью привлечения электронного лица (электронной сущности) к ответственности13. На наш взгляд, именно вопросы ответственности могут выступить краеугольным камнем при наделении искусственного интеллекта правосубъектностью.
На данном этапе предложено немало подходов к решению проблемы регулирования искусственного интеллекта, интернета вещей и робототехники. Некоторые подходы представляют как теоретический, так и практический интерес.
В литературе встречаются два основных подхода к регулированию систем ИИ. Первый рассматривает их с позиции формального подхода, учитывая сложившуюся правовую систему и ее институты, позволяющие в определенной мере регулировать ИИ, т.е. институт юридической ответственности, нормы об информационной безопасности, конфиденциальности, защите персональных данных, нормы отраслевого права.
Второй подход — технологический. Он сводится к регулированию отдельных систем ИИ, юнитов. Как показал обзор литературы, как в российской, так и в зарубежной науке преобладает первый подход. Однако, оценивая с позиции инновационного, научно-технологического развития области искусственного
11 Пашенцев Д. А, Гарамита В. В. Вина в гражданском праве. М. : Юркомпани, 2010. С. 42.
12 Шершульский В. Юриспруденция и искусственный интеллект: наступает эпоха беспрецедентных вызовов // URL: https://ru.valdaidub.com/events/posts/artides/yurisprudentsiya-i-iskusstvennyyintellekt-nastupaet-epokha-bespretsedentnykh-vyzovov.
13 Антонов А. А. Искусственный интеллект как источник повышенной опасности // Юрист. 2020. № 7.
интеллекта, можно предположить, что в будущем, вероятнее всего, акцент сместится в сторону второго, технологического, подхода и разработки специального законодательства — на первом этапе базового или рамочного, по регулированию ИИ в целом, на втором — отдельных систем ИИ, юнитов ИИ.
Проблема концепции правосубъектности искусственного интеллекта во многом спорная14. П. М. Морхат полагает, что необходимо не форсирование регулирования ИИ, а комплексное рассмотрение вопросов, в том числе связанных с возможными рисками собственно технологии ИИ. Но и излишняя зарегулирован-ность потенциальных рисков может быть неэффективной. Регулирующие органы и государство должны способствовать объективному устойчивому, но осторожному развитию ИИ.
Государственная политика разработки и использования систем ИИ должна быть направлена на всеобщее благо, что и предполагается при построении информационного и цифрового общества. Одним из определяющих принципов развития правового регулирования искусственного интеллекта видится принцип предосторожности.
В резолюции Европейского парламента 2017 г. «О правилах гражданского права о робототехнике»15 (Civil Law Rules on Robotics, CLRR) заявлено: «Необходимо создание особого правового статуса для роботов в долгосрочной перспективе, чтобы, по крайней мере, самые сложные автономные роботы могли быть созданы с присвоением статуса "электронных лиц", ответственных за устранение любого ущерба, который они могут причинить, и возможно применение электронной личности в случаях, когда роботы принимают автономные решения или иным образом независимо взаимодействуют с третьими сторонами»16.
В резолюции «О правилах гражданского права о робототехнике» представлены следующие принципы:
1) законодательство направленно на разработчиков, производителей и операторов роботов, включая роботов, которым назначена встроенная автономия и самообучение, поскольку эти законы не могут быть преобразованы в машинный код;
2) правила и нормы не должны влиять на процесс исследований, инноваций и разработок в области робототехники;
3) установление основных этических принципов, которые должны соблюдаться при разработке, программировании и использовании роботов и ИИ;
В
Р
4) кодекс этического поведения для инженеров-робототехников, кодекс коми тетов по этике и пользователей;
14
15
16
recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)).
J=
тетов по этике исследований, «лицензия» для дизайнеров и «лицензия» для m □
Д *
в Р
Морхат П. М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые аспекты : дис. ... д-ра юрид. наук. М. : др
РГАИС, 2018. С. 103. °В
* П
Civil Law Rules on Robotics // URL: https://www.europarl.europa.eu/doceo/document/ta-8-2017-0051_en.html (дата обращения: 22.09.2021).
—I i5
European Parliament (2017). European Parliament resolution of 16 February 2017 with El!
ЬЯ
Paragraph 59. НОСТИ
>
в М УНИВЕРСИТЕТА
L-—и мени О. Е. Кугафи на (МПОА)
5) постепенность, прагматичность и осторожность в отношении будущих инициатив по робототехнике и искусственному интеллекту;
6) целесообразно начать с вопросов гражданской ответственности.
К резолюции прилагается Хартия робототехники (Charter on Robotics)17, в которой отмечается, что предлагаемый кодекс этического поведения в области робототехники заложит основу для идентификации, надзора и соблюдение фундаментальных этических принципов на этапе проектирования и разработки. Кодекс призван обеспечить этическую категоризацию робототехники, усилить мотивацию к ответственности за системы ИИ. В Хартии отмечено, что особое внимание следует уделять этапам исследований и разработок соответствующей технологии ИИ.
Некоторые исследователи18 проводят аналогию с правосубъектностью юридических лиц, утверждая, что искусственный интеллект также может иметь права, как и юридическое лицо. Юридическое лицо — явление сугубо правовое. Однако не стоит забывать, что за юридическим лицом всегда стоят физические лица (учредители, участники, акционеры, исполнительный орган и т.п.). Воля при осуществлении деятельности исходит не от юридического лица непосредственно, а в конечном счете — от человека.
Г. Ф. Ручкина выделяет несколько формирующихся подходов в мировой практике к наделению искусственного интеллекта правосубъектностью:
1) искусственный интеллект = объект права;
2) искусственный интеллект = субъект права (физическое лицо);
3) искусственный интеллект = юридическое лицо;
4) искусственный интеллект = электронное лицо (агент)19.
На наш взгляд, абсолютно очевидна несостоятельность второго подхода, предлагающего наделить искусственный интеллект аналогичной с физическим лицом правосубъектностью.
Признавать искусственный интеллект лишь объектом права представляется слишком консервативным подходом, который может существенно ограничить применение новых технологий.
Наиболее рациональным, но не бесспорным, видится использование концепции правосубъектности искусственного интеллекта по типу юридического лица либо электронного лица (хотя с некоторыми допущениями данные позиции представляются весьма сходными).
Основными критериями, которым должен соответствовать искусственный интеллект как юридическое/электронное лицо, являются:
17 Charter on Robotics // Official Journal of the European Union. 2018. URL: https://eur-lex. europa.eu/legal-content/en/txt/pdf/?uri=celex:52017ip0051&from=en (дата обращения: 22.09.2021).
18 Понкин И. В. Искусственный интеллект с точки зрения права // Вестник РУДН. Серия : Юридические науки. 2018. Т. 22. № 1. С. 96.
19 Ручкина Г. В. Искусственный интеллект, роботы и объекты робототехники: к вопросу о теории правового регулирования в Российской Федерации // Банковское право. 2020. № 1.
1) наличие учредителя (физического или юридического лица, которое будет представлять при необходимости интересы робота);
2) наличие определенного финансового обеспечения по типу уставного капитала, который может быть использован при возмещении вреда. Следует иметь в виду, что правовой статус робота не может происходить ни
из классической модели физического лица, поскольку в этом случае робот будет обладать правами человека, ни из классической модели юридического лица, поскольку она подразумевает существование лица — руководителя, стоящего за юридическим лицом, чтобы представлять его интересы, что не относится к роботам20.
Аналогичная позиция высказана в 2019 г. экспертной группой по ответственности и новым технологиям (Expert Group on Liability and New Technologies), назначенной Европейской комиссией, которая также отрицает необходимость принятия понятия электронной личности в Отчете об ответственности за искусственный интеллект (Report on Liability for Artificial Intelligence): «В настоящее время нет необходимости предоставлять юридическое лицо развивающимся цифровым технологиям. Любая форма правосубъектности новых цифровых технологий может вызвать ряд этических проблем»21.
Любая «дополнительная личность» должна взаимодействовать со средствами, назначенными такими электронными лицами, чтобы против них можно было эффективно предъявлять претензии, что равносильно ограничению ответственности. Для реального размера ответственности электронные агенты должны иметь возможность приобретать активы самостоятельно. Это потребует решения ряда законодательных проблем, касающихся их правоспособности и того, как они действуют при совершении юридических сделок, — такой вывод сделан в Отчете об ответственности за искусственный интеллект.
П. М. Морхат утверждает, что могут возникать и определенные проблемы в зависимости от примененной к электронным лицам концепции правосубъектности22. Если рассматривать правосубъектность электронного лица как индивидуального субъекта, аналогичного человеку, предоставление ему такого правового статуса является важным шагом на пути к получению полного набора конституционных («человеческих») прав, что может порождать в дальнейшем иные проблемы и вопросы, например, относительно того, можно ли к юнитам искусственного интеллекта применить такие конституционные гарантии, как, например, право не
!3 В
АА
A *
в В
europa.eu/regdata/etudes/stud/2020/621926/ipol_stu(2020)621926_en.pdf (дата обращения: С А
23.09.2021). An
П
Report on the safety and liability implications of Artificial Intelligence, the Internet of Things
and robotics. Brussels, 19.2.2020 C0M(2020) 64 final // URL: https://eur-lex.europa.eu/legal- Д В
content/en/txt/pdf/?uri=celex:52020dc0064&from=en (дата обращения: 23.09.2021). Я t.
Т ï5
Морхат П. М. Юнит искусственного интеллекта как электронное лицо. С. 70. Ell
Chopra S., White L. Artificial Agents — Personhood in Law and Philosophy // URL: http://www. Ь Я
sci.brooklyn.cuny.edu/~schopra/agentlawsub.pdf (дата обращения: 23.09.2021). НОСТИ
содержаться в рабстве23
20
Policy Department for Citizens' Rights and Constitutional Affairs // URL: https://www.europarl.
J=
>
в Я УНИВЕРСИТЕТА
L-—и мени О. Е. Кугафи на (МПОА)
Присвоение юнитам ИИ статуса «электронное лицо» может привести к ослаблению правовой защиты людей по сравнению с ними24. Наделение юнита ИИ электронной личностью с правовой точки зрения будет означать также и способность такого юнита нести ответственность за свои действия или бездействие. Одна из существенных проблем заключается в сложности надлежащей идентификации юнита, особенно если аппаратное и программное обеспечение распределено по разным сайтам и поддерживается разными лицами. В таком случае необходимо будет создание и ведение соответствующего реестра, по аналогии с реестрами юридических лиц25.
Высказывается мнение о необходимости функционального основания для признания определенного класса приложений с технологией ИИ по аналогии со статусом юридического лица: установление prima facie и единственной ответственной стороны по отношению к жертве, когда для истца невозможно или слишком дорого установить агента или агентов, которые в основном контролируют риски, связанные с продуктом или услугой на основе ИИ, или извлекают выгоду из системы ИИ.
Это может быть актуально, когда продукт или услуга на основе ИИ предоставляется с участием нескольких сторон, которые создают, обучают, управляют и предлагают важные услуги (например, в случае экспертной системы, используемой для консультирования), которые трудно разделить, чтобы формализовать ответственность одного конкретного агента. Это функциональное основание и при разрешении разделения активов — более удобный для заявителей способ ограничения ответственности, чем установление максимального размера ущерба посредством специального нормативного положения26.
Рассмотрим правовые проблемы использования юнитов, например в юридической практике, но отметим, что обозначенные ниже проблемы являются достаточно общими:
1) обеспечение конфиденциальности персональной (личной) и профессиональной информации;
2) доступ правоохранительных органов к конфиденциальной информации;
3) нерегулируемость применения юнитов в юридической практике;
4) юридическая этика юнита искусственного интеллекта;
5) уязвимость юнита ИИ для кибератак и вирусов, обеспечение кибербезопас-ности систем ИИ;
6) рассмотрение комплексных, сложных, неоднозначных дел юридической (судебной) практики и проблема ситуативной и смысловой неопределенности, а нередко и противоречивость;
7) ненадлежащее понимание и толкование права юнитом ИИ;
24 Bryson J. J., Diamantis M. E, Grant T. D. Of, For, and By the People: The Legal Lacuna of Synthetic Persons // URL: http://www.cs.bath.ac.uk/~jjb/ftp/brysondiamantisgrant17-preprint. pdf (дата обращения: 23.09.2021).
25 Weitzenboeck E. M. Electronic Agents and the Formation of Contracts // International Journal of Law and Information Technology. 2001. Vol. 9. No. 3. P.215.
26 Artificial Intelligence and Civil Liability. European Parliament. Requested by the JURI committee. July 2020. P. 35.
8) невозможность учитывать юнитом ИИ опыт профессионального юриста при рассмотрении тактически сложных дел;
9) недостаток качества (недостоверность) интеллектуального экспертно-анали-тического материала с использованием юнита ИИ.
Таким образом, переосмысление роли роботов в общественной жизни ставит задачу гуманного подхода к правовому регулированию использования ИИ. Автономные интеллектуальные системы не должны нести ответственность за свои действия. Тем не менее необходимо решить вопрос о введении ответственности, ее юридическом обосновании и закреплении. В перспективе будет совмещен волевой компонент (человек/учредитель) и деятельностный (правовая возможность искусственного интеллекта приобретать права и обязанности).
Законодательство в области регулирования искусственного интеллекта только начинает формироваться. Изменение законодательства в сфере ИИ будет постепенным, поскольку технологии искусственного интеллекта только развиваются. В настоящее время сильный и сверхсильный искусственный интеллект практически не создан. Сверхсильный ИИ будет превосходить человеческие интеллектуальные возможности, но это также вопрос будущего. В связи с этим риски и выгоды ИИ также до конца не определены.
Нужен подход к правовому регулированию в рамках юридической ответственности, связанной с пользователями, владельцами или производителями систем ИИ, а не с самими технологическими объектами.
Если правосубъектность ИИ будет выстраиваться по аналогии с правосубъектностью юридических лиц, достаточно внесения изменений в Гражданский кодекс РФ, чтобы на текущем этапе применения искусственного интеллекта определить базовые принципы и правовое регулирование данной сферы.
Вполне возможно, что в дальнейшем, по мере развития и еще более широкого применения данной технологии, возникнет необходимость в принятии федерального закона, подробно регламентирующего пределы деятельности искусственного интеллекта. На данном этапе это представляется нерациональным.
БИБЛИОГРАФИЯ
Ц
1. Антонов А. А. Искусственный интеллект как источник повышенной опасности // Юрист. — 2020. — № 7. Р
теории правосубъектности // Гражданское право. — 2019. — № 5.
2. Архипов В. В., Наумов В. Б. Искусственный интеллект и автономные устрой- тО ства в контексте права: о разработке первого в России закона о робототех- ^Я нике // Труды СПИИРАН. — 2017. — Вып. 55. — С. 46—62. О Т
3. Блажеев В. В. Предисловие // Правовое регулирование искусственного интеллекта в условиях пандемии и инфодемии» : монография / под общ. ред.
В. В. Блажеева, М. А. Егоровой. — М. : Проспект, 2020. — 240 с. Од
4. Гражданское право : учебник : в 2 т. / С. С. Алексеев, О. Г. Алексеева, К. П. Бе- д □ ляев [и др.] ; под ред. Б. М. Гонгало. — 3-е изд., перераб. и доп. — М. : Статут,
2018. — Т. 1. ТЦ
гпЛ
5. Дурнева П. Н. Искусственный интеллект: анализ с точки зрения классической ^
сгя
НОСТИ
>
в Я УНИВЕРСИТЕТА
L-—и мени О. Е. Кугафи на (МПОА)
6. Морхат П. М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые аспекты : дис. ... д-ра юрид. наук. — М. : РГАИС, 2018. — 420 с.
7. Морхат П. М. Юнит искусственного интеллекта как электронное лицо // Вестник Московского государственного областного университета. — 2018. — № 2. — С. 61—73.
8. Пашенцев Д. А., Гарамита В. В. Вина в гражданском праве. — М. : Юрком-пани, 2010.
9. Понкин И. В. Искусственный интеллект с точки зрения права // Вестник РУДН. — Серия : Юридические науки. — 2018. — Т. 22. — № 1.
10. Понкин И. В., Редькина А. И. Искусственный интеллект с точки зрения права // Вестник Российского университета дружбы народов. — Серия : Юридические науки. — 2018. — № 1. — Т. 22.
11. Ручкина Г. В. Искусственный интеллект, роботы и объекты робототехники: к вопросу о теории правового регулирования в Российской Федерации // Банковское право. — 2020. — № 1.
12. Синюков В. Н. Право XX и XXI веков: преемственность и новизна // Lex russica. — 2021. — Т. 74. — № 2 (171).
13. Artificial Intelligence and Civil Liability. — European Parliament. Requested by the JURI committee, July 2020. — 136 p.
14. Weitzenboeck E. M. Electronic Agents and the Formation of Contracts // International Journal of Law and Information Technology. — 2001. — Vol. 9. — No. 3. — P. 204—234.