Научная статья на тему 'О НЕКОТОРЫХ ПРАВОВЫХ ПОДХОДАХ К ОПРЕДЕЛЕНИЮ ПРАВОСУБЪЕКТНОСТИ ИСКУССТВЕННЫХ ИНТЕЛЛЕКТУАЛЬНЫХ СИСТЕМ'

О НЕКОТОРЫХ ПРАВОВЫХ ПОДХОДАХ К ОПРЕДЕЛЕНИЮ ПРАВОСУБЪЕКТНОСТИ ИСКУССТВЕННЫХ ИНТЕЛЛЕКТУАЛЬНЫХ СИСТЕМ Текст научной статьи по специальности «Право»

CC BY
90
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЕ ИНТЕЛЛЕКТУАЛЬНЫЕ СИСТЕМЫ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ПРАВОВОЕ РЕГУЛИРОВАНИЕ / ПРАВОВОЕ ГОСУДАРСТВО / ДЕЕСПОСОБНОСТЬ / ПРАВОСПОСОБНОСТЬ / ЧАСТИЧНАЯ ПРАВОСПОСОБНОСТЬ / ДЕЛИКТОСПОСОБНОСТЬ / ARTIFICIAL INTELLECTUAL SYSTEMS / ARTIFICIAL INTELLIGENCE / LEGAL REGULATION / RULE-OF-LAW STATE / LEGAL CAPABILITY / LEGAL CAPACITY / PARTIAL LEGAL CAPACITY / DELECTABILITY

Аннотация научной статьи по праву, автор научной работы — Горохова Светлана Сергеевна

Вопросы определения места искусственных интеллектуальных систем (далее - ИИС) в структуре новых, определяемых уровнем технологического развития правоотношений - одна из актуальных задач современного российского правоведения. Наиболее важной проблемой, детерминированной запросами правоприменения и необходимостью согласования с требованиями построения правового государства, является исследование принципиальных позиций в отношении условий и порядка привлечения к юридической ответственности субъектов по деликтам с участием искусственного интеллекта (далее - ИИ). Цель: анализ подходов к определению и содержанию правосубъектности, в частности возможной правосубъектности ИИС, с акцентом на правила возложения ответственности за деликты с их участием. Методы: включают в себя диалектический и метафизический методы познания (в качестве философской основы выполняемой работы), общенаучные методы (анализ, синтез, абстрагирование, выдвижение гипотез и др.), а также частнонаучные (сравнительно-правовой, юридико-догматический, кибернетический, толкования) методы научного познания. Результаты: в исследовании для целей определения правосубъектности ИИ обосновывается наибольшая значимость его классификации на слабый ИИ узкого назначения (Narrow AI), сильный ИИ общего назначения (General AI) и сверхсильный интеллект (Super AI). На основе материалов научных источников сформулирован концепт «частичная правоспособность» и научно обоснована возможность его применения в отношении сильного и сверхсильного ИИ. Представлены принципиальные теоретические позиции (общее правило и исключения) в отношении условий и порядка привлечения к юридической ответственности субъектов по деликтам с участием ИИ.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ON SOME LEGAL APPROACHES TO DETERMINING THE LEGAL PERSONALITY OF ARTIFICIAL INTELLECTUAL SYSTEMS

The issues of determining the place of artificial intellectual systems in the structure of new legal relations determined by the level of technological development are one of the most urgent tasks of modern Russian law today. The most important problem, determined by the requirements of law enforcement and the need to comply with the requirements of building of the rule-of-law state, is the study of fundamental positions regarding the conditions and procedure for bringing subjects to legal responsibility for torts involving artificial intelligence (AI). Purpose: to analyze approaches to the definition and content of legal personality, in particular, the possible legal personality of artificial intellectual systems, with an emphasis on the rules for imposing liability for torts involving them. Methods include dialectical and metaphysical methods of cognition (as the philosophical basis of the work performed); general scientific methods (analysis, synthesis, abstraction, hypotheses, etc.); as well as special scientific (comparative-legal, legal-dogmatic, cybernetic, interpretation) methods of scientific cognition. Results: the study, for the purpose of determining the legal personality of AI, justifies the greatest significance of its classification into: weak narrow-purpose AI (Narrow AI), strong general-purpose AI (General AI), and super-strong intelligence (Super AI). Based on the materials of scientific sources, the concept of «partial legal capacity» is formulated and the possibility of its application to strong and super-strong AI is scientifically justified. Fundamental theoretical positions (General rule and exceptions) regarding the conditions and procedure for bringing subjects to legal responsibility for torts involving AI are presented.

Текст научной работы на тему «О НЕКОТОРЫХ ПРАВОВЫХ ПОДХОДАХ К ОПРЕДЕЛЕНИЮ ПРАВОСУБЪЕКТНОСТИ ИСКУССТВЕННЫХ ИНТЕЛЛЕКТУАЛЬНЫХ СИСТЕМ»

УДК 347; 004.8

DOI 10.33184/pravgos-2020.4.4

О НЕКОТОРЫХ ПРАВОВЫХ ПОДХОДАХ К ОПРЕДЕЛЕНИЮ ПРАВОСУБЪЕКТНОСТИ ИСКУССТВЕННЫХ ИНТЕЛЛЕКТУАЛЬНЫХ СИСТЕМ1

ГОРОХОВА Светлана Сергеевна

кандидат юридических наук, доцент, доцент Департамента международного и публичного права Финансового университета при Правительстве Российской Федерации, г. Москва, Россия. Е-mail: sgorohova@fa.ru

Вопросы определения места искусственных интеллектуальных систем (далее - ИИС) в структуре новых, определяемых уровнем технологического развития правоотношений - одна из актуальных задач современного российского правоведения. Наиболее важной проблемой, детерминированной запросами правоприменения и необходимостью согласования с требованиями построения правового государства, является исследование принципиальных позиций в отношении условий и порядка привлечения к юридической ответственности субъектов по деликтам с участием искусственного интеллекта (далее - ИИ). Цель: анализ подходов к определению и содержанию правосубъектности, в частности возможной правосубъектности ИИС, с акцентом на правила возложения ответственности за деликты с их участием. Методы: включают в себя диалектический и метафизический методы познания (в качестве философской основы выполняемой работы), общенаучные методы (анализ, синтез, абстрагирование, выдвижение гипотез и др.), а также частнонаучные (сравнительно-правовой, юридико-догматический, кибернетический, толкования) методы научного познания. Результаты: в исследовании для целей определения правосубъектности ИИ обосновывается наибольшая значимость его классификации на слабый ИИ узкого назначения (Narrow AI), сильный ИИ общего назначения (General AI) и сверхсильный интеллект (Super AI). На основе материалов научных источников сформулирован концепт «частичная правоспособность» и научно обоснована возможность его применения в отношении сильного и сверхсильного ИИ. Представлены прин-

1 Статья подготовлена по результатам исследований, выполненных за счет бюджетных средств по государственному заданию Финансовому университету при Правительстве РФ.

31

ципиальные теоретические позиции (общее правило и исключения) в отношении условий и порядка привлечения к юридической ответственности субъектов по деликтам с участием ИИ.

Ключевые слова: искусственные интеллектуальные системы; искусственный интеллект; правовое регулирование; правовое государство; дееспособность; правоспособность; частичная правоспособность; деликто-способность.

Нахождение человечества на стадии шестого технологического уклада свидетельствует о внедрении в нашу жизнь по меньшей мере пяти факторов, способных полностью изменить не только материальную, но и духовно-нравственную составляющую цивилизационного развития. К их числу должны быть, безусловно, отнесены базы данных, различные алгоритмы, нейронные сети, многообразные облачные технологии, социальные сети и системы экспоненциального улучшения аппаратного обеспечения. Перечисленные технологии свидетельствуют о новом этапе взаимодействия человека и окружающего его мира технических вещей, основанном на массовом использовании различного рода киберфизических систем, в том числе слабом (NAI) и сильном (GAI) ИИ.

В настоящее время ставится вопрос о расширении перечня субъектов права за счет включения либо некоторых видов «юридических вещей» (например, высокоорганизованных животных), либо принципиально новых феноменов, таких как ИИС [1]. На примере широко обсуждаемого присвоения статуса субъекта животному очевидно, что речь в первую очередь идет о признании за ним некоторых прав, то есть о закреплении на законодательном уровне определенного объема правоспособности. В связи с этим анализ вопроса о правосубъектности ИИ, роботов и объектов роботизированной техники также следует начать с обсуждения возможности установления правоспособности указанных технологических систем. Отметим, что дискуссия, в принципе, имеет смысл только в том случае, если мы говорим как минимум о так называемом сильном ИИ (General AI), то есть способном действовать автономно и сопоставимым по своим характеристикам с интеллектом естественным, присущим человеку.

Напомним, что впервые определение «искусственный интеллект» (AI) было сформулировано еще в 1950-х годах. Автор самого термина, Дж. Маккарти, в качестве AI предлагал определять созданную человеком машину, обладающую способностью решать задачи и самообучаться. Кроме того, предполагалось, что такая машина будет способна анализировать механизм человеческого мышления и имитировать мыслительный

32

процесс человека для моделирования интеллектуальной деятельности искусственным путем. Позднее определение ИИ (А1), перечень его целей и задач изменялись в зависимости от сферы применения и возможности определения не только преимуществ его использования, но и рисков.

Развитие киберфизических и когнитивных систем, основанных на использовании ИИ, зависит от заложенного в них алгоритма, заданного для принятия ими оптимального решения в определенных целях. Как известно, основой для такого алгоритма является опыт и способность рационально оценивать риски принятия тех или иных решений. Вопрос, который важен для определения места роботов, объектов робототехники или ИИ, заключается в том, кто является автором такого алгоритма и может ли конкретный «умный робот» изменить его в зависимости от полученной в ходе самообучения информации.

По аналогии с трактовкой человека как биосоциального существа, в котором сознание (идеальное) и тело (материальное) представляют собой неразрывную дихотомию, в науке и практике предпринимаются попытки создания единого виртуального «человека» (интеллектуальной системы), в котором ИИ будет помещен в тело робота или отдельный объект робототехники. Такие системы должны, считает Д.А. Поспелов, обладать тремя базовыми функциями, выражаемыми в способности:

а) предоставлять и обрабатывать знания, иметь способность к самообучению, то есть анализу информации, сопоставлению полученных данных с уже существующими и в конечном итоге к синтезу нового знания;

б) рассуждать, формируя логические умозаключения, используя их потенциал, осуществлять рациональное планирование дальнейшей деятельности;

в) к взаимодействию между интеллектуальными системами (естественными и искусственными) при помощи естественных языков, слуха, зрения, когда ИИ будет способен «понимать» собственные действия, принимать обоснованные решения, не нарушая права и свободы человека, в интересах социума [2].

В начале XXI в. в научной литературе было определено, что системы, оснащенные программами искусственного интеллекта, должны «думать» рационально и действовать рационально, как люди [3], то есть ИИ определяется как рационально действующий «агент», обладающий способностью самостоятельно разрабатывать алгоритмы поведения, но не наделенный человечностью, которая является обязательной для естественного интеллекта. Электронная виртуальная реальность и ИИ, в соответствии с абиотической теорией А.И. Опарина, возникает примерно по

33

той же схеме, что и жизнь на Земле - из «протожизненных элементов-коацерватов» [4]. Поэтому создание «параллельной» действительности уже не представляется утопией [5].

Проведя сравнительный анализ всех существующих определений ИИ, можно систематизировать их следующим образом, ИИ - это:

- система, обладающая аналогичными человеку когнитивными способностями и действующая в силу этого факта как человек;

- система (устройство), обладающая(-ее) хотя бы одним из свойств человеческого разума;

- результат человеческой деятельности, определяемый как архисложная совокупность коммуникационных и технологических элементов, обладающий способностью логически мыслить, руководить собственными действиями и корректировать принимаемые решения в соответствии с изменениями объективных условий [6];

- сверхразум, по своим характеристикам превосходящий интеллектуальные способности человека;

- научное направление, изучающее возможность использования систем (устройств) для моделирования человеческого мышления (машинное обучение) [7].

Как видим, несмотря на то что современное развитие технологий на основе ИИ и соответствующей новой отрасли научного знания насчитывает уже почти 70 лет, до сих пор нет единства в определении ИИ. Задача скорейшего правового регулирования ИИ ставится во главу угла начиная с 2010-х годов и особенно приобрела актуальность в 2015-2017 гг., когда практически во всех технологически преуспевающих странах мира можно было наблюдать развитие технологий ИИ, свидетельствующее о наступлении шестого технологического уклада в развитии человеческой цивилизации. Период 2017-2019 гг. стал периодом принятия целого ряда юридических документов, определяющих не только сферы применения различных видов роботов, роботизированных и киберфизических систем, основанных на ИИ, самого ИИ, но и необходимость их правового регулирования.

Первой в этом ряду следует назвать Китайскую Народную Республику, которая еще в 2017 г. приняла «План развития систем искусственного интеллекта в Китае до 2030 г.»1. Однако необходимо отметить, что, несмот-

1 Next Generation Artificial Intelligence Development Plan [Электронный ресурс] // The State Council of People's Republic of China. URL: http://www.gov.cn/zhengce/ con-tent/2017-07/20/content_5211996.htm (дата обращения: 30.03.2020).

34

ря на то что термин «искусственный интеллект» упоминается в указанном Плане, его легальное дефинитивное содержание пока так и не определено.

Второй страной, принявшей стратегические документы в сфере применения искусственного интеллекта, стали Соединенные Штаты Америки. Так, в докладе «Искусственный интеллект и национальная безопасность» (2018) Объединенного центра искусственного интеллекта (ГАГС) отмечается, что, с одной стороны, ИИ предоставляет новые возможности для человечества в сфере социально-экономической жизни, с другой стороны, влечет за собой большие риски, в том числе в военной, экономической, правовой и морально-этической областях. В том же году США совместно Великобританией начали программу исследований плюсов и минусов использования ИИ, прежде всего, в военной сфере [8]. Однако и в этих документах легального определения ИИ нет.

Европейский союз в 2017 г.1 предложил рассматривать промышленных роботов как электронных личностей, труд которых используется работодателями в различных областях жизнедеятельности, способных помогать человеку на его пути к обществу всеобщего благоденствия. Однако в дальнейшем под воздействием просвещенного мнения европейских ученых, высказавшихся против придания ИИ статуса электронной личности, концепция была пересмотрена в пользу сохранения за ИИС статуса «юридической вещи», то есть объекта, а не субъекта правоотношений.

В Российской Федерации определение ИИ дано в «Стратегии развития искусственного интеллекта до 2030 г.», утвержденной указом Президента РФ от 10 октября 2019 г. № 490 . ИИ - это «комплекс технологических решений», способных имитировать определенный ряд свойств человека, и прежде всего такое свойство естественного разума, как способность к самообучению. Такая способность является основополагающей и актуализирует вопросы определения места искусственного интеллекта в системе как уже сложившихся общественных отношений, так и складывающихся в недалеком будущем в целях обеспечения благосостояния всех людей, национальной безопасности и экономического развития в современных условиях государственно-правового развития.

1 Civil Law Rules on Robotics European Parliament resolution of 16.02.2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). EP reference number: P8_TA (2017)005.

2 О развитии искусственного интеллекта в Российской Федерации (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») : указ Президента РФ от 10.10.2019 № 490 [Электронный ресурс] // Офиц. интернет-портал правовой информации. URL: http://www.pravo.gov.ru (дата обращения: 11.10.2020).

35

Отметим также, что 24 апреля 2020 г. Государственной Думой РФ, был принят Федеральный закон «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"»1, вступивший в силу с 1 июля текущего года. Указанный акт на законодательном уровне закрепил легальное определение ИИ в Российской Федерации, фактически дословно повторив определение, данное ранее в Стратегии.

В ситуации, когда ИИ получил наконец легальное определение в нашей стране, вновь актуализируется вопрос теоретического обсуждения придания наиболее продвинутым ИИС (General AI и Super AI) статуса в правоотношениях, отличного от чистого их объекта [1]. С юридической точки зрения главный вопрос заключается в том, необходимо ли наделять интеллектуальных агентов правосубъектностью по доктринальным или практическим соображениям.

Есть много разных мнений по этому вопросу, и, отметим, разнятся они кардинально. Некоторые считают, что отсутствует правовая и философская необходимость придавать правовой статус субъекта ИИС [9]. Другие убеждены, что возможна специальная правосубъектность электронных лиц в контексте агентских отношений [10]. Также существует мнение, что необходимо применение концепции коллективного субъекта права к электронному лицу [11] или же, напротив, концепции индивидуального субъекта [12]. Некоторые настаивают на том, что ИИ не полноценный субъект, а так называемый квазисубъект права [13]. Ряд исследователей говорят о «контекстуальном» вариативном правовом статусе ИИ [14]. Наконец, есть мнение, что приемлемым выходом будет частичная правоспособность для ИИ [15]. Последней точки зрения придерживаемся и мы, поскольку при таком подходе правоспособность имеет ограниченный характер и включает в себя не классические права, а скорее право-обязанности, сконструированные по типу «могут и должны». Применительно и к ИИС такая конструкция вполне оправдана, так как, с одной

1 О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» : федер. закон от 24.04.2020 № 123-Ф3 // Собрание законодательства РФ. 2020. № 17, ст. 2701.

36

стороны, способна наиболее точно отразить потенциальный агломерат прав для автономных от человеческой воли интеллектуальных систем, с другой стороны, предполагает определенные ограничения для будущих субъектов права, в последствии, вполне вероятно, могущих получить конкурентные преимущества перед физическими лицами и при этом избежать присущих им недостатков.

Для иллюстрации предлагаемого подхода приведем несколько примеров. Так, одной из перспективных сфер внедрения ИИС, бесспорно, может считаться производство и эксплуатация беспилотных транспортных средств - высоко- или полностью автоматизированных транспортных средств, функционирующих без вмешательства человека (далее - БТС) в совокупности с интеллектуальной дорожно-транспортной инфраструктурой (далее - ИДТИ), которая в соответствии с положениями распоряжения Правительства РФ от 25 марта 2020 г. № 724-р «Об утверждении Концепции обеспечения безопасности дорожного движения с участием беспилотных транспортных средств на автомобильных дорогах общего пользования»1 способна принять на себя часть задач по обеспечению безопасности дорожного движения с участием беспилотников.

Очевидно, что реализация указанной Концепции потребует внесения существенных изменений в законодательство, в том числе и путем предоставления интеллектуальным агентам (как в самом беспилотнике, так и в ИДТИ) определенных правообязанностей, обусловленных их функциональным назначением. Интеллектуальная часть БТС, к примеру, должна быть наделена правообязанностями следовать оптимальным маршрутом, осуществлять перевозки грузов (или пассажиров), принимать обоснованные анализом внешней ситуации решения по обеспечению их безопасности, взимать плату с пользователей (в случае оснащения БТС платежным терминалом) и др. ИДТИ, в свою очередь, также должна иметь специфические правообязаности, направленные на реализацию функционала указанной инфраструктуры.

Еще одна перспективная сфера применения ИИС - обеспечение общественной безопасности, включая, при необходимости, и социальный мониторинг (отслеживание и контроль перемещения, распознавание лиц, контроль за использованием электронных платежных средств). Здесь пра-

1 Об утверждении Концепции обеспечения безопасности дорожного движения с участием беспилотных транспортных средств на автомобильных дорогах общего пользования : распоряжение Правительства РФ от 25.03.2020 № 724-р [Электронный ресурс] // Министерство транспорта РФ : сайт. URL: https://www.mintrans.gov.ru/press-center/news/ 9472 (дата обращения: 03.07.2020).

37

вообязанности интеллектуальных агентов также должны следовать за возложенной на них функцией, включая правообязанности использования персональных данных (в том числе сведения ЗИЦ1 и РИЦ2), данных геолокации, доступа к отслеживанию использования платежных карт, принятия решения о квалификации фиксируемой средствами слежения ситуации в качестве потенциально криминогенной или противоправной и др. Полагаем, примеров можно привести много, и в любом из них права (обязанности) ИИС должны быть четко функционально обоснованы и ограничены.

Рассуждая о вариантах закрепления правоспособности ИИС, нельзя не затронуть тему деликтоспособности. И здесь ключевой вопрос заключается не в том, должен ли ИИ сам нести ответственность (что, на наш взгляд, просто неразумно), а в том, как выявить лицо, ответственное за действия интеллектуальных агентов.

Общее правило в этом смысле, по нашему мнению, должно быть таким: по деликтам с участием ИИ отвечает лицо, получающее прибыль от деятельности ИИ.

В общем праве очевидным решением было бы применение правила respondeat superior («отвечает старший»), которое гласит, что хозяин несет ответственность за действия своих агентов. Однако против такого универсального подхода есть ряд возражений.

Во-первых, трудно определить ответственность за ущерб, причиненный автономным роботом. Обычно повреждение может возникнуть из-за дефекта механической (программной) части, который означал бы, что производитель недостаточно информировал клиента об опасностях, связанных с автономными роботами, или что системы безопасности робота были недостаточны. В данном случае мы прослеживаем ответственность до производителя или разработчика программного обеспечения. Если робот продается с открытым исходным кодом программного обеспечения, лицом, несущим ответственность, должно, в принципе, быть то, которое запрограммировало приложение, приведшее к повреждению робота. Во-вторых, ущерб, причиненный автономными роботами, может быть прослежен до ошибки пользователя. В этом случае решение может варьироваться в зависимости от того, является ли пользователь профес-

1 Зональный информационный центр собирает данные, отражающие картину криминогенной обстановки.

2 ООО «Региональный информационный центр» (дочерняя компания ПАО «Ростелеком») реализует федеральные проекты в рамках программы «Безопасный город». Подсистемы: фото-, видеофиксация, весогабаритный контроль, интеллектуальное видеонаблюдение и другие элементы «Безопасного города».

38

сионалом или жертвой. Например, любой ущерб, связанный с инструкцией робота профессиональным пользователем и нанесенный жертве третьей стороной, влечет ответственность профессионального пользователя. Совершенно другая история, если такой же ущерб был причинен жертве, которая была профессиональным, оплачиваемым пользователем, поскольку тогда это будет считаться несчастным случаем на работе. В-третьих, не исключен перехват управления и перепрограммирование ИИС. Здесь, очевидно, ответственность должна быть применена к злоумышленнику, осуществившему указанные действия.

Развитие современных технологий может привести к дальнейшим беспрецедентным трудностям, когда будет сложнее установить, что вызвало причинение вреда в определенных ситуациях, особенно если робот способен к самообучению и принятию автономных решений. Однако говорить о том, что машина может частично или полностью нести ответственность за свои действия или бездействие, просто не имеет смысла.

Библиографический список

1. Горохова С.С. Идентификация искусственных интеллектуальных систем в правовом поле: основы кибер-права // Юридические исследования. 2020. № 6. С. 1-11.

2. Поспелов Д.А. Десять «горячих точек» в исследованиях по искусственному интеллекту // Интеллектуальные системы. 1996. Т. 1, вып. 1-4. C. 47-56.

3. Рассел С., Норвиг П. Искусственный интеллект: современный подход : пер. с англ. 2-е изд. М. : Вильямс, 2006. 1424 с.

4. Опарин А.И. Жизнь, ее природа, происхождение и развитие. 2-е изд., доп. М. : Наука, 1968. 173 с. URL: https://www.evolbiol.ru/oparin.htm.

5. Ященко В.А. Искусственный интеллект. Теория. Моделирование. Применение. Киев : Логос, 2013. 289 с.

6. Ястребов О.А. Правосубъектность электронного лица: теоретико-методологические подходы // Труды Ин-та государства и права РАН. 2018. Т. 13, № 2. С. 36-55.

7. Васильев А.А., Шпоппер Д., Матаева М.Х. Термин «искусственный интеллект» в российском праве: доктринальный анализ // Юрислин-гвистика. 2018. № 7-8. С. 35-44.

8. Виловатых А.В. Искусственный интеллект как фактор военной политики будущего // Проблемы национальной стратегии. 2019. № 1 (52). С. 177-192.

39

9. Hassler S. Do We Have to Build Robots That Need Rights? // North American. 2017. 06 Mar. URL: http://ieeexplore.ieee.org/stamp/stamp.jsp? ar-number=7864739.

10. Weitzenboeck E.M. Electronic Agents and the Formation of Contracts // International Journal of Law and Information Technology. 2001. Vol. 9, no. 3. P. 204-234.

11. МорхатП.М. Юнит искусственного интеллекта как электронное лицо // Вестник Московск. гос. областн. ун-та. Сер.: Юриспруденция. 2018. № 2. С. 61-73.

12. Chopra S., White L. Artificial Agents - Personhood in Law and Philosophy // Brooklyn College : сайт. URL: http://www.sci.brooklyn.cuny. edu/~schopra/ agentlawsub.pdf.

13. Пономарева Е.В. Субъекты и квазисубъекты права: теоретико-правовые проблемы разграничения : автореф. дис. ... канд. юрид. наук. Екатеринбург, 2019. 32 с.

14. Calo R. Robotics and the Lessons of Cyberlaw // California Law Review. 2015. Vol. 103, no. 3. P. 513-63. URL: https://ssrn.com/abstract= 2402972.

15. Jan-Erik S., Bachmann G. Artificial Intelligence and Legal Personality: Introducing Teilrechtsfâhigkeit: A Partial Legal Status Made in Germany. Berlin, 2018. URL: https://www.rewi.hu-berlin.de/de/lf/ls/bcm/team/jan-erik-schirmer/ publikationen-und-vortraege/Schirmer_RegulatingAI_ Teilrechtsfaehigkeit.pdf.

Дата поступления: 17.10.2020

ON SOME LEGAL APPROACHES TO DETERMINING THE LEGAL PERSONALITY OF ARTIFICIAL INTELLECTUAL SYSTEMS

GOROKHOVA Svetlana Sergeevna

Candidate of Sciences (Law), Associate Professor, Assistant Professor of the Department of International and Public Law, Financial University under the Government of the Russian Federation, Moscow, Russia. E-mail: sgorohova@fa.ru

The issues of determining the place of artificial intellectual systems in the structure of new legal relations determined by the level of technological development are one of the most urgent tasks of modern Russian law today. The most important problem, determined by the requirements of law enforcement and the need to

40

comply with the requirements of building of the rule-of-law state, is the study of fundamental positions regarding the conditions and procedure for bringing subjects to legal responsibility for torts involving artificial intelligence (AI). Purpose: to analyze approaches to the definition and content of legal personality, in particular, the possible legal personality of artificial intellectual systems, with an emphasis on the rules for imposing liability for torts involving them. Methods include dialectical and metaphysical methods of cognition (as the philosophical basis of the work performed); general scientific methods (analysis, synthesis, abstraction, hypotheses, etc.); as well as special scientific (comparative-legal, legal-dogmatic, cybernetic, interpretation) methods of scientific cognition. Results: the study, for the purpose of determining the legal personality of AI, justifies the greatest significance of its classification into: weak narrow-purpose AI (Narrow AI), strong general-purpose AI (General AI), and super-strong intelligence (Super AI). Based on the materials of scientific sources, the concept of «partial legal capacity» is formulated and the possibility of its application to strong and super-strong AI is scientifically justified. Fundamental theoretical positions (General rule and exceptions) regarding the conditions and procedure for bringing subjects to legal responsibility for torts involving AI are presented.

Keywords: artificial intellectual systems; artificial intelligence; legal regulation; rule-of-law state; legal capability; legal capacity; partial legal capacity; delectability.

References

1. Gorokhova S.S. Identification of artificial intelligent systems in the legal field: the basics of cyber law. YUridicheskie issledovaniya = Legal research, 2020, no. 6, pp. 1-11. (In Russian).

2. Pospelov D.A. Ten «hotspots» in artificial intelligence research. In-tellektual'nye sistemy = Intelligent systems, 1996, vol. 1, iss. 1-4, pp. 47-56. (In Russian).

3. Russell S., Norvig P. Iskusstvennyj intellekt: sovremennyj podhod [Artificial Intelligence: A Modern Approach]. 2nd ed. Moscow, Vil'yams Publ., 2006. 1424 p.

4. Oparin A.I. ZHizn', ee priroda, proiskhozhdenie i razvitie [Life, its nature, origin and development]. 2nd ed. Moscow, Nauka Publ., 1968. 173 p. Available at: https://www.evolbiol.ru/oparin.htm (In Russian).

5. YAshchenko V.A. Iskusstvennyj intellekt. Teoriya. Modelirovanie. Primenenie [Artificial Intelligence. Theory. Modeling. Application]. Kiev, Logos Publ., 2013. 289 p.

41

6. YAstrebov O.A. Legal personality of an electronic person: theoretical and methodological approaches. Trudy Instituta gosudarstva i prava Ros-sijskoj akademii nauk = Proceedings of the Institute of State and Law of the Russian Academy of Sciences, 2018, vol. 13, no. 2, pp. 36-55. (In Russian).

7. Vasiliev A.A., Shpopper D., Mataeva M.Kh. The term «artificial intelligence» in Russian law: doctrinal analysis. YUrislingvistika = Legal linguistics, 2018, no. 7-8, pp. 35-44. (In Russian).

8. Vilovatykh A.V. Artificial intelligence as a factor in the military policy of the future. Problemy nacional'noj strategii = National Strategy Issues, 2019, no. 1, pp. 177-192. (In Russian).

9. Hassler S. Do We Have to Build Robots That Need Rights? North American, 2017, 06 Mar. Available at: http://ieeexplore.ieee.org/stamp/stamp. jsp?arnumber=7864739.

10. Weitzenboeck E.M. Electronic Agents and the Formation of Contracts. International Journal of Law and Information Technology, 2001, vol. 9, no. 3, pp. 204-234.

11. Morkhat P.M. Artificial Intelligence Unit as an Electronic Face. Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Seriya: YUri-sprudenciya = Moscow State Regional University Bulletin. Series: Jurisprudence, 2018, no. 2, pp. 61-73. (In Russian).

12. Chopra S., White L. Artificial Agents - Personhood in Law and Philosophy. Available at: http://www.sci.brooklyn.cuny.edu/~schopra/ agen-tlawsub.pdf.

13. Ponomareva E.V. Sub"ekty i kvazisub"'ekty prava: teoretiko-pravovye problemy razgranicheniya. Avtoref. Kand. Diss. [Subjects and quasi-subjects of law: theoretical and legal problems of delimitation. Cand. Diss. Thesis]. Ekaterinburg, 2019. 32 p.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

14. Calo R. Robotics and the Lessons of Cyberlaw. California Law Review, 2015, vol. 103, no. 3, pp. 513-63. Available at: https://ssrn.com/abstract= 2402972.

15. Jan-Erik S., Bachmann G. Artificial Intelligence and Legal Personality: Introducing Teilrechtsfähigkeit: A Partial Legal Status Made in Germany. Berlin, 2018. Available at: https://www.rewi.hu-berlin.de/de/lf/ls/bcm/ team/jan-erik-schirmer/publikationen-und-vortraege/Schirmer_RegulatingAI_ Teilrechtsfaehigkeit.pdf.

Received: 17.10.2020

42

i Надоели баннеры? Вы всегда можете отключить рекламу.