МЕЖДУНАРОДНОЕ ПРАВО
УДК 341.96
DOI: 10.23683/2313-6138-2020-7-3-8
Арзуманян Анна Борисовна,
кандидат юридических наук, доцент, юридический факультет, Южный федеральный университет, 344007, г. Ростов-на-Дону, ул. М. Горького, д. 88, е-шаШ rumi12@yandex.ru
Arzymanyan, Anna B.,
PhD in Law, AssociateProfessor, Law Faculty, Southern Federal University, 88 M. Gorkogo St., Rostov-on-Don, 344007, Russian Federation, e-mail: rumi12@yandex.ru
НАДНАЦИОНАЛЬНОЕ И НАЦИОНАЛЬНОЕ ПРАВОВОЕ РЕГУЛИРОВАНИЕ РОБОТОТЕХНИКИ И ИСКУССТВЕННОГО ИНТЕЛЛЕКТА:
ПРОБЛЕМЫ И ПЕРСПЕКТИВЫ
♦
SUPRANATIONAL AND NATIONAL LEGAL REGULATION OF ROBOTICS AND ARTIFICIAL INTELLIGENCE: PROBLEMS AND PROSPECTS
АННОТАЦИЯ. Социально-экономические изменения, происходящие в современном мире, неизбежно оказывают существенное влияние на право. Особое внимание правоведов в последние годы привлекает проблема регулирования отношений с участием «умных» роботов и информационных систем, действующих на основе искусственного интеллекта. Наднациональное и национальное законодательство в данной сфере только начинает формироваться, а единого международного акта, определяющего базовые принципы такого регулирования, пока не существует. В настоящей статье рассматриваются общие подходы к регулированию таких отношений в частноправовой сфере на примере российского законодательства и законодательства Евросоюза.
КЛЮЧЕВЫЕ СЛОВА: робототехника; искусственный интеллект; киберфизические системы; частное и публичное регулирование.
ОБРАЗЕЦ ЦИТИРОВАНИЯ:
Арзуманян А.Б. Наднациональное и национальное правовое регулирование робототехники и искусственного интеллекта: проблемы и перспективы // Вестник Юридического факультета Южного федерального университета. 2020. Т. 7, № 3. С. 58-63. DOI: 10.23683/2313-6138-2020-7-3-8
ABSTRACT. Socio-economic changes taking place in the modern world inevitably have a significant impact on the law. The problem of regulating relations involving "smart" robots and information systems based on artificial intelligence has attracted particular attention of legal scholars in recent years. Supranational and national legislation in this area is just beginning to take shape, and there is no single international act defining the basic principles of such regulation. This article discusses General approaches to the regulation of such relations in the private law sphere on the example of Russian and EU legislation.
KEYWORDS: robotics; artificial intelligence; cyber-physical systems; private and public law regulation.
FOR CITATION:
Arzymanyan, A.B. Supranational and national legal regulation of robotics and artificial intelligence: problems and prospects. Bulletin of the Law Faculty, SFEDU. 2020. Vol. 7, No. 3. P. 58-63 (in Russian). DOI: 10.23683/23136138-2020-7-3-8
© А.Б. Арзуманян, 2020
Современное общество переживает серьезные изменения, связанные с постоянно увеличивающимся влиянием информационных технологий. Одной из наименее урегулированных, но наиболее перспективных сфер, по оценкам специалистов, становится сфера взаимодействия человека и искусственного интеллекта. Как отмечают исследователи, взаимодействие человека и машины связывают не только с оптимизацией человеческой деятельности при помощи информационных технологий, но и с интеграцией технологий внутри человека для увеличения его возможностей [3]. Уже сейчас во многих странах появляются беспилотные транспортные устройства на основе технологий ИИ (искусственного интеллекта. — А.А.), что ставит ряд вопросов перед действующим законодательством. Однако сфера применения ИИ действительно крайне обширна, и многие люди сегодня небезосновательно мечтают о технологиях, интегрированных с человеческим мозгом, что открывает перед нами крайне малоизученную область человеческой деятельности, в большей степени описанную в научно-фантастической литературе. Впрочем, то же самое касается и «умных» роботов как автономных устройств, способных имитировать мыслительные процессы и взаимодействовать между собой и с человеком в самых разных видах общественных отношений.
Общим замечанием, высказываемым правоведами, является указание на неопределенность той парадигмы, в соответствии с которой будет выстраиваться регулирование робототехники и искусственного интеллекта в ближайшем будущем, а также крайне малое число серьезных исследований данной предметной области [7, 9].
Как и в любой иной области, впрочем, первый вопрос или проблема, требующая решения, это разработка понятийного аппарата. Например, сам термин «искусственный интеллект» (ИИ) не имеет законодательного закрепления как в России, так и за рубежом, а количество его научных определений при этом достаточно велико. В специальной литературе под искусственным интеллектом обычно понимают науку и технологию программирования компьютерных машин на выполнение тех функций, которые в случае выполнения их человеком потребуют от человека интеллектуальных усилий [15, 16]. Преобладающее значение в
технологиях искусственного интеллекта имеют, таким образом, компьютерные программные технологии. Следует учитывать, что принятая в 2019 году российская Национальная стратегия развития ИИ ввела определение ИИ на уровне подзаконного акта, что можно считать предпосылкой для формулировки такого определения на уровне федерального закона. ИИ определяется Стратегией как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе то, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений».
Сравнительно недавно появившийся термин «киберфизическая система» не вошел в упомянутую выше Стратегию, однако он активно используется в программных актах отдельных государств и нормах «мягкого права» Евросоюза. При этом термин не имеет однозначного понимания и в одних источниках описывается как система, которая объединяет в себе «кибернетическое начало, компьютерные аппаратные и программные технологии, качественно новые исполнительные механизмы, встроенные в окружающую их среду и способные воспринимать ее изменения, реагировать на них, самообучаться и адаптироваться», а в других как особая «интеграция физического и информационного пространства» [6]. Национальный институт стандартов и технологий США приводит определение, согласно которому кибер-физические системы — это «умные системы, охватывающие вычислительные и эффективно интегрируемые физические компоненты, тесно взаимодействующие между собой» [13]. Исходя из этого, к таким системам можно отнести роботов, беспилотный транспорт, роботизированные устройства и многое другое.
В научном исследовании, проведенном в Евросоюзе [14], в качестве сущностных признаков киберфизических систем называют их способность взаимодействовать с окружающим миром, а также ответственность создателей
за решения, принимаемые системами. Такие системы, как умные дома и умные города, умные производства и умные сети, беспилотный транспорт и транспортные сети, могут либо исполнять определенные решения с помощью механизмов, сконструированных человеком, либо принимать решения на основе полученной, переработанной и хранящейся в системе информации, при этом окончательное решение остается за человеком. Иногда эти системы объединяют понятием «умная среда» [2].
Говоря о правовом обеспечении социально-экономических процессов, связанных с развитием робототехники, искусственного интеллекта, киберфизических систем, важно иметь в виду, что такое регулирование подразумевает, с одной стороны, проведение качественных междисциплинарных исследований, поскольку проблемное поле искусственного интеллекта выходит далеко за пределы математических, естественнонаучных и инженерных дисциплин и охватывает собой философские, этические, религиозные, психологические вопросы. С другой стороны, качественное регулирование требует временных ресурсов, необходимых для выработки взвешенного подхода, методологии и принципов, которых следует придерживаться в дальнейшем, как это имело место, например, с регулированием в области интеллектуальной собственности. В то же время развитие технологий искусственного интеллекта происходит достаточно динамично и затрагивает абсолютно различные сферы общественных отношений. В этом смысле очевидно, что эти сферы не ограничиваются частноправовым регулированием, также следует учитывать усиливающуюся тенденцию взаимного проникновения частноправового и публично-правового регулирования в современном праве. Представляется справедливым мнение о необходимости разработки международного соглашения, определяющего основные принципы регулирования отношений в области развития ИИ и робототехники [6]. Однако данная повестка только формируется на международном уровне, в то время как государства уже имеют определенный позитивный опыт регулирования в рассматриваемой сфере. На наднациональном уровне наибольшее внимание разработке общих принципов регулирования ИИ и робототехники уделяет Евросоюз. Существует
и круг основных вопросов, которые необходимо учитывать при разработке национальных стратегий и концепций в области искусственного интеллекта. К ним относятся:
- здоровье и безопасность человека;
- охрана окружающей среды;
- ответственность собственников и производителей ИИ;
- защита данных;
- правосубъектность ИИ;
- вопросы интеллектуальной собственности.
На уровне национальных законодательств
такие стратегии и концепции существуют, в частности, в США, Китае, Японии, России, Южной Корее и других государствах. Примечательно, что в Южной Корее еще в 2008 году был принят полноценный закон в области робототехники, который существенно повлиял на развитие отрасли [12]. В законе отмечается, что каждые пять лет требуется утверждать план развития робототехники, а также специальной территории, на которой предусматривается использование «умных роботов» различных категорий. «Умный робот» в законе понимается как механическое устройство, которое способно воспринимать окружающую среду, распознавать обстоятельства, в которых оно функционирует, и целенаправленно передвигаться самостоятельно.
В Европейском союзе до 2020 года действует рамочная программа «Горизонт-2020», внутри которой реализуется проект по развитию робототехники "SPARC". Эксперты данного проекта предложили Дорожную карту Robotics 2020 и Стратегическую повестку исследований.
Очевидно, что принципиальное реформирование законодательства в связи с развитием ИИ может затронуть отрасль гражданского права, однако целесообразность таких реформ остается спорной. Так, например, Германия воздерживается от внесения изменений в гражданское законодательство, тогда как в России обсуждались возможные новеллы в ГК РФ, связанные с положениями о «роботах-агентах». Так, в 2016 году основатель "Grishin Robotics" и сооснователь Mail.Ru Group Дмитрий Гришин совместно с юристом Виктором Наумовым разработали концепцию закона о робототехнике [8]. В законопроекте, в частности, отмечается, что роботы-агенты могут выступать в гражданском обороте по решению собствен-
ника, приобретать гражданские права и обязанности, иметь обособленное имущество и отвечать этим имуществом по обязательствам, при этом ответственность за их действия несут собственник и владелец таких роботов.
В 2017 году в ЕС была принята Резолюция Европарламента от 16 февраля 2017 года 2015/2103(ШЬ) «Нормы гражданского права о робототехнике» с Хартией робототехники и кодексом этических норм (далее — Резолюция), а в 2018 году большинство стран-участниц ЕС подписали Декларацию о сотрудничестве в сфере ИИ. Особое внимание Резолюция уделяет вопросам юридической ответственности как разработчиков, так и владельцев «умных» машин. В Резолюции подчеркивается, что такая ответственность ни в коем случае не должна ограничиваться на том основании, что вред причинен не человеком.
Особое внимание в Резолюции уделяется и вопросам, связанным с защитой информации. В частности, акцент делается на такие проблемы, как:
- соответствие гражданско-правового регулирования робототехники и ИИ Общему Регламенту о защите персональных данных 2016 года (далее — Регламент 2016 года), принципам пропорциональности и необходимости в свете стремительного развития робототехники и киберфизических систем;
- реализация прав человека на неприкосновенность частной жизни и на защиту персональных данных в связи с применением «умных» машин: необходимость более четко прописывать правила, касающиеся использования камер и сенсоров в роботах, а также обеспечивать реализацию основных принципов, закрепленных в Регламенте 2016 года, в том числе путем разработки рекомендаций и стандартов к этим принципам;
- важность свободного движения информации для цифровой экономики, с одной стороны, и защиты информационных потоков, с другой. Обеспечение информационной безопасности при взаимодействии ИИ между собой и с людьми;
- ответственность разработчиков в сфере робототехники и ИИ за обеспечение информационной безопасности.
В том же 2017 году руководителем Исследовательского центра «Робоправо» А. Незнамо-
вым и партнером международной юридической фирмы "Бе^ош" В. Наумовым был предложен проект Модельной конвенции о робототехнике и искусственном интеллекте [4], который стал первой попыткой обобщить разрозненные положения в этой сфере. Основное внимание в проекте уделяется обеспечению безопасности в широком смысле, включая и информационную безопасность, а также соблюдению прав человека при создании и использовании ИИ, роботов и киберфизических систем. Определение данных понятий в проекте не приводится, однако «робот» рассматривается как общее понятие по отношению к ИИ и киберфизической системе.
Возвращаясь к российской Стратегии 2019 года, следует отметить, что упор в ней делается на решении задач развития, в связи с чем фокус смещен на конкретные шаги по созданию и внедрению ИИ, и на связанные с этим экономические и управленческие процессы, а защита прав человека упоминается в контексте соблюдения общих принципов развития ИИ, которым посвящен раздел 3 Стратегии. Приоритетные направления развития ИИ имеют управленческий и социально-экономический контекст, в частности упоминаются повышение эффективности управленческих решений; управление логистикой; автоматизация рутинных операций; повышение качества государственных и муниципальных услуг, услуг образования и здравоохранения.
Важным представляется подраздел, посвященный задачам в области правового регулирования отношений, связанных с развитием и использованием ИИ. В частности, отмечается необходимость адаптации действующих норм права и выработки этических норм в этой области, при этом избыточного регулирования следует избегать. К приоритетным направлениям правового регулирования отнесены следующие:
- специальные режимы доступа к обезличенным большим данным;
- специальные режимы доступа к данным, в том числе персональным, в целях развития ИИ;
- выработка норм, регулирующих процедуры принятия решений ИИ при оказании государственных и муниципальных услуг, иных функций государства, но без ущемления прав и законных интересов граждан и не затрагивая вопросы безопасности;
- развитие стандартизации в области ИИ, в том числе на основе международного сотрудничества;
- некоторые другие.
При этом формирование системы нормативно-правового регулирования в области ИИ, включая вопросы обеспечения информационной безопасности и стимулирования развития ИИ, должно быть завершено к 2030 году.
Как отмечается в Стратегии, экспертные системы, появившиеся в 1950-х годах, способны были описывать алгоритм действий по выбору решения в зависимости от конкретных условий. Им на смену пришло машинное обучение, благодаря которому информационные системы самостоятельно формируют правила и находят решение на основе анализа зависимостей, используя исходные наборы данных без предварительного составления человеком перечня возможных решений, что и характеризует деятельность искусственного интеллекта.
Таким образом, на наш взгляд, информационные системы на основе искусственного интеллекта являются достаточно широким понятием, включающим в себя и киберфизические системы, и интернет вещей, что возвращает нас к вопросу информационной безопасности и соблюдения принципов сбора и обработки персональных данных. В контексте действующего законодательства о персональных данных наиболее очевидная проблема связана с использованием технологий Больших данных (Big Data) при одновременном соблюдении принципов защиты персональных данных, сформулированных как на региональном, так и на национальном уровне.
Как отмечает А.И. Савельев [11], применительно к использованию технологий Больших данных противоречия возникают при реализации следующих принципов:
- принцип ограничения обработки персональных данных: обработка исключительно в соответствии с заявленными целями, недопустимость объединения баз данных, для которых цели обработки персональных данных не совпадают, существенно ограничивает возможности технологий Больших данных;
- принцип ограничения объема обрабатываемых персональных данных: смысл технологии Больших данных состоит в постоянном обновлении данных и их повторном использовании;
- принцип информированного согласия: субъект персональных данных дает согласие на конкретные действия оператора на стадии сбора данных, что несовместимо с использованием технологии Больших данных, поскольку такое решение не будет учитывать возможных последствий применения этих технологий. Следовательно, само согласие в такой ситуации носит фиктивный характер. При этом, как отмечается в юридической литературе, наметилась тенденция, при которой согласие субъекта персональных данных не должно собираться, если отсутствуют иные основания для обработки данных [9];
- обезличивание данных как гарантия их анонимности при обработке и дальнейшем использовании. Технологии Больших данных позволяют установить субъекта данных путем их «деобезличивания».
Отмена принципов обработки персональных данных как способ избежания «сдерживающих» факторов развития новейших технологий вряд ли может быть обоснована с позиции защиты основных прав человека и нематериальных благ, принадлежащих личности (охрана достоинства личности, неприкосновенность частной жизни). Получение формального согласия «на обработку в любых целях» ведет к таким нарушениям, как утечка и искажение данных, а также дискриминация, при которой «под видом индивидуального подхода устанавливаются различные цены для потребителей одной категории, осуществляется отсев граждан по расовым, политическим, национальным, гендерным или иным дискриминационным критериям» [10]. Другой способ, используемый сейчас в США, это так называемые opt-out согласия — предварительное согласие на любую обработку, которое, если оно не отозвано в течение определенного времени субъектом данных, приобретает законную силу. По ряду причин представляется, что в российских реалиях этот способ не будет сильно отличаться от чисто формального согласия на обработку, т. е. согласия, при котором фактически не могут быть соблюдены все принципы обработки персональных данных.
Обобщая круг проблем, связанных с подходами к правовому регулированию ИИ, робототехники, информационных систем на основе ИИ, нужно отметить следующее. Ряд
исследователей считает, что такое регулирование должно осуществляться в рамках специальной отрасли или даже системы отраслей — цифрового права [1]. Другие же отмечают, что необходима интеграция норм, посвященных информационным технологиям, в действующую классическую систему права [5]. При этом очевидно, что ряд концептуальных вопросов, таких как субъект и объект права, воля и волеизъявление, правосубъектность и юридическая ответственность в отношении роботов и ИИ, остается открытым. Очевидно, что такие фундаментальные принципы права, как баланс интересов участников отношений, защита экономически «слабых» участников отношений, защита основных прав человека, должны браться за основу регулирования.
Стоит подчеркнуть и особую роль инструментов «мягкого права» в региональном и международном правовом регулировании, когда стимулирование тех или иных процессов опережает регулирование, что положительно сказывается на развитии национальных законодательств в столь специфических сферах. Иными словами, чрезмерное регулирование развивающихся технологий может создать искусственные препоны там, где в них нет ни малейшей необходимости. Поэтому важен постоянный мониторинг проблем правового характера, с одной стороны, и гибкий подход в регулировании, с другой.
ЛИТЕРАТУРА
1. Андреев В.К. Динамика правового регулирования применения искусственного интеллекта // Журнал российского права. 2020. № 3. С. 58-68.
2. Баракина Е.Ю. К вопросу формирования перспективной терминологии в области правового регулирования применения киберфизических систем // Российская юстиция. 2020. № 1. С. 70-73.
3. Жарова А.К. Право и информационные конфликты в информационно-телекоммуникационной сфере: монография. М.: Янус-К, 2016. 248 с.
4. Модельная конвенция о робототехнике и искусственном интеллекте. Правила создания и использования роботов и искусственного интеллекта [Электронный ресурс] // URL: https://robopravo.ru/modielnaia_ konvientsiia
5. Незнамов А.В. О концепции регулирования технологий искусственного интеллекта и робототехники в России // Закон. 2020. № 1. С. 171-185.
6. Незнамов А.В., Наумов В.Б. Стратегия регулирования робототехники и киберфизических систем // Закон. 2018. № 2. С. 69-89.
7. Предпринимательское право России: итоги, тенденции и пути развития: монография / Е.Г. Афанасьева,
A.В. Белицкая, В.А. Вайпан и др.; отв. ред. Е.П. Губин. М.: Юстицинформ, 2019. 664 с.
8. Проект Федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники» [Электронный ресурс] // URL: http://robopravo.ru/uploads/s/z/6/g/z6gj0wkwhv1o/ file/bESvQz3Y.pdf
9. Регулирование робототехники: введение в «робо-право». Правовые аспекты развития робототехники и технологий искусственного интеллекта / В.В. Архипов,
B.В. Бакуменко, А.Д. Волынец и др.; под ред. А.В. Незна-мова. М.: Инфотропик Медиа, 2018. 232 с.
10. Савельев А.И. Направления регулирования Больших данных и защита неприкосновенности частной жизни в новых экономических реалиях // Закон. 2018. № 5. С. 122-144.
11. Савельев А.И. Проблемы применения законодательства о персональных данных в эпоху «Больших данных» (Big Data) // Право. Журнал Высшей школы экономики. 2015. № 1. С. 54-61.
12. Cho Y., JeongM., Park S. The effect of the Korean robot act on the Korean robotics industry and its implications [Electronic Resourse] // KIET Industrial Economic Review. 2016. Vol. 21. Nc 6.
13. Cyber-physical systems [Electronic Resourse] // URL: https://nist.gov/el/cyber-physical-systems
14. Ethical aspects of Cyber-Physical System / Scientific Foresight study [Electronic Resourse]. URL: http://www. europarl.europa.eu/RegData/etudes/STUD/2016/563501/ EPRS_STU%282016%29563501_EN.pdf
15. Kurzweil R. The Age of Intelligent Machines. Cambridge, MA, 1990.
16. McCarthy J. What is Artificial Intelligence? [Electronic Resourse] // URL: http://www-formal.stanford.edu/jmc/ whatisai/node1.html