ПРАВОВОЕ РЕГУЛИРОВАНИЕ В ИНФОРМАЦИОННОЙ СФЕРЕ
001: 10.17803/1994-1471.2021.127.6.077-087
Е. Ю.Баракина*
Регуляторные площадки в области правового регулирования применения искусственного интеллекта1
Аннотация. Статья посвящена проблеме создания гибкой системы нормативно-правового регулирования, допускающей возможности тестирования и ограниченного использования искусственного интеллекта, гарантирующей безопасность населения и направленной на стимулирование развития искусственного интеллекта, роботов и объектов робототехники. Обосновано, что использование регуляторной площадки является эффективным механизмом для разработки нормативно-правовой системы в указанной области. Выделены и проанализированы важные составляющие структуры регуляторной площадки, в числе которых регламент информационного обмена, введение обязательных условий участия, включая введение административно-правовых режимов регулирования экономической деятельности, регламент проведения мониторинга деятельности субъекта регуляторной площадки, система нивелирования рисков как для субъектов, так и для участников регуляторной площадки, формирование обязательной системы защиты от негативных последствий применения искусственного интеллекта, роботов и объектов робототехники. Описаны основные подходы к установлению гражданско-правовой ответственности в области использования искусственного интеллекта, роботов и объектов робототехники, к которым можно отнести: гражданско-правовую ответственность разработчика (создателя) в области использования искусственного интеллекта, робота и объектов робототехники и гражданско-правовую ответственность пользователя (владельца, собственника или лица, получающего прибыль) в области использования искусственного интеллекта, робота и объектов робототехники.
Ключевые слова: право; государство; искусственный интеллект; роботы; объекты робототехники; цифровые технологии; регуляторные площадки; экспериментальный правовой режим; ответственность; информация. Для цитирования: Баракина Е. Ю. Регуляторные площадки в области правового регулирования применения искусственного интеллекта // Актуальные проблемы российского права. — 2021. — Т. 16. — № 6. — С. 77-87. — DOI: 10.17803/1994-1471.2021.127.6.077-087.
1 Статья подготовлена по результатам исследований, выполненных за счет бюджетных средств по государственному заданию Финансовому университету при Правительстве РФ.
© Баракина Е. Ю., 2021
* Баракина Елена Юрьевна, кандидат юридических наук, преподаватель Департамента международного и публичного права Финансового университета при Правительстве Российской Федерации Ленинградский пр-т, д. 49, г. Москва, Россия, 125167 [email protected]
Regulatory Platforms in the Field of Legal Regulation of the Use of Artificial Intelligence2
Elena Yu. Barakina, Cand. Sci. (Law), Lecturer, Department of International and Public Law, Financial University under the Government of the Russian Federation Leningradskiy pr-t, d. 49, Moscow, Russia, 125167 [email protected]
Abstract. The paper is devoted to the problem of creating a flexible regulatory system that allows testing and limited use of artificial intelligence, guaranteeing the safety of the population and aimed at stimulating the development of artificial intelligence, robots and robotics objects. It is substantiated that the use of the regulatory platform is an effective mechanism for the development of a regulatory system in this area. The author determines and analyzes the essential components of the structure of the regulatory platform that include the regulation of information exchange, the introduction of mandatory conditions for participation, including the introduction of administrative and legal regimes for regulating economic activity, the regulation of monitoring the activities of the regulatory platform subject, a system for leveling risks for both subjects and participants of the regulatory platform, the formation of a mandatory system of protection against the negative consequences of the use of artificial intelligence, robots and robotics objects. The paper describes the main approaches to establishing civil liability for the use of artificial intelligence, robots and robotics objects that include: civil liability of the developer (creator) for the use of artificial intelligence, robot and robotics objects and the civil liability of the user ( owner, proprietor or person making a profit) for using artificial intelligence, robots and robotics objects. Keywords: law; the state; artificial Intelligence; robots; objects of robotics; digital technologies; regulatory platforms; experimental legal regime; a responsibility; information.
Cite as: Barakina EYu. Regulyatornye ploshchadki v oblasti pravovogo regulirovaniya primeneniya iskusstvennogo intellekta [Regulatory Platforms in the Field of Legal Regulation of the Use of Artificial Intelligence]. Aktualnye problemy rossiyskogo prava. 2021;16(6):77-87. DOI: 10.17803/1994-1471.2021.127.6.077-087. (In Russ., abstract in Eng.).
Технологии искусственного интеллекта, роботов и робототехники относятся к инновационным цифровым технологиям. Зарубежный опыт свидетельствует о необходимости использования регуляторных (в некоторых источниках — регулятивных) «песочниц», с целью создания гибкой системы нормативно-правового регулирования, допускающей возможности тестирования и ограниченного использования таких технологий, гарантирую-
щей безопасность населения и направленной на стимулирование их развития. Подобные «песочницы» успешно функционируют в Австралии, Бахрейне, Великобритании, Индонезии, Канаде, Китае, Малайзии, ОАЭ, Сингапуре, США, Таиланде, Швейцарии3. В 2020 г. в России принят закон о функционировании экспериментального правового режима в г. Москве4.
Регуляторные «песочницы» являются площадками, которые создаются инициаторами
The paper was prepared based on the results of the research carried out at the expense of budgetary funds given for the state order granted to the Financial University under the Government of the Russian Federation. Международный опыт применения «песочниц» // URL: www.eurasiancommission.org/ru/act/dmi/ workgroup/mateNals/Documents/Международный%20опыт%20применения%20песочниц.pdf (дата обращения: 15.02.2020).
Федеральный закон от 24.04.2020 № 123-Ф3 «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"» // СЗ РФ. 2020. № 17. Ст. 2701.
2
3
4
(регуляторами или региональными властями) с целью тестирования или ограниченного использования инноваций и предусматривают особый режим регулирования для участников в рамках контролируемой среды.
Регулятор, создавая регуляторную «песочницу», должен предоставить четкие критерии, затрагивающие изначальные технические данные искусственного интеллекта, роботов и робототехники, этические принципы их применения и возможности для оценки эффективности предлагаемого проекта и дальнейшего коммерческого использования, меры защиты потребителей, включая зону ответственности разработчика.
Отдельно следует упомянуть фактическую процедуру специального тестирования и выхода на рынок решений в сфере применения искусственного интеллекта, роботов и робототехники. При прохождении данной процедуры необходимо предусмотреть реперные точки, по которым можно оценить эффективность внедрения, уровень безопасности и контролируемости процесса с обеих сторон (субъекта площадки и регулятора). Оптимально указанные точки обозначить как достижение определенных этапов внедрения и проводить оценку эффективности не столько с привязкой к временному периоду, сколько именно по достижению описанных на данном этапе результатов.
Со стороны регулятора необходимы четкие критерии для претендентов, например: технические данные используемых разработок по объектам искусственного интеллекта; регуляторные рамки, в том числе ограничения в сфере обеспечения безопасности предлагаемых к внедрению продуктов на основе указанной технологии; согласие субъекта нести ответственность за результаты внедряемых разработок, учитывая гарантии эффективного и справедливого ее распределения в случае причинения вреда; обязательное участие в системе страхования ответственности и других возможных рисков негативных последствий для потребителей и др.
Важной составляющей является регламент информационного обмена, например правовое регулирование вопросов доступа к данным инициатора регуляторной «песочницы» и
осуществление обмена информацией, которая способствует прозрачности функционирования данной площадки и расширению количества ее участников (субъектов и лиц, вступивших в правоотношения с субъектами), в том числе необходимо учесть возможность обмена данными, которые находятся в распоряжении государственных органов, медицинских организаций и др. Требуется установление особого режима доступа к данным, включая персональные, используемым для проведения научно-исследовательских изысканий, совершенствования искусственного интеллекта, роботов и объектов робототехники, а также иных разработок и технологических решений, применяющих указанную инновационную технологию.
Инициатор регуляторной площадки в сфере применения искусственного интеллекта, роботов и робототехники устанавливает не только критерии для претендентов на участие в ее функционировании, но и сам алгоритм действий (процедуру) по оформлению заявки на участие, в том числе комплект документов, подтверждающих соответствие претендента указанным критериям, срок рассмотрения заявки и получения уведомления о приобретении статуса субъекта регуляторной площадки («песочницы»). Важно отметить, что за субъектом должно сохраниться право приостановления или прекращения данного статуса. Регламент взаимодействия между регулятором (инициатором), субъектами и участниками (лицами, вступившими в правоотношения с субъектами) должен предусматривать применение инновационных технологий по обмену информацией, так как протоколы этих технологий способны обеспечить прозрачность, скорость и безопасность осуществления информационного обмена. Применение инновационных технологий, указанных в государственных стратегических документах, расширит круг пользователей и получит дополнительные возможности для их развития и выявления пробелов в регулировании связанных с их внедрением правоотношений.
Важной составляющей функционирования регуляторной площадки, в том числе в сфере применения искусственного интеллекта, роботов и робототехники, является введение обя-
зательных условий участия, среди которых введение административно-правовых режимов регулирования экономической деятельности. А. В. Кнутов, А. В. Чаплинский5, анализируя действующее законодательство, определяют несколько институтов, среди которых лицензирование, выдача разрешений, аттестация и др. Ученые выделяют лицензирование среди прочих режимов, отмечая, что оно раскрывается посредством выдачи разрешения, является наиболее характерным разрешительным режимом, а также относится к жестким и «проработанным» методам государственного регулирования с точки зрения наличия пробелов и коллизий.
Введение обязательного лицензирования определенного вида деятельности экономическими субъектами в большинстве случаев воспринимается как дополнительный административный барьер. В законодательстве определено, что «лицензирование отдельных видов деятельности осуществляется в целях предотвращения ущерба правам, законным интересам, жизни или здоровью граждан, окружающей среде, объектам культурного наследия (памятникам истории и культуры) народов Российской Федерации, обороне и безопасности государства, возможность нанесения которого связана с осуществлением юридическими лицами и индивидуальными предпринимателями отдельных видов деятельности»6.
Лицензирование деятельности в сфере применения искусственного интеллекта, роботов и робототехники представляется вполне обоснованным. Поскольку режим их применения не отработан, существует возможность причинения вреда объектам и субъектам в зависимости от направления разработки и апробации внедрения данной цифровой инновации.
Среди вариантов введения обязательных условий участия могут рассматриваться другие институты регулирования экономической дея-
тельности субъектов регуляторной площадки, например возможна аттестация профессиональных участников.
Таким образом, использование обязательных условий (разрешений) участия в апробации применения искусственного интеллекта, роботов и робототехники представляется вполне обоснованным, так как соответствует видам деятельности, осуществление которых связано с возможным ущербом правам, законным интересам, жизни или здоровью граждан, окружающей среде и т.д.
Регламент проведения мониторинга деятельности субъекта регуляторной площадки выполняет сразу несколько задач: отслеживание текущей работы субъектов, в том числе оценка эффективности их деятельности; проведение обязательной оценки регулирующего воздействия действующих регламентов взаимодействия; выявление пробелов и коллизий в правовом регулировании с последующим их устранением; снижение вероятности возникновения правовых барьеров, в том числе при контрольных мероприятиях; нивелирование рисков как для субъектов, так и для участников регуляторной площадки и т.д.
Банк России как регулятор признает, что «ландшафт рынка, помимо преимуществ и выгод для участников рынка и их клиентов, порождает новые риски и, соответственно, ставит новые задачи перед регуляторами, в том числе в области наблюдения и надзора»7.
При отслеживании текущей работы субъектов, в том числе осуществлении оценки эффективности их деятельности, следует учесть, что мониторинг является инструментом «мягкого» регулирования. Следовательно, его целью должно быть предупреждение возможных нарушений, выявление факторов, препятствующих развитию искусственного интеллекта, роботов и робототехники. Текущий мониторинг в данном
5 Кнутов А. В. Лицензирование отдельных видов экономической деятельности: история развития и современное состояние /А. В. Кнутов, А. В. Чаплинский // Вопросы государственного и муниципального управления. 2014. № 1. С. 73-96.
6 Федеральный закон от 04.05.2011 № 99-ФЗ «О лицензировании отдельных видов деятельности» // СЗ РФ. 2011. № 19. Ст. 2716.
7 Официальный сайт Банка России. URL: http://www.cbr.ru (дата обращения: 01.04.2020).
случае действует в качестве элемента взаимодействия со всеми участниками регуляторной площадки, соответственно с его помощью достигается совершенствование правового регулирования, которое будет действовать после выхода искусственного интеллекта, роботов и робототехники за пределы регуляторной «песочницы». Качественное взаимодействие на этапе отслеживания является фактором успешного функционирования правового регулирования указанной технологии в рынке.
Проведение обязательной оценки регулирующего воздействия действующих регламентов взаимодействия — еще один фактор, влияющий на успешное развитие данной технологии. Ученые отмечают, что «непредсказуемость их (госу-
дарственных мер) результатов должны обретать первоочередную значимость относительно темпов принятия регулирующих документов в целях предотвращения излишних и нецелесообразных административных барьеров»8. В настоящее время в нашей стране уже существует алгоритм проведения данного вида оценки, которая основана «на анализе проблем и целей государственного регулирования, определении возможных вариантов достижения целей, а также оценке связанных с ними позитивных и негативных эффектов с целью выбора наиболее эффективного варианта в соответствии со специальными установленными процедурами»9. Основные цели представлены на рис. 1.
Рассчитать выгоды и издержки субъектов предпринимательской иной деятельности, других заинтересованных лиц
Обеспечить выбор наиболее эффективного варианта решения проблем
Оценить воздействие регулирования на деловой климат и инвестиционную привлекательность страны или региона, конкуренцию и структуру рынков
Снизить риски, связанные с введением нового регулирования, и повысить доверие граждан и бизнеса к принимаемым государством решениям
Рис. 1. Основные цели оценки регулирующего воздействия10
Таким образом, проведение оценки регулирующего воздействия обеспечит принятие наиболее эффективного правового регулирования, сбалансирует регулирующее воздействие сначала на субъектах и участниках регуляторной площадки, а позднее распространится на всех субъектов экономической и иной деятельности, использующих искусственный интеллект, роботов и робототехнику.
Выявление пробелов и коллизий в правовом регулировании с последующим их устранением, а также снижение вероятности возникновения
правовых барьеров, в том числе при контрольных мероприятиях, является необходимой составляющей мониторинга функционирования регуляторной площадки. Среди проблем урегулирования отношений в сфере применения искусственного интеллекта, роботов и робототехники — правовое делегирование решений, ответственность за причинение вреда, правовой режим результатов интеллектуальной деятельности. По решению указанных и других связанных проблем нет единого мнения ни в научном мире, ни среди юристов-практиков. Разработан
8 Мирошниченко М. В., Чудесова Г. П. Цифровая экономика как перспективный механизм развития // Экономика и экологический менеджмент. 2019. № 2. С. 121-129.
9 Официальный сайт «Оценка регулирующего воздействия». URL: http://orv.gov.ru/Content/List?cat=37 (дата обращения: 10.04.2020).
10 По материалам портала «Оценка регулирующего воздействия».
законопроект11, в котором предлагается вариант закрепления возможности делегирования решений «роботам-агентам», в том числе признания его участником гражданского процесса. В рамках регуляторной площадки возможна проработка данного предложения и других вероятных решений возникающих пробелов, коллизий и правовых барьеров с тем, чтобы впоследствии действовала сбалансированная, гибкая система нормативно-правового регулирования в указанной сфере.
Нивелирование рисков как для субъектов, так и для участников регуляторной площадки является ключевым элементом мониторинга, так как при внедрении инновационных технологий, таких, как искусственный интеллект, роботы и робототехника, многие факторы невозможно предусмотреть, в том числе риски потерь, негативных последствий, ущерб жизни или здоровью граждан и окружающей среде. Риск-ориентированный подход в настоящее время применяется при формировании законодательства по всем направлениям развития цифровой экономики, а также при совершенствовании действующих правовых норм. В предложенной Конвенции12 одним из принципов правового регулирования искусственного интеллекта называется «умеренное регуляторное воздействие, основанное на риск-ориентированном подходе и предусматривающее принятие ограничительных норм в случае, если применение данных технологий несет объективно высокий риск причинения вреда участникам общественных отношений и интересам общества и государства». Следовательно, сбалансированное, рамочное законодательство должно нивелировать возможные риски, защищая права, закон-
ные интересы, жизнь и здоровье субъектов и участников, вступивших в правоотношения с ними, а с этой целью в процессе проведения мониторинга необходимо выявление рисков в данной сфере.
Формирование обязательной системы защиты от негативных последствий применения искусственного интеллекта, роботов и объектов робототехники является неотъемлемой частью любых регуляторных «песочниц», созданных за рубежом и в России. Наиболее существенное значение в данной системе, по мнению автора, имеют страхование и ответственность субъектов площадки.
Страхование будет компенсировать возможные финансовые убытки как самих субъектов, так и участников, вступивших с ними в правоотношения, а также ущерб здоровью, окружающей среде и т.д. Н. В. Лутовинова связывает страхование предпринимательских рисков с вероятностью наступления страхового события и возможностью убытков13.
Ученые, отмечая темпы развития инновационных технологий, связывают их с применением потенциально опасных объектов и говорят о значимости в таких условиях страхования гражданской ответственности14, которое решает сразу несколько задач, представленных на рис. 2.
Поскольку применение искусственного интеллекта, роботов и робототехники в настоящее время находится на стадии развития, существует большая вероятность возникновения нештатных ситуаций и негативных последствий, поэтому введение страхования представляется вполне обоснованной мерой.
Относительно ответственности в сфере применения искусственного интеллекта, роботов и
11 Законопроект «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники» // URL: http://robopravo.ru/ proiekty_aktov (дата обращения: 15.04.2020).
12 Центр компетенций по нормативному регулированию цифровой экономики. URL: sk.ru/foundation/legal/ (дата обращения: 15.03.2020).
13 Лутовинова Н. В. Страхование предпринимательских рисков как вид страхования // Проблемы экономики и юридической практики. 2015. № 3. С. 75-79.
14 Мошкин А. С., Полевой Е. В. Обязательное страхование гражданской ответственности владельца опасного объекта: проблемы и перспективы // Научные и образовательные проблемы гражданской защиты. 2016. № 2 (29). С. 120-123.
Гарантирует значительные страховые и компенсационные выплаты пострадавшим
Обеспечивает значительный экономический эффект в случае наступления аварии, который выражается в снижении нагрузки на госбюджет
Способствует повышению уровня безопасности опасных объектов и обеспечению устойчивости национальной промышленности
Создает механизмы контроля и стимулирования мер по повышению безопасности опасных объектов
Рис. 2. Основные задачи страхования гражданской ответственности в условиях стремительного развития инновационных технологий15
робототехники ведется довольно широкая дискуссия с участием ученых и практиков.
В. А. Лаптев отмечает, что «ответственность за деятельность искусственного интеллекта несут: владелец и (или) разработчик (создатель)»16.
П. М. Морхат17, говоря о возможности введения ответственности третьих лиц за совершение действий «юнитами» (агент, носитель, система) искусственного интеллекта, причиняющих вред, отмечает ряд проблем, связанных как с должной квалификацией лица, использующего юнит, так и с мошенническими действиями: несанкционированным перепрограммированием, повреждением и т.п.
При высоком уровне самостоятельности действий и возможности влияния на окружающую среду системы искусственного интеллекта, робота и объекта робототехники может рассматриваться вариант привлечения его к ответственности. Подобная возможность разрабатывается учеными за рубежом18. Следует отметить, что в Японии19 существует предположение о возможности в отдаленном будущем признать носителя сильного (General AI) или сверхсильного (Super AI) искусственного интеллекта «квазисубъектом». Однако в настоящее время, учитывая уро-
вень развития технологий, «юниты ИИ» должны рассматриваться в качестве объекта, т.к. носитель искусственного интеллекта, робот и объект робототехники изначально должен быть разработан или «обучен» («машинное обучение») создателем таким образом, чтобы исключить вероятность причинения вреда жизни, здоровью человека, окружающей среде и т.д.
За действия носителя искусственного интеллекта, роботов и объекта робототехники несет ответственность разработчик, учитывая соблюдение им при разработке трех законов робототехники, или пользователь (субъект, получающий прибыль), или иные субъекты, т.к. это результат, вызванный не волеизъявлением носителя искусственного интеллекта, робота или объекта робототехники, а человека, команды которого им были исполнены.
Таким образом, любые действия/решения, совершенные/принятые носителем искусственного интеллекта, роботом и объектом робототехники, изначально продиктованы машинным обучением, которое должно соответствовать законам робототехники, гарантирующим безопасность населения, окружающей среды и т.д., а впоследствии действиями (бездействием) или волеизъявлением пользователя.
15 По материалам исследования А. С. Мошкина и Е. В. Полевого.
16 Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102.
17 Морхат П. М. Ответственность третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий // Государственная служба и кадры. 2018. № 3. С. 47-49.
18 Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems // URL: https://www.osborneclarke. com/media/filer_public/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf (дата обращения: 20.04.2020).
19 // URL: http://ai-elsi.org/wp-content/uploads/2017/02/.pdf. Англий^ий перевод: The Japanese Society for Artificial Intelligence Ethical Guidelines // URL: http://ai-elsi.org/wp-content/ uploads/2017/05/JSAI-Ethical-Guidelines-1.pdf (дата обращения: 11.05.2020).
Следовательно, установление ответственности носителя (юнита) искусственного интеллекта, робота и объекта робототехники на данном этапе развития технологии не представляется возможным.
Таким образом, можно выделить 2 основных подхода к содержанию гражданско-правовой ответственности в области использования искусственного интеллекта, роботов и объектов робототехники, представленные на рис. 3.
Ответственность лица, разработавшего ИИ, робота или РТ
Ответственность владельца или лица, использующего ИИ, робота или РТ
Рис. 3. Подходы к содержанию гражданско-правовой ответственности в области использования искусственного интеллекта, роботов и объектов робототехники
Гоажданско-правовая ответственность разработчика (создателя) в области использования искусственного интеллекта, робота и объектов робототехники. В резолюции Ев-ропарламента20 рекомендовано установление правовых норм «об ответственности за качество и безопасность товаров, согласно которым производитель несет ответственность за любые неисправности». Следовательно, разработчик системы (юнита, носителя) искусственного интеллекта, робота и объекта робототехники фактически может быть приравнен к производителю то-
варов. В существующей системе права указанные носители могут признаваться только в качестве объектов или товаров, т.е. могут быть отнесены к объектам гражданских прав с распространением на них положений ГК РФ21 (ст. 128, 129 и т.д.).
Важным вопросом является установление критериев или технических характеристик, по которым возможно определение качества данных товаров, т.е. необходимо внесение изменений и дополнений в сфере нормативно-технического регулирования, основные положения которых представлены автором на рис. 4.
Дополнения, учитывающие автономность принятия решений, и инструменты, влияющие на окружающую среду, которыми характеризуется носитель ИИ, робот и объект РТ
Процедуры определения соответствия уровня машинного обучения (программного обеспечения)
надежности и безопасности пользователя
Наличие подтверждения соответствия международным стандартам качества
Требования по техническому обслуживанию, в том числе безопасному обновлению программного обеспечения
Рис. 4. Основные положения по изменениям и дополнениям в сфере нормативно-технического регулирования
Техническая регламентация характеристик носителей искусственного интеллекта, роботов и объектов робототехники должна соответствовать уровню развития используемых технологий, иначе невозможно их отнесение к надежным и безопасным продуктам и осуществление государственного контроля в указанной сфере.
При введении гражданско-правовой ответственности разработчика следует установить гарантии справедливого ее распределения, т.к. разработчик и пользователь зачастую являются разными субъектами. Следовательно, последствия действий пользователя не должны включаться в зону ответственности разработчика.
20 Нормы гражданского права о робототехнике. Резолюция Европарламента Р8_ТА-PROV(2017)0051 // и^: http://robopravo.rU/matierialy_dlia_skachivaniia#ul-id-2-3 (дата обращения: 20.03.2020).
21 Гражданский кодекс Российской Федерации (часть первая) от 30.11.1994 № 51-ФЗ // СЗ РФ. 1994. № 32. Ст. 3301.
В системе законодательства Российской Федерации существует обязанность производителя раскрыть информацию по характеристикам товара, а также правилам пользования. В условиях выхода инновационного продукта, т.е. применения новой технологии, актуальность, обязательность и полнота предоставляемой пользователю информации только возрастает.
Таким образом, установление гражданско-правовой ответственности разработчика (создателя) в области использования искусственного интеллекта, робота и объектов робототехники может быть основано на правовых нормах, регламентирующих применение ответственности к производителю. Однако необходимо внесение изменений и дополнений в нормативно-техническое регулирование, неотъемлемой составляющей которых является условие раскрытия информации по характеристикам товара, а также правилам пользования.
Гоажданско-правовая ответственность пользователя (владельца, собственника или лица, получающего прибыль) в области использования искусственного интеллекта, робота и объектов робототехники. В. А. Лаптев, анализируя возможную ответственность владельца, исходит из трех основных правомочий собственника, установленных в действующем законодательстве: владение, пользование, распоряжение22. Наиболее важной составляющей в данном случае представляется регистрация (фиксирование) владельца, поскольку среди объектов данной технологии могут быть источники повышенной опасности, как, например, автомобили, специальная техника. Кроме того, введение указанной регистрации гарантирует защиту собственника от незаконного изъятия или хищения системы искусственного интеллекта, робота и объекта робототехники. Следует отметить, что предлагаемая регистрация необходима только для объектов, которые относятся к источникам повышенной опасности либо использование которых требует профессиональных навыков от пользователя (владельца).
При установлении ответственности для владельца следует разграничить понятия «вла-
22 Лаптев В. А. Указ. соч. С. 79-102.
делец» и «пользователь». Владелец может предоставить право пользования указанными объектами другому лицу, чьи действия, возможно, станут причиной негативных последствий, поэтому к ответственности необходимо привлечение непосредственно последнего.
Основной составляющей в данном подходе являются возможные негативные последствия (в первую очередь ущерб), вызванные непосредственными действиями (бездействием) пользователя, которые совершены с умыслом или без умысла (по неосторожности), с учетом того, имел ли субъект достаточные знания об объекте и о вероятности причинения ущерба как следствия его действий.
Следовательно, основными положениями относительно установления гражданско-правовой ответственности для пользователя являются:
— действия (бездействие), совершенные с умыслом на причинение вреда жизни, здоровью (своему или иного лица), окружающей среде и т.д., в том числе мошеннические действия, например несанкционированное перепрограммирование или иное внесение изменений, не предусмотренных разработчиком (создателем);
— действия (бездействие), совершенные без умысла, ввиду неосторожности или небрежности, в том числе при отсутствии профессиональных навыков для осуществления управления системой искусственного интеллекта, роботом и объектом робототехники, но причинившие вред жизни, здоровью (своему или иного лица), имуществу, окружающей среде и т.д.
Ущерб, причиненный действиями (бездействием) лица вследствие нераскрытия разработчиком необходимой информации и (или) предоставления некачественного объекта, соответственно, не должен относиться к ответственности пользователя. Установление указанных положений разграничит гражданско-правовую ответственность пользователя и разработчика, будет способствовать более ответственному отношению к применению данных объектов со стороны пользователя.
Таким образом, при установлении гражданско-правовой ответственности владельца (лица, получающего прибыль) в области использования искусственного интеллекта, робота и объектов робототехники основной составляющей является ответственность за возможные негативные последствия (ущерб), вызванные непосредственными действиями (бездействием) пользователя, которые совершены с умыслом или без умысла (по неосторожности).
Выводы:
1. Создание регуляторной площадки («регулятивной песочницы») будет эффективным механизмом для разработки гибкой системы нормативно-правового регулирования, допускающим возможности тестирования и ограниченного использования, гарантирующим безопасность населения и направленным на стимулирование развития искусственного интеллекта, роботов и объектов робототехники.
2. Важными составляющими регуляторной площадки при формировании и дальнейшем функционировании являются: регламент информационного обмена, введение обязательных условий участия, включая введение административно-правовых режимов регулирования экономической деятельности, регламент проведения мониторинга деятельности субъекта регуляторной площадки, система нивелирования рисков как для субъектов, так и для участников регуляторной площадки, формирование обязательной системы защиты от негативных последствий применения искусственного интеллекта, роботов и объектов робототехники.
3. При установлении гражданско-правовой ответственности разработчика (создателя) в области использования искусственного интеллекта, робота и объектов робототехники необходимо внесение изменений и дополнений в сфере нормативно-технического регулирования: дополнения, учитывающие автономность принятия решений, и инструменты, влияющие на окружающую среду, которыми характеризуется носитель ИИ, робот и объект РТ; процедуры определения соответствия уровня машинного обучения (программного обеспечения) надежности и безопасности пользователя; наличие подтверждения соответствия международным стандартам качества; требования по техническому обслуживанию, в том числе безопасному обновлению программного обеспечения.
4. Основным положением относительно установления гражданско-правовой ответственности для пользователя является ответственность за действия (бездействие), совершенные: с умыслом на причинение вреда жизни, здоровью (своему или иного лица), окружающей среде и т.д., в том числе мошеннические действия, например несанкционированное перепрограммирование или иное внесение изменений, не предусмотренных разработчиком (создателем); без умысла ввиду неосторожности или небрежности, в том числе при отсутствии профессиональных навыков для осуществления управления системой искусственного интеллекта, роботом и объектом робототехники, но причинившие вред жизни, здоровью (своему или иного лица), имуществу, окружающей среде и т.д.
БИБЛИОГРАФИЯ
1. Кнутов А. В., Чаплинский А. В. Лицензирование отдельных видов экономической деятельности: история развития и современное состояние // Вопросы государственного и муниципального управления. — 2014. — № 1. — С. 73-96.
2. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. — 2019. — № 2. — С. 79-102.
3. Лутовинова Н. В. Страхование предпринимательских рисков как вид страхования // Проблемы экономики и юридической практики. — 2015. — № 3. — С. 75-79.
4. Мирошниченко М. В. Цифровая экономика как перспективный механизм развития // Экономика и экологический менеджмент. — 2019. — № 2. — С. 121-129.
5. Морхат П. М. Ответственность третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий // Государственная служба и кадры. — 2018. — № 3. — С. 47-49.
6. Мошкин А. С., Полевой Е. В. Обязательное страхование гражданской ответственности владельца опасного объекта: проблемы и перспективы // Научные и образовательные проблемы гражданской защиты. — 2016. — № 2 (29). — С. 120-123.
Материал поступил в редакцию 23 июля 2020 г.
REFERENCES (TRANSLITERATION)
1. Knutov A. V., Chaplinskij A. V. Licenzirovanie otdel'nyh vidov ekonomicheskoj deyatel'nosti: istoriya razvitiya i sovremennoe sostoyanie // Voprosy gosudarstvennogo i municipal'nogo upravleniya. — 2014. — № 1. — S. 73-96.
2. Laptev V. A. Ponyatie iskusstvennogo intellekta i yuridicheskaya otvetstvennost' za ego rabotu // Pravo. Zhurnal Vysshej shkoly ekonomiki. — 2019. — № 2. — S. 79-102.
3. Lutovinova N. V. Strahovanie predprinimatel'skih riskov kak vid strahovaniya // Problemy ekonomiki i yuridicheskoj praktiki. — 2015. — № 3. — S. 75-79.
4. Miroshnichenko M. V. Cifrovaya ekonomika kak perspektivnyj mekhanizm razvitiya // Ekonomika i ekologicheskij menedzhment. — 2019. — № 2. — S. 121-129.
5. Morhat P. M. Otvetstvennost' tret'ih lic za sovershenie yunitami iskusstvennogo intellekta prichinyayushchih vred dejstvij // Gosudarstvennaya sluzhba i kadry. — 2018. — № 3. — S. 47-49.
6. Moshkin A. S., Polevoj E. V. Obyazatel'noe strahovanie grazhdanskoj otvetstvennosti vladel'ca opasnogo ob"ekta: problemy i perspektivy // Nauchnye i obrazovatel'nye problemy grazhdanskoj zashchity. — 2016. — № 1 (29). — S. 120-123.