DOI dx.doi.org/10.24866/VVSU/2073-3984/2020-4/039-049
УДК 004; 34.5 П. Н. Бирюков
Воронежский государственный университет Воронеж. Россия
Ответственность за вред, причиненный технологиями с искусственным интеллектом: подход Европейского союза
Статья посвящена правовым аспектам искусственного интеллекта в Европейском союзе. Подробно исследуются документы Европейского союза и законодательство государств-членов в сфере искусственного интеллекта. Автор анализирует европейские подходы, чтобы понять важность предполагаемых ключевых преимуществ и угроз от принятия искусственного интеллекта.
Ключевые слова и словосочетания: искусственный интеллект (ИИ); Европейский союз (ЕС); государства-члены ЕС; вред, причиненный продуктами с искусственным интеллектом.
P. N. Biryukov
Voronezh State University Voronezh. Russia
Responsibility for damages caused artificial intelligence: EU approach
The article is devoted to the legal aspects of artificial intelligence in the EU (hereinafter AI). The documents of the EU and the legislation of the Member States in the field of AI are examined in detail. The author analyzes European approaches to understand the importance of the perceived key benefits and threats of AI adoption.
Keywords: artificial intelligence (AI); EU; EU member states; harm caused by artificial intelligence products.
Исследования показывают, что ИИ добавляет в экономику миллиарды евро в год [1]. Эта новая ситуация изменяет концепцию труда, а также и общество в целом. Кроме того, ИИ обеспечивает компаниям широкий спектр возможностей,
Бирюков Павел Николаевич - д-р юрид. наук, профессор, заведующий кафедрой международного и евразийского права; e-mail: birukovpn@yandex.ru
39
позволяющих лучше понять потребности своих клиентов, партнеров и бизнес-среду в целом. Как известно, 10 октября 2019 г. Президент РФ утвердил «Национальную стратегию развития искусственного интеллекта на период до 2030 года». В пункте 48 Стратегии закреплена необходимость создания юридических условий и процедур внедрения технологических решений, разработанных на основе ИИ, а также делегирования информационным системам, функционирующим на основе ИИ, возможности принятия отдельных решений, в том числе при исполнении государственными органами государственных функций. Для лучшей имплементации положений российской стратегии в сфере ответственности за деятельность технологий с ИИ необходимо изучить зарубежный опыт.
Нужно понимать, что способность ИИ накапливать опыт и учиться действовать независимо и принимать индивидуальные решения создает предпосылки для нанесения ущерба новыми технологиями. Поэтому вопросы компенсации необходимо будет решать в соответствии с существующими правовыми положениями [2]. Основная проблема заключается в том, что пока ни международное, ни национальное право не признают ИИ субъектом права. Это означает, что сам ИИ не может нести личную ответственность за ущерб, причиненный продукцией с ИИ. Возникает вопрос: а кто должен ее нести?
Приложения ИИ становятся все более автономными, что позволяет возлагать на роботов ответственность за любой ущерб или травмы, которые они причиняют. В зарубежной литературе уже активно дискутируются предложения о введении в правовую материю «электронного лица» (е-регеоп ) [3]. Ставится вопрос о том, как будет компенсироваться ущерб от их деятельности?
Статья 12 Конвенции ООН об использовании электронных сообщений в международных договорах 2005 г. [4] частично отвечает на данный вопрос. «Договор, заключенный в результате взаимодействия автоматизированной системы сообщений и какого-либо физического лица или в результате взаимодействия автоматизированных систем сообщений, не может быть лишен действительности или исковой силы на том лишь основании, что никакое физическое лицо не осуществляло просмотра или вмешательства в отношении каждой отдельной операции, выполненной автоматизированными системами сообщений, или заключенного в результате договора». Иными словами, действует общее правило: оператор инструмента с ИИ (концепция Л1-а8-Тоо1 - ИИ-как-инструмент) несет ответственность за результаты, полученные с его помощью, поскольку сам инструмент не имеет собственной независимой воли. Таким образом, к действиям ИИ применима субсидиарная и строгая ответственность.
В этой связи представляют интерес наработки ЕС в сфере ответственности продукции с ИИ. Оценивая ситуацию в целом, можно заметить, что в настоящее время право Евросоюза и государств-членов ЕС не согласовано. Однако ЕС шаг за шагом продвигается вперед в этой сфере.
Во-первых, применяются нормы, касающиеся: а) ответственности за дефектную продукцию (Директива 85/374/ЕС о сближении законов, правил и административных положений государств-членов); б) защиты данных (ст. 82 Рег-
40
ламента 2016/679 о защите физических лиц в отношении обработки персональных данных и свободного перемещения таких данных) и в) правил конкуренции (Директива 2014/104/ЕС о некоторых правилах, регулирующих действия по возмещению ущерба в соответствии с национальным законодательством за нарушение положений закона о конкуренции).
Во-вторых, действует режим страхования ответственности за ущерб, причиненный автотранспортными средствами (Директива 2009/103/ЕС, касающаяся страхования гражданской ответственности за использование автотранспортных средств и исполнение обязательства застраховаться от такой ответственности).
В-третьих, право ЕС также предусматривает разрешение коллизии разно-системных норм (Регламент № 864/2007 о праве, применимом к недоговорным обязательствам - Регламент Рим II).
Законы государств-членов ЕС пока не содержат единых правил ответственности, применимых к ущербу, причиненному ИИ. Используются правила внедо-говорной ответственности в контексте новых цифровых технологий. При этом внедоговорная ответственность устанавливается как общими нормами гражданского права, так и специальным законодательством.
В настоящее время наиболее разработана ответственность за качество продукции. На уровне ЕС давно и успешно действует Директива об ответственности за некачественную продукцию 1985 г. [5]. Она охватывает все типы продуктов, к которым можно отнести новые цифровые технологии. Директива устанавливает ответственность производителей в случаях, когда дефектная продукция причиняет ущерб человеку (включая телесные повреждения, смерть или материальный ущерб). Это режим строгой ответственности, в котором пострадавшему не нужно доказывать вину производителя. Потерпевший несет лишь бремя доказывания дефекта товара, факта повреждения и наличия причинно-следственной связи.
«Производитель» - производитель продукта, сырья или компонентов или любое лицо, которое представляет себя производителем, указывая свое название, торговую марку или любые отличительные черты продукта. Кроме того, без ущерба для ответственности производителя импортер товара также считается производителем. Если производитель не может быть идентифицирован, каждый поставщик продукта рассматривается как его производитель, если не сообщает потерпевшему лицу о производителе.
Суд ЕС неоднократно указывал, что Директива 85/374/ББС применяется к продуктам, используемым при предоставлении любых услуг. Однако ответственность поставщика услуг не входит в сферу действия Директивы [6]. Директива не препятствует государствам-членам применять национальные правила в этой сфере, в соответствии с которыми поставщик услуг, использующий неисправный продукт, несет ответственность за ущерб, им причиненный.
На национальном уровне правила, реализующие Директиву об ответственности за продукцию, сосуществуют с другими правилами внедоговорной ответственности, на которые также могут ссылаться потерпевшие. Согласно ст. 13 Директивы она не затрагивает никаких прав, которые потерпевший может иметь
41
в соответствии с нормами права об ответственности. Директива, как указывает Суд ЕС, не препятствует применению систем ответственности, сформированных на иных основаниях (например, по гарантии в отношении скрытых дефектов [7]).
Что касается национальных правил внедоговорной ответственности, их можно разделить на две категории в зависимости от того, требуется компенсация потерпевшему от виновного лица или нет.
Первый - внедоговорная ответственность, основанная на вине. Национальное законодательство вводит специальные правила, чтобы облегчить бремя доказывания для потерпевшего. Такие варианты могут заключаться в презумпции вины правонарушителя (либо возложении бремени доказывания), в соответствии с которой:
а) нарушитель несет ответственность, если не докажет, что не виновен (§ 836 ГГУ Германии);
б) осуществление лицом опасной деятельности, если оно не докажет, что все соответствующие меры по предотвращению ущерба были приняты (ст. 2050 ГК Италии);
в) ответственность работодателя за действие, которое выполняется от его имени или в интересах его сотрудников, если он не докажет, что проявлял надлежащую заботу (§ 1315 ГК Австрии);
г) ответственность родителей/опекунов/учителей за ущерб, причиненный несовершеннолетним/учеником или психически нездоровым лицом, если они не могут доказать, что не могли предотвратить повреждения (ст. 2048 и 2047 ГК Италии).
Второй - особые режимы ответственности. В большинстве юрисдикций строгая ответственность не зависит от вины; истцу нужно доказать лишь наличие ущерба и причинной связи. Перенос бремени доказывания нацелен на облегчение компенсации ущерба в ситуациях, когда законодатель считает слишком обременительным или несбалансированным применение общего правила ответственности на основании вины.
Некоторые нормы могут пойти еще дальше, когда риск ущерба связан с опасными видами деятельности, возлагая ответственность на лицо, осуществляющее деятельность. Например, пилот самолета, водитель автомобиля несут полную ответственность за опасную деятельность. Обоснованием обычно является тот факт, что конкретное лицо создало риск, который материализуется в виде ущерба, и в то же время получало экономическую выгоду от этой деятельности (раздел 6:535(1) ГК Венгрии, § 5 ФЗ Австрии об ответственности за железнодорожный и автомобильный транспорт). Возможны другие случаи, связанные с юридическими или фактическими отношениями между двумя лицами или лицом и объектом.
Некоторые государства ЕС рассматривают последствия появления цифровых технологий в отдельных сферах отношений. Так, законодательством о дорожном движении Швеции было разрешено проводить испытания автономных транспортных средств на улице.
42
В Германии также были внесены поправки в Закон о дорожном движении, чтобы разрешить автономным транспортным средствам передвижение по улице при условии обязательного присутствия человека, чтобы взять на себя управление автомобилем.
В 2017-2018 гг. ведущие государства Евросоюза (Франция [8], Германия [9], Италия [10], Испания [11]) приняли национальные стратегии в области ИИ. Французская стратегия включает в себя акцент на военных элементах и безопасности ИИ. Во Франции считается, что ИИ помимо рисков создает возможности для экономики и общества. Подход Италии, напротив, характеризуется опасением потерять экономические возможности в связи с неиспользованием ИИ. Немецкий документ практически полностью игнорирует эту область. Испания нацелена на имплементацию ИИ во все сферы жизни общества. Собственные стратегии разрабатывают и другие страны-члены ЕС.
Начиная с 2017 г. институты ЕС активно занимаются проблемами ответственности ИИ за ущерб.
Так, 16 февраля 2017 г. Европейский парламент принял резолюцию о правилах гражданского права в области робототехники с рекомендациями для Евро-комиссии [12]. Было предложено принять целый ряд документов в области ИИ.
В феврале 2018 г. Европейская парламентская исследовательская служба опубликовала исследование «Общий подход ЕС к правилам ответственности и страхования для подключенных и автономных транспортных средств» [13] с предложениями на этот счет.
В апреле 2018 г. Еврокомиссия приняла Стратегию ЕС в области ИИ [14]. Подход Комиссии к ИИ основан на трех принципах: 1) поощрять развитие ИИ государственным и частным секторами. В этих целях Комиссия увеличивает ежегодные инвестиции в ИИ на 70% и создает исследовательские центры ИИ по всей Европе; 2) поддерживать разработку платформ ИИ, которые обеспечивают доступ к соответствующим ресурсам в ЕС для всех пользователей; 3) поддерживать разработку приложений ИИ в ключевых секторах экономики.
25 апреля 2018 г. Комиссия опубликовала рабочий документ «Ответственность за новые цифровые технологии» [15]. В нем был представлен обзор соответствующих элементов правил безопасности, применяемых новых цифровых технологий на уровне ЕС, а также перечислены основные принципы правил вне-договорной ответственности в контексте новых цифровых технологий в ЕС на уровне государств-членов.
На первой Европейской ассамблее по ИИ в июне 2019 г. экспертная группа высокого уровня по искусственному интеллекту [16] представила два документа рекомендательного характера:
1. Руководящие принципы этики в отношении искусственного интеллекта [17]. В них перечислено семь требований, которым системы ИИ должны соответствовать, чтобы заслуживать «доверие».
2. Политические и инвестиционные рекомендации для надежного искусственного интеллекта [18]. 33 рекомендации были направлены на обеспечение устойчивости ЕС, его роста и конкурентоспособности.
43
Комиссия обязалась: а) поддерживать партнерские отношения в сфере образования для привлечения и удержания в Европе новых талантов в сфере ИИ; б) создавать специализированные схемы обучения и переподготовки специалистов; в) прогнозировать изменения на рынке труда; г) поддерживать цифровые навыки и компетенции в области науки и техники. Рекомендации помогут Комиссии и государствам-членам обновить скоординированный план по развитию ИИ.
21 ноября 2019 г. группой экспертов по ответственности и новым технологиям [19] был опубликован Отчет об ответственности за искусственный интеллект и другие появляющиеся технологии [20]. В целом отчет исходит из необходимости разрабатывать режимы юридической ответственности за действия ИИ. В нем дана базовая терминология и заложены некоторые принципы ответственности.
В некоторых странах ЕС уже утверждены нормы об ответственности за продукты с цифровыми технологиями.
Во-первых, имеются государства, которые разрешают регулярное использование высоко- либо полностью автоматизированных транспортных средств, обычно обеспечивая покрытие любого причиненного ущерба, например, в виде страховки. Так, статья 19 Указа Правительства Италии от 28 февраля 2018 года о тестировании подключенных и автоматизированных транспортных средств на дорогах общего пользования [21] предусматривает, что лицо, запрашивающее разрешение на проведение испытаний автомобилей на дорогах общего пользования, должно предоставить доказательства страхования ответственности. Циркуляр Генерального директората по дорожному движению Испании 2015 года [22] разрешает испытания автоматических автомобилей и требует страхование ответственности для покрытия обязательных страховых лимитов для автотранспортных средств. Допускается также применение общих правил об ответственности. Например, статья 7 Закона о дорожном движении Германии [23] предусматривает строгую ответственность владельца автомобиля. Это правило было оставлено без изменений, когда закон был адаптирован к появлению автоматизированных транспортных средств. Аналогичным образом вопрос решен во французском Декрете № 2018-211 от 28 марта 2018 года об экспериментах с автоматизированными транспортными средствами на дорогах общего пользования [24].
Во-вторых, в отношении здоровья и безопасности действуют директивы ЕС. В их числе: а) Директива 2006/4215 по машинному оборудованию (она является соответствующим законодательством по безопасности для роботов); б) Директива 2014/53/ЕС по радиооборудованию [25] (применяется ко всем продуктам, включая встроенное программное обеспечение, использующее радиочастотный спектр); в) Директива 90/385/EEC об активных имплантируемых медицинских устройствах, Директива 93/42/EEC о медицинских устройствах, Директива 98/79/EC по медицинским устройствам для диагностики in vitro; г) Директива 89/391/EEC о введении мер, способствующих повышению безопасности и здоровья сотрудников на работе.
Указанные директивы были успешно имплементированы на национальном уровне. Можно назвать, к примеру, испанский Королевский декрет 1644/2008,
44
устанавливающий стандарты ввода в эксплуатацию машин [26], ирландское постановление 8.1. № 248/2017 о радиооборудовании ЕС [27] и другие документы.
В-третьих, поскольку новые технологии также включаются в другие продукты, применяются и другие инструменты ЕС. Так, в рамках права ЕС по гармонизации производители должны обеспечить соответствие продукции основным требованиям здоровья и безопасности, следуя применимым процедурам (в некоторых случаях с привлечением органа по оценке соответствия). Они должны хранить техническую документацию на продукты, которые размещают на рынке. Таким образом, на рынок в ЕС допускаются только безопасные потребительские товары. В этой сфере действует защита в отношении продуктов и рисков, не охваченных правом о гармонизации.
В настоящее время продолжается разработка европейских гармонизированных стандартов для «интернета вещей», современных роботов на базе ИИ и автономных систем. Институты и органы ЕС разрабатывают соответствующие стандарты, чтобы предложить равные условия и безопасные правила. Эти стандарты предполагают презумпцию соответствия европейскому праву по безопасности, в соответствии с которым они разработаны (в частности, в соответствии с Директивой по машинному оборудованию 2006/42/ЕС и Директивой по радиооборудованию 2014/53/ЕС). Европейские организации по стандартизации разрабатывают стандарты для «комбинированной» продукции. Иными словами, при наличии нескольких элементов безопасности ЕС применяется вторичное право ЕС.
Возможные проблемы могут возникать в продуктах с ИИ, имеющихся в настоящее время на рынке. В соответствии с Директивой о радиооборудовании 2014/53/Еи программное обеспечение может быть загружено в оборудование только в том случае, если оно соответствует требованиям безопасности. В рамках Директивы начата работа по определению категорий оборудования, обеспечивающих защиту от мошенничества, для включения мер безопасности, гарантирующих, что личные данные и конфиденциальность защищены. В этих целях используется Общий регламент о защите данных (ОБРЯ) [28], что является важным шагом для укрепления безопасности в приложениях на основе ИИ.
19 февраля 2020 г. Еврокомиссия опубликовала «Белую книгу» [29] с целью развития системы передового опыта и доверия к ИИ, а также Отчет по аспектам безопасности и ответственности ИИ. Белая книга предлагает: а) меры, позволяющие упростить исследования, способствовать сотрудничеству между государствами-членами и увеличить инвестиции в разработку и развертывание ИИ; б) варианты политики для будущей нормативной базы ЕС, призванной определять типы правовых требований, которые будут применяться к соответствующим объектам ИИ. В настоящее время Белая книга проходит открытое общественное обсуждение, и граждане ЕС, государства-члены и соответствующие заинтересованные стороны (включая гражданское общество, промышленность и ученых) могут внести свой вклад в развитие ИИ.
Как видим, пока право ЕС и государств-членов об ответственности продуктов с ИИ характеризуется мозаичностью. Некоторые приложения могут вызывать новые вопросы, связанные с ответственностью продукции с ИИ.
45
Суммируя положения права ЕС и государств-членов, можно вывести следующие принципы ответственности технологий с ИИ, действующие в настоящее время:
1) лицо, использующее ИИ, несущее повышенный риск причинения вреда другим, должно нести строгую ответственность за ущерб, причиненный в результате эксплуатации технологии с ИИ;
2) при определении первого ответчика следует учитывать тот случай, когда поставщик услуг имеет более высокий уровень контроля, чем собственник или пользователь фактического продукта с ИИ;
3) оператор должен исполнять свои обязанности по правильному выбору, эксплуатации, мониторингу и обслуживанию технологии с ИИ и нести ответственность за нарушение таких правил при наличии вины;
4) лицо, использующее технологию с ИИ, обладающую определенной степенью автономии, не должно нести меньшую ответственность за вред, чем если бы он был причинен человеком;
5) производители продуктов с ИИ должны нести ответственность за ущерб, вызванный дефектами в них;
6) в ситуациях, когда третьи лица подвергаются повышенному риску причинения вреда, обязательное страхование ответственности может предоставить жертвам более широкий доступ к компенсации и защитить потенциальных при-чинителей вреда от излишней ответственности;
7) в тех сферах, где технология увеличивает трудности доказывания вреда, потерпевшие должны иметь право на содействие в получении доказательств, а государства - снизить стандарты доказывания;
8) ИИ должны сопровождаться функциями ведения журнала действий, а также обеспечивать доступ к сведениям.
Таким образом, ЕС исходит из того, что пока нет необходимости придавать устройствам или автономным системам с ИИ самостоятельную правосубъектность. Вред, который технологии с ИИ способны причинить, может и должен быть отнесен к физическим или юридическим лицам либо публичным органам. Тем не менее, работа по совершенствованию правового регулирования ответственности ИИ в ЕС будет продолжена.
Право ЕС поощряет исследования в области ИИ, его регламентацию и использование во всех сферах жизни. Следует внимательно изучить европейский опыт, чтобы использовать его при реализации российской стратегии.
Автор усматривает следующие принципы права, регулирующие технологии с ИИ:
1) дать понятие «технологии с ИИ» как особого вида имущества;
2) ввести единый Госреестр продукции с ИИ с регистрацией договоров в отношении прав на них;
3) учредить СРО владельцев технологий с ИИ;
4) разработать основные положения договора по передаче прав на технологии с ИИ (об отчуждении, аренде и др.);
5) вменить действия технологий с ИИ их собственникам;
46
6) к технологиям с ИИ должно применяться гражданское законодательство, аналогичное применяемому к юрлицам (за некоторыми исключениями);
7) признать технологии с ИИ объектом повышенной опасности с ответственностью независимо от вины;
8) ввести страхование ответственности лиц, использующих технологии с ИИ.
1. Press.pwc.com: [сайт]. - URL: https://press.pwc.com/News-releases/ai-to-drive-gdp-gains-of--15.7-trillion-with-productivity--personalisation-improvements/s/3cc702e4-9cac-4a17-85b9-71769fba82a6 (дата обращения: 11.10.2020).
2. Cerka P., Grigiené J., Sirbikyté G. Liability for damages caused by artificial intelligence // Computer Law & Security Review. - 2015. - № 31(3).
3. Liability for artificial intelligence and other emerging digital technologies: [сайт]. - URL: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc& docid=36608 (дата обращения: 11.10.2020).
4. Ebert I. Who is liable when robots cause damage? - URL: https://www.munichre.com/topics-online/en/digitalisation/who-is-liable-when-robots-cause-damage.html (дата обращения: 11.10.2020).
5. Scheufen М. Künstliche Intelligenz und Haftungsrecht: Die e-Person aus ökonomischer Sicht / Artificial Intelligence and Liability Law: The e-Person from an Economic Point of View // Wirtschaftsdienst. - 2019. - № 99(6). - S. 411-414.
6. Zafer Z. Law and Artificial Intelligence: E-Person, Liability, and A Legal Application Example. - URL: https://robotic.legal/en/amp/hukuk-ve-yapay-zeka-e-kisi-mali-sorumluluk-ve-bir-hukuk-uygulamasi (дата обращения: 11.10.2020).
7. Lim Chong Kin. AI, Machine Learning & Big Data // Global Legal Insights. - URL: https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-datalaws-and-regulations/singapore (дата обращения: 11.10.2020).
8. Www.un.org/ru: [сайт]. - URL: https://www.un.org/ru/documents/decl_conv/ conventions/ elect_com.shtml (дата обращения: 11.10.2020).
9. Council Directive 85/374/EEC of 25 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning liability for defective products. - URL: https://osha.europa.eu/en/legislation/directives/council-directive-85-374-eec (дата обращения: 11.10.2020).
10.CJEU. Judgment of 25 April 2002. Case C-52/00. Commission of the European Communities v French Republic.
11. CJEU-Judgement of 25 April 2002. Case C-183/00 María Victoria González Sánchez v Medicina Asturiana SA. and Judgement of 20 November 2014, Case C-310/13, Novo Nord-isk Pharma G.
12.Stratégie nationale de recherche en intelligence artificielle. - URL: https://www.enseignementsup-recherche.gouv.fr/cid116143/la-strategie-france-i.a.-soutenir-la-dynamique-francaise-autour-de-l-intelligence-artificielle.html (дата обращения: 11.10.2020).
13.Nationale KI-Strategie. - URL: https://www.ki-strategie-deutschland.de/home.html (дата обращения: 11.10.2020).
14.Strategia Nazionale per l'Intelligenza Artificiale. - URL: https://www.mise.gov.it/images/stories/documenti/Strategia-Nazionale-Intelligenza-Artificiale-Bozza-Consultazione.pdf (дата обращения: 11.10.2020).
47
15.Estrategia española de I+D+I en inteligencia artificial. Ministerio de Ciencia, Innovación y Universidades, 2019. - URL: http://www.fi.upm.es/GestorTablon/GTuploads/3740-1-Estrategia_Inteligencia_Artificial_IDI.pdf (дата обращения: 11.10.2020).
16.Resolution on Civil Law Rules on Robotics. - URL: http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051 _EN.html (дата обращения: 11.10.2020).
17.A common EU approach to liability rules and insurance for connected and autonomous vehicles. - URL: http://www.europarl.europa.eu/thinktank/ en/ docu-ment.html?reference=EPRS_STU% 282018%29615635 (дата обращения: 11.10.2020).
18.Artificial Intelligence. - URL: https://ec.europa.eu/digital-single-market/en/artificial-intelligence (дата обращения: 11.10.2020).
19.Staff Working Document on 'Liability for emerging digital technologies'. - URL: https://ec.europa.eu/digital-single-market/en/news/importance-european-commission-staff-working-document-swd-liability-emerging-digital (дата обращения: 11.10.2020).
20.High-Level Expert Group on Artificial Intelligence. - URL: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence (дата обращения: 11.10.2020).
21.Ec.europa.eu. - URL: https://ec.europa.eu/futurium/en/ai-alliance-consultation/ guide-lines#Top (дата обращения: 11.10.2020).
22.Ec.europa.eu. - URL: https://ec.europa.eu/digital-single-market/en/news/policy-and-invest-ment-recommendations-trustworthy-artificial-intelligence (дата обращения: 11.10.2020).
23.The Expert Group on Liability and New Technologies. - URL: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupDetail&groupI D=3592 (дата обращения: 11.10.2020).
24. Report on liability for Artificial Intelligence and other emerging technologies. - URL: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc& docid=36608 (дата обращения: 11.10.2020).
25.Modalitа attuative e strumenti operativi della sperimentazione su strada delle soluzioni di Smart Road и di con guide connessa e Automatica, 18A02619, GU № 90. 18.04.2018. -URL: https://www.gazzettaufficiale.it/eli/id/2018/04/18/18A02619/sg (дата обращения: 11.10.2020).
26.Dirección General de Tráfico. Instrucción 15/V-113. 13.11.2015. - URL: http://www.dgt.es/es/seguridad-vial/normativa-y-legislacion/otras-
normas/modificaciones/15.V-113-vehiculos-conduccion-automatizada.shtml (дата обращения: 11.10.2020).
27.StraBenverkehrsgesetz. - URL: https://www.gesetze-im-internet.de/stvg (дата обращения: 11.10.2020).
28.Décret № 2018-211 du 28 mars 2018 relatif à l'expérimentation de véhicules à délégation de conduite sur les voies publiques. - URL: https://www.legifrance.gouv.fr/jorf/id/ J0RFTEXT000036750342 (дата обращения: 11.10.2020).
29.Directive 2014/53/EU of the European Parliament and of the Council of 16 April 2014 on the harmonisation of the laws of the Member States relating to the making available on the market of radio equipment. - URL: https://eur-lex.europa.eu/legal-ontent/EN/TXT/?uri=celex%3A32014L0053 (дата обращения: 11.10.2020).
30.Real decreto 1644/2008, de 10 de octubre, por el que se establecen las normas para la comercialización y puesta en servicio de las máquinas. - URL: https://www.boe.es/buscar/pdf/2008/B0E-A-2008-16387-consolidado.pdf (дата обращения: 11.10.2020).
48
31.S.I. № 248/2017 - European Union (Radio Equipment) Regulations 2017. - URL: http://www. irishstatutebook. ie/eli/2017/si/248/made/en/print (дата обращения: 11.10.2020).
32.The General Data Protection Regulation (GDPR). - URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32016R0679 (дата обращения: 11.10.2020).
33.White Paper on Artificial Intelligence: a European approach to excellence and trust. - URL: https://ec.europa.eu/info/files/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en (дата обращения: 11.10.2020).
© П. Н. Бирюков, 2020
Для цитирования: Бирюков П. Н. Ответственность за вред, причиненный технологиями с искусственным интеллектом: подход Европейского союза // Территория новых возможностей. Вестник Владивостокского государственного университета экономики и сервиса. -2020. - Т. 12, № 4. - С. 39-49.
For citation: Biryukov P. N. Responsibility for damages caused artificial intelligence: EU approach, The Territory of New Opportunities. The Herald of Vladivostok State University of Economics and Service, 2020, Vol. 12, № 4, рp. 39-49.
DOI dx.doi.org/10.24866/VVSU/2073-3984/2020-4/039-049
Дата поступления: 23.11.2020.