Научная статья на тему 'Правовые подходы к регулированию искусственного интеллекта и роботов в Европейском Союзе и его государствах-членах'

Правовые подходы к регулированию искусственного интеллекта и роботов в Европейском Союзе и его государствах-членах Текст научной статьи по специальности «Право»

CC BY
1087
256
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / РОБОТЫ / ЕВРОПЕЙСКИЙ СОЮЗ / ARTIFICIAL INTELLIGENCE / ROBOTS / EUROPEAN UNION

Аннотация научной статьи по праву, автор научной работы — Заплатина Т. С.

В статье рассматриваются правовые подходы к регулированию искусственного интеллекта в Европейском Союзе и его государствах-членах. Анализ нормативных актов Европейского Союза, Австрии, Франции и Германии показал, что в настоящий момент не существует единого подхода к правовой регламентации искусственного интеллекта и роботов. Так, традиционные правила не в полной мере применимы в области договорной ответственности, что создает необходимость принятия новых, более эффективных стандартов, соответствующих современным технологическим достижениям и инновациям. Немаловажную роль играют также этико-правовые проблемы, связанные в первую очередь с рисками в сфере прав человека и основных свобод, разработка этических принципов в алгоритмах искусственного интеллекта. Единый европейский подход позволит избежать фрагментации законодательства государств членов Европейского Союза, расширит возможности взаимного признания при трансграничном использовании роботов и роботизированных систем.This article is devouted to the analises of legal approaches to the regulation of artifi cial intelligence in the European Union and its member states. The European Union, Austria, France and Germany legal regulation analysis shows that at that moment there is no single approach regarding the legal regulation of artifi cial intelligence and robots. So, current legal rules are not fully applicable in the scope of contractual liability, that creates need for the adoption of new eff ective standards meeting modern technological achievements and innovations. There is important role of ethical and legal issues associating with risks in the fi eld of human rights and fundamental freedoms, issues developing ethical principles in artifi cial intelligence algorithms. The single legal European approach will help to avoid fragmentation of the EU Member States legislation and will expand the possibilities of mutual recognition in the cross-border use of robots and robotic systems.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Правовые подходы к регулированию искусственного интеллекта и роботов в Европейском Союзе и его государствах-членах»

)УНИВЕРСИТЕТА

имени O.E. Кутафина (МГЮА)

Заплати на Т. С. _ __

Правовые подходы к регулированию искусственного интеллекта | |

и роботов в Европейском Союзе и его государствах-членах

ПРАВОВЫЕ ПОДХОДЫ К РЕГУЛИРОВАНИЮ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И РОБОТОВ В ЕВРОПЕЙСКОМ СОЮЗЕ И ЕГО

ГОСУДАРСТВАХ-ЧЛЕНАХ1

Аннотация. В статье рассматриваются правовые подходы к регулированию искусственного интеллекта в Европейском Союзе и его го-су дарствах-членах. Анализ нормативных актов Европейского Союза, Австрии, Франции и Гэрмании показал, что в настоящий момент не существует единого подхода к правовой регламентации искусственного интеллекта и роботов. Так, традиционные правила не в полной мере применимы в области договорной ответственности, что создает необходимость принятия новых, более эффективных стандартов, соответствующих современным технологическим достижениям и инновациям. Немаловажную роль играют также этико-правовые проблемы, связанные в первую очередь с рисками в сфере прав человека и основных свобод, разработка этических принципов в алгоритмах искусственного интеллекта. Единый европейский подход позволит избежать фрагментации законодательства государств — членов Европейского Союза, расширит возможности взаимного признания при трансграничном использовании роботов и роботизированных систем. Ключевые слова: искусственный интеллект, роботы, Европейский Союз.

Татьяна Сергеевна ЗАПЛАТИНА,

преподаватель кафедры интеграционного и европейского права Университета имени O.E. Кутафина (МГЮА), кандидат юридических наук tatianazaplatina@yandex 125993, Россия, г. Москва, ул. Садовая-Кудринская, д. 9

DOI: 10.17803/2311-5998.2020.68.4.121-128

T. S. ZAPLATINA,

lecturer ofintegrational and European law chair of the Kutafin Moscow State Law University (MSAL), PhD in Law

tatianazaplatina@yandex 125993, Russia, Moscow, ul. Sadovaya-Kudrinskaya, 9

LEGAL APPROACHES TO THE ARTIFICIAL INTELLIGENCE AND ROBOTS REGULATION IN THE EUROPEAN UNION

AND ITS MEMBER STATES

Abstract. This article is devouted to the analises of legal approaches to the regulation of artificial intelligence in the European Union and its member states. The European Union, Austria, France and Germany legal regulation analysis shows that at that moment there is no single approach regarding the legal regulation of artificial intelligence and robots. So, current legal rules are not fully applicable in the scope of contractual liability, that creates need

1 Работа выполнена при финансовой поддержке РФФИ в рамках научного проекта

№ 18-29-16150 © Т. С. Заплатина, 2020

УНИВЕРСИТЕТА

имени О.Е. Кугафина(МПОА)

'СТНИК

for the adoption of new effective standards meeting modern technological achievements and innovations. There is important role of ethical and legal issues associating with risks in the field of human rights and fundamental freedoms, issues developing ethical principles in artificial intelligence algorithms. The single legal European approach will help to avoid fragmentation of the EU Member States legislation and will expand the possibilities of mutual recognition in the cross-border use of robots and robotic systems. Keywords: artificial intelligence, robots, European Union.

В настоящее время человечество стоит на пороге нового этапа инновационного развития: роботы, боты, андроиды и другие формы искусственного интеллекта готовят общество к новой промышленной революции. Благодаря впечатляющим технологическим достижениям последнего десятилетия, роботы могут не только выполнять действия, которые ранее были типичными исключительно для человека, но и развивать определенные когнитивные и автономные черты, такие как способность учиться, принимать решения, что делает роботов все более похожими на людей. Поскольку автономию робота можно определить как способность принимать решения независимо от какого-либо внешнего контроля или влияния2, крайне важно, чтобы законодатель следил за новыми тенденциями технического развития, определил роль и место искусственного интеллекта (ИИ) и роботов в общественных отношениях, во взаимодействии ИИ, роботов и человека.

Чем более автономны роботы, тем сложнее будет рассматривать их как простые инструменты в руках людей (производителей, операторов, владельцев, пользователей и т. д.), что поднимает вопрос о конкретизации правового положения ИИ и роботов, об определении правовых подходов к его пониманию. Иными словами, какова природа роботов и ИИ и относятся ли они к одной из существующих правовых категорий или же должна быть создана новая категория, с ее собственными правовыми характеристиками?

В Сообщении Европейской комиссии об ИИ отмечается: «Искусственный интеллект относится к системам, которые демонстрируют интеллектуальное поведение, анализируя их среду и предпринимая действия с некоторой степенью автономии для достижения конкретных целей. Системы на основе ИИ могут быть чисто программными, действующими в виртуальном мире (например, голосовые помощники, программное обеспечение для анализа изображений, поисковые системы, системы распознавания речи и лица), или встроенными в аппаратные устройства (например, усовершенствованные роботы, автономные машины или беспилотники)3. Таким образом, термин «искусственный интеллект» напрямую отсылает к понятию интеллекта, и хотя интеллект (как в машинах, так и у людей) является расплывчатым понятием (он подробно изучался психологами, биологами и нейробиологами), исследователи ИИ используют для его определения термин «рациональность». Это включает воз-

2 Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)) // URL: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.html (дата обращения: 14.01.2020).

3 Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions on Artificial Intelligence for Europe, Brussels, 25.4.2018 CQM(2018) 237 final.

в

ЕСТНИК Заплатана Т. С.

можность выбора наилучшего действия для достижения определенной цели с учетом определенных критериев и доступных ресурсов, которые необходимо оптимизировать. Рациональность не единственная составляющая концепции интеллекта, но она является ее значительной частью.

Важно отметить, что достижение рациональности происходит через восприятие среды, в которую система ИИ погружается через некоторые датчики. Собирая и интерпретируя данные, рассуждая о том, что воспринимается, обрабатывая информацию, полученную из этих данных, решая, какое действие лучше, действуя, ИИ изменяет окружающую среду, взаимодействует с ней. Системы ИИ могут использовать символические правила или изучать числовую модель, а также могут адаптировать свое поведение, анализируя влияние на окружающую среду предыдущих действий.

Робототехника, в свою очередь, определяется Европейской комиссией как «ИИ в действии в физическом мире» (воплощенный ИИ). Робот — это физическая машина, которая должна справляться с динамикой, неопределенностью и сложностью физического мира. Восприятие, рассуждение, действие, обучение, а также возможность взаимодействия с другими системами обычно интегрированы в архитектуру управления роботизированной системой. Примеры роботов — роботы-манипуляторы, автономные транспортные средства (например, автомобили, беспилотники, летающие такси), роботы-гуманоиды, роботы-пылесосы и т. д., робототехника опирается на методы, которые выходят за пределы пространства ИИ4.

Итак, в актах Европейской комиссии ИИ определен как программная (и, возможно, также аппаратная) система, разработанная людьми, которая, учитывая сложность цели, действует в физическом или цифровом измерении путем восприятия своей среды с помощью сбора данных, интерпретации собранных структурированных или неструктурированных данных, обработки информации, полученной из этих данных, и принимает решения о лучших действиях, которые необходимо предпринять для достижения этой цели. Современные системы искусственного интеллекта ориентированы на достижение цели, они получают спецификацию цели от человека и используют некоторые методы для достижения этой цели, они не определяют свои собственные цели. Тем не менее некоторые системы искусственного интеллекта (например, ocho- ^

ванные на определенных методах машинного обучения) могут иметь больше свободы

для выбора пути достижения поставленной цели.

Продолжая анализ нормативного подхода Европейского Союза к проблеме ИИ ^

и роботов, следует отметить, что Европейский парламент в резолюции «О рекомен- рЛ

дациях Комиссии по стандартам гражданского права в области робототехники» от ^^

16 февраля 2017 г.5 указывает на то, что в случае, когда робот может принимать автономные решения, традиционных норм будет недостаточно для того, чтобы решить вопросы юридической ответственности за ущерб, причиненный роботом. В резолюции отмечается, что Директивы Совета 85/374/ЕЭС от 25 июля 1985 г. о сближении р ;> законов, правил и административных положений государств-членов в отношении ответственности за ущерб, причиненный дефектной продукцией6, охватывающей тКо

т3т

The European Commission. A definition of Al: Main capabilities and scientific disciplines High- ^ m

Level Expert Group on Artificial Intelligence, June 2018 // URL: https://ec.europa.eu/digital- Q Ш ^

single-market/en/news/ethics-guidelines-trustworthy-ai (дата обращения: 12.01.2020).

Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones Ш^Т

destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL) // URL: http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.html (дата обра- н Ш "О

щения: 12.01.2020).

Directiva 85/374/СЕЕ del Consejo, de 25 de julio de 1985, relativa a la aproximación de las

UXa

disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia ЛОГИЙ

>

в Я УНИВЕРСИТЕТА

L-—и мени О. Е. Кугафи на (МПОА)

только ущерб, вызванный производственными дефектами робота, может быть недостаточно в случае недоговорной ответственности при условии, что потерпевшая сторона может доказать фактический ущерб, дефект продукта и причинно-следственную связь между дефектом и повреждением (объективная ответственность или ответственность без вины).

Несмотря на сферу действия Директивы 85/374/ЕЭС, существующая правовая база не будет достаточной для покрытия ущерба, нанесенного роботами нового поколения, в той степени, в которой они могут быть обеспечены адаптивными и обучающими возможностями. Это влечет за собой определенную степень непредсказуемости в их поведении, поскольку робот может автономно учиться на своем конкретном опыте и непредсказуемым и надлежащим образом взаимодействовать со своей средой. Европейский парламент отмечает, что в действующей правовой базе роботы не могут нести ответственность за действия или бездействие, которые наносят ущерб третьим лицам, нормы в области ответственности предусматривают случаи, в которых за действие или бездействие робота ответственность наступает у конкретного человека (производителя, оператора, владельца или пользователя), он может считаться объективно ответственным за действия или бездействие робота.

Поскольку в соответствии с действующей нормативно-правовой базой ответственность за ущерб, причиненный дефектными продуктами, несет производитель продукта, а за ущерб, вызванный поведением, ответственность несет пользователь продукта, поведение которого привело к ущербу, то те же нормы об ответственности относятся и к ущербу, причиненному роботами или искусственным интеллектом. В этой связи в рассмотренной резолюции Европейский парламент призывает Европейскую комиссию принять проект по совершению законодательства, предусматривающего нормы гражданской ответственности роботов и ИИ, установить критерии для классификации роботов, создать специальное агентство ЕС по робототехнике и искусственному интеллекту и разработать кодекс поведения для инженеров-робототехников. Парламент также отмечает необходимость «закрепления специального правового статуса роботов, с тем чтобы по крайней мере самые совершенные автономные роботы могли иметь статус электронных лиц, ответственных за ущерб, который они могут причинить». Применение статуса электронной личности возможно в случаях, когда роботы принимают автономные решения или иным образом независимо взаимодействуют с третьими сторонами.

В апреле 2018 г. Европейская комиссия опубликовала сообщение «Искусственный интеллект для Европы» (Communication), в котором изложила подход ЕС к использованию возможностей, предоставляемых ИИ, и решению стоящих перед ним задач7. В сообщении подчеркивается, что ЕС должен обеспечить, чтобы никто не остался в стороне от цифровой трансформации и чтобы ИИ разрабатывался и применялся на основе ценностей права ЕС. В этой связи 18 декабря 2018 г. Группа экспертов высокого уровня по искусственному интеллекту (Al HLEG)8 выпустила проект руководящих принципов по этике ИИ, в котором изложены рамки проектирования на-

de responsabilidad por los daños causados por productos defectuosos//OJ L210. 07.08.1985. Pp. 29—33.

7 Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions. Artificial Intelligence for Europe, COM (2018) 237 final (Apr. 25, 2018).

8 High-Level Expert Group on Artificial Intelligence, European Commission // URL: https:// ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence (last updated Oct. 29, 2018).

в

ЕСТНИК Заплатана Т. С.

дежного ИИ9. В соответствии с руководящими принципами заслуживающий доверия ИИ должен «уважать основные права, принципы и ценности, обеспечивая этическую цель, быть технически устойчивым и надежным, поскольку даже при наличии благих намерений отсутствие технологического мастерства может привести к непреднамеренному вреду».

10 апреля 2018 г. двадцать четыре государства — члена ЕС и Норвегия подписали Декларацию о сотрудничестве в области искусственного интеллекта для разработки европейского подхода к искусственному интеллекту10. Румыния, Греция и Кипр присоединились к этой инициативе в мае 2018 г., а Хорватия — в июле 2018 г.11 В Декларации подписавшие стороны согласились сотрудничать:

— в стимулировании европейского технологического и промышленного потенциала в области ИИ, его использовании, включая доступ к данным государственного сектора;

— решении социально-экономических проблем, таких как трансформация рынков труда и модернизация европейских систем образования и профессиональной подготовки;

— обеспечении адекватной правовой и этической основы, включающей ценности ЕС, в том числе конфиденциальность и защиту личных данных, а также такие принципы, как прозрачность и подотчетность.

Останавливаясь подробнее на анализе правовых подходов к регулированию ИИ и роботов в государствах — членах ЕС, целесообразно рассмотреть нормы отдельных государств. Так, правительство Австрии в своей правительственной программе на 2017—2022 гг. заявило, что «новые цифровые технологии, такие как ИИ, робототехника и блокчейн, будут иметь непредсказуемые последствия для общества»12. В 2017 г. Министерство транспорта, инноваций и технологий Австрии учредило Австрийский совет по робототехнике и искусственному интеллекту (Österreichischer Rat für Robotik und künstliche Intelligenz)13. Его основная задача — помочь Министерству транспорта в разработке стратегии искусственного интеллекта и робототехники, совет также уполномочен самостоятельно решать важные технологические, экономические, социальные и юридические вопросы в этой области и принимать соответствующие рекомендации. Полная стратегия будет основана на Белой книге, опубликованной ^

Австрийским советом по робототехнике и искусственному интеллекту и Миссией по искусственному интеллекту в Австрии в 2030 г. >

__s

--ПО

9 High-Level Expert Group on Artificial Intelligence [AI HLEG], Draft Ethics Guidelines For _|I

Trustworthy AI (Dec. 18, 2018) // URL: http://perma.cc/DYK4-7E5S (дата обращения: 14.01.2020).

10 Declaration: Cooperation on AI, Apr. 10, 2018 // URL: http://perma.cc/F6U4-NV4C (дата обращения: 14.01.2020). т^Д

cooperate-artificial-intelligence (дата обращения: 14.01.2020).

EU Member States Sign Up to Cooperate on Artificial Intelligence, European Commission (Apr. m — 01

m i .

10, 2018)//URL: https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign- -EJfn

Щ

BS

Zusammen. Für unser Österreich. Regierungsprogramm 2017—2022 [Together. For Our "0

Austria. Government Program 2017—2022] // URL: https://www.bundeskanzleramt.gv.at (дата Ш □ I

обращения: 14.01.2020). E Л m

X —I

Österreichischer Rat für Robotik und künstliche Intelligenz [Austrian Council for Robotics and н Ш "ö

Artificial Intelligence], Bundesministeriums für Verkehr, Innovation und Technologie [BMVIT] ХШ11

[Austrian Federal Ministry for Transport, Innovation, and Technology] // URL: https://www.

UXa

bmvit.gv.at/innovation/forschungspolitik/robotikrat.html (дата обращения: 14.01.2020). ЛОГИЙ

>

в Я УНИВЕРСИТЕТА

L-—и мени О. Е. Кугафи на (МПОА)

В 2016 г. Австрия внесла поправки в свой Закон об автомобилях, чтобы разрешить использование автоматизированных транспортных средств14. Эти системы могут использоваться, если они либо разрешены, либо соответствуют определенным условиям, установленным регламентом для целей испытаний. Тем не менее закон предусматривает, что водитель должен нести ответственность за выполнение функций вождения. Автономные транспортные средства могут быть протестированы на дороге только в том случае, если они имеют страховку автомобиля и передают определенные данные в Министерство транспорта. Пробные поездки по дорогам общего пользования могут проводиться только после того, как транспортные средства были предварительно протестированы. Результаты испытаний должны быть переданы в Министерство транспорта после окончания испытательного периода. Информация о критических ситуациях, авариях и их причинах должна сообщаться без неоправданной задержки. Кроме того, все испытательные автомобили с автоматизированными или сетевыми системами должны быть оснащены регистратором данных об авариях, который должен быть активирован во время всех тестовых поездок.

Французская стратегия по ИИ15 устанавливает необходимость принятия социальной приемлемости ИИ в качестве одного из основных принципов. С этой целью в стратегии рассмотрена необходимость принятия политики прозрачности и аудита, включающей этику по подготовке инженеров и исследователей искусственного интеллекта, а также отмечена необходимость применения принципа ответственности человека. Кроме того, французское правительство экспериментирует с использованием ИИ для определенных аспектов управления. В частности, Апелляционные суды Ренна и Дуэ проверяли программное обеспечение для предиктивного правосудия по различным апелляционным делам в 2017 г.16 В этой связи французское правительство прилагает некоторые усилия, чтобы предвидеть проблемы правового регулирования ИИ. Так, Национальная комиссия по компьютерным технологиям и гражданским свободам (CNIL) подготовила отчет об «этических алгоритмах искусственного интеллекта» в декабре 2017 г.17 Этот отчет указывает на ряд общих этических проблем, связанных с ИИ:

1. Будет ли подорвана свободная воля и ответственность человека, если принятие решений будет все больше делегироваться машинам и программному обеспечению?

2. Как сбалансировать преимущества больших данных с необходимостью защиты индивидуальной конфиденциальности?

3. Как выбрать данные, используемые для обеспечения машинного обучения ИИ, найти баланс между соответствием необходимости определенного количества данных определенной цели?

14 Bundesgesetz über das Kraftfahrwesen [Kraftfahrgesetz 1967] [KFG 1967] [Motor Vehicles Act 1967], June 23, 1967, Bundesgesetzblatt [BGBL.] [Federal Law Gazette] 1968, no. 267, as amended // URL: http://www.ris.bka.gv (дата обращения: 14.01.2020) ; Verordnung des Bundesministers für Verkehr, Innovation und Technologie über Rahmenbedingungen für automatisiertes Fahren [Automatisiertes Fahren Verordnung] [AutomatFahrV] [Regulation on Automated Driving], BGBL. II 2016, No. 402, as amended // URL: https://www.ris.bka.gv (дата обращения: 14.01.2020).

15 Strategy in the field of artificial intelligence (AI), 29 March 2018 // URL: https://uk.ambafrance. org/France-s-AI-strategy (дата обращения: 14.01.2020).

16 CEPEJ, European Ethical Charter on the use of Artificial Intelligence in judicial systems and their environment 34//CEPEJ (2018) 14, Dec. 3, 2018.

17 Commission Nationale De L'informatique Et Des Libertés (CNIL), Comment Permettre À L'homme De Garder La Main? [How to keep mankind in control?], Dec. 2017 // URL: https:// perma.cc/B3KD-63B5 (дата обращения: 14.01.2020).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

в

ЕСТНИК Звплвтимв Т. С.

4. Ставит ли развитие автономного ИИ под сомнение сам смысл человеческой идентичности, приводит ли к размытию границ между людьми и машинами?

Для решения этих проблем в докладе CNIL предлагаются два общих принципа и шесть конкретных рекомендаций. Первый принцип (принцип лояльности) содержит идею того, что алгоритмы ИИ не должны предавать интересы своих пользователей, не только как потребителей, но и более широко — как граждан и членов общества, лиц, чьи интересы могут быть затронуты алгоритмом. Второй принцип (рефлексивности) относится к идее, что постоянное развитие и непредсказуемость ИИ требуют методической, совещательной и регулярной проверки всеми заинтересованными сторонами. Рекомендации CNIL включают:

— этическое воспитание всех вовлеченных в разработку и использование ИИ;

— понятность алгоритмов ИИ их пользователям;

— разработку алгоритмов, служащих свободе человека и противодействующих эффекту неизвестности;

— создание национальных органов по алгоритмам аудита ИИ и роботов;

— стимулирование исследований этического ИИ;

— укрепление органов по соблюдению этики в корпорациях.

В Германии первоначально дебаты, связанные с этикой, были в основном обусловлены отраслевыми интересами, в результате в июне 2017 г. Комиссия по этике Министерства транспорта приняла ряд этических правил18 для автоматизированного и связанного автомобильного движения. В ноябре 2018 г. была запущена национальная стратегия19 в области искусственного интеллекта, предусматривающая ряд мер по этике. Например, в документе предлагается использовать этический подход для всех этапов разработки и использования ИИ, отмечается необходимость содействия исследованиям новых способов псевдонимирования и анонимизации данных, а также дифференциальной конфиденциальности. Кроме того, федеральное правительство рассматривает вопрос о том, охватывает ли правовая база Германии все аспекты, связанные с услугами и продуктами на основе алгоритма ИИ и его адаптации, чтобы можно было проверить, есть ли какая-либо дискриминация или предвзятость.

publication/germany-artificial-intelligence-strategy_en (дата обращения: 14.01.2020).

Правительство Германии опубликовало повестку 2014—2017 гг., цифровую страте- i

гию 2025 г., где излагаются руководящие принципы цифровой политики и выделяется ^

ряд ключевых областей деятельности20. Помимо прочего, были созданы два центра компетенции в области больших данных. В отчете о внедрении правительство указывает, что искусственный интеллект и машинное обучение предоставляют необходимые инструменты для работы с большими данными21. □□

т>

18 Ethics Commission: Automated and Connected Driving, Appointed by the Federal Minister of щ ^

Transport and Digital Infrastructure. Report (extract) June 2017//URL: https://www.bmvi.de/ ^^^

SharedDocs/EN/publications/report-ethics-commission-automated-and-connected-driving. Tj

pdf?_blob=publicationFile (дата обращения: 14.01.2020). m —СП

и I .

Germany: Artificial Intelligence Strategy // URL: https://ec.europa.eu/knowledge4policy/

Щ

BS

Bundesregierung [Federal Government], Digitale Agenda 2014—2017 [Digital Agenda 2014— "0

2017], Aug. 2014 // URL: http://perma.cc/6ZAA-DDM3 (дата обращения: 14.01.2020); Federal § ^ i

Ministry for Economic Affairs and Energy, Digital Strategy 2025, Apr. 2016 // URL: http://perma. E ^ ^

cc/93XR-GZJJ (дата обращения: 14.01.2020). ч Ш -g

Bundesregierung [Federal Government], Legislaturbericht. Digitale Agenda 2014—2017 ХШ11 [Legislative Report. Digital Agenda 2014—2017], May 2017 // URL: http://perma.cc/EQD9-

XLJW (дата обращения: 14.01.2020). ЛОГИЙ

>

в М УНИВЕРСИТЕТА

L-—и мени О. Е. Кугафи на (МПОА)

В июле 2018 г. правительство Германии опубликовало ключевые положения для Стратегии искусственного интеллекта (AI Strategy) (Strategie Künstliche Intelligenz)22. Полная стратегия ИИ была опубликована в конце ноября 2018 г.23, она гласит, что технология ИИ должна строиться «на европейских ценностях, таких как неприкосновенность человеческого достоинства, уважение частной жизни и принцип равенства». Стратегия также указывает на необходимость дальнейшей разработки нормативно-правовой базы для обеспечения высокого уровня правовой определенности.

В июне 2016 г. в Германии были внесены поправки в Закон о дорожном движении, чтобы позволить водителям передавать управление транспортным средством автоматизированным системам вождения для транспортных средств, которые будут использоваться на дорогах общего пользования24. Кроме того, Министерством транспорта и цифровой инфраструктуры Германии была создана Комиссия по этике автоматизированного и подконтрольного вождения. В августе 2017 г. она опубликовала отчет, в котором изложены 20 этических принципов программирования автоматизированных систем вождения с акцентом на безопасность, человеческое достоинство, личную свободу и автономность данных25.

Подводя итог произведенному анализу правовых подходов к регулированию искусственного интеллекта и роботов в Европейском Союзе и государствах — членах ЕС, следует отметить, что в настоящий момент не существует единого подхода в части правовой регламентации ИИ. Очевидно, что традиционные правила не в полной мере применимы в области договорной ответственности, в этой связи необходимо принять новые эффективные стандарты в соответствии с технологическими достижениями и инновациями, недавно появившимися и используемыми на рынке. Немаловажную роль играют также этико-правовые проблемы, связанные в первую очередь с рисками в области прав человека и основных свобод, вопрос разработки этических принципов в алгоритмах ИИ, безопасность обработки больших объемов данных. Особое внимание следует уделить возможному развитию эмоциональной связи между людьми и роботами.

Следует отметить, что создание комплексной системы регистрации роботов на внутреннем рынке ЕС, установление критериев их классификации, предложенные Европейским парламентом и Европейской комиссией, помогут снять часть указанных выше недостатков, однако данные изменения не формируют единой концепции правового регулирования ИИ и роботов на территории ЕС. Единый подход на уровне ЕС позволит избежать фрагментации внутреннего рынка, обеспечит взаимное признание при трансграничном использовании роботов и роботизированных систем, сертификации и надзоре.

22 Key Points for a Federal Government Strategy on Artificial Intelligence, supra note 143.

23 Bundesregierung [Federal Government], Strategie Künstliche Intelligenz der Bundesregierung [AI Strategy of the Federal Government], Nov. 2018 // URL: http://perma.cc/4WVT-U652 (дата обращения: 14.01.2020).

24 Achtes Gesetz zur Änderung des Straßenverkehrsgesetzes [Eighth Act to Amend the Road Traffic Act], June 16, 2017, BGBL// URL: http://perma.cc/25XG-7BYQ (дата обращения: 14.01.2020).

25 Press Release, Federal Ministry of Transport and Digital Infrastructure [BMVI], Ethics Commission on Automated Driving Presents Report, Aug. 28, 2017 // URL: http://perma.cc/ RLQ8-EWLL (дата обращения: 14.01.2020).

i Надоели баннеры? Вы всегда можете отключить рекламу.