Научная статья на тему 'ПРОБЛЕМЫ ОПРЕДЕЛЕНИЯ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ДЕЙСТВИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

ПРОБЛЕМЫ ОПРЕДЕЛЕНИЯ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ДЕЙСТВИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Право»

CC BY
383
63
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОБЩАЯ ТЕОРИЯ ПРАВА / GENERAL THEORY OF LAW / ИНФОРМАЦИОННОЕ ПРАВО / INFORMATION LAW / УГОЛОВНОЕ ПРАВО / CRIMINAL LAW / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ARTIFICIAL INTELLIGENCE / УГОЛОВНАЯ ОТВЕТСТВЕННОСТЬ / CRIMINAL RESPONSIBILITY / ПРАВОСУБЪЕКТНОСТЬ / LEGAL PERSONALITY

Аннотация научной статьи по праву, автор научной работы — Морхат Петр Мечиславович

Настоящая статья посвящена исследованию проблем определения юридической ответственности за действия систем искусственного интеллекта. В статье определена специфика искусственного интеллекта, актуализирующая данную проблему, рассмотрены основные подходы к определению юридической ответственности за действия искусственного интеллекта и основные модели. Исследован вопрос о целесообразности признания правосубъектности искусственного интеллекта, в том числе, уголовной правосубъектности.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The problems of determining legal responsibility for the actions of artificial intelligence

This article is devoted to the study of the problems of determining the legal liability for the actions of artificial intelligence systems. The article specifies the specifics of artificial intelligence, which actualizes the given problem. Main approaches to the definition of legal responsibility for the actions of artificial intelligence and basic models are considered in this article. The issue of the appropriateness of recognizing the legal personality of artificial intelligence, including criminal legal personality, is investigated.

Текст научной работы на тему «ПРОБЛЕМЫ ОПРЕДЕЛЕНИЯ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ДЕЙСТВИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

ПРОБЛЕМЫ ОПРЕДЕЛЕНИЯ ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА ДЕЙСТВИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

МОРХАТ Петр Мечиславович,

кандидат юридических наук, судья Арбитражного суда Московской области. E-mail: constitution88@gmail.com

Краткая аннотация: Настоящая статья посвящена исследованию проблем определения юридической ответственности за действия систем искусственного интеллекта. В статье определена специфика искусственного интеллекта, актуализирующая данную проблему, рассмотрены основные подходы к определению юридической ответственности за действия искусственного интеллекта и основные модели. Исследован вопрос о целесообразности признания правосубъектности искусственного интеллекта, в том числе, уголовной правосубъектности.

Abstract: This article is devoted to the study of the problems of determining the legal liability for the actions of artificial intelligence systems. The article specifies the specifics of artificial intelligence, which actualizes the given problem. Main approaches to the definition of legal responsibility for the actions of artificial intelligence and basic models are considered in this article. The issue of the appropriateness of recognizing the legal personality of artificial intelligence, including criminal legal personality, is investigated.

Ключевые слова: общая теория права, информационное право, уголовное право, искусственный интеллект, уголовная ответственность, правосубъектность.

Keywords: general theory of law, information law, criminal law, artificial intelligence, criminal responsibility, legal personality.

Введение

Современный уровень развития технологий позволяет задействовать системы искусственного интеллекта для достижения целей в самых разных сферах общественной жизни, делегируя им все большее и большее количество задач, традиционно выполняемых человеком.

Основной правовой проблемой использования таких систем уже на данном этапе является проблема определения юридической ответственности за наступление вредных последствий в результате действий искусственного интеллекта. Причем если ошибка системы искусственного интеллекта, используемой при управлении организацией, либо при оказании информационных услуг, может быть сравнительно легко отслежена, исправлена и не иметь глобальных негативных последствий, то, например, совершение такой ошибки при принятии решения в рамках государственного управления может нанести значительный вред публичным интересам в целом.

Также и допущение ошибок экспертными системами искусственного интеллекта в таких важных сферах, как медицинская диагностика и управление воздушным движением, может иметь потенциальные колоссально огромные негативные моральные, правовые и финансовые последствия1.

В настоящей статье будет исследована проблема определения ответственности за действия искусственного интеллекта, а также его правосубъектности с точки зрения способности нести ответственность за свои действия.

Специфика систем искусственного интеллекта

Джон Байерс отмечает, что до относительно недавнего времени проблема определения ответственности за действия машины разрешалась однозначно и традиционно: такая машина должна была рассматриваться исключительно как инструмент лица, обладающего или управляющего ей. Не возникало вопроса о личной ответственности такой машины или ее правосубъектности, поскольку машины не были способны осуществлять автономную или полуавтономную деятельность2.

В настоящее же время две следующие ключевые характеристики систем искусственного интеллекта актуализируют проблему определения их правосубъектности и способности нести юридическую ответственность за свои действия: - автономность3;

1 Huang T. Expert Systems // The History of Artificial Intelligence. -Seattle: University of Washington, 2006. - 27 p. - P. 12-16. - P. 14. <https://courses.cs.washington.edu/courses/csep590/06au/projects/hi story-ai.pdf>.

2 Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems / Osborne Clarke LLP // <http://www.osborneclarke.com/media/filer_public/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf>. -2015. - 8 p. - P. 1.

3 Редькина А.И. Концепция автономности в праве: теоретический аспект // Право и образование. - 2016. - № 11. - С. 13-21; Редькина А.И. Концепция автономности в праве: особенности, функции и проблемы применения // Право и образование. - 2016. -№ 12. - С. 110-117.

- способность к самообучению.

Их сочетание приводит к вероятности совершения действий, не предусмотренных производителем или программистом изначально.

При этом также имеет значение возможный диапазон таких непредвиденных действий.

Выделяют следующие основные модели определения ответственности, в том числе, уголовной, за действия искусственного интеллекта, повлекшие за собой наступление вредных последствий:

- модель, в рамках которой система искусственного интеллекта рассматривается как принципиально невинный агент, инструмент реального исполнителя правонарушения;

- так называемая «модель естественных вероятных последствий», которая предполагает, что система искусственного интеллекта реализует действия, являющиеся естественным и вероятным последствием ее программирования, и в ее рамках предусматривается, что лицо, программировавшее машину, проявило преступную небрежность;

- модель прямой ответственности системы

1

искусственного интеллекта за ее действия .

Реализация этих моделей предполагает применение различных законодательных мер.

Рассмотрим далее эти подходы более подробно

Искусственный интеллект как инструмент реального исполнителя правонарушения

Рональд Линес и Федерика Люсиверо указывают, что система искусственного интеллекта с юридической точки зрения, главным образом, должна рассматриваться как инструмент, и, соответственно, в рамках такого подхода есть конкретный человек, который несет юридическую ответственность за действия робота и за обеспечение того, чтобы его действия совершались в рамках закона2.

Такая модель является традиционной и, наверное, наиболее распространенной, по сути, ее реализация не требует внесения концептуальных изменений в действующее законодательство.

Непосредственная ответственность искус-

1 Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems / Osborne Clarke LLP // <http://www.osborneclarke.com/media/filer_pubNc/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf>. -2015. - 8 p. - P. 6.

2 Leenes R., Lucivero F. Laws on Robots, Laws by Robots, Laws in Robots: Regulating Robot Behaviour by Design // <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2546759>. -32 p. - P. 16.

ственного интеллекта за свои действия

Вопрос возможности привлечения системы искусственного интеллекта к юридической ответственности за его действия напрямую связан с вопросом определения его правосубъектности.

И данная тема на настоящий момент является весьма спорной и дискуссионной.

Натали Невеянс отмечает, что идея автономных роботов, обладающих правосубъектностью, - «по сути своей бесполезна, так как неуместна». Рассуждая на эту тему, данный исследователь указывает, что, наделяя создание правосубъектностью, мы стремимся уподобить его человеку, как, например, защитники прав животных утверждают, что некоторые из них являются сознательными существами, способными испытывать страдания, то есть, имеют чувства, отличающие их от неодушевленных предметов. Потенциальная правосубъектность же робота не может быть связана с сознанием или чувствами, соответственно, единственной целью наделения искусственного интеллекта правосубъектностью является наделение его способностью нести ответственность за свои действия3.

Питер Асаро отмечает при этом, что некоторые аспекты концепции правосубъектности могут быть применены к субъектам, которые в полной мере не соответствуют понятию личности, то есть, с такой точки зрения системы искусственного интеллекта могут быть рассмотрены в качестве субъектов, обладающих квази-правосубъектностью4

Здесь необходимо учитывать, что сравнение правосубъектности искусственного интеллекта с правосубъектностью юридического лица некорректно, так как предполагается, что за деятельностью последнего все равно стоят конкретные люди5, и юридическое лицо не может совершать действия независимо от этих людей.

Наделение системы искусственного интеллекта некоторыми ограниченными правами и обязанностями может осуществляться для достижения определенных целей в той или иной сфере, не для наде-

3 Nevejans N. European civil law rules in robotics: study / Policy Department for «Citizens' Rights and Constitutional Affairs», European Parliament's Committee on Legal Affairs // <http://www.europarLeuropa.eu/RegData/etudes/STUD/2016/571379/! P0L_STU(2016)571379_EN.pdf>. - 2016. - 29 p. - P. 15.

4 Asaro P.M. Robots and Responsibility from a Legal Perspective // <http://www.peterasaro.org/writing/asaro%20legal%20perspective.pdf >. - 5 p. - P. 3.

5 Nevejans N. European civil law rules in robotics: study / Policy Department for «Citizens' Rights and Constitutional Affairs», European Parliament's Committee on Legal Affairs // <http://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/! P0L_STU(2016)571379_EN.pdf>. - 2016. - 29 p. - P. 15.

ления такой системы в целом полной правосубъектностью. Например, если речь идет о доступе к голосовым данным, получаемым виртуальным помощником, установленным на смартфоне, при расследовании преступлений1.

Отмечается также, что при наделении систем искусственного интеллекта определенными правами, речь идет не о предоставлении им реальных прав, а скорее о юридической фикции, направленной на упрощение применения действующих законов2.

При этом если система искусственного интеллекта, применительно к ее деятельности в некоторых конкретных областях, может быть наделена отдельными правами и определенной квази-правосубъект-ностью, несмотря на отсутствие у нее свойств реальной личности, то в области определения уголовной ответственности таких систем это практически невозможно в силу отсутствия у них самосознания.

Соответственно, искусственный интеллект не может действительно и в полной мере осознавать последствия своих вредных действий3, что влечет за собой практически полное отсутствие субъективной стороны преступления, а, значит, и отсутствие его состава.

Габриэль Халлеви, изучая вопрос о возможности привлечения систем искусственного интеллекта к уголовной ответственности, также отмечает, что ключевым должен являться вопрос о наличии субъек-

4

тивной стороны правонарушения .

Кроме того, даже привлечение искусственного интеллекта к строгой ответственности не позволит обеспечить достижение целей уголовного наказания в полной мере, поскольку робот не может исправиться лишь в силу самого факта привлечения его к ответственности, а размер потенциального наказания не предотвратит его действий.

Проблемы определения ответственности

1 Artificial Intelligence and the Legal Profession / The Law Society's Horizon Scanning programme // <https://www.lawsociety.org.uk/support-services/documents/AI-and-the-legal-profession-horizon-scanning-report/>. - 2017. - 14 p. -P. 11.

2 Artificial Intelligence and the Legal Profession / The Law Society's Horizon Scanning programme // <https://www.lawsociety.org.uk/support-services/documents/AI-and-the-legal-profession-horizon-scanning-report/>. - 2017. - 14 p. -P. 11.

3 Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems / Osborne Clarke LLP // <http://www.osborneclarke.com/media/filer_public/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf>. -2015. - 8 p. - P. 7.

4 Hallevy G. The criminal liability of artificial intelligence entities - from science fiction to legal social control // Akron Intellectual Property Journal. - 2010. - Vol. 4. - P. 171-201. - P. 178. <https://www.uakron.edu/dotAsset/1139176.pdf>.

третьих лиц за совершение системами искусственного интеллекта вредных действий

Использование автономных или интеллектуальных машин обусловливает возникновение новых проблем и сложностей в рамках существующих моделей ответственности, которые, главным образом, основаны на концепции причинно-следственной связи между действием и его последствиями. В случае же когда использование подобных машин привело к совершению серьезной ошибки, возникает вопрос относительно того, что именно стало причиной этого: изначальная сложность оборудования или некорректное его программирование и обучение?5

В большинстве случаев использования искусственного интеллекта разумно привлечение к ответственности за ошибки, совершенные им, разработчиков такой системы. Но не в ситуациях, когда система искусственного интеллекта начинает функционировать таким образом, как нельзя было предсказать ранее, в особенности, если такая система взаимодействует в другими агентами в т.н. «интернете вещей»6 и самообучается и за счет этого.

Сущность автономии системы искусственного интеллекта как раз означает, что введение некоторых данных и программирование такой системы определенным образом не обязательно приводит к конкретному результату в ответ на заданные обстоятельства7.

В пункте Введения к Резолюции Европейского Парламента вместе с рекомендациями Комиссии от 16 февраля 2017 г. «Нормы гражданского права о робототехнике»8 указывается, что роботы сейчас способны не просто выполнять действия, которые обычно присущи и типичны для человека, но и способны учиться на собственном опыте и принимать квазинезависимые решения, что делает их все более похожими на агентов, взаимодействующих с окружающей

5 Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems / Osborne Clarke LLP // <http://www.osborneclarke.com/media/filer_public/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf>. -2015. - 8 p. - P. 1.

6 Artificial Intelligence and the Legal Profession / The Law Society's Horizon Scanning programme // <https://www.lawsociety.org.uk/support-services/documents/AI-and-the-legal-profession-horizon-scanning-report/>. 2017. - 14 p. - P. 11.

7 Beard J.M. Autonomous weapons and human responsibilities // Georgetown Journal of International Law. - 2014. - Vol. 45. - P. 617681. - P. 651. <https://www.law.georgetown.edu/academics/law-journals/gjil/recent/upload/zsx00314000617.PDF>.

8 European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) //

<http://www.europarl.europa.eu/sides/getDoc.do7pubRef— //EP//TEXT+TA+ P8-TA-2017-0051+0+D0C+XM L+V0//EN>.

средой и способных значительно ее изменять, и в таком контексте проблема определения юридической ответственности за вредные действия робота становится решающей.

Сложный и полиморфный характер таких систем не позволяет четко определять ответственность за сбои таких программ. Кроме того, если говорить, к примеру, о сложном оборудовании, используемом в военных целях, то принятие решений таким оборудованием, вероятно, будет распределено между несколькими разными программами (разрабатываемыми, возможно, разными незнакомыми друг с другом программистами) и процессорами, на основании данных, получаемых от датчиков различных типов. Принятие решений таким оборудованием будет зависеть и от обстановки, в которой оно используется, от контекста, а также от возлагаемых на него задач. В таком случае нецелесообразно и некорректно возлагать ответственность на проектировщиков и разработчиков1.

Кроме того, существует серьезная проблема, связанная с уязвимостью систем искусственного интеллекта от взлома2, которая может усложнять определение лица, ответственного за вредные действия такой системы.

Основные законодательные подходы

Использование автономных систем искусственного интеллекта поднимает вопрос о том, как именно такие системы должны проектироваться, чтобы их деятельность могла соответствовать законодательству3.

Модель естественных вероятных последствий и модель непосредственной ответственности искусственного интеллекта предполагают, в том числе, реализацию мер превентивного характера, направленных на минимизацию негативных последствий возможных действий искусственного интеллекта.

По мнению Генри Праккена, одной из таких мер является обеспечение проектирования систем искусственного интеллекта таким образом, чтобы гарантировать отсутствие нежелательных действий ма-

1 Beard J.M. Autonomous weapons and human responsibilities // Georgetown Journal of International Law. - 2014. - Vol. 45. -P. 617-681. - P. 651.

<https://www.law.georgetown.edu/academics/law-journals/gjil/recent/upload/zsx00314000617.PDF>.

Artificial Intelligence and the Legal Profession / The Law Society's Horizon Scanning programme //

<https://www.lawsociety.org.uk/support-services/documents/AI-and-the-legal-profession-horizon-scanning-report/>. 2017. - 14 p. - P. 11. 3 Prakken H. On how AI & law can help autonomous systems obey the law: a position paper //

<http://www.ai.rug.nl/~verheij/AI4J/papers/AI4J_paper_12_prakken.p df>. - 5 p. - P. 1.

шины. Однако данный метод больше подходит для ме-

4

нее автономных систем искусственного интеллекта .

Аида Понсе Дель Кастильо отмечает, что, применительно к ситуациям, когда система искусственного интеллекта способна самообучаться и осуществлять действия, приводящие к непредвиденным результатам, должны быть обязательно разработаны минимальные нормативные стандарты, касающиеся определения ответственности за нежелательные последствия деятельности таких систем, обеспечивающие, во-первых, устранение или сведение к минимуму таких нежелательных последствий, а также решение проблемы подотчетности систем, которая делает возможным такое поведение системы искусственного интеллекта5.

По мнению Рональда Линеса и Федерики Лю-сиверо, проектирование систем искусственного интеллекта должно регулироваться посредством принятия норм и стандартов безопасности, которые должны соблюдаться, чтобы гарантировать не нанесение вреда их пользователям6.

По мнению Европейского парламента, отраженном в пункте 52 Резолюции Европейского Парламента вместе с рекомендациями Комиссии от 16 февраля 2017 г. «Нормы гражданского права о робототехнике», при разработке законодательства о гражданской ответственности за ущерб, причиненный действиями робота, Комиссия должна оценить, следует ли применять принцип строгой ответственности или подход, основанный на управлении рисками. При этом строгая ответственность требует наличия доказательств того, что ущерб был причинен, а также установления причинно-следственной связи между ненадлежащими действиями робота и ущербом. Подход же, основанный на управлении рисками, должен фокусироваться не на привлечении к ответственности лиц, действовавших небрежно, а на лицах, которые в определенных обстоятельствах могут свести к минимуму риски и негативные последствия (пункты 54 и 55).

Заключение

4 Prakken H. On how AI & law can help autonomous systems obey the law: a position paper // <http://www.ai.rug.nl/~verheij/Al4J/papers/AI4J_paper_12_prakken.pd f>. - 5 p. - P. 1.

5 Del Castillo A.P. A law on robotics and artificial intelligence in the EU? / European Trade Union Institute // The Foresight Brief. - 2017, September. - № 2. - 11 p. - P. 10. <https://www.etui.org/Publications2/Foresight-briefs/A-law-on-robotics-and-artificial-intelligence-in-the-EU>.

6 Leenes R., Lucivero F. Laws on Robots, Laws by Robots, Laws in Robots: Regulating Robot Behaviour by Design // <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2546759>. -32 p. - P. 10.

На данном этапе развития технологий пока нельзя говорить о возможности признания полной правосубъектности систем искусственного интеллекта, соответственно, на наш взгляд, дальнейшее развитие законодательства в данной сфере в целях предотвраще-

Библиография:

ния вредных последствий их действий должно идти не по пути создания возможности привлечения таких систем к ответственности, а по пути обеспечения более детального контроля над действиями их разработчиков и операторов, разработки соответствующих стандартов.

1. Huang T. Expert Systems // The History of Artificial Intelligence. - Seattle: University of Washington, 2006. - 27 p. - P. 12-16. -P. 14. <https://courses.cs.washington.edu/courses/csep590/06au/projects/history-ai.pdf>.

2. Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems / Osborne Clarke LLP // <http://www.osborneclarke.com/media/filer_public/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf>. -2015. - 8 p. -P. 1.

3. Редькина А.И. Концепция автономности в праве: теоретический аспект // Право и образование. - 2016. - № 11. - С. 1321; Редькина А.И. Концепция автономности в праве: особенности, функции и проблемы применения // Право и образование. - 2016. - № 12. - С. 110-117.

4. Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems / Osborne Clarke LLP // <http://www.osborneclarke.com/media/filer_public/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf>. -2015. - 8 p. -P. 6.

5. 1 Leenes R., Lucivero F. Laws on Robots, Laws by Robots, Laws in Robots: Regulating Robot Behaviour by Design // <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2546759>. - 32 p. - P. 16.

6. 1 Nevejans N. European civil law rules in robotics: study / Policy Department for «Citizens' Rights and Constitutional Affairs», European Parliament's Committee on Legal Affairs // <http://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IP0L_STU(2016)571379_EN.pdf>. - 2016. - 29 p. - P. 15.

7. Asaro P.M. Robots and Responsibility from a Legal Perspective // <http://www.peterasaro.org/writing/asaro%20legal%20perspective.pdf>. - 5 p. - P. 3.

8. Nevejans N. European civil law rules in robotics: study / Policy Department for «Citizens' Rights and Constitutional Affairs», European Parliament's Committee on Legal Affairs // <http://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IP0L_STU(2016)571379_EN.pdf>. - 2016. - 29 p. - P. 15.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

9. Artificial Intelligence and the Legal Profession / The Law Society's Horizon Scanning programme // <https://www.lawsociety.org.uk/support-services/documents/AI-and-the-legal-profession-horizon-scanning-report/>. - 2017. -14 p. - P. 11.

10. Artificial Intelligence and the Legal Profession / The Law Society's Horizon Scanning programme // <https://www.lawsociety.org.uk/support-services/documents/AI-and-the-legal-profession-horizon-scanning-report/>. - 2017. -14 p. - P. 11.

11. Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems / Osborne Clarke LLP // <http://www.osborneclarke.com/media/filer_public/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf>. -2015. - 8 p. -P. 7.

12. Hallevy G. The criminal liability of artificial intelligence entities - from science fiction to legal social control // Akron Intellectual Property Journal. - 2010. - Vol. 4. - P. 171-201. - P. 178. <https://www.uakron.edu/dotAsset/1139176.pdf>.

13. Buyers J. Liability Issues in Autonomous and Semi-Autonomous systems / Osborne Clarke LLP // <http://www.osborneclarke.com/media/filer_public/c9/73/c973bc5c-cef0-4e45-8554-f6f90f396256/itech_law.pdf>. -2015. - 8 p. -P. 1.

14. Artificial Intelligence and the Legal Profession / The Law Society's Horizon Scanning programme // <https://www.lawsociety.org.uk/support-services/documents/AI-and-the-legal-profession-horizon-scanning-report/>. - 2017. -14 p. - P. 11.

15. Beard J.M. Autonomous weapons and human responsibilities // Georgetown Journal of International Law. - 2014. - Vol. 45. -P. 617-681. - P. 651. <https://www.law.georgetown.edu/academics/law-journals/gjil/recent/upload/zsx00314000617.PDF>.

16. European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) // <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051 +0+DOC+XML+V0//EN>.

17. Beard J.M. Autonomous weapons and human responsibilities // Georgetown Journal of International Law. - 2014. - Vol. 45. -P. 617-681. - P. 651. <https://www.law.georgetown.edu/academics/law-journals/gjil/recent/upload/zsx00314000617.PDF>.

18. Artificial Intelligence and the Legal Profession / The Law Society's Horizon Scanning programme // <https://www.lawsociety.org.uk/support-services/documents/AI-and-the-legal-profession-horizon-scanning-report/>. - 2017. -14 p. - P. 11.

19. Prakken H. On how AI & law can help autonomous systems obey the law: a position paper // <http://www.ai.rug.nl/~verheij/AI4J/papers/AI4J_paper_12_prakken.pdf>. - 5 p. - P. 1.

20. Prakken H. On how AI & law can help autonomous systems obey the law: a position paper // <http://www.ai.rug.nl/~verheij/AI4J/papers/AI4J_paper_12_prakken.pdf>. - 5 p. - P. 1.

21. Del Castillo A.P. A law on robotics and artificial intelligence in the EU? / European Trade Union Institute // The Foresight Brief. -2017, September. - № 2. - 11 p. - P. 10. <https://www.etui.org/Publications2/Foresight-briefs/A-law-on-robotics-and-artificial-intelligence-in-the-EU>.

22. Leenes R., Lucivero F. Laws on Robots, Laws by Robots, Laws in Robots: Regulating Robot Behaviour by Design // <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2546759>. - 32 p. - P. 10.

i Надоели баннеры? Вы всегда можете отключить рекламу.