ПРАВОСУБЪЕКТНОСТЬ ЮНИТОВ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И ОТВЕТСТВЕННОСТЬ ЗА ИХ ДЕЙСТВИЯ
МОРХАТ Петр Мечиславович,
кандидат юридических наук,
судья Арбитражного суда Московской области.
E-mail: [email protected]
Краткая аннотация: С развитием технологий в сфере искусственного интеллекта, которые постоянно совершенствуются, и, соответственно, с неизбежной адаптацией законодательства к этим новым реалиям, закономерно возникает следующий важный вопрос. Применимо ли к юнитам искусственного интеллекта традиционное римское право с его концептом правосубъектности? Вопрос о возможности привлечения юнита искусственного интеллекта к юридической ответственности за его действия напрямую связан с вопросом определения его правосубъектности. В настоящей статье исследованы некоторые аспекты разработки, функционирования и использования юнитов искусственного интеллекта в контексте определения возможности наделения их правосубъектностью, а также проблемы определения юридической ответственности за их действия. Обозначены некоторые меры, которые реализуются и разрабатываются в данной сфере на международном (в частности, европейском) и национальном (на примере Российской Федерации) уровнях.
Abstract: With the development of technologies in the field of artificial intelligence, which are constantly being improved, and, accordingly, with the inevitable adaptation of legislation to these new realities, the following important question naturally arises. Is traditional Roman law applicable to artificial intelligence units with its concept of legal personality? The question of the possibility of bringing the artificial intelligence unit to legal responsibility for its actions is directly related to the question of determining its legal personality. This article examines some aspects of the development, operation and use of artificial intelligence units in the context of determining the possibility of granting them legal personality, as well as the problems of determining legal responsibility for their actions. Some measures which are realized and developed in this sphere at the international (in particular, European) and national (by the example of the Russian Federation) levels are designated.
Ключевые слова: искусственный интеллект, юнит искусственного интеллекта, робототехника, правосубъектность, электронное лицо.
Keywords: artificial intelligence, artificial intelligence unit, robotics, legal personality, legal responsibility, electronic person.
Введение
С развитием технологий в сфере искусственного интеллекта, которые постоянно совершенствуются, и, соответственно, с неизбежной адаптацией законодательства к этим новым реалиям, закономерно возникает следующий важный вопрос.
Применимо ли к юнитам искусственного интеллекта традиционное римское право с его концептом правосубъектности?
Однозначного консенсуса по данному вопросу на данный момент нет ни среди исследователей, ни среди законодателей. Более то-
го, имеют место полярно разные подходы.
Например, по мнению Г.А. Гаджиева, непреодолимых препятствий к наделению роботов правовым статусом нет, поскольку «у юридического мира невероятное свойство эластичности, и эта эластичность помогает нам переваривать любую проблему, в том числе проблемы цифровой экономики»1.
А согласно позиции Н. Аверченко, робот
1 Куликов В. Робот со страховкой. Юристы решают, кто ответит за ошибки робототехники // Российская газета - Федеральный вы-
пуск. - 26.10.2017. - № 7410(244). <https://rg.ru/2017/10/26/iuristy-
reshat-kto-otvetit-za-oshibki-robototehniki.html>.
- это всего лишь «особая вещь, требующая особого рода регулирования», «вещь, источник
повышенной опасности с определенной встро-
1
енной автономностью» .
В настоящей статье будут исследованы некоторые аспекты разработки, функционирования и использования юнитов искусственного интеллекта в контексте определения возможности наделения их правосубъектностью, а также проблемы определения юридической ответственности за их действия.
Электронное лицо
В подпункте «1» пункта 59 Резолюции Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике»2, была подчёркнута необходимость создания особого правового статуса («электронных лиц») для роботов в долгосрочной перспективе.
При этом А.А. Карцхия, допуская возможность самостоятельности юнита искусственного интеллекта со статусом «электронного лица», считает необходимым исходить из того, что юнит искусственного интеллекта должен действовать под контролем принципала-человека и быть, в конечном счёте, подконтрольным
3
и подотчётным человеку в правовом смысле .
Наделению юнита искусственного интеллекта статусом электронного лица могут препятствовать некоторые его существенные характеристики.
Например, на определённую непредсказуемость поведения юнитов искусственного интеллекта указано в пункте «А1» Резолюции Европейского Парламента вместе с реко-
1 Соколова М. Коллизии «права роботов». Дискуссии юристов в связи с разработкой КиберКодекса в России // <https://www.itweek.ru/ai/article/detail.php?ID=195514>. -23.05.2017.
2 European Parliament Resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) [Резолюция Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике»] // <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+D0C+XML+V0//EN>.
3 Карцхия А.А. Искусственный интеллект: «ларец Пандоры» или новая надежда? // Интеллектуальная собственность. Авторское право и смежные права. - 2017. - № 4. - С. 23-30. - С. 27.
мендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике»4.
Кроме того, в настоящее время, как обоснованно отмечает О.А. Ястребов, отсутствует критерий определения и фиксации достижения роботами «разумности»5.
Права юнита искусственного интеллекта
О каких именно правах юнита искусственного интеллекта говорят в дискуссиях?
Ф.В. Ужов выделяет такое право юнита искусственного интеллекта, как право на неприкосновенность, подразумевающее, что любые изменение, модификация, форматирование либо ликвидация юнита искусственного интеллекта (или комплементарного (достаивающего до единого целого) с ним его программного обеспечения) могут быть осуществлены исключительно только с санкции уполномоченного органа власти, а несанкционированные подобного рода действия квалифицируются как преступление против «электронной личности»6.
Некоторые другие авторы говорят и о праве владельца такого юнита на указанные (автоматически санкционируемые) действия.
Мади Дельво утверждает, что «мы всегда должны напоминать людям, что роботы не являются людьми и никогда не будут такими»7. Созвучна сказанному интерпретационная позиция Ф.В. Ужова о том, что «следует чётко осознавать и принимать как руководство к действию
4European Parliament Resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) [Резолюция Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике»] // <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+ P8-TA-2017-0051+0+D0C+XM L+V0//EN>.
5 Ястребов О.А. Дискуссия о предпосылках для присвоения роботам правового статуса «электронных лиц» // Вопросы правоведения. - 2017. - № 1. - С. 189-203.
6 Ужов Ф.В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. - 2017. - № 3. - С. 357-360. -С. 359.
7 Rise of the robots: Mady Delvaux on why their use should be regulated [Восстание роботов: Мади Дельво о том, почему их использование должно регулироваться] // <http://www.europarl.europa.eu/news/en/headlines/economy/2017010 9ST057505/rise-of-the-robots-mady-delvaux-on-why-their-use-should-be-regulated>. - 15.02.2017.
- искусственный интеллект никогда не будет равен человеческому разуму. Подобен - возможно. Имеющий схожие способности - возможно. Даже более совершенный в критериях скорости и количества одновременно принимаемых решений - да, возможно. Но - не равен. В любом случае такой носитель создан искусственно. В любом случае "чувства", которые возможно научится "испытывать" такой носитель, в том числе выраженные в виде "желаний", будут суррогатом. Будут, грубо говоря, электронными схемами. Поэтому относиться к носителям искусственного интеллекта иначе, как к машинам, нельзя. И не имеет смысла, по сути» .
Е. Плужник допускает возможность и необходимость обсуждения такого права юни-тов искусственного интеллекта, как «право на
потребление самого важного для них - элек-
2
троэнергии» .
Вопрос о необходимости (и соответственно - правовой возможности) наделения юнитов искусственного интеллекта некоторыми правами (и соответственно - правосубъектностью) Ф.В. Ужов обоснованно увязывает с резонами наделения юнитов искусственного интеллекта рядом обязанностей, в том числе -обязанностью нести ответственность за совер-
3
шенные ими деяния .
Ответственность за действия юнитов искусственного интеллекта
Следует тщательно разобраться, отмечает Мади Дельво, как именно действуют юни-ты искусственного интеллекта и какие несчастные случаи могут возникнуть в результате их взаимодействия с людьми4. По А.А. Карцхия, потенциал технологий искусственного интеллекта «не может быть всегда под контролем человека. Это означает высокую вероятность,
1 Ужов Ф.В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. - 2017. - № 3. - С. 357360. - С. 359.
2 Соколова М. Коллизии «права роботов». Дискуссии юристов в связи с разработкой КиберКодекса в России // <https://www.itweek.ru/ai/article/detail.php?ID=195514>. -23.05.2017.
3 Ужов Ф.В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. - 2017. - № 3. - С. 357360. - С. 359.
4 Mady Delvaux: «Robotics will bring about a revolution» [Робото-
техника вызовет революцию] // <http://www.europarl.europa.eu/news/en/headlines/ec
onomy/20150422ST043701/mady-delvaux-robotics-will-bring-about-
a-revolution>. - 22-04-2015.
что роботы смогут принимать решения, логика которых не может быть объяснена человеком»5. ком» . Кёртис Карноу отмечает, что юниты искусственного интеллекта способны в некоторых случаях принять такие решения, которые будут не только «непредсказуемыми или удивительными», но также могут иметь непредусмотренные и разрушительные последствия» 6.
Наделение юнита искусственного интеллекта некоторыми ограниченными правами и обязанностями может осуществляться для достижения определённых целей в той или иной сфере, а не для наделения такого юнита в целом полной правосубъектностью. Например, если речь идёт о доступе к голосовым данным, получаемым виртуальным помощником, установленным на смартфоне, при расследовании преступлений.
В.Б. Козюлин и А.Р. Ефимов отмечают, что «роботизированные системы заведомо страдают рядом опасных болезней: они не способны принимать сложных решений и учитывать многие обстоятельства, как это делает человек; они не в состоянии осознавать окружающую обстановку или адаптироваться к непредвиденным обстоятельствам - то есть они не могут действовать вне рамок заранее определённого и довольно ограниченного окружения, однако они совершенствуются, что потенциально может привести как к впечатляющему успеху, так и к абсолютной катастрофе»7.
Также отметим следующие ситуации, в которых определение юридической ответственности за действия искусственного интеллекта может быть затруднено в еще большей степени, в силу их сложности и специфичности:
- ответственность за непринятие юни-том искусственного интеллекта мер по предотвращению самоубийства человека, которые потенциально могли быть реализованы (если бы на месте этого юнита был другой человек);
- ответственность за то, что два юнита
5 Карцхия А.А. Искусственный интеллект: «ларец Пандоры» или новая надежда? // Интеллектуальная собственность. Авторское право и смежные права. - 2017. - № 4. - С. 23-30. - С. 26.
6 Karnow C.E.A. Future Codes: Essays in Advanced Computer Technology and the Law. - Boston: Artech House, 1997. - P. 245.
7 Козюлин В.Б., Ефимов А.Р. Новый Бонд - машина с лицензией на убийство // Индекс безопасности. - 2016. - Т. 22. - № 1. -С. 37-60. - С. 38.
искусственного интеллекта, которым их статус позволяет выступать истцами в суде, и которые встретились как разные стороны дела, одновременно стали злоупотреблять правом в судебном процессе, тем самым парализуя деятельность судебной инстанции;
- ответственность за самостоятельное отключение себе юнитом искусственного интеллекта своих программных и аппаратных функций, блокирующих возможность причинения вреда человеку;
- произвольное создание юнитом искусственного интеллекта по своему смотрению робота, способного причинить вред человеку и предназначенного для этой цели.
По А.А. Карцхия, «есть причины для беспокойства и с точки зрения физической безопасности человека в случаях нарушения роботом правил запрограммированного поведения искусственного интеллекта вследствие системного сбоя или несанкционированного доступа (взлома) подключённых роботов или робототехнических систем»1.
Существует два основных подхода насчет определения ответственности за действия юнитов искусственного интеллекта:
- установление непосредственной ответственности юнитов искусственного интеллекта за свои действия;
- установление ответственности третьих лиц за их действия.
Рассмотрим их более подробно.
Непосредственная ответственность искусственного интеллекта за свои действия
Привлечение юнитов искусственного интеллекта к непосредственной ответственности за свои действия осложняется следующим.
Одним из ключевых обязательных компонентов объективной стороны преступления является непосредственно совершение конкретного действия. Искусственный интеллект способен осуществлять «действия», и это касается не только «сильного» искусственного интеллекта, но и гораздо менее развитых технологий. Когда машина (к примеру, робот с искусственным интеллектом) совершает движение
1 Карцхия А.А. Искусственный интеллект: «ларец Пандоры» или новая надежда? // Интеллектуальная собственность. Авторское право и смежные права. - 2017. - № 4. - С. 23-30. - С. 27.
своей гидравлической рукой или другим устройством, это можно рассматривать в качестве действия. Причём это применимо не только к ситуациям, когда движение является результатом внутренних расчётов машины, но и даже когда машина полностью управляется человеком. В результате, даже машины, оснащённые слабым искусственным интеллектом, обладают фактической способностью совершать действия, вне зависимости от мотивов или причин2.
Если говорить о целях применения мер уголовной ответственности к системам искусственного интеллекта, то Габриэль Халлеви отмечает, что применение наказания к машинам с помощью возмездия, любых машин, от автомобилей до высокотехнологичных роботов, оснащённых искусственным интеллектом, это - равносильно тому, что пнуть автомобиль. Машина не способна страдать, и пока наказание основано, в том числе, на страдании, наказать роботов 3
оно не поможет .
Вопрос об ответственности непосредственно юнита искусственного интеллекта носит во многом тупиковый характер из-за бессмысленности в данном случае устоявшихся в отношении человека мер уголовной или административной ответственности, которые просто неприменимы к юнитам искусственного интеллекта.
Как обоснованно пишет Ф.В. Ужов, «перевоспитание» юниты может быть реализовано только перепрограммированием, что «можно в определённом смысле сравнить с лоботомией по отношению к человеку. То есть - абсолютное и вероятно необратимое изменение свойств искусственного интеллекта. Второй путь - это утилизация машины. Вопрос о первостепенно-сти и превалировании того или иного метода отдельный и должен обсуждаться в рамках оценки ценности машины, количества "ошибок", совершённых ею, возможности достаточно "безболезненно" убрать связанные с этими ошибками огрехи техническим путём и т.д.»4.
2 Hallevy G. Liability for crimes involving artificial intelligence systems [Ответственность за преступления с участием искусственного интеллекта]. Cham: Springer International Publishing, 2015. P. 60-62.
3 Hallevy G. Liability for crimes involving artificial intelligence systems [Ответственность за преступления с участием искусственного интеллекта]. - Cham: Springer International Publishing, 2015. P. 210.
4 Ужов Ф.В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. - 2017. - № 3. - С. 357360. - С. 360.
Однако это не снимает актуальности вопроса о том, кто именно должен нести ответственность за вред, причиненный юнитом искусственного интеллекта.
Один из основных недостатков системы искусственного интеллекта - это возможное отсутствие общедоступных знаний: так, люди, в отличие от такой системы, обладают широким набором знаний, который может не иметь непосредственного отношения к отдельно взятой
1
задаче, но при этом может стать релевантным .
Еще одной проблемой является то, что системы искусственного интеллекта могут не обладать необходимой и достаточной информацией из-за низкого качества входных данных. Это актуально в вопросах систем безопасности автомобилей - их устройства ввода ограничены датчиками относительно ближнего действия, которые не способны отличить забор от грузовика и не могут обнаружить стремительно приближающийся объект, находящийся на дальнем расстоянии. Может так сложиться, что если перед судом предстанет дело, связанное с аварией, «вызванной» этими системами безопасности, то центром внимания в таком деле будет то, надлежащим ли образом была запрограммирована система искусственного интеллекта в вопросах работы с этими несовершен-
2
ными входными данными .
Ответственность третьих лиц за совершение юнитами искусственного интеллекта вредных действий
Пояснительная записка от секретариата Комиссии ООН по праву международной торговли об использовании электронных средств связи в международных соглашениях гласит, что лицо (как физическое, так и юридическое), от имени которого компьютер был запрограммирован, должно нести ответственность за любое сообщение, сгенерированное машиной (статья 12)3.
1 Kingston J.K.C. Artificial intelligence and legal liability [Искусственный интеллект и правовая ответственность] // International Conference on Innovative Techniques and Applications of Artificial Intelligence. - 2016. - 14 p. - P. 10.
2 Kingston J.K.C. Artificial intelligence and legal liability [Искусственный интеллект и правовая ответственность] // International Conference on Innovative Techniques and Applications of Artificial Intelligence. - 2016. - 14 p. - P. 11-12.
3 Цит. по: Cerka P., Grigiene J., Sirbikyte G. Liability for damages caused by artificial intelligence [Ответственность за ущерб, вы-
При этом ответственны за действия юнита искусственного интеллекта могут быть и производители.
Однако во многих ситуациях следить за всеми пользователями и, в случае необходимости, вмешиваться, может оказаться неосуществимым или чрезмерно затратным для производителей. Следовательно, важно обеспечение того, чтобы пользователи технологий искусственного интеллекта были достаточно заинтересованы принимать меры предосторожности и вкладываться в собственное обучение в этой области. В ситуациях, когда внешние факторы оказывают значительное влияние, регулирующие органы могут посчитать необходимым потребовать прохождение такого обучения пользователями технологий искусственного интеллекта. К примеру, может потребоваться получение специального водительского удостоверения для управления беспилотным автомобилем. Или же, например, врачам может потребоваться прослушать минимальное количество уроков по работе с робототехнической системой, прежде чем они будут допущены к проведению неко-
4
торых типов процедур для пациентов .
Разрабатываемые на международном и национальном уровнях меры
Представляет существенный интерес позиция Европейского Парламента на этот счёт.
Согласно пунктам 49-50 и 52-58 Резолюции Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике»5, гражданская ответственность за ущерб, причинённый роботами, является важной проблемой, которая подлежит внимательному
званный искусственным интеллектом] // Computer Law & Security Review. - 2015, June. - Vol. 31. - Issue 3. - P. 376-389. - P. 383.
4 Galasso A., Hong L. Punishing Robots: Issues in the Economics of Tort Liability and Innovation in Artificial Intelligence [Наказывая роботов: проблемы экономики гражданско-правовой ответственности и инновации в сфере искусственного интеллекта] // <http://www.nber.org/chapters/c14035.pdf>. - 2018. - 10 p. - P. 6.
5 European Parliament Resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) [Резолюция Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике»] // <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+ P8-TA-2017-0051+0+D0C+XM L+V0//EN>.
исследованию и рассмотрению, с тем чтобы обеспечить необходимую степень эффективности, транспарентности и последовательности в осуществлении правовой определённости во всём Европейском Союзе в интересах граждан, потребителей и предприятий. Разработка технологий робототехники требует более глубокого понимания общей точки зрения, необходимой для совместной деятельности человека и робота, которая должна основываться на двух основных взаимозависимых отношениях, а именно - на предсказуемости и директивности; эти два взаимозависимых отношения имеют решающее значение для определения того, какая информация должна быть разделена между людьми и роботами и как возможно достичь общей основы между людьми и роботами, чтобы обеспечить нормальное совместное действие человека и робота. Любое юридическое решение, применимое к гражданской ответственности за ущерб, причинённый роботами в случаях, отличных от ущерба, причиняемого имуществу, отражённое в будущем законодательном акте, никоим образом не должно ограничивать тип или степень возмещения убытков, которые могут быть возмещены, а также не должно ограничивать формы компенсации, которые могут быть предложены потерпевшей стороне, на том единственном основании, что ущерб причинён негуманоидным агентом. Будущий законодательный документ должен основываться на углублённой оценке, определяющей, следует ли применять подход строгой юридической ответственности или же подход управления рисками. Строгая ответственность требует только доказательств того, что был нанесен ущерб, и установления причинно-следственной связи между ненадлежащими действиями робота и ущербом, понесённым вследствие таковых потерпевшей стороной. Подход к управлению рисками должен фокусироваться не на привлечении к ответственности лиц, действовавших небрежно, а на лицах, которые в определённых обстоятельствах могут свести к минимуму риски и негативные последствия. В принципе, когда стороны, несущие основную ответственность, были определены, их ответственность должна быть пропорциональна фактическому уровню инструкций, данных
роботу, и степени его автономности, с тем чтобы увеличить возможности обучения робота. И чем дольше время обучения робота, тем больше должна быть ответственность его «тренера». Навыки, возникающие в результате «обучения», предоставляемого роботу, не следует путать с навыками, строго зависящими от его способностей к самообучению, при поиске личности человека, которому на самом деле может быть нанесён вред вследствие поведения робота; по крайней мере, на данном этапе ответственность лежит на человеке, а не на роботе. Возможным решением проблемы сложности распределения ответственности за ущерб, причинённый становящимися всё более автономными роботами, может явиться введение обязательной схемы страхования, как это уже происходит, например, с автомобильным транспортом. Тем не менее, в отличие от системы страхования в сфере дорожного движения, когда страхование охватывает человеческие действия и сбои, система страхования робототехники должна учитывать все потенциальные обязанности в цепочке. Как и в случае страхования автотранспортных средств, такая система страхования может быть дополнена специально создаваемым страховым фондом, чтобы обеспечить возмещение ущерба в случаях, когда страховое покрытие отсутствует. Страховщикам следует разрабатывать новые продукты и типы предложений, которые будут соответствовать достижениям в области робототехники.
Заслуживают внимания содержащиеся в проекте Федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники» (авторства Д.С. Гришина (Grishin Robotics) и международной юридической фир-
и
мы Dentons) предложения дополнить Часть первую Гражданского кодекса Российской Федерации новой главой и, в частности, статьёй 127.4 «Ответственность за действия робота-агента» следующего содержания:
«1. Собственник и владелец робота-
1 Dentons разработала первый в России законопроект о робототехнике // <https://www.dentons.com/ru/insights/alerts/2017/january/27/dentons-develops-first-robotics-draft-law-in-russia>. - 27.01.2017.
агента несут ответственность за действия робота-агента в пределах находящегося в их собственности имущества, переданного во владение и (или) пользование робота-агента.
2. В случаях, когда ответственность робота-агента связана с его правовой природой как имущества (в том числе, в случае причинения вреда деятельностью, создающей повышенную опасность для окружающих), ответственность за действие робота-агента несёт его владелец в соответствии со статьёй 1079 настоящего Кодекса.
3. В любом из случаев, указанных в настоящей статье, соответствующее лицо - собственник и (или) владелец робота-агента - несут ответственность за действия робота-агента, если не докажут, что основания для ответст
Библиография:
1. Карцхия А.А. Искусственный интеллект: «ларец Пандоры» или новая надежда? // Интеллектуальная собственность. Авторское право и смежные права. - 2017. - № 4. - С. 23-30.
2. Козюлин В.Б., Ефимов А.Р. Новый Бонд - машина с лицензией на убийство // Индекс безопасности. - 2016. - Т. 22. -№ 1. - С. 37-60.
3. Куликов В. Робот со страховкой. Юристы решают, кто ответит за ошибки робототехники // Российская газета - Федеральный выпуск. - 26.10.2017. - № 7410 (244).
4. Соколова М. Коллизии «права роботов». Дискуссии юристов в связи с разработкой КиберКодекса в России // <https://www.itweek.ru/ai/article/detail.php?ID=195514>. - 23.05.2017.
5. Ужов Ф.В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. - 2017. - № 3. -С. 357-360.
6. Ястребов О.А. Дискуссия о предпосылках для присвоения роботам правового статуса «электронных лиц» // Вопросы правоведения. - 2017. - № 1. - С. 189-203.
7. Cerka P., Grigiene J., Sirbikyte G. Liability for damages caused by artificial intelligence // Computer Law & Security Review. -2015, June. - Vol. 31. - Issue 3. - P. 376-389.
8. Dentons разработала первый в России законопроект о робототехнике // <https://www.dentons.com/ru/insights/alerts/2017/january/27/dentons-develops-first-robotics-draft-law-in-russia>. -27.01.2017.
9. European Parliament Resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) // <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051 +0+D0C+XML+V0//EN>.
10. Galasso A., Hong L. Punishing Robots: Issues in the Economics of Tort Liability and Innovation in Artificial Intelligence // <http://www.nber.org/chapters/c14035.pdf>. - 2018. - 10 p.
11. Hallevy G. Liability for crimes involving artificial intelligence systems. - Cham: Springer International Publishing, 2015. - 257 p.
12. Karnow C.E.A. Future Codes: Essays in Advanced Computer Technology and the Law. - Boston: Artech House, 1997.
13. Kingston J.K.C. Artificial intelligence and legal liability // International Conference on Innovative Techniques and Applications of Artificial Intelligence. - 2016. - 14 p.
14. Mady Delvaux: «Robotics will bring about a revolution» // <http://www.europarl.europa.eu/news/en/headlines/economy/20150422ST043701/mady-delvaux-robotics-will-bring-about-a-revolutions - 22-04-2015.
15. Rise of the robots: Mady Delvaux on why their use should be regulated // <http://www.europarl.europa.eu/news/en/headlines/economy/20170109ST057505/rise-of-the-robots-mady-delvaux-on-why-their-use-should-be-regulated>. - 15.02.2017.
венности возникли в результате действий лица, осуществлявшего разработку, производство и (или) техническое обслуживание робота-агента.
4. Если иное не предусмотрено законом или договором, лицо, осуществлявшее разработку, производство и (или) техническое обслуживание робота-агента несёт ответственность в соответствии с настоящей статьёй независимо от наличия вины».
Однако, на наш взгляд, эти законодательные предложения не решают исследуемых нами проблем.
Заключение
В заключение отметим, что, на наш взгляд, если правоспособность юнитов искусственного интеллекта и может быть признана, то лишь в ограниченном объеме.