Научная статья на тему 'ДЕЛИКТНАЯ ОТВЕТСТВЕННОСТЬ В СЛУЧАЯХ ПРИМЕНЕНИЯ РОБОТОВ'

ДЕЛИКТНАЯ ОТВЕТСТВЕННОСТЬ В СЛУЧАЯХ ПРИМЕНЕНИЯ РОБОТОВ Текст научной статьи по специальности «Право»

CC BY
314
62
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РОБОТ / СУБЪЕКТ ПРАВА / ОБЪЕКТ ПРАВА / ДЕЛИКТНАЯ ОТВЕТСТВЕННОСТЬ / ВОЗМЕЩЕНИЕ ВРЕДА

Аннотация научной статьи по праву, автор научной работы — Головизнин Алексей Васильевич

С развитием технического прогресса роботы все активнее вовлекаются в различные сферы нашей жизнедеятельности. Следовательно, возрастают риски причинения вреда от их использования. В настоящее время законодательство не содержит специальных норм, регулирующих возмещение вреда, причиненного роботами. В статье рассматриваются вопросы условий деликтной ответственности в сфере использования роботов, определяется субъектный состав, делаются предложения по совершенствованию законодательства.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

DELICT RESPONSIBILITY IN CASES OF THE USE OF ROBOTS

With the development of technological progress, robots are increasingly involved in various spheres of our life.Consequently, the risks of damage from their use increase.Currently, the legislation does not contain special rules compensation of damagecaused by robots.In the article the questionsof delict responsibility in the field of using robotsis analyzed, the subject compositionis determined, and proposals to improve legislationis made.

Текст научной работы на тему «ДЕЛИКТНАЯ ОТВЕТСТВЕННОСТЬ В СЛУЧАЯХ ПРИМЕНЕНИЯ РОБОТОВ»

ПРАВА ЧЕЛОВЕКА И ИХ ОБЕСПЕЧЕНИЕ

Научная статья

УДК 347

Деликтная ответственность в случаях применения роботов

Головизнин Алексей Васильевич

Уральский государственный экономический университет; Уральский юридический институт МВД России, Екатеринбург, Россия, a.goloviznin@mail.ru

Аннотация. С развитием технического прогресса роботы все активнее вовлекаются в различные сферы нашей жизнедеятельности. Следовательно, возрастают риски причинения вреда от их использования. В настоящее время законодательство не содержит специальных норм, регулирующих возмещение вреда, причиненного роботами. В статье рассматриваются вопросы условий деликтной ответственности в сфере использования роботов, определяется субъектный состав, делаются предложения по совершенствованию законодательства.

Ключевые слова: робот, субъект права, объект права, деликтная ответственность, возмещение вреда

Для цитирования: Головизнин А. В. Деликтная ответственность в случаях применения роботов // Вестник Уральского юридического института МВД России. 2022. № 2. С. 82-88.

Original article

Delict responsibility in cases of the use of robots

Goloviznin Alexey V.

Ural State Economical University; Ural Law Institute of the Ministry of the Interior of Russia, Yekaterinburg, Russia, a.goloviznin@mail.ru

Abstract. With the development of technological progress, robots are increasingly involved in various spheres of our life.Consequently, the risks of damage from their use increase.Currently, the legislation does not contain special rules compensation of damagecaused by robots.In the article the questionsof delict responsibility in the field of using robotsis analyzed, the subject compositionis determined, and proposals to improve legislationis made.

Keywords: robot, subject of law, the object of the right, delictresponsibility, compensation of damage

For citation: Goloviznin A. V. Delict responsibility in cases of the use of robots // Bulletin of the Ural Law Institute of the Ministry of the Interior of Russia. 2022. № 2. P. 82-88.

Человечество стоит на пороге глобальной трансформации права вслед за новой технологической социально-экономической реальностью, когда «неживое» начинает автономно имитировать «живое», когда совершенствование искусственных нейросетей (копирующих биологические нейронные сети) может в итоге сформировать возможность не только принимать решения на основе исходных и запрограммированных данных, но и производить эмоции, волю (как внешнюю, выраженную изъявлением вовне, так и внутреннюю - как нейронный процесс оценки принятого решения) и в целом определенную культурную,

психоэмоциональную составляющую.

В резолюции Европарламента содержатся признаки, которые позволяют отграничить роботов от смежных категорий, а именно:

1) способность становиться автономным, используя сенсоры, и (или) обмениваться данными со своей средой;

2) способность самообучаться на основе приобретенного опыта;

3) наличие по меньшей мере минимальной физической поддержки;

© Головизнин А. В., 2022

4) способность адаптировать свои действия и поведение в соответствии с условиями среды;

5) отсутствие жизни с биологической точки зрения

[1].

Следует констатировать, что использование роботов в процессе жизнедеятельности стало обыденным явлением. По статистическим данным робототехника показывает значительный прирост ежегодно. Следовательно, риск причинения вреда роботами с каждым годом только увеличивается. Возникает обоснованный вопрос: кто будет нести ответственность, если ими будет причинен вред?

Очевидно, что никого не оставил равнодушным эпизод в фильме «Робокоп», в котором робот из-за сбоя программного обеспечения убил человека. Замысел сценаристов голливудского фильма оказался не таким и фантастическим, поскольку в 2007 году сбой программного обеспечения послужил причиной неконтролируемой стрельбы зенитной установки, в результате которой погибло девять солдат, а еще 14 получили серьезные ранения. Однако первое убийство роботом человека произошло еще в 1979 году, жертвой которого стал Роберт Уильямс, погибший от действий индустриального робота на одном из заводов Ford. Родственники погибшего отсудили у создавшей робота компании Litton Industries 10 миллионов долларов [2].

Еще в далеком 1942 году американский писатель-фантаст А. Азимов сформулировал 3 закона роботех-ники.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам человека, кроме случаев, когда эти приказы противоречат первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму закону [3, с. 5].

Таким образом, данные законы содержат этический постулат непричинения вреда человеку, который, как показывает практика, не всегда может быть соблюден. Причем известный американский предприниматель Илон Маск утверждает, что искусственный интеллект является фундаментальным риском для существования человеческой цивилизации [4].

В процессе своей деятельности в силу тех или иных обстоятельств роботы могут причинить вред жизни, здоровью или имуществу граждан. В связи с этим возникает весьма актуальная проблема об юридической ответственности в случае причинения роботом вреда. За действия робота может наступать административная, уголовная и гражданско-правовая ответственность. Вместе с тем действующее законодательство не содержит специальных норм об юридической ответственности в случае причинения вреда роботом. Поэтому, решая вопрос о применении юридических санкций, необходимо использовать общие основания наступления административной, уго-

ловной или гражданско-правовой ответственности.

Предложения наделить роботов статусом квазисубъектов и, как следствие, способностью нести юридическую ответственность за самостоятельно принятые решения, могут быть приняты только в лоне гражданского права. В частности, в соответствии со ст. 127.4 проекта федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники»^] (далее - Закон Гришина) предлагается производить возмещение вреда, причиненного роботом, за счет имущества, переданного во владение робота. В данном случае усматривается аналогия с самостоятельной гражданско-правовой ответственностью юридического лица, что автор рассматриваемого законопроекта вовсе не скрывает. В сфере же публичного права такой подход неприемлем, поскольку как уголовная, так и административная ответственность органическим образом связаны с психической стороной поведения человека, его интеллектом и волей [6, с. 114]. Решение же об уничтожении опасного робота навряд ли может быть признано в качестве высшей меры уголовного наказания с его целями исправления и предупреждения новых правонарушений [7, с. 65], а легко поместится в рамки принудительной ликвидации рассматриваемого квазисубъекта по аналогии с ликвидацией юридического лица либо может выступать в качестве неблагоприятной меры имущественного характера - экспроприации. Таким образом, «вопрос об ответственности непосредственно системы искусственного интеллекта носит во многом тупиковый характер именно из-за совершенной бессмысленности в данном случае мер (устоявшихся в отношении человека) уголовной или административной ответственности, которые просто неприменимы к системам искусственного интеллекта, лишены смысла по отношению к ним» [8, с. 21].

Действующее российское законодательство не содержит специальных норм относительно гражданско-правовой ответственности за вред, причиненный роботами. Имеющиеся документы, посвященные роботехнике, носят стратегический характер и действуют в форме программ, планов, концепций и т. п. [9]. Поэтому при причинении вреда роботом должен использоваться механизм деликтной ответственности. Роботы в целом вписываются в существующие правовые конструкции гражданско-правовой ответственности. Вместе с тем остается не решенным вопрос относительно субъектного состава, оснований и порядка привлечения к гражданско-правовой ответственности.

Для иллюстрации приведем пример из судебной практики, косвенно затронувший рассматриваемую проблему и поэтому представляющий интерес для настоящего исследования. В суд обратился гражданин Б. к компании Google, заподозрив ее в чтении личной переписки из-за таргетированной рекламы. Ответчик заявленные требования не признал, указав,

что мониторинг осуществляет программное обеспечение в автоматизированном режиме, а не какие-либо субъекты. Вместе с тем суд посчитал, что компания Google должна нести самостоятельные риски за работу используемого им программного обеспечения, зная, что оно нарушает конституционные права граждан РФ на тайну частной переписки, и, соответственно, отвечает за нарушение данных прав[10].

На данный момент можно выделить 3 основных подхода к деликтной ответственности за вред, причиненный роботами: а) деликтная ответственность по общим основаниям, закрепленным в ст. 1064 ГК РФ;

б) деликтная ответственность за вред, причиненный источником повышенной опасности (ст. 1079 ГК РФ);

в) деликтная ответственность за вред, причиненный вследствие недостатков товаров, работ, услуг (ст. 1095 ГК РФ).

Деликтная ответственность за вред, причиненный роботом, должна наступать в зависимости от класса его опасности и степени автономности робота [11].

Класс опасности робота является критерием для отнесения его к источнику повышенной опасности. В частности, источниками повышенной опасности являются роботы, которые в силу своего назначения, конструктивных особенностей, технических данных могут причинить вред человеку, имуществу или окружающей среде. Напомним, что в соответствии со ст. 1079 ГК РФ источником повышенной опасности следует признавать любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами. Верховный Суд РФ, разъясняя содержание данной нормы, отметил, что названная норма не содержит исчерпывающего перечня источников повышенной опасности. Поэтому суд, принимая во внимание особые свойства предметов, веществ или иных объектов, используемых в процессе деятельности, вправе признать источником повышенной опасности также иную деятельность, не указанную в перечне [12].

Вместе с тем в силу своего назначения, размеров и выполняемых функций к источникам повышенной опасности нельзя отнести роботы-игрушки, бытовые или образовательные роботы и т. п. Хотя Хильген-дорф делает предположение, что очень простые бытовые роботы могут причинить вред человеку. Эти машины учатся сами по себе, они воспринимают свое окружение и хранят его, они выбирают кратчайшие пути в комнате. В какой-то момент, после нескольких лет использования, робот попадает в ногу ослабленного человека, который падает и получает травму, потому что этот робот считает, что путь должен быть свободен [13]. Однако, следуя такой логике, можно предположить, что человеку может быть причинен вред в результате действия любого бытового прибо-

ра, включая кофеварку, миксер, блендер, которые, разумеется, не относятся к источникам повышенной опасности.

Автономность функционирования робота зависит от степени самостоятельности принятия им решений. В настоящее время существует огромное количество разновидностей роботов с различной степенью зависимости от человека. По данному критерию роботы подразделяются на управляемых и автономных.

Управляемыми признаются все роботы, которые не обладают абсолютной автономностью. Управляемые роботы выступают в качестве объектов гражданских прав - разновидности имущества. Соответственно, в зависимости от класса опасности, они могут являться источниками повышенной опасности.

При причинении вреда источником повышенной опасности вред возмещает его владелец. По мнению Верховного Суда РФ, под владельцем источника повышенной опасности следует понимать юридическое лицо или гражданина, которые используют его в силу принадлежащего им права собственности, права хозяйственного ведения, оперативного управления либо на других законных основаниях (например, по договору аренды, проката, по доверенности на право управления транспортным средством, в силу распоряжения соответствующего органа о передаче ему источника повышенной опасности) [12]. В цивилистике принято выделять два признака владельца источника повышенной опасности - юридический и материальный [14, с. 388-389]. Юридический признак означает, что владельцем признается лишь то лицо, которое обладает соответствующим правомочием в отношении источника повышенной опасности. Таковыми могут быть право собственности или иное титульное правомочие, например по договору аренды. Материальный признак указывает, в чьем фактическом владении в процессе деятельности находятся опасные объекты материального мира, кто ими непосредственно пользуется, эксплуатирует, хранит, перевозит, т. е. кто фактически над ними господствует и извлекает выгоду [15, с. 110]. Таким образом, для признания лица владельцем источника повышенной опасности необходима совокупность юридического и материального признаков.

Вред, причиненный источником повышенной опасности, возмещается независимо от вины владельца. По поводу «безвиновной» ответственности существует множество теорий.

Теория «вины с исключением» - ответственность наступает при наличии вины, а в исключительных случаях независимо от вины и даже без нее. Ответственность устанавливается в целях стимулирования «повышения бдительности».

Теория «двух начал» - ответственность возможна как за вину, так и без вины. Ответственность установлена в законе и вина не является определяющим исходным по отношению к ответственности, главное -причинение.

Теория «исключительного виновного начала» -отношения по возмещению вреда, причиненного в результате невиновных действий, хотя по внешней форме и напоминают отношения ответственности, но исключают возможность квалификации их в качестве таковой.

Теория «квазиответственности» - ответственность возникает всегда как результат правонарушения, то есть противоправного виновного причинения вреда. В других случаях следует говорить не об ответственности, а об обязанности возместить вред. Но поскольку надо считаться с принятой в законодательстве терминологией, то нужно признать, что так называемая «ответственность» возникает не из правонарушения, а из специальных юридических фактов, прямо предусмотренных законом [16, с. 51-53].

Из всего вышесказанного можно сделать следующий вывод: ряд ученых придерживаются концепции о возможности существования «безвиновной ответственности», другие ученые считают невозможным существование юридической ответственности без вины. Так, в частности, П. Р. Стависский высказал мнение, что возмещение ущерба при невиновном причинении вреда является мерой защиты субъективных прав граждан, а не мерой ответственности [17, с. 71]. М. С. Богданова, напротив, указывает на использование института юридической ответственности в данном случае, а не мер защиты [18, с. 12].

Таким образом, вред, причиненный управляемым роботом - источником повышенной опасности, возмещается независимо от вины владельца. Ответственность без вины - долг и обязанность при-чинителя вреда возместить нанесенный ущерб. Она вызвана не стремлением подвергнуть причинителя такого вреда осуждению, наказанию, а стремлению, прежде всего, компенсировать случайно причиненный ущерб. Однако, возмещая вред, причинитель испытывает определенные издержки материального и морального плана, что не может не рассматриваться как неблагоприятные последствия для лица, возмещающего вред.

Автономные роботы способны принимать решения и осуществлять действия на основании самостоятельно сформулированного алгоритма, способны самообучаться на основе приобретенного опыта и адаптировать свои действия и поведение в соответствии с условиями среды [1]. В доктрине существует семь основных моделей ответственности за действия автономных роботов.

1. Полное освобождение кого-либо от ответственности. Для этого надо признать действия автономных машин обстоятельствами непреодолимой силы.

2. Частичное освобождение от ответственности. Отличается тем, что пострадавшей стороне назначают компенсацию из страхового фонда или за счет владельца робота.

3. Ответственность по вине. Если происшествие вызвано дефектами конструкции, ее берет на себя производитель; если произошел компьютерный

сбой, то разработчик. Если робот является самообучаемым - тот, кто внес наибольший вклад в его обучение. Если робот выполнял конкретные команды, то оператор устройства, и так далее.

4. Ограниченная безвиновная ответственность, то есть признание ответственности за третьим лицом (владельцем или производителем), которое невиновно в происшествии, при соблюдении ряда условий, например страховании рисков.

5. Полная безвиновная ответственность. Некое лицо по умолчанию отвечает за действия робота.

6. Личная ответственность робота, которая подразумевает наделение машины правосубъектностью.

7. Смешанный режим ответственности, при котором те или иные подходы применяются в зависимости от степени опасности робота и других его характеристик [8, с. 18-21].

Представляется, что на современном этапе развития роботехники вести речь о самостоятельной ответственности роботов рано. Однако в недалеком будущем с развитием нейронных сетей и существенной утратой контроля над такими системами искусственного интеллекта неизбежно встанет вопрос о формировании компенсационных фондов самими роботами для возмещения причиненного ими вреда.

По всей видимости, новые комплексные правовые режимы применения технологий искусственного интеллекта будут формироваться по мере совершенствования технологических решений и развития соответствующих национальных правовых доктрин от экспериментальных до типовых (базовых), от наделения роботов правовыми характеристиками исключительно объекта гражданских правоотношений (инструмента) до субъектно-объектного формата, где робот может выступать одновременно и как объект вещно-правовых и обязательственных отношений, и как субъект, имеющий специальную правосубъектность, выполняющий в очерченных рамках строго определенные функции.

В настоящее время многие специалисты склоняются к мнению о рисках и опасности, нецелесообразности [19, с. 227] или отсутствии необходимости [20] наделения роботов правосубъектностью. В частности, член Европарламента Ж. Лебретон при обсуждении резолюции о роботах высказался: «Я возражаю против данной перспективы по двум причинам: прежде всего, поскольку она снимет всякую ответственность с их производителей и пользователей, что, несомненно, обрадовало бы мощные лобби; во-вторых, и это главное, потому что я считаю, так же как и Жак Маритен, что человеческая личность наделена духовным существованием, с которым несопоставим ни один искусственный интеллект» [21, с. 52]. Более того, решение вопроса о правосубъектности робота должно ставиться в зависимость от возможности робота нести деликтную ответственность за причиненный вред. По мнению ученых, «если признание робота субъектом права имеет какой-либо смысл или назначение, то оно заключается в более эффективном и

сбалансированном распределении ответственности. Напротив, если робот не способен возместить нанесенный им вред, необходимость признания его субъектом права становится проблематичной» [22, с. 41].

Таким образом, в настоящий период времени является несостоятельной концепция личной гражданско-правовой ответственности робота за причиненный им вред. Поэтому нести деликтную ответственность за робота должен человек или юридическое лицо. Субъектный состав рассматриваемых отношений можно обозначить следующим образом: а) производитель робота; б) владелец робота; в) оператор робота; г) пользователь робота; д) контролирующее лицо со стороны государственных органов. Разумно, что деликтную ответственность должно нести то лицо (несколько лиц), вина которых будет установлена в суде, т. е. тот субъект, на которого возложена обязанность контролировать риски деятельности робота.

Понятия «вина», «виновность» используются в гражданском праве достаточно часто, однако ГК РФ не дает легального определения понятия вины. Н. А. Романова указывает, что для установления вины при-чинителя вреда используются не трудно устанавливаемые внутренние психические процессы как в сферах публичного права, а «объективное проявление субъективного психического отношения лица к собственному поведению» [23, с. 266]. Действующее гражданское законодательство определяет вину исходя из степени заботливости и осмотрительности, какая требуется от субъекта по характеру обязательства и условиям оборота. Иными словами, вина определяется исходя из объективного ожидаемого поведения. Подобное наблюдается и в зарубежном праве, в частности США: лицо считается проявляющим небрежность, если оно не ведет себя так, как разумное лицо вело бы себя в тех же обстоятельствах [24].

Однако в соответствии с принципами гражданского права, обеспечивающими наиболее полное восстановление прав потерпевших, бремя деликтной ответственности за действия робота может быть возложено на производителя и его владельца солидарно независимо от их вины. Возмещение вреда одним из данных субъектов вовсе не исключает предъявление им регрессных требований к истинному виновнику причинения вреда: например, если владелец робота возместит причиненный роботом вред, то он приобретает право регресса к оператору робота, по вине которого был причинен вред. Это позволит обеспечить защиту прав потерпевших в случае причинения им вреда роботом.

Таким образом, подытоживая сказанное, можно сделать следующие выводы. Решая вопрос о деликтной ответственности за вред, причиненный действиями (бездействием) роботов, следует принимать во внимание субъектный состав, отраслевую принадлежность отношений, их социальную значимость и формировать дифференцированную систему ответственности, исходя из следующих факторов.

Во-первых, для определения ответственности необходимо иметь ввиду класс опасности и степень автономности робота.

Во-вторых, следует учитывать, что объем ответственности производителя и пользователя (владельца) может быть несимметричным. Чем более автономен робот, тем сильнее пользователь (владелец) утрачивает контроль над ним, в то время как производитель имеет больший контроль. Вместе с тем с учетом необходимости обеспечения защиты прав субъектов правоотношений и создания эффективного механизма возмещения причиненного вреда предлагается привлекать к солидарной ответственности производителя и владельца робота.

В-третьих, необходимо стимулировать осмотрительное использование роботов, предусмотрев ответственность пользователя за халатное отношение к системе искусственного интеллекта, которое может проявляться при выборе, контроле или упущенной возможности контролировать робота.

Таким образом, ответственность в настоящее время может быть распределена среди лиц, которые могут и должны контролировать риски, связанные с использованием систем роботов.

Список источников

1. Резолюция Европарламента «Нормы гражданского права о робототехнике» от 16 февраля 2017 г. [Электронный ресурс]. URL: https://robopravo.ru/ riezoliutsiia_ies.

2. Роботы-убийцы. Как и зачем машины убивают людей? [Электронный ресурс]. URL: https://habr.com/ ru/company/ruvds/blog/646833.

3. Asimov, Isaac (1950). "Runaround". I, Robot (The Isaac Asimov Collection ed.). New York City: Doubleday. p. 40.

4. Лейба А. А. О роботах как возможных субъектах права [Электронный ресурс] // Гражданин и право. 2020. № 9. Доступ из справ.-правовой системы «Гарант».

5. Робоправо [Электронный ресурс]. URL: file:///C:/Users/ASUS/Downloads/Mail.Ru%20 %D0%93%D0%9A%20%D0%A0%D0%A4%20-%20%D0 %A0%D0%BE%D0%B1%D0%BE%D1%82%D1%8B%20 15_12_2016%20(Clean)%20V.%201.2%20(2).pdf.

6. Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 112-119.

7. Васильев А. А., Васильева О. В., Ибрагимов Ж. И. «Закон Гришина» и право ЕС о робототехнике и искусственном интеллекте: сравнительный анализ // Проблемы правовой и технической защиты информации. 2019. № 7. С. 64-70.

8. Агибалова Е. Н. Юридическая ответственность при применении систем искусственного интеллекта // Государство, право и общество: вопросы теории и практики: материалы второй Всероссийской научно-практической конференции (Сочи, 7-8 февраля 2020 г.) / отв. редактор В. И. Скрябин. Сочи, 2020. С. 15-24.

9. Тихомиров Ю. А., Крысенкова Н. Б., Нанба С. Б., Маргушева Ж. А. Робот и человек: новое партнерство? [Электронный ресурс] // Журнал зарубежного законодательства и сравнительного правоведения. 2018. № 5. URL: СПС «Гарант».

10. Апелляционное определение Замоскворецкого районного суда от 16 сентября 2015 г. по делу № 33-30344 [Электронный ресурс]. URL: http://d-russia. ru/wp-content/uploads/2015/11/Judgment-on-Google-case.pdf.

11. Бегишев И. Р. Размышления о проекте Федерального закона «Об обороте роботов, их составных частей (модулей)» [Электронный ресурс] // Право и цифровая экономика. 2021. № 2. Доступ из справ.-правовой системы «Гарант».

12. Постановление Пленума Верховного Суда РФ от 26 января 2010 г. № 1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина» // Бюллетень Верховного Суда РФ. 2010. № 3. С. 14.

13.Grund lagen forschungmiteinbisschen Science-Fiction. Interviewmit Prof. Dr. Dr. Eric Hilgendorf [Электронный ресурс]. URL: https://www.lto.de/recht/ hintergruende/h/robot-recht-grundlagenforschung-mit-ein-bisschen-science-fiction.

14. Советское гражданское право: в 2-х т. / под ред. О. А. Красавчикова. М., 1985. 544 с.

15. Суржиков В. Е. Понятие и признаки владельцев источника повышенной опасности // Юриспруденция. 2009. № 15. С. 107-111.

16. Смирнов В. Т., Собчак А. А. Общее учение о де-ликтных обязательствах в советском гражданском праве. Ленинград, 1983. 152 с.

17. Стависский П. Р. Материальная ответственность за незаконное отстранение от работы // Правоведение. 1982. № 1. С. 68-72.

18. Богданова М. С. Юридическая ответственность: основания, виды, субъекты: автореф. ... канд. юрид. наук. М, 1998. 22 с.

19. Габов А. В., Хаванова И. А. Эволюция роботов и право XXI века // Вестник Томского государственного университета. 2018. № 435. С. 215-233.

20. Спицин И. Н., Тарасов И. Н. Использование искусственного интеллекта при отправлении правосудия: теоретические аспекты правовой регламентации (постановка проблемы) [Электронный ресурс] // Актуальные проблемы российского права. 2020. № 8. Доступ из справ.-правовой системы «Консультант-Плюс».

21. Васильев А. А., Ибрагимов Ж. И. Правовое регулирование робототехники и искусственного интеллекта в Европейском союзе // Российско-азиатский правовой журнал. 2019. № 1. С. 50-54.

22. Гаджиев Г. А., Войниканис Е. А. Может ли робот быть субъектом права? (поиск правовых форм для регулирования цифровой экономики) // Право. Журнал Высшей школы экономики. 2018. № 4. С. 24-48.

23. Романова Н. А. К вопросу о дефинициях вины в гражданском праве // Научный журнал КубГАУ. 2008. № 41 (7). С. 261-285.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

24. Незнамов А. В., Смит Б. У. Робот не виноват! Взгляд из России и США на проблему ответственности за вред, причиненный роботам [Электронный ресурс] // Закон. 2019. № 5. Доступ из справ.-правовой системы «Гарант».

Reference

1. Resolution of the European Parliament "Norms of civil law on robotics" of February 16, 2017 [Electronic resource]. URL: https://robopravo.ru/riezoliutsiia_ies.

2. Killer robots. How and why do machines kill people? [Electronic resource]. URL: https://habr.com/ru/ company/ruvds/blog/646833.

3. Asimov, Isaac (1950). "Runaround". I, Robot (The Isaac Asimov Collection ed.). New York City: Doubleday. p. 40.

4. Leiba A. A. On robots as possible subjects of law [Electronic resource] // Citizen and Law. 2020. No. 9. Access from the legal reference system "Garant".

5. Robolaw [Electronic resource]. URL: file:///C:/Users/ ASUS/Downloads/Mail.Ru%20%D0%93%D0%9A%20 % D 0 % A 0 % D 0 % A 4 % 2 0 - % 2 0 % D 0 % A 0 % D 0 %BE%D0%B1 %D0%BE%D1 %82%D1 %8B%20 15_12_2016%20(Clean)%20V.%201.2%20(2).pdf.

6. Apostolova N. N. Responsibility for harm caused by artificial intelligence // North Caucasian Legal Bulletin. 2021. No. 1. P. 112-119.

7. Vasilyev A. A., Vasilyeva O. V., Ibragimov Zh. I. "Grishin's Law" and the EU law on robotics and artificial intelligence: a comparative analysis // Problems of legal and technical protection of information. 2019. No. 7. P. 64-70.

8. Agibalova E. N. Legal liability in the application of artificial intelligence systems // State, law and society: issues of theory and practice: materials of the second All-Russian scientific and practical conference (Sochi, February 7-8, 2020) / ed. editor V. I. Skryabin. Sochi, 2020, pp. 15-24.

9. Tikhomirov Yu. A., Krysenkova N. B., Nanba S. B., Margusheva Zh. A. Robot and man: a new partnership? [Electronic resource] // Journal of Foreign Legislation and Comparative Law. 2018. No. 5. URL: SPS "Garant".

10. Appellate ruling of the Zamoskvoretsky District Court dated September 16, 2015 in case No. 33-30344 [Electronic resource]. URL: http://d-russia.ru/wp-content/ uploads/2015/11/Judgment-on-Google-case.pdf.

11. Begishev I. R. Reflections on the draft Federal Law "On the turnover of robots, their components (modules)" [Electronic resource] // Law and digital economy. 2021. No. 2. Access from the legal reference system "Garant".

12. Decree of the Plenum of the Supreme Court of the Russian Federation of January 26, 2010 No. 1 "On the application by the courts of civil law governing relations on obligations due to harm to the life or health of a citizen" // Bulletin of the Supreme Court of the Russian Federation. 2010. No. 3. P. 14.

ВЕСТНИК УРАЛЬСКОГО ЮРИДИЧЕСКОГО ИНСТИТУТА МВД РОССИИ

13. Grund-la-gen-for-schungmiteinbis-schen Science -Fiction. Interviewmit Prof. Dr. Dr. Eric Hilgendorf [Electronic resource]. URL: https://www.lto.de/recht/ hintergruende/h/robot-recht-grundlagenforschung-mit-ein-bisschen-science-fiction.

14. Soviet civil law: in 2 volumes / ed. O. A. Krasavchikova. M., 1985. 544 p.

15. Surzhikov V. E. The concept and signs of owners of a source of increased danger // Jurisprudence. 2009. No. 15. P. 107-111.

16. Smirnov V. T., Sobchak A. A. General doctrine of tort obligations in Soviet civil law. Leningrad, 1983. 152 p.

17. Stavissky P. R. Liability for illegal dismissal from work // Jurisprudence. 1982. No. 1. S. 68-72.

18. Bogdanova M. S. Legal responsibility: grounds, types, subjects: author. ... cand. legal Sciences. M, 1998. 22 p.

19. Gabov A. V., Khavanova I. A. The evolution of robots and the law of the XXI century // Bulletin of the Tomsk State University. 2018. No. 435. S. 215-233.

20. Spitsin I. N., Tarasov I. N. The use of artificial intelligence in the administration of justice: theoretical aspects of legal regulation (statement of the problem) [Electronic resource] // Actual problems of Russian law. 2020. No. 8. Access from the reference legal system "ConsultantPlus".

21. Vasiliev A. A., Ibragimov Zh. I. Legal regulation of robotics and artificial intelligence in the European Union // Russian-Asiatic Legal Journal. 2019. No. 1. P. 50-54.

22. Gadzhiev G. A., Voinikanis E. A. Can a robot be a subject of law? (search for legal forms for regulating the digital economy) // Law. Journal of the Higher School of Economics. 2018. No. 4. S. 24-48.

23. Romanova N. A. To the question of the definitions of guilt in civil law // Scientific journal of KubGAU. 2008. No. 41 (7). pp. 261-285.

24. Neznamov A. V., Smith B. U. The robot is not to blame! View from Russia and the United States on the problem of liability for harm caused to robots [Electronic resource] // Law. 2019. No. 5. Access from the legal reference system "Garant".

Информация об авторе

Головизнин Алексей Васильевич - кандидат юридических наук, доцент

Information about the author

Goloviznin Alexey V. - Candidate of Law, Associate professor

Статья поступила в редакцию 06.04.2022; одобрена после рецензирования 26.04.2022; принята к публикации 20.06.2022.

The article was submitted 06.04.2022; approved after reviewing 26.04.2022; accepted for publication 20.06.2022.

i Надоели баннеры? Вы всегда можете отключить рекламу.