12.00.08 Уголовное право и криминология;
уголовно-исполнительное право
Criminal Law and Criminology; Criminal Enforcement Law
DOI: 10.33693/2223-0092-2021-11-6-156-161
Субъективная сторона состава преступления при причинении вреда здоровью искусственным интеллектом
С.В. Петриковаа ©, А.А. Лаврушкинаb ©
ФГБОУ ВО «Национальный исследовательский Мордовский государственный университет им. Н.П. Огарева», г. Саранск, Российская Федерация
a E-mail: [email protected] ь E-mail: [email protected]
Аннотация. Цель исследования. Статья посвящена исследованию проблем установления субъективной стороны состава преступления в случае причинения вреда здоровью искусственным интеллектом. Актуальность затронутой темы обусловлена отсутствием нормативной базы по вопросу возможности привлечения искусственного интеллекта к ответственности, в том числе и уголовной, в связи с учащающимися случаями причинения вреда здоровью, имуществу искусственным интеллектом, а точнее системами, в которых используется искусственный интеллект. Актуальность исследования обусловила его цель, которая заключается в определении потенциальной возможности признания искусственного интеллекта субъектом уголовных правоотношений в рамках действующего уголовного закона. В процессе исследования авторами представлено аргументированное обоснование отсутствия признаков субъективной стороны в случае причинения вреда здоровью искусственным интеллектом в результате его способности к самообучению. В работе также приведена авторская аргументация способов возмещения вреда здоровью, причиненного искусственным интеллектом. Выводы. По результатам исследования авторами сделан вывод, что в рамках действующего уголовного закона привлечь искусственный интеллект к уголовной ответственности невозможно ввиду отсутствия субъективных признаков состава преступления. В рамках решения вопроса об ответственности искусственного интеллекта за совершение преступления авторами сделан вывод о необходимости разработки специального законодательства, которое определит статус искусственного интеллекта в гражданско-правовой, уголовно-правовой и иных сферах, порядок возмещения вреда и вероятные последствия для искусственного интеллекта.
Ключевые слова: вина, вред, искусственный интеллект, способность к самообучению, субъективная сторона, уголовная ответственность
ДЛЯ ЦИТИРОВАНИЯ: Петрикова С.В., Лаврушкина А.А. Субъективная сторона состава преступления при причинении вреда здоровью искусственным интеллектом // Социально-политические науки. 2021. Т. 11. № 6. С. 156-161. РО!: 10.33693/2223-0092-2021-11-6-156-161
СУБЪЕКТИВНАЯ СТОРОНА СОСТАВА ПРЕСТУПЛЕНИЯ ПРИ ПРИЧИНЕНИИ ВРЕДА ЗДОРОВЬЮ
ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ
Петрикова С.В., Лаврушкина А.А. -
DOI: 10.33693/2223-0092-2021-11-6-156-161
The Subjective Side
of the Offence of Causing Harm to Health by Artificial Intelligence
S.V. Petrikovaa ©, A.A. Lavrushkinab ©
National Research Mordovia State University named after N.P. Ogarev. Saransk, Russian Federation
a E-mail: [email protected] ь E-mail: [email protected]
Abstract. Objective of the research. The article is devoted to research of problems of establishment of subjective aspect of corpus delicti of a crime in case of causing harm to health by the artificial intelligence. Relevance of the theme is due to the lack of regulatory framework on the possibility of bringing the artificial intelligence to justice, including criminal, in connection with the increasingly frequent cases of causing harm to health, property by artificial intelligence, namely, systems that use artificial intelligence. The relevance of the research determined its objective, which is to determine the potential possibility of recognition of artificial intelligence as a subject of criminal legal relations in the current criminal law. In the process of research the authors provide a reasoned justification of the lack of signs of the subjective side in case of causing harm to health by artificial intelligence as a result of its ability to self-learning. The paper also presents the authors' substantiation of the ways of compensation for the health damage caused by the artificial intelligence. Conclusions. According to the results of the study, the authors have concluded that under the current criminal law to prosecute the artificial intelligence is impossible due to the lack of subjective features of a crime. As a part of the solution of the artificial intelligence responsibility for the crime the authors conclude on the need to develop special legislation that will define the status of the artificial intelligence in civil, criminal and other spheres, the order of damages and possible consequences for the artificial intelligence.
Key words: guilt, harm, artificial intelligence, ability to self-learning, subjective side, criminal liability
FOR CITATION: Petrikova S.V., Lavrushkina A.A. The Subjective Side of the Offence of Causing Harm to Health by Artificial Intelligence. Sociopolitical Sciences. 2021. Vol. 11. No. 6. Pp. 156-161. (In Rus.) DOI: 10.33693/2223-0092-2021-11-6-156-161
ВВЕДЕНИЕ
XXI век - время высоких технологий, развития роботов и робототехники. Одной из составляющих современных технологических систем является активное использование искусственного интеллекта [Васильев, Шпоппер, Матаева, 2018]. Нормативно закрепленное понятие искусственного интеллекта представлено в пп. «а» п. 5 Указа президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года»), в соответствии с которым искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машин-
ного обучения), процессы и сервисы по обработке данных и поиску решений1.
Указанное понятие продублировано и в п. 2 ч. 1 ст. 2 Федерального закона2 «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в ст. 6 и 10 Федерального закона «О персональных данных» от 24.04.2020 №123-Ф3.
1 См.: О развитии искусственного интеллекта в Российской Федерации (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года»): Указ президента РФ от 10.10.2019 № 490 // СПС «Гарант». Официальный сайт (дата обращения: 05.10.2021).
2 См.: О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в ст. 6 и 10 Федерального закона «О персональных данных» от 24.04.2020 №123-Ф3 // СПС «Гарант». Официальный сайт (дата обращения: 05.10.2021).
Полагаем, что ключевым признаком приведенного определения искусственного интеллекта, с позиции решения вопроса об уголовной ответственности за причинение вреда здоровью, является его способность к самообучению и поиску решений без ранее заданного алгоритма.
Несмотря на то, что искусственный интеллект получает свое активное развитие в нашей стране, например, в Москве в целях внедрения и развития технологий искусственного интеллекта вводятся экспериментальные правовые режимы, какое-либо правовое регулирование ответственности за причинение вреда искусственным интеллектом действующим законодательством не предусмотрено. О том, что отсутствует правовое регулирование технологий искусственного интеллекта и робототехники указано и в распоряжении правительства Российской Федерации от 19 августа 2020 № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года»3, где одной из проблем, к решению которой отсутствует единый подход, относится вопрос ответственности за причинение вреда с использованием систем искусственного интеллекта и робототехники.
Существующие научные подходы относительно уголовной ответственности искусственного интеллекта
В научной среде существует достаточно много точек зрения относительно того, кто должен нести ответственность, в том числе и уголовную, за причинение вреда искусственным интеллектом [Маткова, 2017]. Так, Н.Н. Апостолова приходит к однозначному мнению, что ответственность за причинение вреда искусственным интеллектом должен нести только человек. Указанное положение обусловлено тем, что именно человек создал искусственный интеллект, и только он будет отвечать за последствия своих разработок, в том числе и в случае, если система выйдет из-под контроля [Апостолова, 2021].
А.А. Сокова также полагает, что искусственный интеллект и человека нельзя приравнять, так как последний обладает рядом прав в силу своего рождения [Сокова, 2019].
И.Н. Мосечкин отмечает, что субъектом преступления искусственный интеллект может стать лишь в случае наличия у него самосознания и при условии признания его субъектом преступления на законодательном уровне, в качестве возможной дефиниции автор предлагает использовать термин «искусственное лицо» [Мосечкин, 2019].
Е.Ю. Цуканова, О.Р. Скопенко допускают ограниченную дееспособность роботов, которой они обладают на сегодняшний день [Цуканова, Скопенко, 2018].
Субъекивная сторона преступлений, совершаемых искуственным интеллектом и с его помощью
В целях уяснения вопроса субъективной стороны искусственного интеллекта при причинении вреда здоровью человека целесообразно обратиться к элементам состава преступления. Очевидно, что использование
3 См.: Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года: распоряжение правительства Российской Федерации от 19 августа 2020 № 2129-р // СПС «Гарант». Официальный сайт (дата обращения: 05.10.2021).
искусственного интеллекта может причинять вред здоровью, например, в результате падения беспилотных летательных аппаратов, наезда на пешехода беспилотного автомобиля, причинение вреда здоровью человека роботом на производстве и т.д. С установлением признаков объективной стороны в части причинения вреда здоровью проблем не возникает, так налицо деяние, причиняющее вред охраняемым уголовным законом интересам в определенном месте, конкретном временном промежутке, посредством совершения каких-либо действий в зависимости от разновидности искусственного интеллекта, а точнее его технического воплощения [Аверинская, 2019].
Дискуссионным видится вопрос уголовной ответственности искусственного интеллекта при определении его субъективной стороны. Одной из составляющих действий искусственного интеллекта является определенная программа, набор алгоритмов, соответственно, если сбой в программном обеспечении произошел в связи с недоработкой его создателя, неправильной эксплуатацией пользователем, внесением изменений продавцом, то очевидно, что ответственность за причинение вреда должна лежать на указанных лицах [Ки-бальник, 2018]. В таком случае квалификация их действий зависит от наступивших последствий и формы вины, которая, с большей долей вероятности, может быть представлена в виде преступного легкомыслия или преступной небрежности.
Так, в случае причинения вреда искусственным интеллектом в результате допущенных при проектировке алгоритма ошибок, ответственность будет нести разработчик или разработчики данного алгоритма. При условии причинения тяжкого вреда здоровью и неосторожной формы вины действия разработчиков целесообразно квалифицировать по п. «в» ч. 2 ст. 238 УК РФ. Продавец системы искусственного интеллекта также будет нести ответственность по указанной статье, если внесет конструктивные изменения в систему искусственного интеллекта, которые будут не соответствовать требованиям безопасности его эксплуатации и приведут к последствиям, указанным в ст. 238 УК РФ. В случае, если оператором допущены ошибки при эксплуатации системы искусственного интеллекта, которые привели к причинению вреда здоровью, то его действия, в случае причинения тяжкого вреда здоровью, возможно квалифицировать по ч. 2 ст. 118 УК РФ, так как искусственный интеллект в данном случае будет средством совершения преступления.
В случае наличия умысла у вышеуказанных лиц на причинение вреда здоровью квалификацию их действий необходимо осуществлять по ст. 111, 112, 115 УК РФ в связи с тем, что искусственный интеллект будет выступать средством достижения преступных целей виновного лица. При распространении случаев умышленного причинения вреда здоровью с использованием искусственного интеллекта целесообразно в указанные статьи добавить квалифицирующий признак для дифференциации уголовной ответственности [Понкин, 2018]. В соответствующих положениях УК РФ, которыми могут выступать примечания к статьям с вышеназванными квалифицирующими признаками, необходимо определить дальнейшую судьбу искусственного интеллекта, который использовался
Петрикова С.В., Лаврушкина А.А. -
для совершения преступного действия [Лапунин, 2017]. Например, уничтожение указанной системы или ее перепрограммирование и т.д.
Однако, как было указано ранее, искусственный интеллект обладает способностью к самообучению и поиску решений без ранее заданного алгоритма, указанный признак свидетельствует о его автономности и неподконтрольности деятельности его создателей [Бычков, 2020]. В этом случае и возникает проблема субъективной стороны состава преступления. Относительно возможности признания искусственного интеллекта субъектом преступления в рамках существующей системы уголовного законодательства можно однозначно сказать, что она отсутствует ввиду следующих причин:
1) принципы, установленные в ст. 5-7 УК РФ, связаны только с личностью человека, его правосознанием, психоэмоциональным отношением к совершенному преступлению;
2) субъектом преступления в силу ст. 19 УК РФ может являться только физическое лицо;
3) институт вины ориентирован на субъективное отношение к случившемуся, обусловленное сознанием человека, что недоступно искусственному интеллекту;
4) институты соучастия, добровольного отказа, неоконченного преступления ориентированы на психофизиологические особенности личности, его биологическую и социальную природу, которой искусственный интеллект в настоящее время не обладает;
5) система уголовных наказаний, порядок их назначения вообще неориентированы на искусственный интеллект, так как нацелены на исправление осужденного, несение им определенных ограничений, которые должны повлиять на его поведение в дальнейшем, осознание недопустимости совершать преступления.
При этом нужно обратить внимание, что указанные ограничения актуальны для развития систем искусственного интеллекта на современном этапе его развития, в связи с отсутствием у них сознания, психоэмоционального фона идентичного человеческому [Тирранен, 2019]. В ситуации, когда научно-технический прогресс обусловит создание систем искусственного интеллекта с чувственно-эмоциональным фоном идентичным человеческому, возможно, будут основания утверждать с позиции существующего уголовного законодательства о наличии в действиях искусственного интеллекта при причинении вреда здоровью человека признаков субъективной стороны [Булгаков, Царьков, 2018].
Действия ныне существующего искусственного интеллекта продиктованы программой, несмотря на его способность к самообучению, поэтому полагаем, что субъективная сторона с точки зрения уголовного законодательства в действиях искусственного интеллекта в случае причинения вреда здоровью отсутствует [Морхат, 2018]. Это обусловлено тем, что он не является субъектом преступления и не обладает чувством вины, то есть психическим отношением к случившемуся, иными словами, у искусственного интеллекта отсутствует биологическая составляющая субъективной
стороны, которая присуща человеку [Сокова, 2019]. Заложенный в искусственный интеллект алгоритм на сегодняшнем этапе развития не может обладать какими-либо эмоциями, так как искусственные нейронные сети представляют собой процессоры, функционирующие по определенным математическим схемам, лишенным психоэмоциональной составляющей.
ВЫВОД
Из вышеизложенного следует, что по действующему уголовному законодательству ответственность за причинение вреда здоровью искусственным интеллектом могут нести разработчики, продавцы, лица, эксплуатирующие систему искусственного интеллекта, причем квалификация их действий в зависимости от направленности умысла возможна в рамках существующих норм Уголовного кодекса.
Относительно возможности привлечения к уголовной ответственности систем искусственного интеллекта ответ однозначно отрицательный, так как нельзя установить признаки субъективной стороны состава преступления, исходя из их понимания на сегодняшний день. Многие существующие институты уголовного законодательства также не могут быть реализованы в отношении систем искусственного интеллекта. Все это обусловлено отсутствием у них психоэмоциональной составляющей, которая заложена в основу субъективной стороны состава преступления [Буз, 2019]. Даже в случае причинения вреда здоровью искусственным интеллектом в результате его способности к самообучению и отсутствия ошибок в его проектировке и эксплуатации субъективная сторона преступления по-прежнему будет отсутствовать в силу вышеобозна-ченных причин.
ЗАКЛЮЧЕНИЕ
Отсутствие субъективной стороны в случае причинения вреда здоровью лишает возможности привлечения искусственного интеллекта к уголовной ответственности, однако не решает вопроса ответственности за его действия в случае причинения им вреда, которое обусловлено его способностью к самообучению. Кто в таком случае будет возмещать вред потерпевшему? Каким образом «наказывать» искусственный интеллект за его негативные последствия самообучения?
По результатам выводов, полученных в ходе исследования, полагаем, что системы искусственного интеллекта, существующие в настоящее время, наказывать в рамках действующего уголовного законодательства не представляется возможным, так как они не являются субъектами преступления. Урегулировать процедуру разбирательства в случае причинения вреда здоровью искусственным интеллектом необходимо специальным законодательством, которое целесообразно принять в форме кодекса, содержащего в себе порядок установления обстоятельств причинения вреда искусственным интеллектом, процедуру возмещения вреда потерпевшему и вероятные последствия для искусственного интеллекта.
Процедура разбирательства может включать в себя установление причинно-следственной связи между причиненным вредом и действиями искусственного интеллекта. Возмещение вреда потерпевшему целесообразно осуществить за счет последующей реализации системы искусственного интеллекта или прибыли, которую она получила в результате осуществления своей деятельности, либо за счет процедуры страхования, что является наиболее оптимальной и приемлемой формой возмещения вреда.
В качестве возможной санкции в отношении системы искусственного интеллекта может выступать ее перепрограммирование или вовсе уничтожение в зависимости от тяжести причиненного вреда. Однако, прежде чем реализовывать процедуру привлечения искусственного интеллекта к ответственности необходимо определить его статус в гражданско-правовой, уголовно-правовой сферах, порядок контроля и учета за системами искусственного интеллекта, процедуру их ликвидации и последующей утилизации, идентифицирующие признаки и т.д. В условиях существующих правовых норм возложить ответственность на систему искусственного интеллекта за причинение ею вреда здоровью в результате ее самостоятельного обучения не представляется возможным, так как отсутствует какая-либо законодательная база, регулирующая процедуру использования, функционирование систем искусственного интеллекта.
ЛИТЕРАТУРА
1. Аверинская С.А. Создание искусственного интеллекта с целью злонамеренного использования в уголовном праве Российской Федерации // Закон и право. 2019. № 2. С. 94-96.
2. Апостолова Н.Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 112-119.
3. Бычков В.В. Искусственный интеллект: государственная политика и векторы применения // Расследование преступлений: проблемы и пути их решения. 2020. № 4. С. 45-50.
4. Бугаков И.А., Царьков А.Н. О когнитивном моделировании, искусственном интеллекте и психике роботов // Известия Института инженерной физики. 2018. С. 101-106.
5. Буз С.И. Киберпреступления: понятие, сущность и общая характеристика // Юристъ-Правоведъ. 2019. № 4. С. 78-82.
6. Васильев А., Шпоппер Д., Матаева М. Термин «искусственный интеллект» в российском праве: доктринальный анализ // Юрислинг-вистика. 2018. № 7-8. С. 39.
7. КибальникА.Г. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2018. № 4. С. 173-178.
8. Лапунин М.М. Обстоятельства, исключающие преступность деяния, и научно-технический прогресс // Вестник Академии Генеральной прокуратуры РФ. 2017. № 6. С. 81-87.
9. Маткова А.А. Почему в ближайшие 3 года операционистов в банках может заменить искусственный интеллект? // Экономика. Право. Менеджмент: современные проблемы и тенденции развития. 2017. № 13. С. 10-18.
10. Морхат П.М. К вопросу о соответствии автономных интеллектуальных систем вооружений принципам международного гуманитарного права // Вестник военного права. 2018. № 2. С. 58-65.
11. Мосечкин И.Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления. Вестник Санкт-Петербургского университета. 2019. № 3. С. 461-476.
В рамках существующего правового регулирования в случае причинения вреда здоровью искусственным интеллектом в результате его самообучения, возможно попытаться взыскать вред с разработчиков или компании, его эксплуатирующей, в порядке ст. 1079 Гражданского кодекса Российской Федерации, однако будет ли признаваться система искусственного интеллекта источником повышенной опасности - вопрос, действительно, спорный.
Учитывая то обстоятельство, что в научных кругах достаточно часто обращаются к вопросу нормативного регулирования порядка использования систем искусственного интеллекта, существует вероятность ускорения правотворческой деятельности государства в данном направлении. Специфические особенности функционирования систем искусственного интеллекта обуславливают необходимость проработки вопросов привлечения их к ответственности за пределами существующего уголовного законодательства и исключают объективную необходимость введения в УК РФ нового субъекта уголовной ответственности в виде искусственного интеллекта. Однако в связи с активным развитием искусственного интеллекта целесообразно рассмотреть поправки в действующий УК РФ относительно закрепления такого квалифицирующего признака, как совершение преступления с использованием искусственного интеллекта.
REFERENCES
1. Averinskaya S.A. Creation of artificial intelligence for the purpose of malicious use in the criminal law of the Russian Federation. Zakon i pravo. 2019. No. 2. Pp. 94-96. (In Rus.)
2. Apostolova N.N. Responsibility for harm caused by artificial intelligence. North Caucasian Legal Bulletin. 2021. No. 1. Pp. 112-119. (In Rus.)
3. Bugakov I.A., Tsarkov A.N. On cognitive modeling, artificial intelligence and the psyche of robots. News of the Institute of Engineering Physics. 2018. Pp. 101-106. (In Rus.)
4. Buz S.I. Cybercrimes: Concept, essence and general characteristics. Yurist-Pravoved. 2019. No. 4. Pp. 78-82. (In Rus.)
5. Bychkov V.V. Artificial intelligence: State policy and vectors of application. Crime Investigation: Problems and Solutions. 2020. No. 4. Pp. 45-50. (In Rus.)
6. Vasiliev A., Shpopper D., Mataeva M. The term "artificial intelligence" in Russian law: Doctrinal analysis. Yurisling-vistika. 2018. No. 7-8. P. 39. (In Rus.)
7. Kibalnik A.G. Artificial intelligence: Questions of criminal law doctrine awaiting answers. Legal Science and Practice: Bulletin of the Nizhny Novgorod Academy of the Ministry of Internal Affairs of Russia. 2018. No. 4. Pp. 173-178. (In Rus.)
8. Lapunin M.M. Circumstances precluding criminality of the act, and scientific and technical progress. Bulletin of the Academy of the General Prosecutor's Office of the Russian Federation.
2017. No. 6. Pp. 81-87. (In Rus.)
9. Matkova A.A. Why can artificial intelligence replace tellers in banks in the next 3 years? Economy. Right. Management: Current Problems and Development Trends. 2017. No. 13. Pp. 10-18. (In Rus.)
10. Morhat P.M. On the question of the correspondence of autonomous intelligent weapons systems to the principles of international humanitarian law. Bulletin of Military Law.
2018. No. 2. Pp. 58-65. (In Rus.)
11. Mosechkin I.N. Artificial intelligence and criminal liability: Problems of formation of a new type of crime subject. Bulletin of St. Petersburg University. 2019. No. 3. Pp. 461-476. (In Rus.)
Петрикова С.В., Лаврушкина А.А.
12. Понкин А.В., РедькинаА.И. Искусственный интеллект с точки зрения права // Вестн. РУДН. Серия: Юридические науки. 2018. С. 94.
13. Сокова А.А. Искусственный интеллект: возможности и необходимость его уголовно-правовой охраны // Молодой ученый. 2019. № 16. С. 122-125.
14. Тирранен В.А. Искусственный интеллект и нейронные сети как инструмент современной киберпреступности // Уголовное право: стратегия развития в XXI веке: материалы XVI Междунар. науч.-практ. конф. (24-25 янв. 2019 г.). М.: РГ-Пресс, 2019. С. 135-140.
15. Цуканова Е.Ю., Скопенко О.Р. Правовые аспекты ответственности за причинение вреда роботом с искусственным интеллектом // Вопросы российского и международного права. 2018. № 4А. С. 42-48.
12. Ponkin A.V., Redkina A.I. Artificial intelligence from the point of view of law. Vestn. RUDN. Series: Legal Sciences. 2018. P. 94. (In Rus.)
13. Sokova A.A. Artificial intelligence: Possibilities and necessity of its criminal law protection. Young ScientiSt. 2019. No. 16. Pp. 122-125. (In Rus.)
14. Tyrranen V.A. Artificial intelligence and neural networks as a tool of modern cybercrime. Criminal Law: Development Strategy in the XXI Century: Materials of the XVI Intern. Scientific-Practical Conf. (24-25 Jan. 2019). Moscow: RG-Press, 2019. Pp. 135-140.
15. Tsukanova E.Yu., Skopenko O.R. Legal aspects of liability for harm caused by a robot with artificial intelligence. Questions of Russian and International Law. 2018. No. 4A. Pp. 42-48. (In Rus.)
Статья проверена программой Антиплагиат. Оригинальность - 81,04%
Рецензент: Нестерова Т.И., кандидат юридических наук, доцент; заведующая кафедрой гражданского права ФГБОУ ВО «Национальный исследовательский Мордовский государственный университет им. Н.П. Огарева»
Статья поступила в редакцию 14.10.2021, принята к публикации 29.11.2021 The article was received on 14.10.2021, accepted for publication 29.11.2021
СВЕДЕНИЯ ОБ АВТОРАХ
Петрикова Светлана Васильевна, кандидат юридических наук, доцент; заведующая кафедрой уголовного права, криминалистики и криминологии ФГБОУ ВО «Национальный исследовательский Мордовский государственный университет им. Н.П. Огарева». Саранск, Российская Федерация. ORCID 0000-0002-7135-5330; SPIN-код: 2625-9441; Author ID: 619863; E-mail: petrikova_ [email protected]
Лаврушкина Алина Александровна, студентка 3 курса магистратуры юридического факультета ФГБОУ ВО «Национальный исследовательский Мордовский государственный университет им. Н.П. Огарева». Саранск, Российская Федерация. SPIN-код: 9840-3561; Author ID: 1055468; E-mail: [email protected]
ABOUT THE AUTHORS
Svetlana V. Petrikova, Cand. Sci. (Law), Associate Professor; Head at the Department of Criminal Law, Criminology and Criminology of the N.P. Ogarev National Research Mordovian State University. Saransk, Russian Federation. ORCID 0000-0002-7135-5330; SPIN-Kog: 2625-9441; Author ID: 619863; E-mail: [email protected]
Alina A. Lavrushkina, the 3rd year student at the Law Faculty of the Federal State Budgetary Educational Institution of Higher Professional Education N.P. Ogarev National Research Mordovian State University. Saransk, Russian Federation. SPIN code: 9840-3561; Author ID: 1055468; E-mail: [email protected]