DOI 10.47643/1815-1337_2022_2_273 УДК 343.2, 343.9
УГОЛОВНАЯ ОТВЕТСТВЕННОСТЬ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ CRIMINAL LIABILITY AND ARTIFICIAL INTELLIGENCE
ПОМЕРАНЕЦ Анна Дмитриевна,
магистрант юридического факультета
ФГБОУ ВО «Российская государственная академия интеллектуальной собственности». 117279, Россия, г. Москва, ул. Миклухо-Маклая, 55а. E-mail: [email protected];
КОЛЕНЦОВА Вероника Владимировна,
кандидат юридических наук, доцент кафедры уголовного права и процесса
ФГБОУ ВО «Российская государственная академия интеллектуальной собственности», научный руководитель. 117279, Россия, г. Москва, ул. Миклухо-Маклая, 55а. E-mail: [email protected];
Pomeranets Anna Dmitrievna,
master student of the Faculty of Law
Federal State Budgetary Educational Institution of Higher Education "Russian State Academy of Intellectual Property". 55a Miklukho-Maklaya str., Moscow, 117279, Russia. E-mail: [email protected];
Kolentsova V.V.,
Ph.D. in Law, Associate Professor of the Department of Criminal Law and Procedure,
Federal State Budgetary Educational Institution of Higher Education "Russian State Academy of Intellectual Property" Scientific adviser. 55a Miklukho-Maklaya str., Moscow, 117279, Russia. E-mail: [email protected]
Краткая аннотация: Внедрение в жизнь человека новых достижений науки и техники несут с собой не только пользу, но и множество рисков и угроз. Одной из таких угроз являются системы на основе искусственного интеллекта (ИИ), они становятся всё сложнее и автономнее: управляют транспортом, ставят диагнозы и назначают лечения, участвуют в вынесении приговоров в судах и т.д. В дальнейшем повсеместное использование систем ИИ будет только возрастать, а способность человека контролировать и понимать их логику - уменьшаться. В связи с этим встает вопрос о правовом регулировании общественных отношений, в которых участвует ИИ. Одной из наиболее интересных и трудноразрешимых проблем, является вопрос о возможной уголовной ответственности за вред, причиненный искусственным интеллектом, исследованию которой и посвящена данная статья. На сегодняшний день уголовно-правовое регулирование, связанное с применением систем искусственного интеллекта, существенно отстаёт от стремительного темпа внедрения систем ИИ в преступную среду. Важность оперативного реагирования и совершенствования уголовного законодательства обусловлена также тем, что уже имеют место случаи совершения противоправных деяний с использованием искусственного интеллекта, примеры которых рассмотрены в данной статье.
Abstract: The introduction of new achievements of science and technology into human life brings with it not only benefits, but also many risks and threats. One of these threats is artificial intelligence (AI)-based systems, which are becoming more complex and autonomous: they manage transport, make diagnoses and prescribe treatments, participate in sentencing in courts, etc. In the future, the widespread use of AI systems will only increase, and the ability of a person to control and understand their logic will decrease. In this regard, the question arises of the legal regulation of social relations in which AI participates. One of the most interesting and intractable problems is the question of possible criminal liability for harm caused by artificial intelligence, the study of which is the subject of this article. Today, criminal law regulation related to the use of artificial intelligence systems lags significantly behind the rapid pace of the introduction of AI systems into the criminal environment. The importance of prompt response and improvement of criminal legislation is also due to the fact that there are already cases of illegal acts using artificial intelligence, examples of which are discussed in this article.
Ключевые слова: искусственный интеллект, уголовная ответственность, разработчики, автономные технологии, правосубъектность технологий с ИИ.
Keywords: artificial intelligence, criminal liability, developers, autonomous technologies, legal personality of AI technologies.
Дата направления статьи в редакцию: 10.01.2022
Дата публикации: 28.02.2022
Совсем недавно появление новых практических технологий искусственного интеллекта привели к «правовому вакууму», которые сделали необходимым кардинальную перестройку подходов к ответственности. Освещение в СМИ и Интернете все большего числа случаев неадекватности и опасности решений искусственного интеллекта и вызванные этим общественные дебаты стали особенно интенсивны и вызвали ряд вопросов об ответственности и системе наказания виновных.
На сегодняшний день в рамках правового регулирования общественных отношений, в которых так или иначе фигурирует ИИ, наиболее значимой остается проблема разных видов ответственности за причиненный искусственным интеллектом вред. Этот вопрос стоит остро во всех странах мира. В целом, не решён вопрос наличия и чёткой структуры правового базиса регулирования отношений, возникающих в связи с использованием ИИ в различных сферах.
Степень разработанности темы исследования указывает на то, что в последние годы юристы заинтересованы в исследованиях на тему ответственности за вред, причинённый ИИ. Доктор юридических наук П.М. Морхат исследовал в своей работе вопрос правосубъектности искусственного интеллекта в сфере права ИИ [12]. Доктор юридических наук А.А. Карцхия в своих трудах исследовал вопросы гражданско-правовой модели регулирования цифровых технологий, выделяя новые цифровые объекты, к числу которых относит ИИ [7]. Доктор юридических наук Е. А. Русскевич в своих исследованиях изучает вопросы ответственности за преступления, совершаемые с использованием информационно-коммуникационных технологий, выделяет проблемы их квалификации, указывая на развитие технологий больших данных, в число которых
включает системы ИИ [14]. Кандидат юридических наук Е.В. Пономарева исследовала в своих трудах субъекты и квазисубъекты права, выделяя роботов и ИИ как отдельный вид квазисубъектов права[13]. Доктор юридических наук Малышкин А.В. в своих работах указывает на аспекты интегрированной юрисдикции и проблемы определения лица, которое несёт ответственность за ошибки юнитов ИИ [11]. Существует ряд менее масштабных исследований в области темы работы, например, исследования о юридической ответственности при применении систем ИИ, работы, которые касаются ответственности беспилотных транспортных средств, статьи о правовом режиме технологий ИИ и применения их в телемедицине и пр. [2,10,5]. В последние годы интерес к теме исследования крайне велик, но проблемы, связанные с ответственностью за вред, причинённый ИИ так и не решены.
С одной стороны, ответственность должна возлагаться на какое-либо лицо, организацию или государство, но субъектами уголовной ответственности являются лишь физические лица (ст.19 УК РФ). Искусственный интеллект нельзя отнести ни к одной из предложенных категорий. Являясь цифровыми процессами в неживой оболочке, а не сознательными существами, способными на эмоции, осознанные действия и поступки искусственный интеллект не может претендовать на статус ни только физического лица, но и живого существа. Не подходит искусственному интеллекту и конструкция юридического лица, поскольку он не обладает многими особенностями этого субъекта, в частности, в экономической сфере [16 с.43-46].
С другой стороны, предложение о возможности возложения ответственности за деяния, совершаемые с использованием систем искусственного интеллекта, в рамках традиционных правых норм, например, исходя из п. «в» ч. 2 ст. 238 УК РФ, (т. е. как выполнение работ или оказание услуг, не отвечающих требованиям безопасности жизни или здоровья потребителей), сталкивается с трудностями. Не говоря уже о том, что определение конкретной части ответственности: производителя или продавца продукции, оснащенной искусственным интеллектом; пользователя продукции; иных лиц вторгающихся в его работу (например, хакеров), исключительно трудно и зачастую требует знаний и компетенций за пределами современных правоохранительных органов. Уже сегодня машинное обучение (способность искусственного интеллекта к обучению) означает тот факт, что цифровые системы больше не должны быть полностью запрограммированы, но также могут постоянно учиться сами по себе, или, точнее, могут изменять свое поведение посредством ввода данных из внешнего мира. А это, в свою очередь, означает, что поведение системы больше не должно быть полностью предопределено программистом или иным человеком, что делает вопрос об ответственности крайне размытым[17].
Сегодняшние технологии искусственного интеллекта напоминают черный ящик, где вы знаете только базовый алгоритм и результат, но не процессы между ними. Поэтому тот, на ком лежит бремя доказывания, имеет мало шансов на успех в споре и с трудом способен определить субъект, на которого должна возлагаться вина.
Примером трудности по защите потерпевшей стороны, которая уже существует сегодня, является ответственность за автономные транспортные средства, тестирующиеся на дорогах США, некоторых европейских и ряда азиатских стран. Так, большой резонанс получил случай произошедший в марте 2018 г. Беспилотный автомобиль компании «Uber» впервые в истории человечества насмерть сбил пешехода. Происшествие случилось в г. Темпи, штата Аризона в США. Ранее в этом городе было зафиксировано ДТП с подобной машиной, но ответственность понёс водитель другого автомобиля, не уступивший беспилотному автомобилю дорогу в соответствии с правилами дорожного движения США. В 2018 г. на водительском месте беспилотной машины находился оператор, в чьи обязанности входило брать на себя управление в экстренных случаях. Однако по непонятным причинам предотвратить наезд на пешехода оператор «Uber» не смог. Позже, появилась информация о том, что бортовая электроника беспилотника распознала пешехода, но не прекратила движение[4]. В сети информация о том, что ИИ может действовать бесконтрольно распространялась достаточно быстро. Футуристические идеи захлестнули общественность. Но проблема крылась в программном обеспечении беспилотного автомобиля. Это было отмечено в опубликованных материалах Национального совета по безопасности на транспорте США (NTSB). При оснащении беспилотного автомобиля системами для автономной езды инженеры «Uber» отключили штатную систему экстренного торможения, внедрив собственную, которая активировалась в беспилотном режиме и имела секундную задержку, во время которой алгоритм убеждается в опасности ситуации, а также рассчитывал путь возможного объезда препятствия. Такая задержка позволила решить проблему ложных срабатываний системы. Еще одна особенность в том, что алгоритмы были обучены распознавать пешеходов только рядом с пешеходными переходами, а в остальных случаях программа относила их к транспортным средствам или неопознанным объектам. При этом если объект признавался транспортным средством, то алгоритм предсказывал его траекторию в соответствии с одним из базовых сценариев. Если он считает пешехода неопознанным объектом, то вовсе не занимается расчетом траектории его движения. Из-за этих особенностей перед смертельной аварией в Аризоне алгоритм, распознавший женщину за 5,6 секунды до столкновения, не смог идентифицировать в ней пешехода и потратил время на то, чтобы отнести ее к тому или иному классу объектов. При этом менял класс несколько раз. В итоге алгоритм идентифицировал женщину с велосипедом как велосипед за 1,2 секунды до наезда, а торможение из-за предусмотренной разработчиками задержки началось за 0,2 секунды. То есть наезд был неизбежен [3]. Следовательно, на лицо упущение разработчиков исследуемого алгоритма.
В данной ситуации практика показала, что «Uber Technologies» не несет уголовную ответственность за аварию. К такому выводу пришла прокуратура округа. Хотя, обвинение в убийстве по неосторожности предъявляли резервному водителю беспилотного автомобиля «Uber». По версии следствия, Р. Васкес, водитель-оператор беспилотника не следила за действиями автопилота, просматривая видео в телефоне, когда тот насмерть сбил женщину. Компания «Uber» после заключила досудебное соглашение с семьей сбитой в марте велосипедистки. Условия соглашения не разглашались. Как справедливо отмечают О.С. Ерахтина и Д.Г. Попану «потерпевшие захотят получить возмещение причинённого вреда за счёт договора страхования автомобиля или его собственных активов... в случае, если такой страховой суммы или «собственных» активов автомобиля будет недо-
статочно, то потерпевшая сторона будет обращаться к собственнику автомобиля»[6]. Собственно, в данной ситуации дело не дошло до суда.
Таким образом, на данный момент развития технологий ИИ, наделение ИИ правосубъектностью не является необходимой. Вместе с тем, имеется понятие создания «электронной вуали» (electronic veil), которая может быть использована как попытка ограничения ответственности собственников или владельцев данной технологии. Например, такие сомнения возникают в случае с ответственностью водителя беспилотного автомобиля «Uber» в Аризоне. Доказать вину оператора беспилотника на данный момент не удалось ввиду отсутствия доказательств нарушения регламента работы оператором. Но возникает справедливый вопрос, действительно ли оператор не смог определить опасность наезда и предотвратить аварию с летальным исходом, или же оператор «Uber» просто не следил за дорогой и по его вине погиб человек.
В 2017 г. в Квебеке, провинции Канады, произошло столкновение с дроном легкомоторного самолета на высоте около 450 метров, что в 5 раз выше, чем дозволено летать коптерам. Воздушное судно с восемью людьми на борту получило лишь незначительные повреждения и благополучно приземлилось. Дрон был в самостоятельном движении на момент столкновения. В рамках экспериментов было установлен о, что даже легкий дрон может нанести значительные повреждения самолету и привести к крушению, особенно если врежется в двигатель или кабину самолёта.
Даже использование технологий искусственного интеллекта с такой благородной целью, как спасение жизни людей создает все новые трудности. Широко стал известен случай, когда для лечения младенца была применена диагностика, осуществляемая специальной медицинской системой искусственного интеллекта. По результатам ее обследования младенцу был поставлен диагноз грипп и назначено лечение. Медицинский персонал действовал в строгом соответствии с назначенным лечением, однако через пять часов ребенок скончался. Проведенное вскрытие показало, что диагноз системы оказался ошибочным, причиной смерти младенца стала тяжелая бактериальная инфекция[18]. Установление лица или организации ответственной за ошибочный диагноз превратилось в запутанное дело.
Внедрение ИИ в процесс лечения и диагностики онкологических заболеваний повлекло неоднозначные последствия. Как отмечают З.И. Хисамова и И.Р. Бегишев, «летом 2018 г. произошла утечка внутренних документов одного из крупнейших в мире производителей и поставщиков аппаратного и программного обеспечения - компании «IBM»... в результате стало известно, что разработанный ею медицинский ИИ «Watson Health», используемый в 230 больницах по всему миру для лечения 13 видов рака у 84 тыс. пациентов, совершает врачебные ошибки, предлагая некорректные методы лечения, которые могут привести к смерти пациента»[15 с. 564-574]. Стоит помнить, что и сегодня вопросы о врачебных ошибках и медицинских преступлениях являются одними из самых сложных в юридической практике. Появление в «цепочке расследования» искусственного интеллекта окончательно запутает ситуацию и переведет ее на уровень споров различных организаций и ссылок на инструкции, тогда как пострадавшие абсолютно беззащитны перед угрозами нанесения вреда их жизни и здоровью.
Существует перечень оснований, в рамках которых требуется привлечение ответственных за действие ИИ лиц к уголовно-правовой ответственности: «создании системы ИИ была допущена ошибка, приведшая к совершению преступления; в систему ИИ был осуществлен неправомерный доступ, повлекший повреждение или модификацию его функций, вследствие чего было совершено преступление; ИИ, обладающий способностью к самообучению, принял решение о совершении действий/бездействия, квалифицируемых как преступление; ИИ был создан преступниками для совершения преступлений»[15].
ИИ является технологией и в соответствии со ст. 274 УК РФ[1] уголовная ответственность наступает за нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей. По мнению З.И. Хисамовой и И.Р. Бегишева, данная норма «вполне применима и к ситуациям с использованием ИИ. бланкетный характер нормы отсылает к конкретным инструкциям и правилам, устанавливающим порядок работы со средствами хранения, обработки или передачи охраняемой компьютерной информации, информационно-телекоммуникационными сетями и оконечным оборудованием в ведомстве или организации, нарушение которых повлекло уничтожение, блокирование, модификацию либо копирование компьютерной информации, причинившее крупный ущерб»[15]. Здесь имеется аспект обязательного установления причинной связи между нарушением и наступившим существенным вредом, а также достоверности того, что последствия сбоя в функционировании ИИ являются результатом нарушения правил эксплуатации, а не программной ошибкой либо действиями, предусмотренными ст. 272 (уголовная ответственность за неправомерный доступ к охраняемой законом компьютерной информации, если это деяние повлекло уничтожение, блокирование, модификацию либо копирование компьютерной информации) и 273 УК РФ (уголовная ответственность за создание, распространение или использование компьютерных программ либо иной компьютерной информации, заведомо предназначенных для несанкционированного уничтожения, блокирования, модификации, копирования компьютерной информации или нейтрализации средств защиты компьютерной информации).
В ч. 3 ст. 273 УК РФ предусмотрен квалифицирующий признак рассматриваемого состава преступления - наступление тяжких последствий или создание угрозы их наступления. Следует учитывать, что в случае наступления тяжких последствий от применения ИИ данный квалифицированный состав преступления является материальным, то есть деяние окончено с момента наступления общественно опасных последствий, а если создана угроза их наступления, то состав является усеченным.
Наличие в УК РФ отдельных норм, предусматривающих ответственность за совершение преступлений в сфере компьютерной информации, не исключает возможности привлечения за посягательства, совершенные с применением ИИ, по общим нормам о наказаниях за преступления против личности (ст. 105, 109, 111, 112, 118 УК РФ), за преступления против конституционных прав и свобод человека и гражданина (ст. 143 УК РФ), за преступления против собственности (ст. 167, 168 УК РФ), за преступления против государственной власти, интересов государственной службы и службы в органах местного самоуправления (ст. 293 УК РФ) и т.д.
Аналогичным образом решается вопрос и в случае, если в систему ИИ был осуществлен неправомерный доступ, повлекший повреждение или модификацию его функций, вследствие чего было совершено преступление. Так, в ст. 272 УК РФ предусмотрена ответственность за неправомерный доступ к охраняемой законом компьютерной информации, если это деяние повлекло уничтожение, блокирование, модификацию либо копирование компьютерной информации, а в ч. 3 ст. 273 УК РФ - за создание, использование и распространение вредоносных компьютерных программ, предназначенных для несанкционированного уничтожения, блокирования, модификации, копирования компьютерной информации или нейтрализации средств защиты компьютерной информации, если они повлекли тяжкие последствия или создали угрозу их наступления. В случае совершения неправомерного доступа с применением ИИ для неправомерного воздействия на критическую информационную инфраструктуру Российской Федерации лицо, предпринявшее такие действия, подлежит ответственности по ст. 274.1 УК РФ.
Таким образом, разработчик и (или) владелец ИИ несут ответственность за любой вред, причиненный созданным ими и (или) эксплуатируемым ИИ. В ситуации с беспилотным автомобилем «Uber», принявшим решение сбить пешехода на проезжей части, ответственность за действия беспилотного автомобиля будут нести его разработчики. Однако к ответственности была привлечена и сотрудница. Прокуратура США обвинила оператора беспилотника Uber в непредумышленном убийстве. Видеозапись с видеорегистратора, опубликованная полицией, показала, что госпожа Васкес смотрела вниз, в сторону от дороги, в течение нескольких секунд непосредственно перед аварией, в то время как автомобиль двигался со скоростью 39 миль в час (63 км/ч). Записи из стримингового сервиса «Hulu» показали, что в то время на ее устройстве транслировалось телевизионное шоу «Голос». В полицейском отчете за июнь 2018 года смертельное столкновение было названо «полностью предотвратимым», если бы водитель следил за дорогой. Прошло лишь одно судебное разбирательство и окончательное решение пока не вынесено. Однако по предварительным данным, имеются все основания для привлечения оператора беспилотника к уголовной ответственности [19].
Между тем автономные технологии ИИ, которые способны к самообучению, существенно отличаются от других явлений и объектов, ввиду чего гораздо сложнее обстоит дело с ответственностью ИИ, принявшего решение о совершении деяний, квалифицируемых как преступление, самостоятельно. Например, в 2021 г. стало известно, что годом ранее в Ливии зафиксировали первый случай в истории, когда робот атаковал человека без команды оператора. Беспилотник-квадрокоптер KARGU-2 был произведен в Турции. Дрон был оснащен возможностью «высокоэффективного автономного режима», другими словами, он мог поражать цели без команды от человека. Что касается технологического аспекта, то автоматические системы не всегда способны с необходимым уровнем точности идентифицировать цели. Человек в этой цепочке контролировал и исправлял ошибки робота. Помимо этого, также имеет место аспект этический - позволить машине принять решение о лишении жизни человека (пусть речь идёт и о противнике) ранее представлялось невозможным[8]. В мире пока не существует законодательства, которое бы регулировало независимых от человека дронов-убийц. Международное право определяет можно ли использовать такие машины в принципе.
В 2017 г. Международный комитет Красного Креста, представители организаций «Amnesty International» и «Human Rights Watch», И. Маск и разработчик систем ИИ М. Сулейман и др. направили в ООН открытое письмо, в котором привели доводы против использования автономных роботов-убийц. Если такое оружие появится, военные конфликты достигнут невиданных прежде масштабов. В 2018 г. ООН начал рассматривать этот вопрос. В организации звучали призывы ввести полный мораторий на использование автономного оружия в войнах. Но каких-либо решений вынесено не было. По данным движения «Future of Life», против запрета применения роботов-убийц выступают государства с ведущими армиями мира - США, Россия, Великобритания и Франция.
В настоящий период времени в российских правовых реалиях действия автономной боевой машины следователи могут квалифицировать как убийство (по ст. 105 УК РФ), виновным в котором признают субъекта, который непосредственно применил оружие, то есть тот, кто выпустил аппарат на боевое патрулирование и задал цели. Следовательно, даже несмотря на то, что робот якобы «самостоятельно» принял решение об уничтожении конкретной цели, лицо, выпустившее его на местность, будет нести уголовную ответственность за убийство или причинение вреда здоровью всем пораженным объектам.
Отсылки к правосубъектности технологий с ИИ проявляются в том, что самообучаемость некоторых роботов не может быть спрогнозирована на долгосрочную перспективу. Вопрос о привлечении ИИ к уголовной ответственности за совершение преступления неразрывно связан с наделением его правосубъектностью. Несмотря на признание данной идеи футуристической большой частью научного сообщества, в 2017 г. София, гуманоидный робот из Саудовской Аравии, разработанный гонконгской компанией «Hanson Robotics» получила гражданство Саудовской Аравии и стала первым роботом в мире, получившим гражданство. В ноябре 2017 г. София была названа первым инновационным чемпионом Программы развития ООН и является первым нечеловеком, получившим звание ООН. У робота не раз брали интервью, а в программе «60 Minutes» на вопрос «Есть ли у роботов разум и самосознание?», София заявила: «А Вы откуда знаете, что Вы человек?» [20]. Примечательно, что в тексте ранее упомянутой резолюции Европарламента отмечается непрекращающееся изменение роботов, предопределившее не только их способность выполнять отдельные виды деятельности, но и способность к самообучению и принятию автономных, независимых решений. В Резолюции указывают на проработку отдельных механизмов страхования ответственности ущерба и вреда, который может быть нанесен техн о-логиями с ИИ, возможных эффективных путей и схем немедленного отключения ИИ и пр.
Зарубежный юрист Г. Халлеви отмечает, что вопрос уголовной ответственности ИИ сложен, потому что обязательными элементами преступления являются преступное поведение - и внутренний (ментальный) элемент. Применительно к ИИ установление ментального элемента невозможно, как результат, невозможно признание совершения ИИ преступления. Причем, как справедливо отмечают Г. Халлеви и Дж. Кингстон, в англосаксонской системе права существуют тяжкие посягательства, применительно к которым установление ментального элемента не является обязательным, и вполне оправданно, что при указанных обстоятельствах ИИ может быть признан субъектом посягательства. Представляется,
что наибольшие споры при обсуждении вопроса о признании систем с искусственным интеллектом в качестве субъектов уголовной ответственности, в случае фактического достижения ими обозначенного уровня, будут вестись как раз о наличии у него интеллектуальных и волевых элементов, образующих субъективную сторону преступления. По нашему мнению, до момента признания наличия у искусственного интеллекта самосознания, говорить о новом субъекте преступления рано.
В российской уголовно-правовой доктрине такой подход невозможен из-за обязательности наличия четырех элементов признака состава преступления, в том числе субъективной стороны для всех без исключения преступлений. Кроме того, в целом, рассмотрение ИИ как субъекта преступления пока не является актуальным подходом, что было доказано ранее. Как видится, наказание ИИ, как продукта, созданного человеком, вряд ли позволит предотвратить дальнейшие попытки создания опасных технологий. На данный период времени ответственность должен нести субъект, создавший технологию, субъект её контролирующий и пр. Вместе с тем, вопросы в данной области остаются открытыми в силу непрерывного и ускоряющегося научно-технического прогресса.
Проблемы уголовной ответственности за воздействие на ИИ. Проблема характерна для всех роботов с искусственным интеллектом. Ее можно подразделить на две группы. Первая связана с неправомерным внесением изменений в программное обеспечение. На предотвращение подобного поведения в цифровом мире должны быть внесены корректировки в ст. ст. 272 и 273 УК РФ. Вторая - с ответственностью за вред, причиненный искусственным интеллектом. В.А. Лаптев считает, что «искусственный интеллект обладает «отдельными элементами субъективного права» и одновременно выступает объектом права[9]. В связи с этим он полагает, что в ближайшее время ответственности за работу искусственного интеллекта будут нести создатель (производитель) и владелец (оператор), по аналогии с ответственностью за причинение вреда источником повышенной опасности. Но, следующим шагом будет признание за такими роботами правосубъектности и способности нести самостоятельную юридическую ответственность, а затем, правосубъектность будет существовать у искусственного интеллекта уже в виртуальном (цифровом) пространстве в отрыве от материального мира. Это риск. Еще один риск, порождаемый искусственным интеллектом, - это возможность его использования для совершения преступления, например, дронов в качестве наркокурьеров, для совершения террористических актов и т.д. Сегодня достигнуты большие успехи в миниатюризации роботов, например, Яндекс уже их применяет. Государственные и коммерческие структуры могут приобрести робота размером с большого жука, оснащенного видеокамерой, способной снимать как днем, так и ночью, микрофоном, устройством дистанционной передачи на расстояние до 5 км звука и изображения и, естественно, устройствами для передвижения. В американские спецподразделения поступили роботы-шмели, способные действовать в наиболее агрессивных средах, быть незаметными, проникать в здания, фотографировать и поражать живые «мишени».
В указанных случаях робот выступает в качестве орудия или средства совершения преступления. Уголовной ответственности подлежит лицо, использовавшее его для совершения преступления. Вместе с тем требует самостоятельного исследования вопрос о том, повышает ли степень общественной опасности преступление, совершенное с использованием робота (искусственного интеллекта) или нет. Если речь идет о террористическом акте, то вряд ли, а если совершено убийство, то скорее всего да. Можно предположить, что это должно быть квалифицированное убийство, в связи с чем потребуется дополнение ч. 2 ст. 105 УК РФ соответствующим признаком.
В результате проведенного исследования выявлено, что к уголовной ответственности могут быть привлечены исключительно физические лица, на которых может быть возложена обязанность по выполнению или соблюдению правил. В случае с ИИ в рамках российского уголовного права на данный период времени ответственность должен нести субъект, создавший технологию, субъект её контролирующий и пр. Авторы предлагают внести изменения в действующее уголовное законодательство: внести изменения в ст.ст. 355, 356 УК РФ, закрепив в них положение о том, что кибероружие с использованием ИИ так же опасно и не допускается автономная работа такого оружия.
Библиогра фия:
1. Уголовный кодекс Российской Федерации от 13.06.1996 № 63-Ф3 (ред. от 30.12.2021)// Собрание законодательства РФ. 1996. № 25. Ст. 2954.
2. Агибалова Е.Н. Юридическая ответственность при применении систем искусственного интеллекта // Государство, право и общество: вопросы теории и практики. Материалы второй Всероссийской научно-практической конференции. Отв. редактор В.И. Скрябин. 2020. С. 15-24.
3. Барашев В. Раскрыта тайна смертельного наезда беспилотника [Электронный ресурс]. URL: Uber // https://rg.ru/2019/11/10/raskryta-tajna-smertelnogo-naezda-bespilotnika-uber.html (дата обращения: 05.12.2021).
4. Беспилотник Uber распознал пешехода, но решил его задавить [Электронный ресурс]. URL: https://www.zr.ru/content/news/911997-bespilotnik-uber-raspoznal-pesh/ (дата обращения: 05.12.2021.
5. Варюшин М.С. Правовой режим технологий искусственного интеллекта, применяемых в телемедицине//Журнал телемедицины и электронного здравоохранения. 2021. Т. 7. № 2. С. 18-22.
6. Ерахтина О.С., Попану Д.Г. Гражданско-правовая ответственность за вред, причинённый действиями искусственного интеллекта [Электронный ресурс]. URL: https://www.hse.ru/edu/vkr/470939095 (дата обращения: 05.12.2021).
7. Карцхия А.А. Гражданско-правовая модель регулирования цифровых технологий: автореферат дис. ... доктора юридических наук: 12.00.03 / Кар-цхия Александр Амиранович; [Место защиты: ФГБОУ ВО Российская государственная академия интеллектуальной собственности]. - Москва, 2019. - 44 с.
8. Корсак Л. Эксперт оценил убийство дроном человека: «Рубикон перейден» // https://www.mk.ru/politics/2021/05/31/ekspert-ocenN-ubiystvo-dronom-cheloveka-rubikon-pereyden.html (дата обращения: 15.12.2021).
9. Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. N 2. С. 79 - 102.
10. Майоров А.А. Проблема ответственности беспилотных транспортных средств // Право и бизнес: правовое пространство для развития бизнеса в России. Коллективная монография. В 4-х томах. Отв. редактор С.Д. Могилевский [и др.]. Москва, 2020. С. 304-315.
11. Малышкин А.В. Интегрированная юрисдикция (доктрина, практика, техника): автореферат дис. ... доктора юридических наук: 12.00.01 / Малыш-кин Александр Викторович; [Место защиты: ФГКОУ ВО «Нижегородская академия Министерства внутренних дел Российской Федерации»]. - Нижний Новгород, 2021. - с.
12. Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: диссертация ... доктора юридических наук: 12.00.03 / Морхат Петр Мечиславович; [Место защиты: Рос. гос. акад. интеллектуал. собственности]. - Москва, 2018. - 420 с.
13. Пономарева Е.В. Субъекты и квазисубъекты права: теоретико-правовые проблемы разграничения: автореферат дис. ... кандидата юридических наук: 12.00.01 / Пономарева Елена Владимировна; [Место защиты: ФГБОУ ВО Уральский государственный юридический университет]. - Екатеринбург, 2019. - 32 с.
14. Русскевич Е.А. Дифференциация ответственности за преступления, совершаемые с использованием информационно-коммуникационных технологий, и проблемы их квалификации: диссертация ... доктора юридических наук: 12.00.08 / Русскевич Евгений Александрович; [Место защиты: ФГКОУ ВО «Московский университет Министерства внутренних дел Российской Федерации имени В.Я. Кикотя»]. - Москва, 2020. - 521 с.
15. Хисамова З.И., Бегишев И.Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты//Всероссийский криминологический журнал. 2019. Т. 13. № 4. С. 564-574.
16. Чекулаев С.С., Цырульников М.К. Робот как субъект гражданско-правовых отношений // Закон и право. 2020. №5. - С. 43-46.
17. Человекоподобный робот получил гражданство Саудовской Аравии // https://www.popmech.ru/technologies/news-393732-chelovekopodobnyy-robot-poluchil-grazhdanstvo-saudovskoy-aravii/ (дата обращения: 15.12.2021).
18. Hallevy Gabriel. When Robots Kill: Artificial Intelligence Under Criminal Law. - Boston: Northeastern University Press. 2013. - 265 р.
19. Uber's self-driving operator charged over fatal crash // https://www.bbc.com/news/technology-54175359 (дата обращения: 15.12.2021).
20. Zech Herbert. Liability for AI: public policy considerations // ERA Forum. 2021. - https://doi.org/10.1007/s12027-020-00648-0 (date of request 05.01.22).
References (transliterated):
1. Ugolovnyj kodeks Rossijskoj Federacii ot 13.06.1996 № 63-FZ (red. ot 30.12.2021)// Sobranie zakonodatel'stva RF. 1996. № 25. St. 2954.
2. Agibalova E.N. YUridicheskaya otvetstvennost' pri primenenii sistem iskusstvennogo intellekta // Gosudarstvo, pravo i obshchestvo: voprosy teorii i prakti-ki. Materialy vtoroj Vserossijskoj nauchno-prakticheskoj konferencii. Otv. redaktor V.I. Skryabin. 2020. S. 15-24.
3. Barashev V. Raskryta tajna smertel'nogo naezda bespilotnika [Elektronnyj resurs]. URL: Uber // https://rg.ru/2019/11/10/raskryta-tajna-smertelnogo-naezda-bespilotnika-uber.html (data obrashcheniya: 05.12.2021).
4. Bespilotnik Uber raspoznal peshekhoda, no reshil ego zadavit' [Elektronnyj resurs]. URL: https://www.zr.ru/content/news/911997-bespilotnik-uber-raspoznal-pesh/ (data obrashcheniya: 05.12.2021.
5. Varyushin M.S. Pravovoj rezhim tekhnologij iskusstvennogo intellekta, primenyaemyh v telemedicine//ZHurnal telemediciny i elektronnogo zdra-voohraneniya. 2021. T. 7. № 2. S. 18-22.
6. Erahtina O.S., Popanu D.G. Grazhdansko-pravovaya otvetstvennost' za vred, prichinyonnyj dejstviyami iskusstvennogo intellekta [Elektronnyj resurs]. URL: https://www.hse.ru/edu/vkr/470939095 (data obrashcheniya: 05.12.2021).
7. Karckhiya A.A. Grazhdansko-pravovaya model' regulirovaniya cifrovyh tekhnologij: avtoreferat dis. ... doktora yuridicheskih nauk: 12.00.03 / Karckhiya Ale-ksandr Amiranovich; [Mesto zashchity: FGBOU VO Rossijskaya gosudarstvennaya akademiya intellektual'noj sobstvennosti]. - Moskva, 2019. - 44 s.
8. Korsak L. Ekspert ocenil ubijstvo dronom cheloveka: «Rubikon perejden» // https://www.mk.ru/politics/2021/05/31/ekspert-ocenil-ubiystvo-dronom-cheloveka-rubikon-pereyden.html (data obrashcheniya: 15.12.2021).
9. Laptev V.A. Ponyatie iskusstvennogo intellekta i yuridicheskaya otvetstvennost' za ego rabotu // Pravo. ZHurnal Vysshej shkoly ekonomiki. 2019. N 2. S.
79 - 102.
10. Majorov A.A. Problema otvetstvennosti bespilotnyh transportnyh sredstv // Pravo i biznes: pravovoe prostranstvo dlya razvitiya biznesa v Rossii. Kollektiv-naya monografiya. V 4-h tomah. Otv. redaktor S.D. Mogilevskij [i dr.]. Moskva, 2020. S. 304-315.
11. Malyshkin A.V. Integrirovannaya yurisdikciya (doktrina, praktika, tekhnika): avtoreferat dis. ... doktora yuridicheskih nauk: 12.00.01 / Malyshkin Aleksandr Viktorovich; [Mesto zashchity: FGKOU VO «Nizhegorodskaya akademiya Ministerstva vnutrennih del Rossijskoj Federacii»]. - Nizhnij Novgorod, 2021. - s.
12. Morhat P.M. Pravosub"ektnost' iskusstvennogo intellekta v sfere prava intellektual'noj sobstvennosti: grazhdansko-pravovye problemy: dissertaciya ... doktora yuridicheskih nauk: 12.00.03 / Morhat Petr Mechislavovich; [Mesto zashchity: Ros. gos. akad. intellektual. sobstvennosti]. - Moskva, 2018. - 420 s.
13. Ponomareva E.V. Sub"ekty i kvazisub"ekty prava: teoretiko-pravovye problemy razgranicheniya: avtoreferat dis. ... kandidata yuridicheskih nauk: 12.00.01 / Ponomareva Elena Vladimirovna; [Mesto zashchity: FGBOU VO Ural'skij gosudarstvennyj yuridicheskij universitet]. - Ekaterinburg, 2019. - 32 s.
14. Russkevich E.A. Differenciaciya otvetstvennosti za prestupleniya, sovershaemye s ispol'zovaniem informacionno-kommunikacionnyh tekhno-logij, i problemy ih kvalifikacii: dissertaciya ... doktora yuridicheskih nauk: 12.00.08 / Russkevich Evgenij Aleksandrovich; [Mesto zashchity: FGKOU VO «Moskovskij universitet Ministerstva vnutrennih del Rossijskoj Federacii imeni V.YA. Kikotya»]. - Moskva, 2020. - 521 s.
15. Hisamova Z.I., Begishev I.R. Ugolovnaya otvetstvennost' i iskusstvennyj intellekt: teoreticheskie i prikladnye aspekty//Vserossijskij kri-minologicheskij zhurnal. 2019. T. 13. № 4. S. 564-574.
16. CHekulaev S.S., Cyrul'nikov M.K. Robot kak sub"ekt grazhdansko-pravovyh otnoshenij // Zakon i pravo. 2020. №5. - S. 43-46.
17. CHelovekopodobnyj robot poluchil grazhdanstvo Saudovskoj Aravii // https://www.popmech.ru/technologies/news-393732-chelovekopodobnyy-robot-poluchil-grazhdanstvo-saudovskoy-aravii/ (data obrashcheniya: 15.12.2021).
18. Hallevy Gabriel. When Robots Kill: Artificial Intelligence Under Criminal Law. - Boston: Northeastern University Press. 2013. - 265 r.
19. Uber's self-driving operator charged over fatal crash // https://www.bbc.com/news/technology-54175359 (data obrashcheniya: 15.12.2021).
20. Zech Herbert. Liability for AI: public policy considerations // ERA Forum. 2021. - https://doi.org/10.1007/s12027-020-00648-0 (date of request 05.01.22).