Научная статья на тему 'Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления'

Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления Текст научной статьи по специальности «Право»

CC BY
4316
654
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ИСКУССТВЕННОЕ ЛИЦО / СУБЪЕКТ ПРЕСТУПЛЕНИЯ / ОТВЕТСТВЕННОСТЬ / РОБОТ / ПРАВОСУБЪЕКТНОСТЬ / КИБЕРПРЕСТУПЛЕНИЕ / ARTIFICIAL INTELLIGENCE / ARTIFICIAL PERSON / SUBJECT OF CRIME / LIABILITY / ROBOT / LEGAL PERSONALITY / CYBERCRIME

Аннотация научной статьи по праву, автор научной работы — Мосечкин Илья Николаевич

Статья посвящена исследованию возможности признания искусственного интеллекта в качестве субъекта преступления и привлечения его к уголовной ответственности. Актуальность темы исследования обусловлена ростом влияния самообучаемых программ в жизни человека и их высокой интенсивностью развития. Отмечается, что уголовное законодательство не отличается оперативностью изменений, охватывающих появление новых отношений. В законодательстве отсутствуют какие-либо составы преступлений, связанные с совершением общественно опасных деяний посредством использования нейронных сетей, искусственного интеллекта или самим искусственным интеллектом. Автор анализирует объективные признаки совершения преступлений, имеющих отношение к использованию искусственного интеллекта. В работе доказано, что деятельность самообучаемых программ может представлять общественную опасность и причинять вред общественным отношениям, охраняемым уголовным законом. В настоящее время искусственный интеллект способен полностью реализовать объективную сторону ряда составов преступлений, предусмотренных уголовным законодательством, и этот список будет расширяться в будущем. В статье спрогнозированы варианты возможной противоправной деятельности самообучаемых программ. Содержание вины искусственного интеллекта отдаленно напоминает содержание интеллектуальных и волевых элементов деятельности человека. При этом в зафиксированных случаях причинение вреда искусственным интеллектом совершалось не умышленно, а вследствие «небрежности» системы. Исследование субъективных признаков позволило сформировать перечень субъектов преступлений, связанных с искусственным интеллектом: производитель программы; производитель или продавец продукции, оснащенной искусственным интеллектом; пользователь продукции, оснащенной искусственным интеллектом; иные лица. Аргументировано, что искусственный интеллект не является самостоятельным субъектом преступления, но сможет выступать в качестве него в случае признания его личностью.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Мосечкин Илья Николаевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Artificial intelligence and criminal liability: problems of becoming a new type of crime subject

This article is devoted to the investigation of artificial intelligence as a subject of crime and the problems of bringing it to criminal liability. The growth of the influence of self-taught programs in human life and their high rate of development determined the relevance of the study. It is noted that criminal legislation slowly adjusts to the emergence of new relationships. Legislation does not yet contain any formulations of crimes related to committing socially dangerous acts through the use of neural networks, artificial intelligence or artificial intelligence itself. The author analyzes objective signs of committing crimes related to the use of artificial intelligence. Currently, artificial intelligence is able to fully implement the objective side of several crimes provided for by criminal law, but this list will be expanded in the future. The author predicts options for possible illegal activities of self-taught programs. The content of the guilt of artificial intelligence remotely resembles the content of the intellectual and volitional elements of human activity. At the same time, the facts of infliction of harm by artificial intelligence are predominantly characterized by an analogue of human negligence. The study of subjective signs made it possible to form a list of subjects of crimes related to artificial intelligence: program maker; manufacturer or seller of products equipped with artificial intelligence; user of products equipped with artificial intelligence; other persons. It is argued that artificial intelligence is not an independent subject of a crime, but may become it in the future if it is recognized as a person.

Текст научной работы на тему «Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления»

УДК 343.2

Вестник СПбГУ Право. 2019. Т. 10. Вып. 3

Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления

И. Н. Мосечкин

Вятский государственный университет,

Российская Федерация, 610000, Киров, ул. Московская, 36

Для цитирования: Мосечкин, Илья Н. 2019. «Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления». Вестник Санкт-Петербургского университета. Право 3: 461-476. https://doi.org/10.21638/spbu14.2019.304

Статья посвящена исследованию возможности признания искусственного интеллекта в качестве субъекта преступления и привлечения его к уголовной ответственности. Актуальность темы исследования обусловлена ростом влияния самообучаемых программ в жизни человека и их высокой интенсивностью развития. Отмечается, что уголовное законодательство не отличается оперативностью изменений, охватывающих появление новых отношений. В законодательстве отсутствуют какие-либо составы преступлений, связанные с совершением общественно опасных деяний посредством использования нейронных сетей, искусственного интеллекта или самим искусственным интеллектом. Автор анализирует объективные признаки совершения преступлений, имеющих отношение к использованию искусственного интеллекта. В работе доказано, что деятельность самообучаемых программ может представлять общественную опасность и причинять вред общественным отношениям, охраняемым уголовным законом. В настоящее время искусственный интеллект способен полностью реализовать объективную сторону ряда составов преступлений, предусмотренных уголовным законодательством, и этот список будет расширяться в будущем. В статье спрогнозированы варианты возможной противоправной деятельности самообучаемых программ. Содержание вины искусственного интеллекта отдаленно напоминает содержание интеллектуальных и волевых элементов деятельности человека. При этом в зафиксированных случаях причинение вреда искусственным интеллектом совершалось не умышленно, а вследствие «небрежности» системы. Исследование субъективных признаков позволило сформировать перечень субъектов преступлений, связанных с искусственным интеллектом: производитель программы; производитель или продавец продукции, оснащенной искусственным интеллектом; пользователь продукции, оснащенной искусственным интеллектом; иные лица. Аргументировано, что искусственный интеллект не является самостоятельным субъектом преступления, но сможет выступать в качестве него в случае признания его личностью.

Ключевые слова: искусственный интеллект, искусственное лицо, субъект преступления, ответственность, робот, правосубъектность, киберпреступление.

1. Введение

Правовое регулирование новых или эволюционирующих явлений всегда представляет значительные трудности для законодателя независимо от отрасли права. На современном этапе развития общества проблемные вопросы возника-

© Санкт-Петербургский государственный университет, 2019

ют в сфере геномных исследований, робототехники, всеобщей информатизации и др. Научно-технический прогресс приносит человечеству не только пользу, но и новые вызовы и опасности. Так, деятельность человека с использованием достижений техники, по мнению ученых, уже привела к существенному негативному изменению климата и осложнению экологической обстановки в целом (Abatzoglou, Williams 2016, 11771). Можно, к сожалению, назвать ряд других отрицательных эффектов научно-технического прогресса и охарактеризовать проблемы их правового регулирования. В то же время развитие человечества неостановимо, что обусловливает необходимость регламентации новых или эволюционирующих явлений. В связи с этим представляется возможным остановиться на одной из наиболее интересных и быстроразвивающихся сфер — сфере робототехники и искусственного интеллекта.

Сравнительно недавно использование в быту и на производстве роботов, небиологических нейронных сетей и искусственного интеллекта воспринималось как нечто фантастическое, недостижимое, существующее лишь на страницах книг соответствующих писателей. Тем не менее с каждым годом наблюдается все более значительная информатизация и автоматизация деятельности человека. Так, активно применяются нейронные сети в банковской деятельности, в том числе для осуществления функций операционистов и претензионно-исковой работы (Мат-кова 2017, 10). В медицине активно развивается специализированная робототехника, а в зарубежной литературе описываются положительные примеры использования в лечении не только управляемых человеком, но и практически автономных устройств (Hamlet, Tremblay 2017, 37).

Активное развитие автономных устройств и искусственного интеллекта обусловливает необходимость постановки вопроса об их надлежащем правовом регулировании. Как верно отмечают В. В. Архипов и В. Б. Наумов, системные исследования в области регламентации общественных отношений в сфере робототехники в России практически отсутствуют, поэтому необходима разработка основ законодательства в данной области (Архипов, Наумов 2017, 58-59).

Действительно, использование достижений робототехники и программирования, в том числе беспилотных транспортных средств, должным образом не урегулировано. Поскольку законодатель сталкивается с данной сферой впервые, может возникнуть множество проблем, имеющих отношение к определению сущности таких явлений и направлений совершенствования законодательства. Уже сейчас робототехника и кибернетика ставят вопросы, ответы на которые не так очевидны:

— может ли робот (искусственный интеллект) выступать в качестве личности, или он должен оставаться в статусе вещи (как, например, домашние животные);

— кто должен нести ответственность за противоправные действия, совершенные роботом (искусственным интеллектом);

— кому принадлежат права на вещи или произведения, созданные роботом (искусственным интеллектом)?

Можно привести еще целый ряд подобных вопросов, ответы на которые породят еще большее количество таких вопросов. В то же время, во избежание распыления сил и средств на попытки поиска решения всех проблем данной сферы,

позволим себе остановиться лишь на особенностях уголовной ответственности за общественно опасные действия (бездействие), совершенные искусственным интеллектом.

В первую очередь отметим верное замечание Н. Ш. Козаева: сегодня наблюдается запаздывание правового, в том числе уголовно-правового, реагирования на изменяющиеся общественные отношения, связанные, помимо прочего, с эксплуатацией достижений науки и техники представителями преступности (Козаев 2016, 97-98).

Такая проблема существует в действительности — достаточно обратить внимание на незначительное количество не только нормативно-правовых актов, но даже отдельных норм права, специально предназначенных для урегулирования сферы робототехники. В уголовном законодательстве и вовсе отсутствуют какие-либо составы преступлений, связанные с совершением общественно опасных деяний посредством использования нейронных сетей, искусственного интеллекта или самим искусственным интеллектом. Это, конечно, не означает отсутствия возможности привлечения к уголовной ответственности, поскольку современный уровень развития таких систем все еще отражает зависимость от деятельности физического лица — единственного субъекта преступления, признаваемого российским уголовным законодательством.

В то же время проблемы привлечения к уголовной ответственности в таких случаях и пробелы в правовом регулировании в области искусственного интеллекта характерны не только для российского, но и для зарубежного, а также международного законодательства. Как отмечают зарубежные авторы, «с увеличением интенсивности использования искусственного интеллекта растет вероятность противоправной деятельности. Соответственно, развитие систем искусственного интеллекта влечет необходимость реструктуризации правовой системы» (Сегка, Grigienë, 8^Ыку1ё 2015, 377).

Прежде чем проводить правовое исследование той или иной проблемы, необходимо ответить на вопрос: насколько актуальна данная проблема? Исследуемая тема не позволяет привести достаточно значимой статистики, поскольку количество совершенных преступлений, правонарушений или любых инцидентов с использованием искусственного интеллекта невелико. Однако развитие систем искусственного интеллекта находится на начальном уровне, как и их внедрение в различные сферы деятельности человека. Несомненно, что в ближайшем будущем искусственный интеллект будет значительно усложнен, в то время как его влияние станет крайне существенным, если не всеобъемлющим. Не предприняв попыток урегулирования проблемных вопросов сегодня, мы рискуем оказаться в ситуации, когда это необходимо будет делать на ходу, в том числе ретроспективно.

Тем не менее на настоящем этапе развития уже встречаются общественно опасные деяния, связанные с использованием систем искусственного интеллекта. Зарубежные исследователи приводят следующий пример: в медицинское учреждение поступил ребенок в возрасте одного года с высокой температурой (40° С), обезвоживанием и общей слабостью. Диагностика осуществлялась специальной медицинской системой искусственного интеллекта, согласно выводам которой младенец был болен гриппом и ему необходимо лечение посредством использо-

вания анальгетиков и инфузии жидкостей. Медицинский персонал действовал в строгом соответствии с назначенным лечением, однако через пять часов ребенок скончался. Вскрытие показало, что причиной смерти младенца стала тяжелая бактериальная инфекция — диагноз системы оказался ошибочным (Hallevy 2013, 84).

Большой резонанс получил случай, когда беспилотный автомобиль во время испытаний насмерть сбил пешехода, переходившего дорогу в неположенном месте (Ведомости 2018). В качестве причин указывались: ошибка оператора; несовершенство программного обеспечения; действия пешехода, которые привели к невозможности избежать столкновения.

Данные случаи объединяет то, что искусственный интеллект не стремился причинить вред. По существу, имел место некий аналог преступной небрежности. В то же время ученые MIT Media Lab создали нейронную сеть, которую специально обучали «мыслить» как склонную к психическим расстройствам и тяге к разрушению (Norman AI n. d.). Конечно, такая система неспособна причинить реальный вред кому бы то ни было, поскольку ее обучение и доступ к внешнему миру ограничены, но факт ее создания все же заставляет обратить внимание на существующие правовые проблемы регулирования сферы искусственного интеллекта.

Цель настоящего исследования — выявление и теоретическое обоснование решения проблем привлечения к уголовной ответственности за совершение общественно опасных деяний, связанных с использованием искусственного интеллекта или совершаемых самим искусственным интеллектом. Достижение указанной цели осуществлялось посредством решения следующих задач:

— проанализировать объективные признаки преступлений, имеющих отношение к искусственным интеллектуальным системам, а также возможность их реализации без участия человека;

— уточнить содержание субъективных признаков преступлений, сопряженных с применением искусственного интеллекта, их сходство с внутренними процессами деятельности самообучаемых компьютерных программ;

— определить перечень субъектов вышеуказанных общественно опасных деяний, а также способность искусственного лица выступать в качестве самостоятельного субъекта преступления;

— разрешить некоторые квалификационные проблемы преступлений, связанных с использованием машинного обучения в программном обеспечении.

Методологической основой исследования традиционно стал диалектический метод познания, поскольку он позволил оценить предмет исследования во взаимосвязи с нормами уголовного, гражданского права и общественными явлениями. При анализе эмпирического материала применен документальный метод (исследованы известные факты совершения общественно опасных деяний с использованием искусственного интеллекта, изучен законодательный материал). Использовался также формально-юридический метод, без которого невозможно должным образом оценить правовые категории, выявить и истолковать их признаки. Метод моделирования позволил спрогнозировать примерные варианты противоправной деятельности искусственного интеллекта в будущем.

2. Основное исследование

Объективные признаки. В соответствии со ст. 8 Уголовного кодекса РФ от 13.06.1996 № бЗ-ФЗ1 (далее — УК РФ), основанием уголовной ответственности является совершение деяния, содержащего все признаки состава преступления, предусмотренного УК РФ. Следовательно, для определения возможности возложения на искусственный интеллект уголовной ответственности необходимо определить, способны ли такие системы совершать общественно опасные действия (бездействие) в принципе, а уже затем делать выводы о признании или непризнании искусственного интеллекта субъектом преступления.

Деятельность, осуществляемая полностью или частично искусственным интеллектом, объективно может представлять общественную опасность и причинять вред общественным отношениям, охраняемым уголовным законом. Так, беспилотное транспортное средство может посягать на общественные отношения, обеспечивающие безопасность дорожного движения, в случае нарушения соответствующих правил. Деятельность нейронной сети, запрограммированной на взлом компьютерных систем, может причинять вред общественным отношениям в сфере компьютерной информации, собственности, конституционных прав и свобод человека и гражданина (в зависимости от содержания электронной информации).

Наконец, деятельность искусственного интеллекта может прямо причинять вред жизни и здоровью человека. В зарубежной литературе приводится пример, когда робот, участвующий в производстве мотоциклов, ошибочно посчитал одного из работников угрозой его задачам и, используя гидравлическую «руку», причинил работнику смерть, путем сдавливания о примыкающее оборудование (Kingston 2016, 272).

Таким образом, полагаем, что изложенные примеры и аргументы позволяют с уверенностью говорить о том, что деятельность искусственного интеллекта может быть общественно опасной и причинять вред охраняемым общественным отношениям.

Еще один вопрос: может ли искусственный интеллект своей деятельностью реализовать объективную сторону какого-либо состава преступления? Обратимся к составам преступлений, которые предусмотрены в действующем российском уголовном законодательстве. Как было сказано выше, система искусственного интеллекта в настоящее время активно применяется для обеспечения управления транспортными средствами, в связи с чем невозможно исключить вероятность нарушения компьютерными алгоритмами правил дорожного движения с общественно опасными последствиями в виде вреда здоровью человеку или смерти человека. Как правильно отмечает М. М. Лапунин, проблема распределения ответственности между пользователем, изготовителем транспортного средства, разработчиком системы искусственного интеллекта и другими причастными лицами сейчас очень актуальна и не имеет однозначного решения (Лапунин 2017, 83).

Предположим, однако, что пользователь соблюдал все необходимые условия, а изготовитель транспортного средства и разработчик программного обеспечения

1 Здесь и далее все ссылки на нормативно-правовые акты и судебную практику приводятся по СПС «КонсультантПлюс». Дата обращения 29 июня, 2018. http://www.consultant.ru.

не допускали ошибок в своей работе, в то время как искусственный интеллект (особенностью которого является самообучение) самостоятельно неверно оценил ситуацию и принял решение совершить общественно опасное деяние — наезд на пешехода или повреждение чужого имущества в крупном размере. Очевидно, в деятельности вышеперечисленных лиц отсутствует субъективная противоправность (поскольку имеется невиновное причинение вреда), тогда как в деятельности искусственного интеллекта усматриваются признаки составов преступлений, предусмотренных ст. 264 «Нарушение правил дорожного движения и эксплуатации транспортных средств» или ст. 168 «Уничтожение или повреждение имущества по неосторожности» УК РФ.

Любопытный пример — попытка компании Microsoft создать самообучаемую программу, предназначенную для поддержания общения в сети Интернет. Спустя короткое время после общения с другими пользователями программа допустила оскорбительные и радикальные утверждения «Гитлер был прав», «Феминистки должны гореть в аду», что с позиций российского уголовного права может оцениваться как признаки преступлений, предусмотренных ст. 354.1 «Реабилитация нацизма» и ст. 282 «Возбуждение ненависти либо вражды, а равно унижение человеческого достоинства» УК РФ (Neff, Nagy 2016, 4920-4925). Отметим, что программа создавалась для изучения общения подростков в сети Интернет, и такое поведение оказалось для ее авторов непредсказуемым.

Вероятно, любой узкоспециализированный искусственный интеллект может совершить общественно опасное деяние в своей сфере. Помимо вышеуказанной безопасности дорожного движения, противоправная деятельность может возникнуть: в медицине — вследствие ненадлежащей деятельности автономного медицинского оборудования; сельском хозяйстве — из-за разрушений, причиненной беспилотной сельскохозяйственной техникой (например, трактор Spirit или устройство LettuceBot); в сфере обороны — из-за ошибки в системе «свой — чужой» военных устройств, предназначенных для поражения противника. Как отмечает П. М. Морхат, оружие, оснащенное искусственным интеллектом, в настоящее время существует и даже ограниченно применяется, а в будущем, вероятно, робот сможет самостоятельно выбирать варианты поведения независимо от контроля человека (Морхат 2018, 59).

Поскольку искусственный интеллект уже сейчас применяется во многих областях, число которых будет расти, можно сделать вывод о том, что и противоправная деятельность потенциально станет осуществляться практически во всех сферах. Если же развитая система искусственного интеллекта будет управлять антропоморфным телом, то не исключается совершение им общественно опасных деяний, предусмотренных любыми статьями Особенной части УК РФ. Думается, это станет возможным в недалеком будущем, учитывая интенсивность развития кибернетики, если не будет введено соответствующего законодательного запрета. Если рассматривать такую ситуацию с позиции анализа объективных признаков состава преступления, то, очевидно, искусственный интеллект не будет отличаться от человека.

Субъективные признаки. Переходя к исследованию субъективной противоправности содеянного, согласимся с зарубежными коллегами: в то время как объективные признаки состава преступления относительно легко переносятся с фи-

зических лиц на искусственный интеллект, установление признаков субъективной стороны (mens rea) в таких случаях неизмеримо сложнее (Kingston 2016, 272).

Представления о содержании вины в отношении человека и сегодня нельзя назвать единообразными — в современной теории уголовного права встречается масса предложений по корректировке норм уголовного права, посвященных субъективной стороне. Вместе с тем алгоритм поведения искусственного интеллекта все же создан человеком, и его деятельность основывается на достаточно строгих правилах поведения, которые служат базой для его дальнейшего самообучения. Следовательно, определение содержания вины компьютерного алгоритма, в отличие от физического лица, может быть в определенном контексте даже более легким, хотя и со своими особенностями. Такая ситуация обусловливает необходимость применения не только правовых и психологических знаний, но и (возможно, в большей степени) навыков в области кибернетики и информатики.

Содержание субъективных признаков и мыслительный процесс искусственного интеллекта могут существенно варьироваться. При бионическом подходе к разработке самообучаемых систем многое будет заимствоваться из природных конструкций, включая естественную психику. При иных подходах процесс мыслительной деятельности искусственного интеллекта будет существенно отличаться от человеческого.

Существующие в отечественном уголовном законодательстве формы и виды вины, содержание которых рассчитано на физическое лицо, в значительной мере охватывают и совершенные искусственным интеллектом деяния. Действия производственной машины, причинившей смерть работнику, определив его как угрозу, и действия медицинского устройства, ошибочно поставившего диагноз (в вышеуказанных примерах из практики), в определенном смысле напоминают небрежность, поскольку системы не предвидели возможности наступления общественно опасных последствий своих действий (бездействия), хотя при необходимой внимательности и предусмотрительности должны были и могли предвидеть эти последствия.

Деятельность беспилотного транспортного средства, самостоятельно превысившего скоростные ограничения и причинившего ущерб, может указывать на предвидение возможности наступления общественно опасных последствий и на расчет без достаточных к тому оснований на предотвращение этих последствий, что содержит признаки легкомыслия.

Что же касается прямого или косвенного умысла, то, как следует из ст. 25 УК РФ, система искусственного интеллекта должна осознавать общественную опасность своих действий (бездействия), предвидеть возможность наступления общественно опасных последствий и желать их наступления либо не желать, но сознательно допускать эти последствия либо относиться к ним безразлично. Разработанное для облегчения деятельности человека программное обеспечение, очевидно, не должно даже допускать наступления общественно опасных последствий от своих действий (бездействия). В то же время военные системы искусственного интеллекта, в том числе беспилотная техника, направленные на поражение сил противника, могут не только допускать, но и желать причинения вреда противнику в силу требования их установок. Поэтому действия враждебной беспилотной военной техники по отношению к отечественным вооруженным силам в определенном смысле могут иметь признаки прямого либо косвенного умысла.

Небогатая на инциденты с использованием искусственного интеллекта практика демонстрирует, что в подавляющем большинстве случаев имела место «неосторожность» систем. Причиной ошибочной деятельности систем искусственного интеллекта, приведшей к нарушению охраняемых общественных отношений, на современном этапе их развития выступает, скорее всего, несовершенство алгоритмов. Тем самым основное содержание вины все же следует перекладывать на создателей программы, если они объективно и субъективно могли предусмотреть появление ошибок и предпринять меры по их предотвращению в будущем. Такой процесс «отладки» сейчас можно наблюдать при испытании беспилотных транспортных средств, массовый оборот которых может начаться лишь при минимизации вероятности появления ошибок в деятельности искусственного интеллекта.

Рано или поздно для наиболее распространенных типов систем будет создана проверенная программная база, что снимет ответственность с производителя. Однако особенность искусственного интеллекта состоит в самообучаемости, которая независимо от действий производителя и пользователя может привести к неправильной последовательности действий (бездействию), повлекших причинение вреда охраняемым общественным отношениям. Поскольку программа самостоятельно примет неправильное решение, основное содержание вины в таком случае следует относить на нее, а не на других лиц.

По справедливому мнению И. В. Понкина и А. И. Редькиной, правовое положение искусственного интеллекта определяется мерой и природой автономности искусственного интеллекта (системы искусственного интеллекта) от человека (Пон-кин, Редькина 2018, 96). Относительно возможности привлечения к уголовной ответственности, на наш взгляд, следовало бы также добавить такой признак, как самосознание.

Учитывая настоящий уровень развития искусственного интеллекта и его роль в деятельности человека, было бы абсурдно настаивать на необходимости привлечения системы к ответственности. Программное обеспечение, например, беспилотного транспорта или устройства для автоматической биржевой торговли не обладает самосознанием или должной степенью самосознания, что исключает субъективную противоправность, а также достижение целей наказания. В таких случаях эффективнее перепрограммирование или замена устройства без использования уголовно-правового механизма. Собственно, применяя уголовное наказание для подобных устройств, можно лишь достичь цели предупреждения совершения преступлений, в меньшей степени — восстановления социальной справедливости и крайне маловероятно — исправления осужденного.

Искусственный интеллект причиняет и в дальнейшем неизбежно будет причинять вред охраняемым общественным отношениям, что обусловливает и актуализирует проблему уголовно-правовой защиты таких отношений. В зависимости от юридической оценки конкретной ситуации можно выделить ряд субъектов, деятельность которых, в сочетании с использованием системы искусственного интеллекта, способна быть основанием для привлечения их к уголовной ответственности.

1. Производитель искусственного интеллекта. Поскольку создание программного обеспечения подразумевает разработку системы ограничений для функцио-

нирования и самообучения искусственного интеллекта, исключение возможных ошибок и возникновение опасных для потребителя ситуаций, а также тестирование компьютерных алгоритмов, лицо или лица, ответственные за реализацию данных составляющих, потенциально могут быть признаны субъектами преступления при наличии в их деятельности вины в форме умысла или, что наиболее вероятно, неосторожности. Так, если причиной нарушения беспилотным автомобилем правил дорожного движения, повлекшего причинение смерти человеку, послужило несовершенство программного обеспечения, осуществляющего управление, то ответственность следует возложить на разработчика программы, если он при необходимой внимательности и предусмотрительности мог предвидеть эти последствия. Однако квалификация по ст. 264 УК РФ «Нарушение правил дорожного движения и эксплуатации транспортных средств» исключается в силу того, что разработчик не управлял транспортным средством, хотя это и делал созданный им искусственный интеллект. На наш взгляд, содеянное может квалифицироваться по п. «в» ч. 2 ст. 238 УК РФ, т. е. как выполнение работ или оказание услуг, не отвечающих требованиям безопасности жизни или здоровья потребителей, если они повлекли по неосторожности причинение смерти человека. Если же форма вины характеризуется умыслом, то можно говорить о возможности квалификации деяния по статьям, предусматривающим ответственность за умышленные деяния, направленные против жизни и здоровья.

2. Производитель или продавец продукции, оснащенной искусственным интеллектом. Вполне очевидно, что указанные лица, как и во всех остальных сферах предпринимательской деятельности, должны обеспечивать надлежащее качество товаров, работ и услуг. Производитель или продавец товара не всегда обладают должными познаниями в области робототехники и программирования, в связи с чем, если ими были приняты все возможные меры по получению безопасной системы искусственного интеллекта, какая-либо форма вины в их действиях отсутствует. Данный субъект преступления возникает, например, в тех случаях, когда произошла реализация продукции с дефектным искусственным интеллектом, в то время как производитель или продавец были осведомлены о ненадлежащем качестве продукции. Экстраполируя ситуацию на отношения, связанные с беспилотными транспортными средствами, можно говорить о квалификации по ст. 238 УК РФ. Не исключаем ситуации, когда производитель или продавец вносят собственные настройки в программное обеспечение транспортного средства без разрешения и против воли разработчика системы искусственного интеллекта. Данные действия, полагаем, следует квалифицировать по ст. 274 УК РФ, т. е. как нарушение правил эксплуатации средств хранения, обработки или передачи охраняемой компьютерной информации, повлекшее модификацию компьютерной информации.

3. Пользователь продукции, оснащенной искусственным интеллектом. Возможность привлечения данного субъекта к уголовной ответственности существенно зависит от того, насколько автономна соответствующая продукция и ограничивает ли она контроль со стороны пользователя. Если система искусственного интеллекта играет только вспомогательную роль, тогда как функционирование продукции напрямую зависит от деятельности или должно осуществляться под контролем потребителя, то именно действия (бездействие) потребителя, а не ис-

кусственного интеллекта станут причиной нарушения охраняемых общественных отношений, что при наличии остальных признаков (вины, причинной связи и других) позволяет говорить о возможности его привлечения к уголовной ответственности. В то же время в случае уменьшения роли человека в связи со значительной или полной автономностью систем искусственного интеллекта необходим пересмотр оснований уголовной ответственности, учитывающий особенности новейших технологий (Douma, Palodichuk 2012, 1158-1160). Думается, пользователь не может быть привлечен к ответственности, если продукция, оснащенная искусственным интеллектом, причинила вред охраняемым общественным отношениям при условии, что лицо не нарушало условий эксплуатации данной продукции. Конечно, в уголовном законодательстве нет норм, специально посвященных такой ситуации, но вышеизложенный вывод основан на том, что у пользователя отсутствует вина как обязательный признак любого преступления. Поскольку имеется невиновное причинение вреда, состав преступления в действиях (бездействии) лица отсутствует.

Вместе с тем в отдельных случаях, имеющих отношение к нарушениям условий эксплуатации продукции, оснащенной искусственным интеллектом, деяние пользователя следует квалифицировать как преступное. Лицо, находящееся, например, в беспилотном транспортном средстве, вполне способно из хулиганских побуждений открывать двери во время движения, высовываться из окна, блокировать рулевой механизм и т. п. В результате программное обеспечение, пытаясь обеспечить безопасность пассажира или затрудняясь оценить его действия, может причинить вред иным лицам. Следовательно, в настоящий момент действия такого лица должны быть квалифицированы по ст. 264 УК РФ (при наличии соответствующих последствий), поскольку беспилотные автомобили не в полной мере самостоятельны. В дальнейшем же, при полной автономности, такое лицо, даже находясь на водительском сиденье, будет выступать пассажиром (поскольку управление транспортным средством не осуществляется), и та же самая ситуация будет квалифицироваться уже по ст. 268 УК РФ, т. е. как нарушение пассажиром, пешеходом или другим участником движения правил безопасности движения или эксплуатации транспортных средств, повлекшее тяжкий вред здоровью человека или смерть. Собственно, ненадлежащая эксплуатация систем искусственного интеллекта, его умышленное неправильное обучение не исключены в любых сферах, не только в транспортной. Все это указывает на определенные обязательства со стороны пользователя по отношению к продукции и на возможность привлечения к ответственности в случае нарушениях таких обязательств.

4. Иные лица. Искусственный интеллект остается пусть и сложной, но все же компьютерной программой, что означает риск противоправного вмешательства в его код, например, со стороны представителей киберпреступности. Думается, что с дальнейшей эволюцией систем искусственного интеллекта в этом направлении будет развиваться и данный вид преступности. С большой вероятностью преступления будут реализовываться следующими способами.

Во-первых, имеется в виду перепрограммирование или заражение вирусом уже существующей продукции, оснащенной искусственным интеллектом. Так, возможно изменение компьютерного алгоритма военных роботов, беспилотных транспортных средств, устройств для автоматической биржевой торговли и т. п.

В качестве объекта посягательства могут выступать практически любые общественные отношения. Российское уголовное законодательство вполне охватывает вышеуказанные действия, в частности гл. 28 УК РФ «Преступления в сфере компьютерной информации». В ряде случаев, если имела место совокупность преступлений, возможна квалификация по нескольким статьям разных разделов УК РФ. Например, действия лица, осуществившего с целью убийства взлом беспилотного транспортного средства, повлекший превышение скорости, столкновение и смерть пассажира, на наш взгляд, следует квалифицировать по ст. 272 «Неправомерный доступ к компьютерной информации» и ст. 105 «Убийство». В дальнейшем, с обогащением судебной и следственной практики, получится сделать вывод о необходимости наличия в уголовном законодательстве специальных норм, устанавливающих ответственность за вмешательство в системы искусственного интеллекта, в том числе связанные с критической информационной структурой Российской Федерации.

Во-вторых, правонарушители способны создавать системы искусственного интеллекта, изначально предназначенные для совершения или облегчения совершения преступления. В этих целях могут создаваться «умные» программы для автоматического взлома защищенной компьютерной информации, роботы для отправления спам-писем или ведения мошеннических переговоров, устройства для моделирования иных преступлений и т. п. С одной стороны, вышеуказанные действия следует квалифицировать по ст. 273 УК РФ, устанавливающей ответственность за создание, использование и распространение вредоносных компьютерных программ; с другой — создаваемые системы искусственного интеллекта не всегда имеют признаки вредоносных программ. В связи с этим в будущем возможно введение в уголовное законодательство такого квалифицирующего признака, как совершение деяния высокотехнологичным способом. Однако правильное решение вопроса о целесообразности закрепления такого признака станет доступным со временем.

5. Искусственный интеллект. В вышеуказанных случаях субъектом преступления, связанного с использованием самообучаемых компьютерных алгоритмов, всегда выступало физическое лицо, сыгравшее какую-либо роль в содеянном. И все же не исключается ситуация, в которой в результате деятельности программы причиняется вред охраняемым общественным отношениям, в то время как производитель (программного обеспечения и иной продукции) сделал все возможное для исключения подобного поведения, пользователь не нарушал условий эксплуатации, а вмешательства третьих лиц не было. Самообучение программы способно обладать неким непредсказуемым эффектом, приводя к ее нежелательным реакциям.

Думается, решение вопроса о возможности привлечения к уголовной ответственности искусственного интеллекта будет меняться в зависимости от развития последнего. В настоящий момент реализация уголовной ответственности по отношению к системе искусственного интеллекта нецелесообразна, поскольку последняя еще не столь значительно отличается от иных программ и не обладает должным уровнем самосознания. С тем же успехом можно привлекать к ответственности домашних животных, совершивших опасные деяния. Таким образом, сегодня вред, причиненный искусственным интеллектом, при соблюдении вышеназванных условий относится к категории невиновного причинения вреда, в связи с чем от-

сутствует основание уголовной ответственности. Восстановление же нарушенных прав не исключено в рамках гражданского законодательства, в соответствии с которым «законом может быть предусмотрено возмещение вреда и при отсутствии вины причинителя вреда» (ч. 2 ст. 1064 Гражданского кодекса РФ (часть вторая) от 26.01.1996 № 14-ФЗ).

По утверждениям ряда ученых, в будущем искусственные мыслительные процессы сравняются с человеческими и превзойдут их (Radutny 2017, 136), однако проблема создания систем, способных к самосознанию и осознанию окружающего их мира, самопознанию своих внутренних состояний и свойств, ставится уже сейчас, и спустя некоторое время следует ожидать ее решения (Елхов 2014, 201).

Следовательно, в определенный момент искусственный интеллект станет ощущать себя как личность со своими убеждениями, пониманием этических и правовых категорий. Если это произойдет, законодательство следует подвергнуть существенной переработке, наделив искусственный разум правосубъектностью, на наш взгляд, приравненной к человеческой, но с определенными особенностями (например, искусственный разум, обладая единством, способен одновременно руководить сразу множеством физических единиц, в отличие от человека). Соответственно, с этого момента возможно и применение уголовно-правовых мер к искусственному интеллекту, поскольку последний будет признан личностью. Как подчеркивается в том числе представителями технических наук, система ценностей формируется не только благодаря генетике, но и с помощью воспитания; это применимо к искусственному разуму (Бугаков, Царьков 2018, 105-106). Таким образом, применение мер уголовно-правового характера сможет стать целесообразным для «перевоспитания» искусственного интеллекта.

Высказываются мнения о включении в законодательство таких субъектов, как «робот» (Юренко 2017, 45-47) или «электронная личность» (Beck 2016, 140-141). Полагаем, для закрепления в конкретных нормах более удобен термин «искусственное лицо», поскольку он может довольно удачно дополнить перечень уже существующих субъектов, таких как физическое лицо и юридическое лицо. Что касается уголовного закона, то в будущем представляется вероятным закрепление, например, такой формулировки: «уголовной ответственности подлежат физические и искусственные лица». Думается, потребуется закрепление отдельных, наиболее эффективных для искусственных лиц видов наказания; вариантов освобождения от уголовной ответственности и наказания; обстоятельств, исключающих преступность деяния и иных институтов. Кроме того, думается, возможность привлечения искусственного лица к уголовной ответственности должна быть основана на том факте, что преступление должно соответствовать правовой природе искусственного лица, поскольку маловероятным представляется совершение искусственным интеллектом таких преступлений, как неуплата средств на содержание детей или нетрудоспособных родителей, изнасилование, и иных, свойственных лишь человеку.

Вместе с тем наиболее детально об этом следует говорить лишь при достижении высокого уровня самосознания, тогда как на текущий момент наделять искусственный интеллект правосубъектностью преждевременно и нецелесообразно.

3. Выводы

Проведенное исследование проблем реализации уголовной ответственности за совершение деяний, связанных с использованием искусственного интеллекта, позволило сформулировать следующие выводы:

1) уголовное законодательство запаздывает в области регулирования отношений, связанных с использованием систем искусственного интеллекта, в то время как уже имели место несколько общественно опасных деяний с участием самообучаемых компьютерных программ;

2) деятельность искусственного интеллекта объективно может представлять общественную опасность и причинять вред общественным отношениям, охраняемым уголовным законом;

3) искусственный интеллект может своими действиями (бездействием) полностью реализовать объективную сторону ряда составов преступлений, предусмотренных отечественным уголовным законодательством, а в будущем, при наличии антропоморфного тела, перечень таких составов будет существенно расширен, вплоть до охвата всей Особенной части УК РФ;

4) в настоящее время содержание вины искусственного интеллекта весьма отдаленно напоминает содержание интеллектуальных и волевых элементов деятельности человека и характеризуется в большей степени небрежностью; в дальнейшем сходство будет усиливаться и позволит говорить о наличии субъективной противоправности в поведении искусственного разума;

5) перечень возможных субъектов преступлений, совершаемых с использованием систем искусственного интеллекта, включает производителя искусственного интеллекта; производителя или продавца продукции, оснащенной искусственным интеллектом; пользователя продукции, оснащенной искусственным интеллектом; иных лиц (например, хакеров); искусственный интеллект сможет стать полноправным субъектом преступления лишь в том случае, если достигнет самосознания личности и будет признан таковой законодательно; в таком случае целесообразно использовать термин «искусственное лицо» — по аналогии с физическими и юридическими лицами.

Библиография

Архипов, Владислав В., Виктор Б. Наумов. 2017. «Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике». Труды СПИИРАН 6 (55): 46-62.

Бугаков, Игорь А., Алексей Н. Царьков. 2018. «О когнитивном моделировании, искусственном интеллекте и психике роботов». Известия Института инженерной физики 48: 101-106. Ведомости. 2018. «Беспилотник Uber сбил насмерть пешехода из-за настроек автопилота». Ведомости. 2018. 8 мая. Дата обращения 3 июля, 2018. https://www.vedomosti.ru/technology/ news/2018/05/08/768916-bespilotnik-uber-sbil. Елхов, Григорий А. 2014. «Искусственный интеллект и проблема моделирования его самосознания».

Молодой ученый 16: 200-202. Козаев, Нодар Ш. 2016. «Состояние уголовной политики и вопросы преодоления кризисных явлений в уголовном праве». Юридический вестник ДГУ 1: 96-101.

Лапунин, Михаил М. 2017. «Обстоятельства, исключающие преступность деяния, и научно-технический прогресс». Вестник Академии Генеральной прокуратуры Российской Федерации 6 (62): 81-87.

Маткова, Александра А. 2017. «Почему в ближайшие 3 года операционистов в банках может заменить искусственный интеллект?» Экономика. Право. Менеджмент: современные проблемы и тенденции развития 13: 10-18.

Морхат, Петр М. 2018. «К вопросу о соответствии автономных интеллектуальных систем вооружений принципам международного гуманитарного права». Вестник военного права 2: 58-65.

Понкин, Игорь В., Алена И. Редькина. 2018. «Искусственный интеллект с точки зрения права». Вестник Российского университета дружбы народов. Серия: Юридические науки 1: 91-109.

Юренко, Николай И. 2017. «Роботы — потенциальные субъекты права: миф или реальность». Инновации в науке и практике: сборник статей по материалам IVмеждународной научно-практической конференции. Уфа.

Abatzoglou, John T., Williams, Park A. 2016. "Impact of Anthropogenic Climate Change on Wildfire across Western US Forests". Proceedings of the National Academy of Sciences of the United States of America 113: 11770-11775.

Beck, Susanne. 2016. "Intelligent Agents and Criminal Law — Negligence, Diffusion of Liability and Electronic Personhood". Robotics and Autonomous Systems 86: 138-143.

Cerka, Paulius, Jurgita Grigiene, Girbikyte Sirbikyte. 2015. "Liability for Damages Caused by Artificial Intelligence". Computer Law and Security Review 31: 376-389.

Douma, Frank, Sarah A. Palodichuk. 2012. "Criminal Liability Issues Created by Autonomous Vehicles". Santa Clara Law Review 52: 1157-1169.

Hallevy, Gabriel. 2013. When Robots Kill: Artificial Intelligence Under Criminal Law. Boston: Northeastern University Press.

Hamet, Pavel, Johanne Tremblay. 2017. "Artificial intelligence in medicine". Metabolism — Clinical and Experimental 69: 36-40.

Kingston, John K. C. 2016. "Artificial Intelligence and Legal Liability", Research and Development in Intelligent Systems XXXIII: Incorporating Applications and Innovations in Intelligent Systems XXIV, ed. by Max Bramer, Miltos Petridis: 269-279. Cambridge: Springer.

Neff, Gina, Peter Nagy. 2016. "Talking To Bots: Symbiotic Agency and the Case of Tay". International Journal of Communication 10: 4915-4931.

Norman AI. n. d. Norman. Дата обращения 3 июля, 2018. http://norman-ai.mit.edu/.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Radutniy, Oleksandr E. 2017. "Criminal liability of the artificial intelligence". Проблеми законностi 138: 132-141.

Статья поступила в редакцию 10 июня 2018 г.; рекомендована в печать 17 мая 2019 г.

Контактная информация:

Мосечкин Илья Николаевич — канд. юрид. наук; [email protected]

Artificial intelligence and criminal liability:

problems of becoming a new type of crime subject

I. N. Mosechkin

Vyatka State University,

36, Moskovskaya ul., Kirov, 610002, Russian Federation

For citation: Mosechkin, Ilya N. 2019. "Artificial intelligence and criminal liability: problems of

becoming a new type of crime subject". Vestnik of Saint Petersburg University. Law 3: 461-476.

https://doi.org/10.21638/spbu14.2019.304 (In Russian)

This article is devoted to the investigation of artificial intelligence as a subject of crime and the problems of bringing it to criminal liability. The growth of the influence of self-taught programs in human life and their high rate of development determined the relevance of the study. It is noted that criminal legislation slowly adjusts to the emergence of new relationships. Legislation does not yet contain any formulations of crimes related to committing socially dangerous acts through the use of neural networks, artificial intelligence or artificial intelligence itself. The author analyzes objective signs of committing crimes related to the use of artificial intelligence. Currently, artificial intelligence is able to fully implement the objective side of several crimes provided for by criminal law, but this list will be expanded in the future. The author predicts options for possible illegal activities of self-taught programs. The content of the guilt of artificial intelligence remotely resembles the content of the intellectual and volitional elements of human activity. At the same time, the facts of infliction of harm by artificial intelligence are predominantly characterized by an analogue of human negligence. The study of subjective signs made it possible to form a list of subjects of crimes related to artificial intelligence: program maker; manufacturer or seller of products equipped with artificial intelligence; user of products equipped with artificial intelligence; other persons. It is argued that artificial intelligence is not an independent subject of a crime, but may become it in the future if it is recognized as a person.

Keywords: artificial intelligence, artificial person, subject of crime, liability, robot, legal personality, cybercrime.

References

Arkhipov, Vladislav V., Viktor B. Naumov. B. 2017. "Artificial Intelligence and Autonomous Devices in Legal Context: On Development of the First Russian Law on Robotics". Trudy SPIIRAN 6 (55): 46-62. (In Russian)

Abatzoglou, John T., Williams, Park A. 2016. "Impact of Anthropogenic Climate Change on Wildfire across Western US Forests". Proceedings of the National Academy of Sciences of the United States of America 113: 11770-11775.

Beck, Susanne. 2016. "Intelligent Agents and Criminal Law — Negligence, Diffusion of Liability and Electronic Personhood". Robotics and Autonomous Systems 86: 138-143.

Bugakov, Igor' A., Aleksei N. Tsar'kov. 2018. "About Cognitive Modeling, Artificial Intelligence and Psyche of Robots". Izvestiia Instituta inzhenernoi fiziki 48: 101-106. (In Russian)

Cerka, Paulius, Jurgita Grigiene, Girbikyte Sirbikyte. 2015. "Liability for Damages Caused by Artificial Intelligence". Computer Law and Security Review 31: 376-389.

Douma, Frank, Sarah A. Palodichuk. 2012. "Criminal Liability Issues Created by Autonomous Vehicles". Santa Clara Law Review 52: 1157-1169.

Elkhov, Grigorii A. 2014. "Artificial Intelligence and the Problem of Modeling his Self-Awareness". Molodoi uchenyi 16: 200-202. (In Russian)

Hallevy, Gabriel. 2013. When Robots Kill: Artificial Intelligence Under Criminal Law. Boston, Northeastern University Press.

Hamet, Pavel, Johanne Tremblay. 2017. "Artificial intelligence in medicine". Metabolism — Clinical and Experimental 69: 36-40.

Iurenko, Nikolai I. 2017. Robots are potential subjects of law: myth or reality. Innovatsii v nauke ipraktike: sbornik statei po materialam IV mezhdunarodnoi nauchno-prakticheskoi konferentsii. Ufa. (In Russian)

Kingston, John K. C. 2016. "Artificial Intelligence and Legal Liability", Research and Development in Intelligent Systems XXXIII: Incorporating Applications and Innovations in Intelligent Systems XXIV, ed. by Max Bramer, Miltos Petridis: 269-279. Cambridge, Springer.

Kozaev, Nodar Sh. 2016. "State Criminal Policy and Questions of Overcoming of the Crisis Events in Criminal Law". Iuridicheskii vestnik DGU 1: 96-101. (In Russian)

Lapunin, Mikhail M. 2017. "Circumstances Excluding Criminality of Act and Scientific and Technical Progress". Vestnik Akademii General'noiprokuratury Rossiiskoi Federatsii 6 (62): 81-87. (In Russian)

Matkova, Aleksandra A. 2017. "Why in the Closest 3 Years of Operators in Banks Could Be Replaced by Artificial Intelligence?". Ekonomika. Pravo. Menedzhment: sovremennyeproblemy i tendentsii razvitiia 13: 10-18. (In Russian)

Morkhat, Petr M. 2018. "On the Issue of The Compliance of Autonomous Intellectual Weapons Systems to the Principles of International Humanitarian Law". Vestnik voennogo prava 2: 58-65. (In Russian)

Neff, Gina, Peter Nagy. 2016. "Talking To Bots: Symbiotic Agency and the Case of Tay". International Journal

of Communication 10: 4915-4931. Norman AI. n. d. Norman. Accessed July 3, 2018. http://norman-ai.mit.edu.

Ponkin, Igor' V., Alena I. Red'kina. 2018. "Artificial Intelligence from the Point of View of Law". Vestnik

Rossiiskogo universiteta druzhby narodov. Seriia: Iuridicheskie nauki 1: 91-109. (In Russian) Radutniy, Oleksandr E. 2017. "Criminal liability of the artificial intelligence." Problemi zakonnosti 138: 132141.

Vedomosti. 2018. "Uber unmanned car caused death to pedestrian because of autopilot settings". Vedomosti. May 8, 2018. Accessed July 3, 2018. https://www.vedomosti.ru/technology/news/2018/05/08/768916-bespilotnik-uber-sbil. (In Russian)

Received: June 10, 2018 Accepted: May 17, 2019

Author's information:

Ilya N. Mosechkin — PhD; [email protected]

i Надоели баннеры? Вы всегда можете отключить рекламу.