Волчкова Анна Александровна
кандидат юридических наук, дог/ент, доцент кафедры уголовного и уголовно-исполнительного права Нижегородской академии МВД России
Volchkova Anna Aleksandrovna
candidate of ¡cnv, associate professor, associate professor of the department of criminal and penal enforcement ¡aw of the Nizhny Novgorod academy of the Ministry of internal affairs of the Russian Federation
E-mail: amia-voichkora@y■andex.rii
К вопросу об уголовной ответственности за вред, причиненный роботом On the issue of criminal liability for damage caused by a robot
Аннотация. В современном мире инновационные технологии в области робототехники и их практическое внедрение в жизнь человечества требуют совершенствования правовой базы, в том числе уголовного законодательства. В статье исследуются проблемные вопросы уголовной ответственности за вред, причиненный роботом. Рассмотрены доктриналыные взгляды, сформулированы авторские предложения по совершенствованию уголовного закона.
Ключевые слова: уголовная ответственность, робот, искусственный интеллект, инновации, вред.
Annotation. In the modern world, innovative technologies in the field of robotics and their practical Implementation in the life of mankind require the improvement of the legal framework, including criminal legislation. The article examines the problematic issues of criminal liability for harm caused by a robot. The doctrinal views are considered, the author's proposals for improving the criminal law are formulated.
Keywords: criminal responsibility, robot, artificial intelligence, innovation, harm.
Инновационные разработки в области искусственного интеллекта, в том числе и робототехники, из футуристических романов и художественных фильмов перешагнули в реальный мир человечества и уже не кажутся фантастикой. Роботизация широко востребована в самых разных отраслях цифровой экономики и общественной жизни. Роботы оказывают помощь в принятии решений человеком, помогают в обеспечении обороны и военном деле, образовании, бизнесе, производственной и банковской сферах, транспортных услугах, логистике, торговле, сельском хозяйстве, государственном управлении, в том числе правоохранительной деятельности, в медицине, развитии спорта и культуры. Роботы могут анализировать поведение человека, играть в игры, создавать литературные, музыкальные произведения и т.д.
Одной из причин, сдерживающих широкомасштабное практическое использование роботов, является неразвитость нормативной базы, которая должна обеспечивать высокое качество применения новых технологий и соответствующие экономические и социальные эффекты. Бесспорно, что воплощение инновации в жизни требуют инноваций в праве.
Вопрос о необходимости разработки правовых норм, регулирующих правовое положение объектов, наделенных искусственным интеллектом (или его основами), возник в мире уже достаточно давно — практически с момента появления самой робототехники. Однако разработка подобных норм в наиболее технически развитых государствах началась только в 2000-х годах, а резолюция Европарламента «Нормы гражданского права о робототехнике»1 (первый международный документ, описывающий контуры данной проблемы), посвященная актуальным вопросам робототехники и искусственного интеллекта, была принята только в 2017 году.
Россия пока находится на начальной стадии формирования правого поля в этой сфере. 10 октября 2019 года принята Национальная стратегия развития искусственного интеллекта на период до 2030 го-
1 Резолюция Европарламента от 16 февраля 2017 года 2015/2013(INL) P8_TA-PROV (2017) 0051 Официальный сайт Европейского парламента [Электронный ресурс]. — URL: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html (дата обращения: 05 сентября 2020 г.).
да1, 19 августа 2020 года утверждена Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года2, с 28 января 2021 года начнет действовать Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации»3.
Первые государственные стандарты в области применения искусственного интеллекта в нашей стране вступили в действие 1 сентября 2020 года.
Один из них принят в целях обеспечения эффективной коммуникации интеллектуальных робото-технических систем (в том числе беспилотных транспортных средств) с человеком. Взаимодействие интеллектуальных систем заключается в прогнозировании намерений друг друга и определении дальнейших действий на базе этого прогноза. Прогноз поведения также может использоваться для выявления людей с преступными намерениями4.
Второй принятый стандарт устанавливает единые требования к системам и алгоритмам распознавания незаконного содержимого багажа и ручной клади по рентгеновским изображениям. Стандарт также повышает достоверность результатов испытаний систем и алгоритмов6.
Бесспорно, что развитие позитивного права требует разработки и совершенствования законодательства об ответственности за вред, причиненный роботом. Отсутствие правовых механизмов регулирования не соответствует потребностям развивающегося общества и технического потенциала. На сегодняшний день фактически не существует специальных норм, предусматривающих уголовную ответственность за причинение вреда роботом, хотя человек уже становился жертвой таких механизмов. Поэтому вопрос оптимизации уголовно-правовой защиты требует решения. Так, 29 июня 2015 г. робот причинил смерть человеку на заводе «Фольксваген» в г. Баунаталь (Германия), в мае 2014 г. в г. Ганновер на человека рухнула стальная балка, которую отпустил робот6. В 2016 году произошла авария со смертельным исходом с участием машин под управлением искусственного интеллекта7. В марте 2018 года в США беспилотным автомобилем Uber была сбита женщина, переходившая дорогу (виновным было признано лицо, удаленно управлявшее автомобилем). Созданы роботы, которые могут осуществлять медицинские манипуляции 8, при этом сохраняется риск возможного вреда здоровью человека. Одним из американских инженеров был сконструирован робот, который способен самостоятельно принимать решения о причинении вреда здоровью человека. При этом даже его создатель не может предсказать поведение машины в каждом конкретном случае9. И даже обычные роботы могут выйти из строя и причинить вред. Это обуславливает необходимость скорейшей разработки системы уголовно-правовых норм, защищающих от опасной деятельности искусственного интеллекта, его разработчиков и владельцев.
Одним из принципиальнейших вопросов, на который пока в мире нет однозначного ответа, является возможность признания робота субъектом преступления. Отечественное уголовное право базируется на важнейшем принципе вины, в соответствии с которым не допускается уголовное преследование кого-либо в случае, если им не осознавалась общественная опасность своего поведения или не было воз-
1 Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // Официальный интернет-порта л правовой информации [Электронный ресурс]. — URL: http://www.pravo.gov.ru, 11 октября 2019 г. (дата обращения: 05 сентября 2020 г.).
2 Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» // Официальный интернет-портал правовой информации [Электронный ресурс]. — URL: http://www.pravo.gov.ru, 26 августа 2020 г. (дата обращения: 05 сентября 2020 г.).
3 Федеральный закон от 31 июля 2020 г. № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации» // Официальный интернет-портал правовой информации [Электронный ресурс]. — URL: http://www.pravo.gov.ru, 31 июля 2020 г. (дата обращения: 05 сентября 2020 г.).
4 ГОСТ Р 58776-2019 «Средства мониторинга поведения и прогнозирования намерений людей. Термины и определения»: Приказ Федерального агентства по техническому регулированию и метрологии от 20 декабря 2019 г. № 1429-ст [Электронный ресурс]. — URL: http://docs.cntd.ru/document/1200170425_(дата обращения: 05 сентября 2020 г.).
5 ГОСТ Р 58777-2019 «Воздушный транспорт. Аэропорты. Технические средства досмотра. Методика определения показателей качества распознавания незаконных вложений по теневым рентгеновским изображениям» Приказ Федерального агентства по техническому регулированию и метрологии от 20 декабря 2019 г. № 1430-ст [Электронный ресурс]. — URL: http://docs.cntd.ru/docurment/1200170426 (дата обращения: 05 сентября 2020 г.).
6 Е. Н. Ирискина, К. О. Беляков Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями Робота как кваз и субъекта гралзда не ко-правовых отношений // Гуманитарная информатика. 2016. №10, С. 66.
7 Tesla:s Self-Driving System Cleared in Deadly Crash. The New York Times [Электронный ресурс]. — URL: https://www.nytimes. com/2017/01/19/business/tesla-model-s-autopilot-fatal-crash.html (дата обращения: 07 сентября 2020 г.).
в Создан робот-хирург, способный проводить сложнейшие операции [Электронный ресурс]. — URL: https://hi-news. ru/robots/sozdan-robot-xi ш rg-sposobnyj-pro vodrt-slozh nejsh ieoperacii .html (дата обращения: 07 сентября 2020 г.).
9 Восстание машин началось. Робот впервые нарушил первый закон робототехники [Электронный ресурс]. — URL: https://m-gazeta-ru.cdn.ampproject.Org/c/s/m.gazeta.ru/amp/tech/2016/06/21/8318627/wild-wild-robot.shtml (дата обращения: 07 сентября 2020 г.).
можности его контролировать, руководить им. Так, например, сознанием не обладает юридическое лицо, что исключает его уголовное наказание в нашей стране. Можно ли говорить о наличии сознания и воли у робота?
Одно из словарных определений сознания характеризует его как «высшую, свойственную лишь человеку форму отражения действительности, представляющую собой совокупность психических процессов, позволяющих ему ориентироваться в окружающем мире, времени, собственной личности, обеспечивающих преемственность опыта, единство и многообразие поведения»1.
Философские взгляды на сущность сознания как отличительного признака человека достаточно разнообразны. Так, например, Джон Локк отмечал, что только человек наделен чувствами, может понимать свое прошлое, быть счастливым или несчастным, способен к саморефлексии2. Иммануил Кант также подчеркивал важность самосознания: поскольку человек осознает себя, он понимает свою свободу и знает, что его собственная воли является причиной каждого из его поступков. Поэтому человек знает, что он может воздержаться от совершения любого деяния и считает себя ответственным за свое поведение, руководствуясь совестью3.
Очевидно, что робот не отвечает рассмотренным требованиям личности в идеалистическом смысле. Робот не имеет эмоций или чувств, но обладает способностью к самообучению и самостоятельному принятию решений, однако чаще всего эта способность ограничена определенным алгоритмом, установленным его создателем. Робот не может осознавать свою свободу, не может понять свою сущность во взаимосвязи с прошлым и будущим, и, конечно, не понимает свой правовой статус — совокупность прав и обязанностей.
Сегодня роботы, даже самые прогрессивные, способные учиться и учитывать прошлый опыт, не наделены совестью и не размышляют о том, хорошие или плохие их действия. Поэтому было бы неверным говорить об их осознанном поведении, а значит их нельзя признавать субъектом преступления. Однако, робототехническая наука не стоит на месте, и, если допустить, что в будущем роботы приобретут качества и возможности, приближающие их к человеку (способность к саморефлексии, формированию нравственных ценностей, критически оценивать свой образ взаимодействия с внешним миром, способность самостоятельно устанавливать для себя цели, желать, осознавать, а также переживать свое несоответствие должному как собственное несовершенство и т.п.), вопрос о признании их субъектом преступления может быть решен по-другому.
Для привлечения к уголовной ответственности помимо сознания необходимо установить еще и волю виновного, характеризующую его стремление к определенной цели.
Могут ли роботы выполнить это требование? Благодаря своей способности адаптироваться к окружающей обстановке, робот может самостоятельно выбрать последовательность действий, которые он должен предпринять ради достижения заранее установленной для него цели. Например, самоуправляемый автомобиль способен идентифицировать другое транспортное средство, приближающееся к перекрестку, и «решить» не останавливаться, так как, согласно правилам дорожного движения, он имеет право преимущественного проезда перекрестка. Возникает вопрос, можно ли этот выбор считать самостоятельным решением, то есть проявлением «собственной» воли, либо это всего лишь выбор, обусловленный ранее созданной для него программой? С одной стороны, если робот способен учиться, вспоминать и автономно выбирать, признак воли присутствует. Однако, он запрограммирован к достижению определенной цели человеком, то есть цель ему заранее обозначили, определили направленность действий. Значит ли это, что он самостоятелен? Скорее нет, чем да.
В научной литературе обсуждаются предложения о трансформации признаков деяния, от понимания которых можно по-разному ответить на вопрос могут ли операции робота быть признаны действиями. В широком смысле деяние подразумевает способность принимать автономные решения по постановке целей, а в узком — акт физического движения (бездействия), которое не было окончательно определено кем-либо другим.
Несмотря на свой «интеллект», роботы являются машинами, которые выполняют задачи в соответствии с заданным программированием; они не наделены способностью нравственного самоопределения, однако перспективные современные роботы могут принимать решения на основе оценки возможных вариантов. Машину можно научить реагировать на «моральные дилеммы», то есть отказаться от достижения цели, если цель может быть достигнута только путем причинения значительного сопутствующего ущерба. Вопрос о том, на сколько успешно можно запрограммировать робота на принятие решений в соответствии с нормами морали, является новым и пока малоизученным. Сегодня область машинной
1 Медицинская энциклопедия [Электронный ресурс]. — URL: https://dic.academic.ru/dic.nsf/enc_medicine/29428 (дата обращения: 07 сентября 2020 г.).
2 Д. Локк. Опыт о человеческом разумении [Электронный ресурс]. — URL: https://nibiryukov.mgimo.ru/nb_russian/ nbr_teaching/nbr_teach_library/nbr_library_classics/nbr_classics_loc ke_a n_es s ay_con се r n i n g_h u m a n_u n d ersta nd i n g_book-1.htm (дата обращения: 07 сентября 2020 г.).
3 И. Кант Сочинения. В 8-ми т. Под общ. ред. проф. А. В. Гулыги М.: ЧОРО, 1994. [Электронный ресурс]. — URL:http://prussia.online/books/sochineniya-v-8-mi-t (дата обращения: 07 сентября 2020 г.).
этики находится в стадии своего становления, формализация этических решений представляется чрезвычайно сложной. Например, можно ли допустить причинение роботом смерти одному человеку вовремя (ради) спасения жизни нескольких других лиц?
Если в будущем роботы смогут рассуждать — будут запрограммированы с системой допустимых и нежелательных вариантов операций, которые они способны выбирать самостоятельно, опираясь на моральные нормы, можно будет говорить об аналоге человеческого самоопределения по моральным соображениям. Теоретически в этом случае виновным можно будет считать робота, который был в состоянии признать, что его действия (операции) были нежелательными и, следовательно, был в состоянии оценить их как «негативные».
Если предположить возможность признания робота виновным, возникает закономерный вопрос о том, как он может быть наказан? Уголовные санкции ориентированы на людей; у робота нет имущества, ему не присущи желания жизни, свободы, отсутствует осознание их ценности, а, следовательно, ни штраф, ни ограничение применения, ни отключение или физическая ликвидация робота не будут эффективными. Также не будет положительно решен о возмещении потерпевшему вреда. Пока робот не в состоянии понять значения наказания, привлечение его к уголовной ответственности представляется абсурдным.
В таком случае возникает следующий вопрос: кто должен нести уголовную ответственность за вред, причиненный роботом? Это может быть лицо, создавшее робота, осуществившее его программирование, либо лицо обслуживающее его, либо его владелец (пользователь). Например, должен ли инженер— разработчик беспилотного автомобиля нести уголовную ответственность в случае, если автомобиль «принимает решение», которое приводит к смерти случайного прохожего?
Согласно теории посредственного причинения в случае умышленного программирования робота на причинение смерти, инженер должен быть признан исполнителем преступления. Сложнее решить вопрос, когда отношение к наступившим общественно опасным последствиям легкомысленное или небрежное. Если создатель робота пренебрег уже существующими требованиями и стандартами в области обеспечения безопасности или не осознавал возможный вред, специалист по обслуживанию вовремя не обновил программное обеспечение, владелец (пользователь) не обратился к уполномоченным на обслуживание робота специалистам, самонадеянно рассчитывая что опасные последствия не наступят, кто из них должен быть признан виновным? Действующий Уголовный кодекс, а также иное отечественное законодательство не содержат ответ на этот вопрос.
Правительство России на подзаконном уровне в августе 2020 года лишь констатировало необходимость «проработки механизмов гражданско-правовой, уголовной и административной ответственности в случае причинения вреда системами искусственного интеллекта и робототехники, имеющими высокую степень автономности, при принятии ими решений, в том числе с точки зрения определения лиц, которые будут нести ответственность за их действия, доработки при необходимости механизмов безвиновной гражданско-правовой ответственности, а также возможности использования способов, позволяющих возместить причиненный действиями систем искусственного интеллекта и робототехники вред (например, страхование ответственности, создание компенсационных фондов и др.)»1. Планируется, что нормативно-правовая база для регулирования новых общественных отношений, складывающихся в связи с разработкой и применением технологий искусственного интеллекта и робототехники, систем на их основе, будет разработана к 2024 году.
Отсутствие нормативной базы вынуждает обратиться к доктринальным источникам. Так, например, европейскими учеными предложена концепция привлечения к уголовной ответственности оператора робота, который, предполагая опасные последствия, не отказался от его изготовления либо эксплуатации, действуя умышленно, легкомысленно либо по небрежности2.
Роботы последнего поколения способны принимать решения, которые их создатели не могут предвидеть в деталях. Самоуправляемый автомобиль, например, должен взаимодействовать с непредсказуемой и лишь частично разумной средой. В зависимости от встроенного режима обучения робот будет использовать всю сохраненную и поступающую информацию для создания прогноза относительно своей динамики движения. Создатель машины, ее владелец понимают, что робот будет самостоятельно анализировать информацию, которую получит, и что будет действовать автономно от человека, опираясь на результаты своего анализа дорожной ситуации. Очевидно, что ни разработчик робота, ни его владелец не могут исключить вероятность того, что робот может причинить вред другим людям. Следовательно, с одной стороны, создатель, владелец не могут нести ответственность, поскольку решение было принято
1 Распоряжение Правительства РФ от 19 августа 2020 № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» Официальный интернет-портал правовой информации [Электронный ресурс]. — URL: http://www.piravo.gov.ru, 26 августа 2020 г. (дата обращения: 10 сентября 2020 г.).
2 S. Gless, Е. Silverman, Т. Weigend If robots cause harm, who is to blame? Self-driving cars and criminal liability [Электронный ресурс]. — URL: https://papers.ssrn.com/sol3/papers.cfm7abstract_id=2724592 (дата обращения: 12 сентября 2020 г.).
машиной, то есть причиненный вред не находится в прямой причинно-следственной связи с их деяниями (изготовлением, использованием). С другой стороны, понимая потенциальную опасность робота, но не отказываясь от его использования, человек де-факто соглашается нести ответственность за любой вред, причиненный им.
Полагаем, что первый аргумент не может быть признан обоснованным, так как если человек понимает потенциальную опасность машины для жизни и здоровья других людей, которую он не может минимизировать или исключить, разработчик робота или его владелец должны отказаться от намерений его использования. В противном случае привлечь кого-либо за вред, причиненный роботом, в принципе было бы невозможно. Лицо, которое предвидит, что его действия могут нанести ущерб интересам, охраняемым уголовным правом (например, жизни и здоровью других лиц), обязано воздерживаться от этого действия.
Так, например, ответственен за вред производитель беспилотного автомобиля, который может при необходимой внимательности и предусмотрительности знать, что тормоза автомобиля ненадежны в плохую погоду, однако не устраняет этот дефект, чем нарушает возложенные на него требования по безопасности, продает автомобиль, который затем совершает смертельный наезд на пешехода. Также его вина очевидна, если опасный дефект был выявлен в процессе эксплуатации, однако, производитель пренебрег своей обязанностью сервисного обслуживания, не стал отзывать с рынка и ремонтировать некачественную технику, которая в последствии совершила смертельное столкновение с человеком. Интересен факт, что, совершая действие — сбыт дефектного робота, лицо подлежит уголовной ответственности за преступное бездействие — непринятие, несоблюдение необходимых мер безопасности.
В России интерес к правому положению механизмов, наделенных искусственным интеллектом, в первую очередь, проявили программисты1. Так, основателем Grishin Robotics Дмитрием Гришиным, была разработана концепция закона о робототехнике. Им было предложено использовать по отношению к роботам элементы правового статуса животных и юридических лиц, поскольку полноправными субъектами права они являться не могут, однако могут выполнять автономные действия. Также Д. Гришин указывал на необходимость создания реестра роботов, что было обусловлено следующим: робот, как субъект, автономно выполняющий определенную деятельность, может причинить вред и должен быть (в большинстве случаев) приравнен к источнику повышенной опасности (со всеми вытекающими из этого последствиями для владельцев роботов). Также автором были выделены действия владельца, которые должны влечь за собой уголовную ответственность. К ним были отнесены создание робота-убийцы в целях совершения правонарушений; отключение программных и аппаратных функций, которые блокируют возможность причинения вреда человеку; создание робота, который способен причинить вред человеку; создание робота без осознания того, что он может быть применен в целях причинения вреда человеку. Д. Гришин обращал внимание на то, что в «праве роботов» следовало бы закрепить и сформулированные А. Азимовым законы робототехники: 1) робот не может причинить вред человеку; 2) робот должен подчиняться человеку; 3) робот должен заботиться о своей безопасности, если это не вступает в противоречие с первыми двумя законами; 4) робот не может нанести вред человечеству или своим бездействием допускать, чтобы человечеству был нанесен вред2.
Поскольку конечной целью развития новых технологий является обеспечение защиты гарантированных российским и международным законодательством прав и свобод человека и повышение благосостояния и качества жизни граждан, полагаем целесообразным включить в Уголовный кодекс отдельную норму об ответственности разработчика (создателя) робота, а также его владельца в случае нарушения ими требований безопасности при производстве или эксплуатации технологий искусственного интеллекта и робототехники, систем на их основе, повлекшие существенные нарушения прав и законных интересов человека.
При этом также должны быть приняты стандарты, определяющее допустимые риски в рассматриваемой сфере, чтобы не создать правовых барьеров, препятствующих разработке и применению указанных систем.
Бесспорно, что человечество заинтересовано в инновациях, технологическом прогрессе, включая преимущества, которые могут обеспечить роботы. Поэтому перед обществом и законодателем стоит непростая задача — найти разумный баланс между допустимыми критериями риска внедрения новых технологий и ответственности за причинение в результате их применения общественно опасного вреда.
1 Россия может первой узаконить роботов //Ведомости [Электронный ресурс]. — URL: https://www.vedomosti.ru/ technology/articles/2016/1 2/15/669703-rossiya-uzakonit-robotov (дата обращения: 12 сентября 2020 г.).
2 А. Азимов Мечты роботов / А. Азимов. — M.: ЭКСМО; СПб.: Валери СПД, 2002. — С. 105.