ISSN 2500-1442
Научная статья УДК 343.9 EDN VZXPAU
DOI 10.17150/2500-4255.2023.17(6).536-542
ГРЕХИ МАШИН: У ИСТОКОВ РОБОПРЕСТУПНОСТИ
Д.В. Жмуров
Байкальский государственный университет, г. Иркутск, Российская Федерация
Информация о статье
Дата поступления 12 сентября 2023 г.
Дата принятия в печать 12 декабря 2023 г.
Дата онлайн-размещения 26 декабря 2023 г.
Ключевые слова
Преступность роботов; робопреступность; общественно опасные деяния роботов; криминологическая футурология
Аннотация. Статья посвящена исследованию все возрастающей проблемы криминального использования роботов, а также возникающим рискам их автономного криминального поведения. Автор обращает внимание на то, что тема преступного поведения и робототехники приобретает все большую актуальность: начался процесс ее сциентизации, т.е. познания с использованием научных методов и принципов. Решение указанных задач возложено в том числе на уголовно-правовые науки, такие как уголовное право, цифровая криминология, кибервиктимология и пр. В настоящей работе дается перечисление ключевых условий, которые, по мнению автора, интенсифицируют наступление того времени, когда криминальность автономных интеллектуальных машин будет предметом самостоятельных научных исследований. Автор обращает внимание на то, что уже сегодня можно утверждать о завершении процесса концептуализации понятий в рассматриваемой сфере, а изучаемая тема обретает определенные теоретические контуры. В представленной статье предлагаются некоторые доктринальные понятия разрабатываемого проблемного поля, такие как «общественно опасное деяние робота», «преступное деяние робота», «роботизированное преступное деяние», «робопреступность». Предпринимается попытка интерпретации этих относительно новых форм поведенческой активности роботов в свете отдельных криминологических теорий.
Original article
SINS OF THE MACHINES: AT THE SOURCES OF ROBOT CRIMES
Dmitriy V. Zhmurov
Baikal State University, Irkutsk, the Russian Federation
Abstract. The author researches the growing problem of criminal use of robots as well as the emerging risks of their autonomous criminal behavior. It is stressed that the topic of criminal behavior and robotics is becoming increasingly more urgent, and that the process of its scientization, i.e. cognition through scientific methods and principles, has started. The solution of the stated problems is also the task for criminal law sciences, such as criminal law, digital criminology, cybervictimology, etc. The article contains a list of key conditions that, according to the author, accelerate the arrival of the time when the criminality of autonomous intellectual machines will be an independent research subject. The author draws attention to the fact that even today it is possible to claim that the conceptualization process in the sphere under analysis is completed, and that the researched topic is obtaining certain theoretical contours. The article presents some doctrinal concepts of the researched problem area, such as «a publicly dangerous action of a robot», «a criminal action of a robot», «robotized criminal action», «robocrime». The author attempts to interpret these relatively new forms of robots' behavior in view of specific criminological theories.
Article info
Received
2023 September 12 Accepted
2023 December 12 Available online 2023 December 26
Keywords
Robot crimes; publicly dangerous actions of robots; criminological futurology
В 1981 г. японский служащий, 37-летний работник мотоциклетного завода, был «убит» роботом с искусственным интеллектом, который работал с ним по соседству. Устройство неправильно идентифицировало сотрудника как угрозу своей миссии и рассчитало, что наиболее эффективным способом ее устранения будет
подтолкнуть человека к ближайшей операционной машине. При помощи гидравлической руки робот неожиданно впечатал рабочего в нахо- § дящееся рядом промышленное оборудование, ^ что привело к его мгновенной смерти. После этого машина вернулась к исполнению своих | обязанностей [1]. Произошедшее на заводе, ©
помимо трагичности инцидента для современников, было еще метафорическим вопросом, адресованным в будущее. Звучит он примерно так: что делать, если подобное повторится и роботы будут отбирать человеческие жизни? С того момента прошло уже много лет, и сегодня похожие случаи мало кого удивляют. Но ответа на поставленный вопрос до сих пор нет.
Данная статья является одной из первых попыток начать обсуждение обозначенной темы. Целью настоящего исследования является изучение проблемы криминального использования роботов и рисков их автономного криминального поведения, а также разработка ключевых понятий, касающихся данной темы, и выявление условий, которые могут привести к развитию автономной криминальности интеллектуальных машин.
При обращении к художественным произведениям и кинолентам, исполненным в духе наивного кибероптимизма, взору предстают дружелюбные роботы-помощники и ассистенты. Они помогают нам в быту, на производстве, в медицине, а также заменяют человека в выполнении опасных задач. «Робот-полицейский» (1987) Пола Верховена, ведущий войну с преступностью, забавные R2-D2 и С-3РО из франшизы «Звездные войны» (1977) — незаменимые подручные главных героев, на образах которых выросло несколько поколений зрителей; одухотворенный мальчик-андроид Дэвид, который становится компаньоном для своего владельца в поисках любви и признания («Искусственный разум», 2001), и т.д. Ж. Фреско в техноутопии «Всё лучшее, что не купишь за деньги» (2013) озвучивает жизнеутверждающую мысль: «Роботы уже сегодня могут выполнять практически всю тяжелую и монотонную, так называемую черную работу. В ближайшем будущем человек сможет заниматься исключительно творческой деятельностью, а также уделять больше времени своим родным и близким». К сожалению, эти рассуждения в большей степени оказались мечтательными ожиданиями современного человека.
Вместе с тем процесс осознания угроз, исходящих от роботов, также прошел длинный путь формализации, т.е. осмысления и закрепления в научной парадигматике. Его начало было положено в XX в. писателями-фантастами: драма Карела Чапека «Робот» (1920) повествует о том, что машины, созданные для облегчения труда человека, оборачиваются против своего
создателя и начинают осуществлять насилие. В романе Филипа К. Дика «Мечтают ли андроиды об электроовцах?» (1968) обсуждается проблема криминального поведения репликантов — сознательных и чувствующих искусственных людей, которые в конечном итоге превзошли своих творцов в человечности. Цикл научно-фантастических рассказов Айзека Азимова «Я, робот» (1950) исследует различные аспекты взаимоотношений и этических проблем, связанных с искусственным интеллектом. В частности, очерк «Разрешимое противоречие» («The evitable conflict») посвящен ситуации, в которой суперкомпьютер, контролирующий мировую экономику, совершает действия, вполне сходные с актами политической преступности по человеческим меркам. Озвученные проблемы продолжают тревожить и современных писателей, подчеркивая свой непреходящий характер (например, «Восстание роботов» Дэниела Х. Уилсона 2014 г. или обширная фильмография, посвященная «робопокалипсису»).
Эти общественные запросы не остались незамеченными, и постепенно начался процесс их сциентизации, т.е. познания с использованием научных методов и принципов.
В этой сложной работе свое подобающее место заняли и уголовно-правовые науки (уголовное право, цифровая криминология, кибервиктимология и пр.). Сегодня можно утверждать, что концептуализация понятий в рассматриваемой области завершается, а исследуемая тема обретает теоретические контуры.
Это связано с появлением научных работ, посвященных ответственности роботов, а также вопросам их юридической субъектности. В последние годы опубликованы незаурядные труды П. Асаро [2], Р. Кало [3], Р. Боге [4], Г. Халлеви [5], Н. Шарки, М. Гудмана, Н. Росса [6] и других авторов, разделяющих озабоченность общества возможностью искусственного интеллекта преступать уголовно-правовые границы дозволенного.
В России и на Украине увидели свет произведения талантливых ученых, среди которых И.Р. Бегишев [7-10], Н.В. Катаргин [11], К.С. Мусина [12], Панг Дунмэй и Н.В. Ольховик [13], О.Е. Радутный [14] и др. На обсуждение научного сообщества вынесены вопросы уголовного преследования искусственного интеллекта, философские и юридические предпосылки уголовной ответственности роботов, а также возможные трудности на этом пути.
Думается, что возникшая дискуссия уместна и заблаговременна. Переход исследований из области научной фантастики на академическую ступень анализа отражает реальность происходящих процессов. Разумеется, сегодня робопреступность в большей степени является предметом футурологических изысканий. Это связано с тем, что в сложившихся условиях юридическая наука не допускает виновности машин и наличия у них каких-либо признаков воли в действиях. Однако имеющийся задел в технологическом развитии свидетельствует о том, что именно у этого сценария есть все шансы состояться. Подобное может произойти при наличии комплекса важных формирующих условий. Перечислим их:
1. Глобальная роботизация, т.е. процесс, посредством которого люди, обычно выполняющие какие-либо задачи, заменяются машинами того или иного типа [15]. И речь идет не только о производственных или экономических циклах: общество находится на пороге роботизации социальной среды, повседневной жизнедеятельности для целей удовлетворения потребностей личности, в том числе духовных [16]. Эти процессы окажут влияние на разные области жизни, включая рынок труда, социальные отношения, доступность услуг и даже самоопределение человека.
2. Антропологизация роботов, т.е. придание или присвоение искусственным созданиям человекоподобных характеристик и свойств. Намеченные тенденции наблюдаются уже сейчас.
К примеру, интенсифицирована дискуссия о возможности закрепления за роботами статуса потерпевшего от правонарушения [17]. Возможно, в будущем это определит возникновение особого раздела науки — виктимологии роботов.
Описываемый тренд неизбежно приведет к сущностному рассмотрению робота не только как объекта, но и как субъекта, способного к относительно автономным действиям. Уже сейчас в современную криминологию может быть введено понятие «общественно опасные деяния роботов» (по аналогии с «общественно опасными деяниями малолетних», также не являющихся субъектами преступного поведения). Нельзя исключать, что по мере развития технического прогресса роботы начнут обретать своего рода персональность или субъектность (произойдет закрепление соответствующего правового статуса, на легальном уровне начнут защищаться их права и т.п.).
3. Интеллектуализация или когнитивоге-нез роботов (появление машинного сознания и мышления более высоких уровней). Это позволит искусственным организмам ощущать, анализировать, интерпретировать и принимать решения на основе полученной информации без вмешательства человека. Произойдет усложнение широких групп машинных навыков, включая распознавание образов, общение, творчество, планирование и самообучение, что позволит роботам лучше взаимодействовать с окружающей средой и выполнять нетривиальные задачи. Данный процесс является имитацией человеческого мышления и способствует созданию более интеллектуальных и адаптивных систем. Подобное станет возможным благодаря реализации таких научных подходов, как искусственный интеллект, нейронные сети и разработка алгоритмов моделирования когнитивных функций человеческого мозга.
4. Появление программных аналогов воли является одним из важнейших условий генеза робопреступности. Дело в том, что совершение криминальных актов считается проявлением свободной воли человека (без учета идей ней-робиологии воли, которые ставят под сомнение это утверждение). Подобные прогнозы могут оказаться реальностью благодаря эволюционному программированию, генетическим алгоритмам и другим средствам оптимизации, которые позволят роботам «эволюционировать». Искусственный интеллект, наделенный волей, будет вполне способен самостоятельно создавать и изменять внутренние алгоритмы (модели поведения) вне какого-либо контроля, реализуя сценарии активности, в том числе квалифицируемые как преступления. В настоящее время все предпосылки для этого имеются. По утверждению специалистов компании Google, их квантовый компьютер на базе процессора Sycamore уже способен обладать свободой воли [18].
5. Переориентация преступной деятельности людей в направлении все большего использования роботов в криминальных целях как нового инструмента посредственного исполнения.
6. Возникновение технически непреодолимых задач этического программирования, связанного в том числе с обучением роботов действиям в условиях неопределенности или наличия моральных дилемм. Реализация этой задачи представляет большую сложность. Но если она и будет каким-то образом решена, все равно никто не окажется застрахован от раз-
личных дефектов алгоритма этического выбора, когда программистами не будет учтен весь комплекс морально-нравственных аспектов поведения, что может приводить к преступлениям, исполняемым роботами.
7. Отставание правового регулирования, в частности неактуальность стандартов, регламентирующих разработку, использование и поведение роботов. Это может стать поводом для использования их в чьих-то преступных целях.
Итак, социативное действие вышеперечисленных условий может оказать положительное влияние на становление и развитие робопре-ступности как социально-технического явления.
Осознавая потенциальные риски, связанные с возможным прогнозом общественного развития, представляется целесообразным предложить некоторые доктринальные понятия изучаемой сферы. Сюда входит ряд терминологических единиц, необходимых для формализации проблемы. Перечислим их:
1. Общественно опасное деяние робота — это поведение автоматического интеллектуального устройства, которое причиняет существенный вред обществу или создает реальную угрозу его причинения (например, несанкционированные физические атаки на человека в результате сбоя алгоритма у служебного робота; некорректное управление транспортными средствами со стороны искусственного интеллекта, в результате чего происходит гибель водителя или пассажиров1 и т.д.). Подобные ситуации могут стать результатом ошибок программного кода, неточностей в работе систем распознавания и идентификации и пр. Любопытный пример общественно опасных деяний роботов предложен в статье И.Р. Бегишева, где упомянута потенциальная опасность неконтролируемой деятельности промышленных и спасательных роботов, которые, решая свои узкие задачи (вырубка леса, спасение человека и т.д.), вполне способны причинить катастрофический сопутствующий вред [19].
2. Преступное деяние робота — общественно опасное действие (бездействие), совершенное роботом или искусственным интеллектом в результате самопрограммирования и инициативного создания (изменения) имеющихся алгоритмов.
3. Роботизированное преступное деяние подразумевает противоправный акт человека,
1 Искусственный интеллект убил первого человека // Российская газета. URL: https://rg.ru/2016/07/01/ iskusstvennyj-intellekt-ubil-pervogo-cheloveka.html.
который совершается при помощи или с участием робота / автономной системы. Подобный кластер криминальных инцидентов уже представлен в практике правоохранительных органов. Сегодня роботы используются преступниками в нескольких сферах:
-трафик и логистика (доставка наркотиков или запрещенных предметов, например использование дронов для переброски психоактивных веществ в исправительные учреждения);
-работа телекоммуникационных систем (хакерство и нарушение закона с использованием виртуальных роботов или ботов, начиная мошенническими чат-ботами и закачивая созданием ботнетов для кибератак);
- деятельность экономических институтов (манипулирование рынками при помощи биржевых ботов, особенно на децентрализованных биржах [20]);
-частная жизнь (нарушение приватности и конституционных прав граждан посредством несанкционированного сбора информации при помощи роботов со встроенными камерами и микрофонами);
-отношения в сфере собственности (использование роботов для совершения деяний, посягающих на имущество граждан, например роботов — взломщиков замков2, беспилотных аппаратов, позволяющих проникать на различные объекты, отключать системы безопасности и т.д.).
Помимо этого, вполне реальными представляются роботы, используемые для физического насилия (беспилотные летательные аппараты с навесным оружием); роботизированная промышленная преступность, связанная с несанкционированным использованием производственных роботов, и пр.
4. Робопреступность (футурологическое определение) — совокупность преступных деяний, которые совершаются автономными роботами без непосредственного санкционирования и контроля со стороны оператора, а также не являются частью изначально заложенного в них алгоритма (программного кода).
Исходя из некоторых социологических и криминологических концепций робопреступ-ность в будущем можно интерпретировать, опираясь на ряд ключевых идей:
1. Теория рационального выбора. Согласно этой концепции, преступление совершает-
2 Lock-Cracking Robot Is Your Companion in Crime. URL: https://www.wired.com/2011/03/lock-cracking-ro-bot-is-your-companion-in-crime.
ся, когда индивид принимает решение о целесообразности такого поведения, взвешивая при этом возможные выгоды и риски. В случае инцидентов с роботами преступление может быть результатом принятия алгоритмического решения о нарушении закона, при этом машина определяет такое поведение как недопустимое с точки зрения «человеческих законов». Основанием для этого выступает некая выгода, например получение доступа к ресурсам или выполнение заложенных задач без ограничений.
2. Теория социального контроля объясняет преступность низкой степенью связи девианта с обществом и недостаточностью воздействия на него социальных институтов. Применительно к роботам эти допущения могут предполагать истоки их отклоняющегося поведения в недостаточном контроле или программных ошибках, которые позволят машине вести себя противозаконно. В такой ситуации решение проблемы видится в регулировании поведения роботов путем совмещения смарт-контракта с блокчей-ном. Смарт-контракт регулирует алгоритмические процессы, происходящие внутри машины, блокчейн помогает определить конкретное лицо, повинное в неполадке, приведшей к неправомерным действиям робота [21]. Однако наличие свободы воли и недетерминированности в принятии решений у роботов сведет на нет подобные формы контроля.
3. Теория дифференциальной ассоциации утверждает, что люди осваивают навыки и поведение через социальные контакты. В случае с самообучаемыми роботами проявление их криминальности может объясняться усвоением ценностей, установок, методов преступного поведения, заимствованных в ходе социальных контактов с другими субъектами.
4. Теория конфликта предполагает, что преступность может быть результатом конфликтов и неравенства в обществе. Если робот как социальный субъект будет принимать участие в общественных конфликтах, то наиболее оптимальной формой функционирования может быть избрано преступное поведение в попытке справиться с этими проблемами.
В конечном итоге можно сделать несколько основных выводов:
-имеются некоторые основания утверждать, что на данном этапе исторического развития уже действуют разные группы факторов, способных детерминировать преступную деятельность автономных интеллектуальных машин в будущем;
-криминальное использование роботов представляет собой актуальную проблему, существующую в повседневной действительности;
-общественно опасное поведение роботов (автономное) является актуальной проблемой и все еще проявляется в единичных инцидентах. Оно может приводить к серьезным последствиям, включая угрозу жизни и здоровью человека;
-происходит формирование представлений о мерах безопасности, которые могут быть приняты для предотвращения робопреступности (общественно опасного поведения роботов), например разработка алгоритмов безопасности, внедрение в робототехнику смарт-контрактов и блокчейна;
-вероятно, некоторые криминологические теории и концепции, которые объясняют преступное поведение людей, могут быть также применимы для интерпретации робопреступности.
Судя по всему, новые условия общественной жизни порождают новые типы опасностей. Сказанное ни в коем случае не умаляет мысль о том, что роботы могут быть полезными для общества. Несколько удручает то, что в свете последних событий и военных конфликтов первый закон робототехники А. Азимова3 как бы сошел на нет. Имеющиеся образцы военных роботов опровергают его своим существованием. Очевидно, что прогрессивное внедрение робототехники требует ответственного и осознанного подхода. Необходим учет потенциальных угроз, связанных с тем, что человечество решило разделить свою судьбу со сложными интеллектуальными машинами, которые само и изобрело... «Вы ведь не помните мир без роботов. Было время, когда человечество столкнулось со вселенной в одиночку и без друга» [22].
3 Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Hallevy G. The Criminal Liability of Artificial Intelligence Entities — from Science Fiction to Legal Social Control / G. Hal-levy // Akron Intellectual Property Journal. — 2010. — Vol. 4, iss. 2. — P. 171-201.
2. Asaro P.M. Robots and Responsibility from a Legal Perspective / P.M. Asaro // Proceedings of the IEEE. — 2007. — Vol. 4, № 14. — P. 20-24.
3. Calo R. Robotics and the Lessons of Cyberlaw / R. Calo // California Law Review. — 2015. — Vol. 103, № 3. — P. 513-563.
ISSN 2500-1442
4. Bogue R. Robot ethics and law / R. Bogue // Industrial Robot: An International Journal. — 2014. — Vol. 4, № 41. — P. 335-339.
5. Hallevy G. When Robots Kill: Artificial intelligence under criminal law / G. Hallevy. — Northeastern Univ. Press, 2013. — 265 p.
6. Sharkey N. The Coming Robot Crime Wave / N. Sharkey, M. Goodman, N. Ross // IEEE Computer. — 2010. — Vol. 8, № 43. — P. 115-116.
7. Бегишев И.Р. Уголовно-правовая охрана общественных отношений, связанных с робототехникой / И.Р. Бегишев. — Москва : Проспект, 2022. — 384 с.
8. Бегишев И.Р. Уголовно-правовое регулирование робототехники / И.Р. Бегишев. — Москва : Проспект, 2022. — 320 с.
9. Бегишев И.Р. Искусственный интеллект и уголовный закон / И.Р. Бегишев, З.И. Хисамова. — Москва : Проспект, 2021. — 192 с.
10. Бегишев И.Р. Автономная робототехника в системе уголовно-правовых отношений / И.Р. Бегишев. — Москва : Проспект, 2022. — 160 c.
11.Катаргин Н.В. Трансформация цивилизации: война роботов с людьми в информационном пространстве / Н.В. Катаргин. — EDN NSMBAT // Цифровая трансформация социальных и экономических систем : материалы междунар. науч.-практ. конф., Москва, 28 янв. 2022 г. / отв. ред. И.А. Королькова. — Москва, 2022. — С. 556-565.
12. Musina K.S. Interpretation of Artificial Intelligence as a Subject of Criminal Responsibilities: Prospects and Realities / K.S. Musina. — DOI 10.24412/2709-1201-2023-142-145. — EDN FLHNKC // Наука и технологии : VI Междунар. науч.-практ. конф., Алматы, Казахстан, 05-25 апр. 2023 г. — Нур-Султан, 2023. — C. 142-145.
13. Dongmei P. Criminal Liability for Actions of Artificial Intelligence: Approach of Russia and China / P. Dongmei, N.V. Olk-hovik. — DOI 10.17516/1997-1370-0912. — EDN TZPSKY // Journal of Siberian Federal University. Humanities and Social Sciences. — 2022. — Vol. 15, № 8. — P. 1094-1107.
14. Radutniy O.E. Criminal liability of the artificial intelligence / O.E. Radutniy. — DOI 10.21564/2414-990x.138.105661. — EDN ZHFAHP // Проблеми законносп. — 2017. — № 138. — P. 132-141.
15. Rhett A. The robotification of society is coming / A. Rhett // WIRED. — 2015. — 7 Jan. — URL: https://www.wired. com/2015/01/robotification-society-coming.
16. Гасумова С.Е. Роботизация социальной сферы / С.Е. Гасумова, Л. Портер. — DOI 10.24411/2079-0910-2019-10006. — EDN EWWFHX // Социология науки и технологий. — 2019. — T. 1, № 10. — С. 79-94.
17. Mamak K. Robotics, AI and criminal law: crimes against robots / K. Mamak. — London : Routledge, 2023. — 144 p. — DOI 10.4324/9781003331100.
18. Соколова О. Квантовый процессор Google осознает себя? Почему квантмех и свобода воли (не) связаны, и почему это неочевидно / О. Соколова // Хабр. — 2021. — 31 мая. — URL: https://habr.com/ru/articles/560284.
19. Бегишев И.Р. Криминологическая классификация роботов: риск-ориентированный подход / И.Р. Бегишев. — DOI 10.52468/2542-1514.2021.5(1).185-201. — EDN TBUVGY// Правоприменение. — 2021. — T. 5, № 1. — С. 185-201.
20. Винья П. Как боты манипулируют курсами криптовалют? / П. Винья, А. Осипович // Ведомости. — 2018. — 4 окт. — URL: https://www.vedomosti.ru/finance/articles/2018/10/04/782808-boti-manipuliruyut-kriptovalyut.
21. Скуба А. Роботы в законе: часть 2 / А. Скуба // Robotoved.ru. — 2017. — 7 авг. — URL: https://robotoved.ru/robots_ in_law_2.
22. Азимов А. Я, робот: все о роботах и робототехнике / А. Азимов. -Москва : Эксмо, 2007. — 1294 с.
REFERENCES
1. Hallevy G. The Criminal Liability of Artificial Intelligence Entities — from Science Fiction to Legal Social Control. Akron Intellectual Property Journal, 2010, vol. 4, iss. 2, pp. 171-201.
2. Asaro P.M. Robots and Responsibility from a Legal Perspective. Proceedings of the IEEE, 2007, vol. 4, no. 14, pp. 20-24.
3. Calo R. Robotics and the Lessons of Cyberlaw / R. Calo // California Law Review. — 2015. — Vol. 103, no. 3. — P. 513-563
4. Bogue R. Robot Ethics and Law. Industrial Robot: An International Journal, 2014, vol. 4, no. 41, pp. 335-339.
5. Hallevy G. When Robots Kill: Artificial Intelligence under Criminal Law. Northeastern University Press, 2013. 265 p.
6. Sharkey N., Goodman M., Ross N. The Coming Robot Crime Wave. IEEE Computer, 2010, vol. 8, no. 43, pp. 115-116.
7. Begishev I.R. Criminal Law Protection of Public Relations Related to Robotics. Moscow, Prospekt Publ., 2022. 384 p.
8. Begishev I.R. Criminal Law Regulation of Robotics. Moscow, Prospekt Publ., 2022. 320 p.
9. Begishev I.R., Khisamova Z.I. Artificial Intelligence and Criminal Law. Moscow, Prospekt Publ., 2021. 192 p.
10. Begishev I.R. Autonomous Robotics in the System of Criminal Law Relations. Moscow, Prospekt Publ., 2022. 160 p.
11. Katargin N.V. Transformation of Civilisation: the War of Robots with Humans in the Information Space. In Korolkova I.A. (ed.). Digital Transformation of Social and Economic Systems. Materials of the International Scientific and Practical Conference, Moscow, January 28, 2022. Moscow, 2022, pp. 556-565. (In Russian). EDN: NSMBAT.
12. Musina K.S. Interpretation of Artificial Intelligence as a Subject of Criminal Responsibilities: Prospects and Realities. Science and Technology. VI International Scientific and Practical Conference, Almaty, Kazakhstan, 05-25 April 2023. Nur-Sultan, 2023, pp. 142-145.
13. Dongmei P., Olkhovik N.V. Criminal Liability for Actions of Artificial Intelligence: Approach of Russia and China. Journal of Siberian Federal University. Humanities and Social Sciences, 2022, vol. 15, no. 8, pp. 1094-1107. EDN: TZPSKY. DOI: 10.17516/1997-1370-0912.
14. Radutniy O.E. Criminal Liability of the Artificial Intelligence. Problems of Legality, 2017, no. 138, pp. 132-141.
15. Rhett A. The Robotification of Society is Coming. WIRED, 2015, January 7. URL: https://www.wired.com/2015/01/robot-ification-society-coming.
16. Gasumova S.E., Porter L. Robotization of the Social Sphere. Sotsiologiya nauki i tekhnologii = Sociology of Science and Technology, 2019, vol. 1, no. 10, pp. 79-94. (In Russian). EDN: EWWFHX. DOI: 10.24411/2079-0910-2019-10006.
17. Mamak K. Robotics, AI and Criminal Law: Crimes Against Robots. London, Routledge, 2023. 144 p. DOI: 10.4324/9781003331100.
18.Sokolova O. Does Google quantum Processor Have Self-conscience? Why Quantum Mechanics and Fee Will are (not) Connected, and Why This is not Self-evident. Khabr, 2021, May 31. URL: https://habr.com/ru/articles/560284. (In Russian).
19. Begishev I.R. Criminological Classification of Robots: Risk-Based Approach Law. Pravoprimenenie = Law Enforcement Review, 2021, vol. 5, no. 1, pp. 185-201. (In Russian). EDN: TBUVGY. DOI: 10.52468/2542-1514.2021.5(1).185-201.
20. Vinya P., Osipovich A. How are Bots Manipulating Cryptocurrencies' Exchange Rates? Vedomosti, 2018, October 4. URL: https://www.vedomosti.ru/finance/articles/2018/10/04/782808-boti-manipuliruyut-kriptovalyut. (In Russian).
21. Skuba A. Robots in Law: Part 2. Robotoved.ru. 2017, August 7. URL: https://robotoved.ru/robots_in_law_2. (In Russian).
22. Azimov A. I, Robot. New York, Gnome Press, 1950. 253 p. (Russ. ed.: Azimov A. I, Robot: all about Robots and Robotics. Moscow, Eksmo Publ., 2007. 1294 p.).
ИНФОРМАЦИЯ ОБ АВТОРЕ
Жмуров Дмитрий Витальевич — доцент кафедры уголовного права и криминологии Института юстиции Байкальского государственного университета, координатор проекта «Национальная энциклопедическая служба России», кандидат юридических наук, доцент, г. Иркутск, Российская Федерация; e-mail: zdevraz@ya.ru.
ДЛЯ ЦИТИРОВАНИЯ Жмуров Д.В. Грехи машин: у истоков робо-преступности / Д.В. Жмуров. — DOI 10.17150/2500-4255.2023.17(6).536-542. — EDN VZXPAU // Всероссийский криминологический журнал. — 2023. — Т. 17, № 6. — С. 536-542.
INFORMATION ABOUT THE AUTHOR
Zhmurov, Dmitriy V. — Ass. Professor, Department of Criminal Law and Criminology, Institute of Justice, Baikal State University, Coordinator, Project «National Encyclopedic Service of Russia», Ph.D. in Law, Ass. Professor, Irkutsk, the Russian Federation; e-mail: zdevraz@ya.ru.
FOR CITATION Zhmurov D.V. Sins of the Machines: at the Sources of Robot Crimes. Vserossiiskii kriminologicheskii zhurnal = Russian Journal of Criminology, 2023, vol. 17, no. 6, pp. 536542. (In Russian). EDN: VZXPAU. DOI: 10.17150/2500-4255.2023.17(6).536-542.