уголовно-правовые_2024 ' 4
науки
ВОПРОСЫ ОТВЕТСТВЕННОСТИ ЗА ДЕЯНИЯ, СОВЕРШАЕМЫЕ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРОБЛЕМЫ И ПОДХОДЫ К ИХ РЕШЕНИЮ
ISSUES OF LIABILITY FOR ACTS COMMITTED USING ARTIFICIAL INTELLIGENCE TECHNOLOGIES: PROBLEMS AND APPROACHES
TO THEIR SOLUTION
УДК 340.14
П.Н. КОБЕЦ, PETER N. KOBETS,
доктор юридических наук, профессор Doctor of law, Professor
(Всероссийский научно-исследовательский (National Research institute
институт МВД России, of the Ministry of Interior
Россия, Москва) of the Russian Federation,
pkobets37@rambler.ru Moscow, Russia)
Аннотация: актуальность исследования вызвана тем, что новейшие интеллектуальные технологии превращаются в неотъемлемый компонент жизнедеятельности. При этом происходит трансформация сущностных характеристик общественных отношений. В свою очередь, правоведами делаются попытки по оценке этих явлений с правовых позиций, и в том числе необходимости мер ответственности в сфере развития интеллектуальных технологий. Однако сегодня еще сложно говорить о готовности законодательного регулирования правоотношений в этой сфере. Целью исследования стало изучение вопросов, связанных с мерами ответственности в области обозначенных технологий. Объектом исследования выступали научно-исследовательские работы, подготовленные отечественными учеными и специалистами по праву, связанные с проблематикой ответственности за деяния, совершаемые с использованием технических устройств, использующих в работе новые технологии. Осуществляя изучение запланированных аспектов выбранной в качестве научного анализа проблемы, были использованы разнообразные научные приемы и способы познания, выстраиваемые с учетом подбора, а также обязательного дальнейшего анализа собранного эмпирического материала. В процессе исследования автором применялся всеобщий диалектический метод познания, ряд общенаучных методов, в том числе анализ, синтез, обобщение, а также ряд частнонаучных, таких как исторический, системный, формально-юридический, логический, сравнительно-правовой. Анализируя развернувшуюся в последнее время на страницах различных юридических изданий научную дискуссию по вопросу проблемных аспектов ответственности за противоправную деятельность, совершаемую с использованием технологий искусственного интеллекта, автором предложено собственное видение разрешения данной проблематики. Авторская позиция является в полной мере обоснованной: им подчеркивается, что наделять технические устройства, использующие в своей работе различные новые технологии, статусом субъекта преступных посягательств преждевременно. Из перечня субъектов преступлений, совершаемых при помощи анализируемых технических устройств, следует привлекать к ответственности разработчиков, проектировщиков, производителей и лиц, вводящих в эксплуатацию эти системы. Делается вывод о том, что в дальнейшей перспективе законодательные нормы в уголовно-правовой сфере должны быть основным объектом по охране безопасности личности, общества и государства от противоправного воздействия разного рода технической продукции, функционирующей на основе новых технологий. Предложено сосредоточиться на разработке новых правовых норм, с учетом положений которых в дальнейшем необходимо постепенно совершенствовать законодательство в рассматриваемой сфере. Высказана необходимость формирования и развития правового комплекса по обеспечению безопасности в сфере применения новейших технологий, используемых для функционирования различных технических устройств.
Ключевые слова: развитие искусственного интеллекта, законодательное регулирование робототехники, новые информтехнологии, коллективный субъект правоотношений, применение наказания, субъективные права.
науки
Для цитирования: Кобец П.Н. Вопросы ответственности за деяния, совершаемые с использованием технологий искусственного интеллекта: проблемы и подходы к их решению // Вестник Белгородского юридического института МВД России имени И.Д. Путилина. - 2024. - № 4. - С. 49-55.
Abstract: the relevance of the research is caused by the fact that the latest intellectual technologies are becoming an integral component of life activity. At the same time, the essential characteristics of social relations are transformed. In turn, legal scholars are making attempts to assess these phenomena from a legal perspective, including the need for liability measures in the field of intellectual technology development. However, today it is still difficult to talk about the readiness of legislative regulation of legal relations in this area. The purpose of the study was to study issues related to liability measures in the field of designated technologies. The object of the study was research papers prepared by domestic scientists and legal experts related to the problem of liability for acts committed using technical devices using new technologies. Carrying out the study of the planned aspects of the problem chosen as a scientific analysis, a variety of scientific techniques and methods of cognition were used, taking into account the selection, as well as the mandatory further analysis of the collected empirical material. In the process of research, the author applied the universal dialectical method of cognition, a number of general scientific methods, including analysis, synthesis, generalization, as well as a number of private scientific ones, such as historical, systemic, formal legal, logical, comparative legal. Analyzing the scientific discussion that has recently unfolded on the pages of various legal publications on the issue of problematic aspects of responsibility for illegal activities committed using artificial intelligence technologies, the author offers his own vision of solving this problem. The author's position is fully justified: he emphasizes that it is premature to endow technical devices using various new technologies in their work with the status of a subject of criminal encroachments. From the list of subjects of crimes committed with the help of analyzed technical devices, developers, designers, manufacturers and persons commissioning these systems should be held accountable. It is concluded that in the future, legislative norms in the criminal law sphere should be the main object for protecting the security of the individual, society and the state from the unlawful effects of various kinds of technical products operating on the basis of new technologies. It is proposed to focus on the development of new legal norms, taking into account the provisions of which in the future it is necessary to gradually improve legislation in this area. The necessity of forming and developing a legal complex for ensuring security in the field of application of the latest technologies used for the operation of various technical devices is expressed.
Keywords: development of artificial intelligence, legislative regulation of robotics, new information technologies, collective subject of legal relations, application of punishment, subjective rights.
For citation: Kobets P.N. Issues of liability for acts committed using artificial intelligence technologies: problems and approaches to their solution // Vestnik of Putilin Belgorod Law Institute of Ministry of the Interior of Russia. - 2024. - № 4. - P. 49-55.
Необходимость защиты и обеспечения общественной и государственной безопасности от возникающих в условиях цифровой реальности потенциальных угроз, исходящих от новых видов преступности, ставит перед правоведами и правоохранителями в качестве приоритетных направлений задачи по разработке и реализации комплекса необходимых мер, которые будут способствовать воздействию на противоправные проявления, возникающие в ходе использования технологий искусственного интеллекта. В дальнейшем в работе, говоря о новых технологиях, автор в первую очередь будет иметь в виду новейшие компьютерные технологии и технологии искусственного интеллекта. Между тем, совершенно очевидно, что обеспечивать защищенность государства и общества от рассматриваемых угроз весьма непросто без модернизации мер ответственности за противоправную
деятельность, совершаемую с применением технических устройств, использующих новые технологии. При этом также важно осознавать, что время господства цифровой среды с каждым днем все ближе, однако адекватная и достаточная правовая реакция на новые виды противоправных деяний пока что запаздывает. Все вышеперечисленное свидетельствует о том, что процессы, связанные с развитием новых технологий, могут затормозиться, если не будет найден необходимый и приемлемый баланс между научно-техническими преобразованиями и обеспечением адекватной безопасности общества и государства от возможных угроз, исходящих от внедрения обозначенных технологий.
В связи с этим в настоящее время особый интерес у ученых-правоведов возникает в сфере возможных правонарушений, которые могут происходить в процессе применения техниче-
науки
ских устройств, действующих на основе новых технологий, в том числе с применением искусственного интеллекта. Среди правоведов, исследователей и практиков наиболее часто обсуждаема проблематика, связанная с признанием рассматриваемых технических устройств (таких как робототехника и др.) субъектами правоотношений. Также примечательно и то, что в настоящее время отмечается серьезная дискуссия в научной среде относительно проблемы, связанной с возникающими мерами ответственности в случае причиненного вреда анализируемыми техническими устройствами. Причем как отечественными, так и зарубежными правоведами высказываются совершенно различные позиции на этот счет. Многие из исследователей данного аспекта склонны полагать, что применение мер ответственности в рассматриваемых случаях возможно в отношении обладателей прав данных технологий, разработчиков программного обеспечения, а также операторов, их обслуживающих [1, с. 42]. Таким образом, только при разрешении большинства обозначенных вопросов возможно полноценное формирование модели по правовому регулированию автоматизированных систем и технических устройств, работающих с применением новых технологий.
Проведенный автором анализ научных исследований, посвященных проблеме правового статуса технических устройств, использующих в работе новые технологии, свидетельствует о том, что сегодня возникает большое количество вопросов о том, могут ли они рассматриваться как объекты права. В настоящее время отечественные правоведы выделяют несколько подходов по вопросу необходимости наделения данных технических устройств правоспособностью. Согласно одному из подходов анализируемые в данном исследовании технологии могут быть только объектами правоотношений. Другой подход предполагает, что эти технологии могут быть наделены правосубъектностью как приравненные к человеку. Одна из точек зрения заключается в том, что технологии искусственного интеллекта могут выступать как коллективный субъект правоотношений, и их необходимо наделить субъективными правами и юридическими обязанностями [2, с. 402].
Существует также мнение, что статус искусственного интеллекта должен быть приравнен к физическим лицам с распространением всего комплекса прав и обязанностей, закрепленных в действующем законодательстве. В ряде научно-исследовательских работ необходимость наделения технических устройств, использующих новые технологии, правосубъектностью объясняется стремлением гарантирования выплаты
положенного вознаграждения за конкретные плоды ее деятельности, включая создание ею объектов интеллектуальной собственности. Исходя из предпосылок и принимая во внимание юридические возможности и факты наличия и обладания электронными лицами обособленным имуществом и, соответственно, способность их увеличивать его стоимость, подобный подход может считаться полностью оправданным.
Одной из интересных точек зрения по данной проблематике является возможность применения мер ответственности к владельцам рассматриваемых видов технических устройств [3, с. 23]. Суть этого подхода связана с институтом источника повышенной опасности и заключается в том, что в результате причиненного ущерба техническими устройствами, основанными на новых технологиях, к их владельцу могут быть применены меры ответственности в соответствии со ст. 1079 «Ответственность за вред, причиненный деятельностью, создающей повышенную опасность для окружающих» Гражданского кодекса Российской Федерации (далее - ГК РФ). Примечательно и то, что в соответствии с данной нормой, если будет доказано нанесение ущерба в соответствии со ст. 1079 ГК РФ, то владельцы привлекаются к мерам ответственности в любом случае, независимо от наличия или отсутствия вины. В то же время, по мнению автора, использовать данную модель, не внося в нее необходимых и даже требуемых в рассматриваемом контексте изменений, было бы не совсем правильно, поскольку применение подобного законодательного подхода неизбежно будет способствовать замедлению новых, причем необходимых, исследовательских процессов в сфере новых технологий, а безвиновная ответственность будет только подталкивать разработчиков и производителей новой технологической продукции, подготовленной на основе рассматриваемых технологий, минимизировать свои риски, а также уменьшать автономность производимых технических систем, работающих с использованием новых технологий.
Отечественными учеными в рамках вопроса ответственности за причиненный вред в сфере новых технологий также высказываются и альтернативные подходы, которые основаны на необходимости использования института по возмещению вреда, причиненного вследствие недостатка товаров, а именно в соответствии со ст. 1095 «Основания возмещения вреда, причиненного вследствие недостатков товара, работы или услуги» ГК РФ. В соответствии с данным подходом отечественными экспертами предлагается привлекать к ответственности разработчиков и производителей систем, работающих на основе новых технологий, непосредственно участвующих в создании
науки
данной продукции, но не их владельцев, операторов и др., поскольку владельцы указанных устройств не имеют ни достаточных возможностей, ни необходимых квалификационных знаний по оценке функционирования рассматриваемых технических устройств и, соответственно, влияния на их работу [4, с. 92].
Автор солидарен с позицией ряда экспертов, уверенных в том, что исследовательские подходы, в которых анализируемые технические устройства рассматриваются как субъект преступления, при их реализации на практике могут обусловить наступление исключительно отрицательных последствий. В первую очередь это вызвано тем, что разного рода правонарушителям будет очень удобно применять технические устройства, использующие в своей работе новые технологии для преступных целей, и в то же время не быть наказанными. Не менее важным в данном вопросе является еще одно обстоятельство, а именно то, что юридические действия существующих субъектов права - это деятельность конкретного человека, тогда как деятельность технических устройств, в работе которых задействованы новые технологии, - это результаты выполненных алгоритмов компьютерных программ, причем не обязательно связанных напрямую с деятельностью человека. Конфигурация, связанная с сочетанием у рассматриваемых технических устройств автономности и возможности самообучаться, может привести к совершению ими таких операций, которые и вовсе не предусматривались их разработчиками и программистами.
Возможно предположить, что как только уровень автономности систем, работающих на основе новых технологий, достигнет своих пиковых значений, анализируемые модели и механизмы, связанные с ответственностью в рассматриваемой сфере, перестанут быть актуальными. Вероятно, в будущем технические устройства, работающие на основе новых технологий, постепенно будут признаваться субъектами правовых отношений. Тогда же, предположительно, на них будет возлагаться весь комплекс мер, связанных с ответственностью за причинение вреда. Вне всякого сомнения, в далекой перспективе в подобной модели будут присутствовать в том числе и возможности по привлечению к ответственности и остальных субъектов правоотношений, связанных с работой технических устройств на основе новых технологий, среди которых будут не только разработчики и производители, но и программисты, киберпреступники, а также другие лица, при условии, что ими осуществлялось перекодирование рассматриваемых технических устройств для использования в преступной
деятельности, а также в процессе их создания либо эксплуатации.
В то же время, если в долгосрочной перспективе физические носители искусственных интеллектов все же станут настолько усовершенствованы, что будут полностью независимы и автономны от людей и при этом смогут самостоятельно принимать решения, обладая осмысленным поведением и оценкой наступления негативных последствий, тогда и встанет вопрос о том, насколько необходимо рассматривать проблематику уголовной ответственности подобных технических устройств. Признание рассматриваемых технических устройств в качестве субъектов уголовной ответственности может привести к необходимости конструирований новых законодательных подходов по определению вины для указанной категории субъектов.
В связи с этим также следует подчеркнуть, что в соответствии с ч. 2 ст. 43 «Понятие и цели наказания» Уголовного кодекса Российской Федерации применение наказания осуществляется для того, чтобы восстановить социальную справедливость, ну и, конечно же, для того, чтобы исправить виновных лиц и предупредить совершение новых противоправных деяний. Разумеется, что говорить о перевоспитании и исправлении технических устройств в уголовно-правовом смысле, при помощи которых был причинен вред, абсолютно неприемлемо. Любые технические устройства можно исправить, только изменив заложенные в них разработчиками алгоритмы, на основе которых они функционируют, или же, проще говоря, перенастроить программное обеспечение. И даже в будущем, при самом совершенном искусственном интеллекте, поведение технических устройств возможно будет изменять только вследствие внешних механических воздействий.
Многие специалисты отечественной уголовно-правовой науки проблему, связанную с искусственным интеллектом и иными новыми технологиями, стремятся рассматривать исключительно в русле уголовного вреда,причиненного на основе применения технических устройств, работающих на основе использования рассматриваемых технологий. При этом чаще всего эта группа исследователей полагает, что рассматриваемая проблема должна решаться посредством дифференциации (размежевания) зоны ответственности создателей и разработчиков алгоритмов, при помощи которых происходит функционирование технических устройств на основе искусственного интеллекта, и их владельцев или же пользователей. Иначе говоря, анализируемые технические устройства не должны иметь уголовную деликтоспособность
науки
и, соответственно, не быть субъектами любых общественно опасных деяний. При этом данные технические устройства могут лишь рассматриваться в качестве орудия совершения преступления [5, с. 177].
Подобные подходы к рассматриваемой проблеме отечественные исследователи объясняют тем, что технические устройства не могут являться субъектами уголовной ответственности, поскольку они не могут подвергаться никаким уголовно-правовым воздействиям. Скорее всего, под этим учеными понимается невозможность восприятия фактов привлечения указанных технических устройств к ответственности. И даже в том случае, если технические устройства, при помощи которых был причинен вред в результате совершения преступления, впоследствии буду утилизированы, маловероятно, что с точки зрения уголовно-правовой ответственности их уничтожение можно будет приравнивать к исполнению наказания. Таким образом, в современной юридической науке уже успела утвердиться точка зрения о том, что никакие меры юридической ответственности не могут применяться в отношении технических устройств с использованием новых технологий. При этом многие отечественные ученые отмечают, что, обращаясь к вопросу о невозможном привлечении к мерам уголовной ответственности технических устройств, применяющих в своей работе новые технологии, необходимо ссылаться на субъективную сторону правонарушения, которая у данных технических устройств полностью отсутствует. Ими также отмечается, что субъективной стороны у данных технологий просто не может быть, поскольку техническими устройствами, использующими в своей деятельности новые технологии, никак не могут быть осознаны последствия, наступившие в результате ее деятельности [6, с. 772]. Таким образом, очевидно, что в настоящее время никакие меры юридической ответственности не могут применяться в отношении рассматриваемых технических устройств.
Многие отечественные и зарубежные правоведы (к которым относится автор данной работы) говорят именно о мерах ответственности не технических устройств, а лиц, создавших, владеющих и управляющих автоматизированными системами и рассматриваемыми техническими устройствами, за противоправное поведение данной техники и иных аналогичных систем. И, судя по проведенному исследованию различных научных источников, данное положение не вызывает никаких возражений у большинства отечественных исследователей. В настоящее время в Российской Федерации в случае неправомерных последствий при функционировании
промышленных роботов и иных технических устройств все виды ответственности полностью лежат на лицах, которые их произвели, ими владеют, а также ими управляют. И, как полагает автор, такая практика совершенно оправдана.
Аналогичные положения содержатся также и в Рекомендациях Парламентской ассамблеи Совета Европы [7, с.105], в которых отмечается, что человек несет ответственность за деятельность автоматизированных систем, работающих на основе новых технологий, без учета произошедших обстоятельств. Кроме того, отдельные вопросы по разработке правового регулирования статуса рассматриваемых технических устройств были рассмотрены Резолюцией о правовом статусе искусственного интеллекта, которую принял в 2017 г. Европейский парламент. В ней нашел отражение ряд общих положений, освещающих тему ответственности за причиняемый данными технологиями вред. В частности, в обозначенной резолюции рассмотрена проблема необходимости определения правовой природы рассматриваемых технических устройств. В ней также отражены информационные данные о необходимости в дальнейшей перспективе проработки вопросов об ответственности производителей именно тех технических устройств и систем, которые способны к самостоятельному принятию решений.
Основываясь на анализе самых последних научных исследований, автор полностью уверен в том, что, учитывая современный уровень развития анализируемых технологий, пока не стоит выстраивать научные мнения о том, что используемые в отношении искусственного интеллекта средства воздействия могут в ближайшей перспективе рассматриваться в качестве одного из видов по его наказанию. Поэтому у нас не вызывают возражений утверждения экспертов относительно того, что не может быть и речи о том, что мерами принудительного воздействия, имеющими юридический характер, возможно исправление личностной установки искусственного интеллекта, и тем более возможностей формирования у него уважительного отношения к правовым нормам и в целом к социуму. Также вызывает возражения позиция исследователей, утверждающих, что защитить общественные отношения от преступного воздействия искусственного интеллекта возможно лишь при помощи полной ликвидации изделия, которое им оснащено, поскольку в список перечня видов наказания, изложенных в ст. 43 «Понятие и цели наказания» Уголовного кодекса Российской Федерации, нелогично добавлять такую меру, как ликвидация чего- и кого-либо, потому как подобная мера во всех отношениях не связана с исправлением осужденных [8, с. 358]. Таким образом, на
науки
сегодняшний день отечественная правовая наука, как и в целом действующие законодательные нормы, не дают подробных разъяснений относительно наличия либо отсутствия способностей у технологий, работающих с использованием искусственного интеллекта, какого-либо понимания характера и значений, примененных к нему мер по принудительному воздействию.
Полагая, что авторская позиция является в полной мере обоснованной, в том числе и с учетом ранее проведенных исследований, чрезвычайно важно еще раз подчеркнуть, что на сегодняшний день наделять технические устройства, использующие в своей деятельности новые технологии, статусом субъекта преступных посягательств весьма преждевременно [9, с. 146], поскольку искусственный интеллект и иные компьютерные технологии пока что не являются совершенными, а точнее, не обладают достаточным уровнем развития, который бы позволил утверждать в полной мере возможность их автономного функционирования. Таким образом, проведенный анализ различных источников юридической литературы, а также ранее проведенные автором исследования рассматриваемой проблематики, наглядно демонстрируют и очевидно свидетельствует о том, что из всех субъектов преступлений, совершаемых при помощи технических устройств, основанных на новых технологиях (лиц, осуществляющих воздействие на объект уголовно-правовой охраны и способных нести за это ответственность), в первую очередь следует привлекать к ответственности разработчиков, проектировщиков, производителей, лиц, вводящих в эксплуатацию эти системы [10, с. 5].
Проведенное исследование позволяет говорить о том, что сегодня крайне необходимо учитывать исторический опыт по развитию научного прогресса. Анализ изложенных в работе вопросов свидетельствует о том, что любые из правовых инноваций, тем более те, которые не имеют серьезной апробации и внедрения, могут обладать существенными ошибками, которые заканчиваются плачевно. Кроме того, важно понимать, что технические устройства, использующие в своей работе новые технологии, могут нести в себе не банальные киберугрозы, которые все же по большей части находят свое отражение в действующем отечественном уголовном законодательстве, а гораздо высокие и значительные криминальные риски для общества и государства. Поэтому в сложившейся ситуации относительно правового регулирования процессов, связанных с деятельностью анализируемых технических устройств, ученым, правоведам и практикам следует акцентировать внимание на скорейшем и полном обеспечении правового регулирования рассматриваемой сфе-
ры. Поскольку только подобный подход может позволить избежать не только очевидных угроз, но и более серьезных потенциальных рисков, связанных с развитием и внедрением новых технологий. Важно упомянуть, что ряд специалистов полагает, что правовые составы о преступности в сфере новых технологий должны располагаться в обособленной группе, объясняя подобный подход необходимостью системного решения данного вопроса, потому как, по их мнению, Особенную часть Уголовного кодекса Российской Федерации невозможно приспособить к условиям современного цифрового общества посредством традиционных уголовных запретов [11 с. 149]. Позиция же других исследователей отлична: по их мнению, криминализация противоправных деяний, использующих технические устройства, работающие на основе новых технологий, должна проводиться фрагментарно, посредством внесения необходимых изменений в ряд общих составов противоправных деяний [12, с. 45].
В дальнейшей перспективе законодательные нормы в уголовно-правовой сфере в обязательном порядке должны быть основным объектом по охране безопасности личности, общества и государства от преступного воздействия разного рода технической продукции, работающей на основе новых технологий. В сложившейся ситуации необходимо развивать специальный правовой комплекс по обеспечению безопасности в сфере применения новейших технологий. Следует сосредоточиться на разработке и дальнейшем принятии новых правовых норм, с учетом положений которых необходимо постепенно совершенствовать антикриминальное законодательство в рассматриваемой сфере. Представляется, что в сложившейся ситуации было бы целесообразно на основе научных подходов самым детальным образом проработать вопрос о необходимости дальнейшей 1Т-модернизации уголовно-правовой сферы. Вместе с тем в дальнейшем немаловажно использовать ряд подходов, которые позволят постепенно реформировать систему, на основе которой осуществляется противодействие преступным проявлениям, совершаемым с помощью технических устройств, основанных на новых технологиях. При этом требуется в полной мере сохранять классическую уголовно-правовую и криминологическую составляющую анализируемой сферы, поощряя перемены только в отдельных ее формах, с учетом существующих цифровых реалий, а также потенциальных вызовов и угроз. Чрезвычайно важно актуализировать проблематику, связанную с необходимостью дальнейшего совершенствования криминологического прогнозирования имеющихся в настоящее время процессов применения новейших научных достиже-
уголовно-правовые
науки
2024'а
ний в преступных целях. Это необходимо ради принятия современных превентивных мер, в том числе и законодательных, для криминализации указанных преступных деяний. Таким образом, чтобы эффективно противодействовать инновационным противоправным деяниям, следует как можно быстрее сформировать и в дальнейшем продолжать развивать меры уголовно-правовой
и криминологической безопасности в области борьбы с рассматриваемой преступностью. Необходимо попутно создавать требуемые уголовно-правовые, криминологические и информационно-технологические ресурсы, которые будут способствовать обеспечению эффективного противодействия возникающим вызовам и угрозам в рассматриваемой сфере.
Литература
1. Васильев А.А, Шпоппер Д., Матаева М.Х. Термин «искусственным интеллект» в российском праве: доктринальныи анализ // Юрислингвистика. - 2018. - № 7-8 - С. 35-44.
2. Шункевич Е.Д. К вопросу о правосубъектности систем искусственного интеллекта / Цифровые технологии и право: сборник научных трудов I Международной научно-практической конференции. В 6. т., Казань, 23 сентября 2022 года . - Казань: Познание, 2022. Т. 5. С. 402-405.
3. Васильев А.А., Шпопер Д. Искусственный интеллект: правовые аспекты // Известия Алтайского государственного университета. - 2018. - № 6 104). - С. 23-26. - DOI 10.14258/izvasu(2018)6-03.
4. Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. - 2019. - № 2. - С. 79-102. - DOI 10.17323/2072-8166.2019.2.79.102.
5. КибальникА.Г., ВолосюкП.В. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Юридическая наука и практика: Вестник Нижегородской академии МВД России. - 2018. - № 4 (44). - С. 173-178. -DOI 10.24411/2078-5356-2018-10428.
6. Бегишев И.Р., Хисамова З.И. Криминологические риски применения искусственного интеллекта // Всероссийский криминологический журнал. - 2018. - Т. 12. - № 6. - С. 767-775. - DOI 10.17150/2500-4255.2018.12(6).767-775.
7. Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014. - 390 p.
8. Ужов Ф.В. Искусственный Интеллект как субъект права // Пробелы в российском законодательстве. - 2017. - № 3. - С. 357-360.
9. Кобец П.Н. Анализ международных основ и зарубежного законодательства в сфере правового регулирования использования технологий искусственного интеллекта // Научный вестник Омской академии мВд России. - 2024. - Т. 30. - № 2 (93). -С. 146-150. - DOI 10.24412/1999-625X-2024-293-146-150.
10. Кобец П.Н. Современные подходы к вопросу о выделении новой отрасли права, регулирующей общественные отношения, возникающие с развитием технологий искусственного интеллекта // Вестник Белгородского юридического института МВД России имени И.Д. Путилина. - 2024. - № 2. - С. 4-10.
11. Русскевич Е.А. О цифровизации Особенной части УК РФ // Вестник Московского университета МВД России. - 2019. -№ 1. - С. 146-151. - DOI 10.24411/2073-0454-2019-10038.
12. Рассолов И.М. Киберпреступность: понятие, основные черты, формы проявления // Юридический мир. - 2008. - № 2. - С. 44-46.
References
1. Vasil'ev A.A, Shpopper D., Mataeva M.Kh. Termin «iskusstvennyi intellekt» v rossiiskom prave: doktrinal'nyi analiz // Yurislingvistika. - 2018. - № 7-8 - S. 35-44.
2. Shunkevich E.D. K voprosu o pravosub»ektnosti sistem iskusstvennogo intellekta / Tsifrovye tekhnologii i pravo: sbornik nauchnykh trudov I Mezhdunarodnoi nauchno-prakticheskoi konferentsii. V 6. t., Kazan', 23 sentyabrya 2022 goda . - Kazan': Poznanie, 2022. T. 5. S. 402-405.
3. Vasil'ev A.A., Shpoper D. Iskusstvennyi intellekt: pravovye aspekty // Izvestiya Altaiskogo gosudarstvennogo universiteta. -2018. - № 6 (104). - S. 23-26. - DOI 10.14258/izvasu(2018)6-03.
4. Laptev V.A. Ponyatie iskusstvennogo intellekta i yuridicheskaya otvetstvennost' za ego rabotu // Pravo. Zhurnal Vysshei shkoly ekonomiki. - 2019. - № 2. - S. 79-102. - DOI 10.17323/2072-8166.2019.2.79.102.
5. Kibal'nikA.G., VolosyukP.V. Iskusstvennyi intellekt: voprosy ugolovno-pravovoi doktriny, ozhidayushchie otvetov // Yuridicheskaya nauka i praktika: Vestnik Nizhegorodskoi akademii MVD Rossii. - 2018. - № 4 (44). - S. 173-178. - DOI 10.24411/2078-5356-2018-10428.
6. BegishevI.R., Khisamova Z.I. Kriminologicheskie riski primeneniya iskusstvennogo intellekta // Vserossiiskii kriminologicheskii zhurnal. - 2018. - T. 12. - № 6. - S. 767-775. - DOI 10.17150/2500-4255.2018.12(6).767-775.
7. Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014. - 390 p.
8. Uzhov F.V. Iskusstvennyi Intellekt kak sub»ekt prava // Probely v rossiiskom zakonodatel'stve. - 2017. - № 3. - S. 357-360.
9. Kobets P.N. Analiz mezhdunarodnykh osnov i zarubezhnogo zakonodatel'stva v sfere pravovogo regulirovaniya ispol'zovaniya tekhnologii iskusstvennogo intellekta // Nauchnyi vestnik Omskoi akademii MVD Rossii. - 2024. - T. 30. - № 2 (93). - S. 146-150. -DOI 10.24412/1999-625X-2024-293-146-150.
10. Kobets P.N. Sovremennye podkhody k voprosu o vydelenii novoi otrasli prava, reguliruyushchei obshchestvennye otnosheniya, voznikayushchie s razvitiem tekhnologii iskusstvennogo intellekta // Vestnik Belgorodskogo yuridicheskogo instituta mVd Rossii imeni I.D. Putilina. - 2024. - № 2. - S. 4-10.
11. Russkevich E.A. O tsifrovizatsii Osobennoi chasti UK RF // Vestnik Moskovskogo universiteta MVD Rossii. - 2019. - № 1. -S. 146-151. - DOI 10.24411/2073-0454-2019-10038.
12. RassolovI.M. Kiberprestupnost': ponyatie, osnovnye cherty, formy proyavleniya // Yuridicheskii mir. - 2008. - № 2. - S. 44-46.
(статья сдана в редакцию 28.06.2024)