Научная статья на тему 'Совершенствование механизмов уголовно-правовой охраны общественных отношений, возникающих в процессе эволюционирования цифрового общества'

Совершенствование механизмов уголовно-правовой охраны общественных отношений, возникающих в процессе эволюционирования цифрового общества Текст научной статьи по специальности «Право»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Пенитенциарная наука
ВАК
Область наук
Ключевые слова
цифровое общество / искусственный интеллект / правовое регулирование / меры уголовной ответственности / законодательные основы / возмещение вреда / правоохранительная деятельность / предупреждение преступности / соблюдение законности / digital society / artificial intelligence / legal regulation / criminal liability measures / legislative framework / compensation for harm / law enforcement / crime prevention / compliance with the law

Аннотация научной статьи по праву, автор научной работы — Петр Николаевич Кобец

Введение: в озникающие в современном цифровом обществе правоотношения в сфере применения технологий искусственного интеллекта, в первую очередь, требуют пропорционального развития уголовно-правой базы, потому что вновь возникающие инновационные продукты могут быть потенциально опасными для человека. Цель: показать, что в связи с недостаточной изученностью и сложностью точного прогнозирования генезиса правоотношений, которые связаны с использованием новых технологий, привычные уголовно-правовые нормы уже не могут в достаточной степени обеспечивать полноценную охрану благосостояния личности и государства. В статье использовались методы исторического, логического, сравнительного анализа и конкретные социологические методики. Результаты: доказано, что, несмотря на ряд научно-теоретических разработок в сфере ответственности искусственного интеллекта, проблематика по его правовому регулированию остается чрезвычайно актуальной, имеет различные точки зрения и нуждается в скором разрешении. Между тем решать проблему, связанную с уголовной ответственностью в области робототехники, использующей новые технологии, в первую очередь следует в целях обеспечения необходимой защиты интересов общества, которому предстоит в скором времени ежедневно сталкиваться с правовыми проблемами, возникающими в процессе совершенствования технологий. Поэтому сегодня столь актуальны разработки новейших уголовно-правовых охранительных механизмов, которые бы контролировали общественные угрозы в рассматриваемой сфере. Выводы: автор приходит к заключению, что в ближайшей перспективе стандартная практика не обеспечит полноценной охраны благосостояния общества, поскольку уголовно-правовые механизмы будут не в состоянии адекватно реагировать на возникающие технические инновации и не смогут отформатировать в своем ключе новые цифровые уголовно наказуемые действия. В этой связи уже сегодня необходимо искать новые решения по уголовно-правовой охране общественных отношений цифрового общества. В то же время важно, чтобы конструкции новых охранительных механизмов своевременно оценивали возможные риски, связанные с техническими новшествами и технологическими прорывами.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Петр Николаевич Кобец

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Improving Mechanisms for Criminal Law Protection of Public Relations Arising in the Process of Digital Society Evolution

Introduction: legal relations arising in modern digital society in the field of application of artificial intelligence technologies, first of all, require proportional development of the criminal legal framework, since newly emerging innovative products can be potentially dangerous to humans. Purpose: to show that due to insufficient knowledge and the complexity of accurate forecast of the genesis of legal relations that are associated with the use of new technologies, common criminal law norms can no longer sufficiently provide full protection of the well-being of individuals and the state. Methods: historical, logical, comparative analysis, specific sociological techniques. Results: it is proved that despite a number of scientific and theoretical developments in the field of artificial intelligence liability, the issue of its legal regulation remains extremely relevant, has different points of view and needs to be resolved quickly. Meanwhile, solution of the problem associated with criminal liability of artificial intelligence using new technologies should pursue the goal of protecting interests of the society that will soon have to daily face legal problems arising in the process of improving new technologies. Therefore, today modern developments of the latest criminal law protective mechanisms that could very quickly ensure control of public dangers in the area under consideration are so relevant. Conclusions: in the near future, standard practice will not be able to ensure full protection of the welfare of society, since criminal law mechanisms will not be able to adequately respond to emerging technical innovations and, accordingly, will not be able to format new digital criminally punishable actions in their own way. Thus, it is reasonable to look for new solutions for the criminal law protection of public relations of the digital society. At the same time, it is important that designs of new protective mechanisms timely assess the possible risks associated with technical innovations and technological breakthroughs.

Текст научной работы на тему «Совершенствование механизмов уголовно-правовой охраны общественных отношений, возникающих в процессе эволюционирования цифрового общества»

Научная статья УДК 343.91

doi 10.46741/2686-9764.2024.66.2.006

Совершенствование механизмов уголовно-правовой охраны общественных отношений, возникающих в процессе эволюционирования цифрового общества

ПЕТР НИКОЛАЕВИЧ КОБЕЦ

Всероссийский научно-исследовательский институт МВД России, Москва, Россия, pkobets37@rambler.ru, https://orcid.org/0000-0001-6527-3788

Реферат

Введение: возникающие в современном цифровом обществе правоотношения в сфере применения технологий искусственного интеллекта, в первую очередь, требуют пропорционального развития уголовно-правой базы, потому что вновь возникающие инновационные продукты могут быть потенциально опасными для человека. Цель: показать, что в связи с недостаточной изученностью и сложностью точного прогнозирования генезиса правоотношений, которые связаны с использованием новых технологий, привычные уголовно-правовые нормы уже не могут в достаточной степени обеспечивать полноценную охрану благосостояния личности и государства. В статье использовались методы исторического, логического, сравнительного анализа и конкретные социологические методики. Результаты: доказано, что, несмотря на ряд научно-теоретических разработок в сфере ответственности искусственного интеллекта, проблематика по его правовому регулированию остается чрезвычайно актуальной, имеет различные точки зрения и нуждается в скором разрешении. Между тем решать проблему, связанную с уголовной ответственностью в области робототехники, использующей новые технологии, в первую очередь следует в целях обеспечения необходимой защиты интересов общества, которому предстоит в скором времени ежедневно сталкиваться с правовыми проблемами, возникающими в процессе совершенствования технологий. Поэтому сегодня столь актуальны разработки новейших уголовно-правовых охранительных механизмов, которые бы контролировали общественные угрозы в рассматриваемой сфере. Выводы: автор приходит к заключению, что в ближайшей перспективе стандартная практика не обеспечит полноценной охраны благосостояния общества, поскольку уголовно-правовые механизмы будут не в состоянии адекватно реагировать на возникающие технические инновации и не смогут отформатировать в своем ключе новые цифровые уголовно наказуемые действия. В этой связи уже сегодня необходимо искать новые решения по уголовно-правовой охране общественных отношений цифрового общества. В то же время важно, чтобы конструкции новых охранительных механизмов своевременно оценивали возможные риски, связанные с техническими новшествами и технологическими прорывами.

Ключевые слова: цифровое общество; искусственный интеллект; правовое регулирование; меры уголовной ответственности; законодательные основы; возмещение вреда; правоохранительная деятельность; предупреждение преступности; соблюдение законности.

5.1.4. Уголовно-правовые науки.

Для цитирования: Кобец П. Н. Совершенствование механизмов уголовно-правовой охраны общественных отношений, возникающих в процессе эволюционирования цифрового общества // Пенитенциарная наука. 2024. Т. 18, № 2 (66). С. 165-170. Ссн 10.46741/26869764.2024.66.2.006.

© Кобец П. Н., 2024

Original article

Improving Mechanisms for Criminal Law Protection of Public Relations Arising in the Process of Digital Society Evolution

■ PETR N. KOBETS

All-Russian Research Institute of the Ministry of Interior of Russia, Moscow, Russia, pkobets37@rambler.ru, https://orcid.org/0000-0001-6527-3788

Abstract.

Introduction: legal relations arising in modern digital society in the field of application of artificial intelligence technologies, first of all, require proportional development of the criminal legal framework, since newly emerging innovative products can be potentially dangerous to humans. Purpose: to show that due to insufficient knowledge and the complexity of accurate forecast of the genesis of legal relations that are associated with the use of new technologies, common criminal law norms can no longer sufficiently provide full protection of the well-being of individuals and the state. Methods: historical, logical, comparative analysis, specific sociological techniques. Results: it is proved that despite a number of scientific and theoretical developments in the field of artificial intelligence liability, the issue of its legal regulation remains extremely relevant, has different points of view and needs to be resolved quickly. Meanwhile, solution of the problem associated with criminal liability of artificial intelligence using new technologies should pursue the goal of protecting interests of the society that will soon have to daily face legal problems arising in the process of improving new technologies. Therefore, today modern developments of the latest criminal law protective mechanisms that could very quickly ensure control of public dangers in the area under consideration are so relevant. Conclusions: in the near future, standard practice will not be able to ensure full protection of the welfare of society, since criminal law mechanisms will not be able to adequately respond to emerging technical innovations and, accordingly, will not be able to format new digital criminally punishable actions in their own way. Thus, it is reasonable to look for new solutions for the criminal law protection of public relations of the digital society. At the same time, it is important that designs of new protective mechanisms timely assess the possible risks associated with technical innovations and technological breakthroughs.

Keywords: digital society; artificial intelligence; legal regulation; criminal liability measures; legislative framework; compensation for harm; law enforcement; crime prevention; compliance with the law.

5.1.4. Criminal law sciences.

For citation: Kobets P.N. Improving mechanisms for criminal law protection of public relations arising in the process of digital society evolution. Penitentiary Science, 2024, vol. 18, no. 2 (66), pp. 165-170. doi 10.46741/2686-9764.2024.66.2.006.

Введение

Среди основных направлений по формированию и совершенствованию научно-технического прогресса в условиях XXI столетия особо выделяется вектор, неразрывно связанный с роботизированными системами, основанными на искусственном интеллекте. Разработка и последующее активное продвижение данных приводят к постановке все новых проблемных вопросов как в целом перед правовой наукой, так и ее уголовно-правовой отраслью в частности.

Сегодня в большинстве государств в сфере законодательного регулирования общественных отношений, касающихся технологий искусственного интеллекта, ключевыми остаются вопросы, связанные с разного рода мерами ответственности в случае причинения вреда данными технологиями [1, с. 85]. Меры ответственности за противоправную деятельность в сфере технологий с использованием искусственного интеллекта в ближайшей перспективе станут одними из самых сложных не только в зарубежной, но и в российской юридической практике [2, с. 125].

Сегодня мы можем наблюдать, как искусственный интеллект влияет на большинство сфер человеческой жизнедеятельности, включая экономику, финансовую сферу, медицину, транспорт и др. [3, с. 43]. Список технологий с использованием искусственного интеллекта может быть достаточно длинным.

Обсуждение

С целью последовательного анализа проблематики, связанной с уголовной ответственностью в сфере робототехники, использующей технологии искусственного интеллекта, в первую очередь важно разъяснить само понятие «искусственный интеллект». Указ Президента Российской Федерации от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» устанавливает приоритеты в данном направлении, а также дает определение искусственного интеллекта - «комплекс технологических решений, позволяющих имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоста-

вимые, как минимум, с результатами интеллектуальной деятельности человека» [4, с. 123].

Среди основных признаков искусственного интеллекта можно выделить следующие: наличие технического устройства (киберфизической системы), способного воспринимать информацию и передавать ее; определенная степень автономной работы без человеческого участия (субъектность) при отсутствии жизни у такой системы; способность к анализу, обобщению информации, выработке интеллектуальных решений на основе изученных данных (мышление), самосознанию; способность к обучению, самостоятельному поиску информации и принятию на основе этой информации решений [5, с. 37].

Большинство экспертов, аналитиков и специалистов, исследующих данную проблематику, рассматривают общие характеристики информационных технологий [6, с. 31]. Отмечают, что физическая природа данного понятия выражается в технической системе, созданной чтобы подражать мыслительным процессам человека и осуществлять функционал, подвластный ему же [7, с. 25]. Отечественные эксперты полагают, что технологии искусственного интеллекта - это сложная, специально созданная программно-аппаратная система, которая обладает возможностями восприятия и анализа информационных данных и может самообучаться [8, с. 43].

Между тем отметим, что проблематика, связанная с легальным правовым определением рассматриваемой технологии, актуализируется отсутствием ее юридических характеристик, в том числе как субъекта и объекта правоотношений. Большинство дефиниций имеют существенные недостатки. Так, по мнению ряда авторов, на технологию искусственного интеллекта обязательно должен распространяться режим юридического лица, потому как они оба в гражданско-правовом смысле являются фикцией [9, с. 162].

Однако, на наш взгляд, у робототехники и иных цифровых продуктов, функционирующих с использованием искусственного интеллекта, не просматриваются признаки юридических лиц. Несмотря на то что этим правовым феноменам присуща функция фикции, их никоим образом не объединяет механизм по правовому регулированию.

В сложившихся условиях очевидно, что в настоящее время важно прорабатывать вопросы, касающиеся развития механизмов охраны общественных отношений, возникающих в процессе эволюционирования робототехники, использующей новые технологии. Сегодня рассматриваемые технологии уже существуют в электронном виде в качестве компьютерных программ, обеспечивающих функционирование робототехники и иных цифровых устройств. Как отмечают отечественные специалисты, анализируя вопросы правосубъектности робототехники, она имеет регистрацию в специальных реестрах, при этом обладает существенной материальной ценностью. Поэтому в качестве мер ответственности в случае нарушения правоотношений, вызванных деятельностью данных технологий, ряд исследователей предлагает останавливать функционирование подобного продукта, использующего для работы новые

технологии, а после чего его перепрограммировать либо вообще уничтожать.

По нашему мнению, подобные подходы весьма спорны и должны доказываться более убедительно, с детальным раскрытием данного механизма, а не просто декларироваться. Непонятно, каким образом и самое главное - кем компьютерные программы могут признаваться в качестве субъектов правоотношений, будучи субъектами и объектами правого регулирования.

Как полагает В. А. Лаптев, технологии искусственного интеллекта обладают рядом отдельных элементов субъективного права и в то же время выступают объектами этого права [10, с. 87]. Поэтому в ближайшие годы меры ответственности за деятельность технологий искусственного интеллекта будут возлагаться на их создателей (производителей), а также владельцев (операторов) аналогично с мерами ответственности в случае причинения вреда источниками, представляющими повышенную опасность. Однако в дальнейшей перспективе рассматриваемые технологии могут быть наделены правоспособностью с возможностью несения самостоятельной юридической ответственности. После таких шагов их правосубъектность будет существовать в цифровом пространстве, что может стать существенным риском роста преступных посягательств с использованием искусственного интеллекта.

В подобных ситуациях робототехника будет являться орудием либо средством совершения преступных посягательств, а к мерам уголовной ответственности необходимо привлекать лиц, использующих ее в преступных целях. В этой связи существует необходимость проведения отдельных исследований относительно того, повышается ли степень общественной опасности преступных посягательств, которые совершаются с применением технологий искусственного интеллекта. Очевидно, что для совершения высококвалифицированных убийств такие технологии могут быть необходимы. Поэтому в дальнейшей перспективе чрезвычайно важно как можно детальнее проработать вопрос о необходимости дополнения ч. 2 ст. 105 УК РФ соответствующими признаками.

Нам близки те правоведы, которые усматривают необходимость привлечения к мерам различной юридической ответственности людей (разработчиков, производителей, владельцев, арендаторов, операторов и др.) в случаях причинения робототехникой в процессе ее деятельности любого вреда [11, с. 281]. В то же время при совершении противоправного деяния в рассматриваемой сфере правоохранителям будет крайне трудно определить меру ответственности конкретных лиц, имевших отношение к изделиям и технологиями, использующим для своего функционирования искусственный интеллект: производителей, лиц, реализующих данную продукцию, собственников и др.

С развитием цифровых технологий проблемы, связанные с их правовым регулированием, будут усиливаться. Сложность привлечения к наказанию разработчиков цифрового продукта обусловлена

возможностью искусственного интеллекта самообучаться. Теоретически не стоит исключать ситуации, когда интеллектуальные системы смогут себя перепрограммировать, получив в процессе соответствующей модернизации необходимые для этого данные из внешних источников, изменить свои настройки, что может привести к негативным последствиям. В таких случаях лиц, которые изобрели подобный продукт либо его в дальнейшем перепрограммировали, привлечь к ответственности за возникшие правовые последствия будет непросто.

Пока не находят поддержки правоведов отдельные высказывания относительно необходимости возложить ответственность за противоправную деятельность, совершаемую с использованием технологий искусственного интеллекта, в соответствии с традиционными уголовно-правовыми нормами, в частности п. «в» ч. 2 ст. 238 УК РФ. При этом лица, ответственные за деятельность искусственного интеллекта, могут привлекаться к закону, когда в процессе создания данных систем допускались ошибки, которые впоследствии привели к совершению противоправных деяний; данные системы были подвергнуты неправомерному доступу, который послужил основанием их повреждения [12, с. 570] либо усовершенствования их функционала, повлекшего за собой совершение преступления; когда рассматриваемые технологии, обладая возможностью самообучаться, пришли к мнению о необходимости совершения противоправного деяния.

Важно осознавать, что информационные технологии - это всего лишь цифровые процессы, присутствующие в определенной программной оболочке. Они не сознательное существо, обладающее действиями и поступками, поэтому не могут обладать таким же статусом, как физические лица, и не относятся к субъектам юридической ответственности. В процессе правового регулирования рассматриваемые технологии не могут быть и юридическими лицами, потому как не имеют многих особенностей, присущих данным субъектам. В соответствии с отечественной правовой доктриной в случае противоправной деятельности меры ответственности могут быть возложены на каких-либо лиц, организации либо государство, при этом в соответствии со ст. 19 УК РФ субъекты ответственности - вменяемые физические лица, которые достигли возраста, с которого наступают меры ответственности.

Важно также отметить, что поскольку искусственный интеллект является компьютерной системой, то «на основании ст. 274 УК РФ меры уголовной ответственности наступают в том числе и вследствие нарушения правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей» [13, с. 35]. В этой связи мы солидарны с позицией исследователей, отмечающих, что обозначенную законодательную норму возможно применять относительно рассматриваемых технологий. В то же время важно помнить, что ст. 274 УК РФ бланкетная, отсылающая к различного рода правилам, которыми установлены механизмы порядка работы со средствами «по хране-

нию, обработке, передаче охраняемых компьютерных информационных данных, информационно-телекоммуникационными сетями и оконечным оборудованием в ведомстве или организации, нарушение которых повлекло уничтожение, блокирование, модификацию, либо копирование компьютерной информации, причинившее крупный ущерб» [14, с. 124].

На наш взгляд, преступные деяния, совершаемые с использованием новых технологий, должны наказываться в соответствии с общими нормами, предусматривающими наказания за совершение противоправных деяний в отношении личности, против собственности, против государственной власти, интересов государственной службы, службы в органах местного самоуправления и др. Точно также необходимо решать вопросы и в ситуациях, при которых робототехника, использующая рассматриваемые технологии, была подвергнута неправомерному доступу, вследствие которого произошли выход из строя либо усовершенствование ее функционала, и в результате именно этой причины произошло преступное посягательство. В тех случаях, когда неправомерный доступ был осуществлен с использованием новых технологий для оказания негативного влияния на разного рода объекты, связанные с критической информационной инфраструктурой, ответственность должна наступать по ст. 274.1 УК РФ.

Подводя итог исследованию формирования механизмов, связанных с охраной общественных отношений, возникающих в процессе развития новых технологий, важно отметить, что среди основополагающих принципов правового регулирования всегда был гуманизм, который образует антропоцентрическую правовую оболочку, строящуюся вокруг незыблемости прав и свобод человека. Сегодня также важно большое внимание уделять развитию принципов правового регулирования новых технологий, поскольку помимо общеправовых принципов гуманизма, законности, запрета дискриминации к числу рассматриваемых принципов должно также относиться и правовое регулирование, которое будет задавать правильное направление при выстраивании взаимодействия среди двух видов интеллектов [15, с. 15].

Очевидно, что в скором будущем в процессе развития новых технологий одним из первых станет принцип невозможности нанесения ущерба и любого вреда людям. За ним должны следовать принципы конфиденциальности, уважения человеческого достоинства, справедливости, автономности воли, информированного согласия и др. Следует ожидать дополнения отдельных принципов, которые будут лежать в основе правового регулирования таких технологий, использующих искусственный интеллект, как нейронные сети, а также различные объекты робототехники [16, с. 41].

Таким образом, новые правовые отношения, находящиеся в стадии активного формирования, требуют адекватного развития и законодательной базы, поскольку возникающие инновационные продукты могут быть потенциально опасными для человечества в связи с их недостаточной изученностью и сложностью точного прогнозирования генезиса отношений,

которые связаны с их использованием. Особо актуальны современные разработки новейших уголовно-правовых охранительных механизмов, которые смогли бы быстро обеспечить контролирование возможных общественных опасностей, установить меры уголовной ответственности за рассматриваемые противоправные деяния.

Выводы

Таким образом, разрешать проблему, связанную с уголовной ответственностью в сфере робототехники, использующей технологии искусственного интеллекта, необходимы для того, чтобы обеспечить защиту интересов общества, которому предстоит в скором времени ежедневно сталкиваться с деятельностью и результатами принятых решений рассматриваемыми технологиями. В этой связи правовой статус данных технологий должен включать ряд обязанностей, запретов и мер ответственности в случае их нарушения. В целом можно отметить, что имеющуюся проблематику уголовной ответственности в сфере новых технологий вполне возможно разделить на группы. Первая связана с неправомерным внесением изменений в программы. Чтобы эффективно предотвращать данные посягательства, необходимо вносить изменения

в действующие редакции ряда статей УК РФ. Вторая группа связана непосредственно с мерами ответственности за причинение разного рода вреда и ущерба машинами и оборудованием, использующим в своей работе технологии искусственного интеллекта.

Проведенное исследование свидетельствует о том, что сегодня привычные методы уже не могут обеспечить полноценную охрану благосостояния личности. Существующие уголовно-правовые механизмы, нацеленные на существующие общественно опасные деяния, возможно, в скором времени будут не в состоянии эффективно реагировать на происходящие трансформации и не смогут отформатировать в своем ключе новые цифровые уголовно наказуемые действия. Поэтому активное использование новейших цифровых технологических процессов по передаче и распространению информационных данных вынуждает государство искать новые решения, связанные с уголовно-правовой охраной общественных отношений, которые возникают в современном цифровом обществе. При этом важно, чтобы конструкции новых охранительных механизмов как можно реальнее оценивали потенциальную общественную опасность, возникающую с развитием новых технологий.

I СПИСОК ИСТОЧНИКОВ

1. Филипова И. А. Правовое регулирование искусственного интеллекта: регулирование в России, иностранные исследования и практика // Государство и право. 2018. № 9. С. 79-88.

2. Тарасов И. Н. Проблемы правового регулирования на примере понятия «искусственный интеллект» // Lex Russica (Русский закон). 2022. Т. 75, № 1 (182). С. 122-130.

3. Ястребов О. А. Дискуссия о предпосылках для присвоения роботам правового статуса «электронных лиц» // Вопросы правоведения. 2017. № 1. С. 189-203.

4. Кобец П. Н. Зарубежные и отечественные подходы к законодательному регулированию общественных отношений в сфере применения технологий искусственного интеллекта // Вестник Санкт-Петербургского университета МВД России. 2023. № 4 (100). С. 119-126.

5. Васильев А. А., Шпоппер Д., Матаева М. Х. Термин «искусственный интеллект» в российском праве: доктриналь-ный анализ // Юрислингвистика. 2018. № 7-8. С. 35-44.

6. Болотова Л. С. Системы искусственного интеллекта: модели и технологии, основанные на знаниях : учеб. М., 2012. 664 с.

7. Синельникова В. Н., Ревинский О. В. Права на результаты искусственного интеллекта // Копирайт. Вестник Российской академии интеллектуальной собственности и Российского авторского общества. 2017. № 4. С. 17-27.

8. Камышанский В. П., Корецкий А. В. Понятие и правовой статус носителя искусственного интеллекта // Власть Закона. 2019. № 1 (37). С. 42-50.

9. Архипов В. В., Наумов В. Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. № 5. С. 157-170.

10. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102.

11. Морхат П. М. Правосубъектность юнита искусственного интеллекта: некоторые гражданско-правовые подходы // Вестник Костромского государственного университета. 2018. Т. 24, № 3. С. 280-283.

12. Хисамова З. И., Бегишев И. Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. Т. 13. № 4. С. 564-574.

13. Кобец П. Н. Искусственный интеллект: современные подходы по формированию понятийного аппарата и регулированию правоотношений в рассматриваемой сфере // Вестник Самарского юридического института. 2023. № 5 (56). С. 30-37.

14. Хилюта В. В. Цифровое переформатирование уголовного права // Вестник Московского университета МВД России. 2021. № 1. С. 123-128.

15. Смолин Д. В. Введение в искусственный интеллект: конспект лекций. М., 2004. 208 с.

16. Попова А. В., Горохова С. С., Азнагулова Г. М. Теоретико-правовые подходы к определению системы принципов законодательного регулирования искусственного интеллекта на современном этапе развития правового государства // Правовое государство: теория и практика. 2019. № 3 (57). С. 37-43.

Щ REFERENCES

1. Filipova I.A. Legal regulation of artificial intelligence: the need for regulation in Russia, foreign studies and practice. Gosudarstvo i pravo = State and Law, 2018, no. 9, pp. 79-88. (In Russ.).

2. Tarasov I.N. Problems of legal regulation as in the case of the concept of "artificial intelligence". Lex Russica = Russian Law, 2022, vol. 75, no. 1 (182), pp. 122-130. (In Russ.).

3. Yastrebov O.A. Discussion about the prerequisites for assigning robots the legal status of "electronic persons". Voprosi pravovedeniya = Legal Issues, 2017, no. 1, pp. 189-203. (In Russ.).

4. Kobets P.N. Foreign and national approaches to the legislative regulation of public relations in the field of application of artificial intelligence technologies. Vestnik Sankt-Peterburgskogo universiteta MVD Rossii = Bulletin of the St. Petersburg University of the Ministry of Internal Affairs of Russia, 2023, no. 4 (100), pp. 119-126. (In Russ.).

5. Vasil'ev A.A., Shpopper D., Mataeva M.Kh. The term "artificial intelligence" in the Russian law: doctrinal analysis. Yurislingvistika = Legal Linguistics, 2018, no. 7-8, pp. 35-44. (In Russ.).

6. Bolotova L.S. Sistemy iskusstvennogo intellekta: modeli i tekhnologii, osnovannie na znaniyakh: ucheb. [Artificial intelligence systems: models and technologies based on knowledge: textbook]. Moscow, 2012. 664 p.

7. Sinel'nikova V.N., Revinskii O.V. Rights to the results of artificial intelligence. Kopirait. Vestnik Rossiiskoi akademii intellektualnoi sobstvennosti i Rossiiskogo avtorskogo obshchestva = Copyright. Bulletin of the State Academy of Intellectual Property and Russian Authors Society, 2017, no. 4, pp. 17-27. (In Russ.).

8. Kamyshanskii V.P., Koretskii A.V. The concept and legal status of a carrier of artificial intelligence. Vlast Zakona = The Power of Law, 2019, no. 1 (37), pp. 42-50. (In Russ.).

9. Arkhipov V.V., Naumov V.B. On some issues of the theoretical foundations for the development of legislation on robotics: aspects of will and legal personality. Zakon = Law, 2017, no. 5, pp. 157-170. (In Russ.).

10. Laptev V.A. Artificial intelligence and liability for its work. Pravo. Zhurnal Visshei shkoli ekonomiki = Law. Journal of the Higher School of Economics, 2019, no. 2, pp. 79-102. (In Russ.).

11. Morhat P.M. Legal personality of an artificial intelligence unit: some civil law approaches. Vestnik Kostromskogo gosudarstvennogo universiteta = Bulletin of Kostroma State University, 2018, vol. 24, no. 3, pp. 280-283. (In Russ.).

12. Khisamova Z.I., Begishev I.R. Criminal liability and artificial intelligence: theoretical and applied aspects. Vserossiiskii kriminologicheskii zhurnal = Russian Journal of Criminology, 2019, vol. 13, no. 4, pp. 564-574. (In Russ.).

13. Kobets P.N. Artificial intelligence: modern approaches to the formation of the conceptual apparatus and regulation of legal relations in the area under consideration. Vestnik Samarskogo yuridicheskogo instituta = Bulletin of the Samara Legal Institute, 2023, no. 5 (56), pp. 30-37. (In Russ.).

14. Khilyuta V.V. Digital reformatting of criminal law. Vestnik Moskovskogo universiteta MVD Rossii = Bulletin of Moscow University of the Ministry of Internal Affairs of Russia, 2021, no. 1, pp. 123-128. (In Russ.).

15. Smolin D.V. Vvedenie v iskusstvennii intellekt: konspekt lektsii [Introduction to artificial intelligence: lecture notes]. Moscow, 2004. 208 p.

16. Popova A.V., Gorokhova S.S., Aznagulova G.M. Theoretical and legal approaches to the definition of the system of the principles of legislative regulation of artificial intelligence at the present stage of development of the rule-of-law state. Pravovoe gosudarstvo: teoriya i praktika = The Rule-of-Law State: Theory and Practice, 2019, no. 3 (57), pp. 37-43. (In Russ.).

СВЕДЕНИЯ ОБ АВТОРЕ / INFORMATION ABOUT THE AUTHOR

ПЕТР НИКОЛАЕВИЧ КОБЕЦ - доктор юридических наук, профессор, главный научный сотрудник Центра организационного обеспечения научной деятельности Всероссийского научно-исследовательского института МВД России, Москва, Россия, pkobets37@rambler.ru, https://orcid.org/0000-0001-6527-3788

PETR N. KOBETS - Doctor of Sciences (Law), Professor, Chief Researcher at the Center for Organizational Support of Scientific Activities of the All-Russian Research Institute of the Ministry of Interior of Russia, Moscow, Russia, pkobets37@rambler.ru, https://orcid.org/0000-0001-6527-3788

Статья поступила 11.03.2024

i Надоели баннеры? Вы всегда можете отключить рекламу.