Научная статья на тему 'Искусственный интеллект и профилактика его общественной опасности'

Искусственный интеллект и профилактика его общественной опасности Текст научной статьи по специальности «Право»

CC BY
505
95
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / естественный / человеческий интеллект / угроза общественной опасности / профилактика общественной опасности / правовое регулирование / уголовно-правовая охрана. / artificial intelligence / natural / human intelligence / threat of public danger / prevention of public danger / legal regulation / criminal legal protection

Аннотация научной статьи по праву, автор научной работы — Разгильдиев Бяшир Тагирович

Введение: искусственный интеллект может существенно повышать социальные возможности человека и развивать отношения, участником которых он является. Вместе с тем он может оказаться носителем общественно опасных угроз для человека, среды его обитания и мира в целом. Данная констатация требует постановки и решения вопросов профилактики возможных нежелательных последствий от внедрения искусственного интеллекта в общественную практику. Цель: создание правовых механизмов профилактики возможных общественно опасных угроз, исходящих от искусственного интеллекта. Методологическая основа: диалектический метод, анализ и синтез, индукция и дедукция и др. Результаты: сформировано авторское понимание искусственного интеллекта; показано его сущностное отличие от интеллекта естественного, предложены их понятия; аргументированы возможные общественно опасные риски, связанные с внедрением искусственного интеллекта, показаны правовые механизмы профилактики общественно опасных угроз, потенциально исходящих от искусственного интеллекта. Выводы: искусственный интеллект при всей актуальности его использования для личности, общества, государственной власти, мира и безопасности человечества объективно может стать носителем общественно опасных угроз. Понимание этого актуализирует их профилактику, которая может осуществляться посредством определения понятия «искусственный интеллект», его правового регулирования и возможной уголовно-правовой охраны.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Artificial Intelligence and Prevention of Its Public Danger

Background: the artificial intelligence can significantly raise social opportunities of the person and develop the relations which participant he is. At the same time it can be the carrier of socially dangerous threats for the person, ecology, the world. This ascertaining demands statement and the solution of questions of prevention of possible socially dangerous threats of artificial intelligence. Objective: creation of legal prevention mechanisms of the possible socially dangerous threats proceeding from artificial intelligence. Methodology: a set of methods: dialectic, analysis, synthesis, inductive, deductive, etc. Results: the author’s understanding of artificial intelligence is created, its intrinsic difference from intelligence natural is shown, their concepts are offered, possible socially dangerous risks of artificial intelligence are reasoned, legal mechanisms of prevention of its socially dangerous threats are shown. Conclusions: the artificial intelligence at its relevance for the personality, society, the government, the world and safety of mankind can objectively become the carrier of socially dangerous threats staticizing their prevention. It is proved that it can be performed by means of determination of artificial intelligence, its legal regulation and possible criminal legal protection.

Текст научной работы на тему «Искусственный интеллект и профилактика его общественной опасности»

УГОЛОВНОЕ И УГОЛОВНО-ИСПОЛНИТЕЛЬНОЕ ПРАВО

DOI 10.24412/2227-7315-2021-5-154-163 УДК 343.231.04

Б.Т. Разгильдиев

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРОФИЛАКТИКА ЕГО ОБЩЕСТВЕННОЙ ОПАСНОСТИ*

Введение: искусственный интеллект может существенно повышать социальные возможности человека и развивать отношения, участником которых он является. Вместе с тем он может оказаться носителем общественно опасных угроз для человека, среды его обитания и мира в целом. Данная констатация требует постановки и решения вопросов профилактики возможных нежелательных последствий от внедрения искусственного интеллекта в общественную практику. Цель: создание правовых механизмов профилактики возможных общественно опасных угроз, исходящих от искусственного интеллекта. Методологическая основа: диалектический метод, анализ и синтез, индукция и дедукция и др. Результаты: сформировано авторское понимание искусственного интеллекта; показано его сущностное отличие от интеллекта естественного, предложены их понятия; аргументированы возможные общественно опасные риски, связанные с внедрением искусственного интеллекта, показаны правовые механизмы профилактики общественно опасных угроз, потенциально исходящих от искусственного интеллекта. Выводы: искусственный интеллект при всей актуальности его использования для личности, общества, государственной власти, мира и безопасности человечества объективно может стать носителем общественно опасных угроз. Понимание этого актуализирует их профилактику, которая может осуществляться посредством определения понятия «искусственный интеллект», его правового регулирования и возможной уголовно-правовой охраны.

Ключевые слова: искусственный интеллект, естественный, человеческий интеллект, угроза общественной опасности, профилактика общественной опасности, правовое регулирование, уголовно-правовая охрана.

© Разгильдиев Бяшир Тагирович, 2021

Доктор юридических наук, профессор, профессор кафедры уголовного и уголовно-исполнительного права (Саратовская государственная юридическая академия), Заслуженный деятель науки России; e-mail: [email protected]

© Razgildiev Byashir Tagirovich, 2021

Doctor of law, Professor, Professor, Department of Criminal and penal enforcement law (Saratov State Law Academy), Honored Scientist of Russia

* Исследование выполнено при финансовой поддержке РФФИ в рамках научного проекта № 20-01100194 «Теоретико-методологическая модель профилактического права как новой отрасли законодательства».

B.T. Razgildiev

ARTIFICIAL INTELLIGENCE AND PREVENTION OF ITS PUBLIC DANGER

Background: the artificial intelligence can significantly raise social opportunities of the person and develop the relations which participant he is. At the same time it can be the carrier of socially dangerous threats for the person, ecology, the world. This ascertaining demands statement and the solution of questions of prevention of possible socially dangerous threats of artificial intelligence. Objective: creation of legal prevention mechanisms of the possible socially dangerous threats proceeding from artificial intelligence. Methodology: a set of methods: dialectic, analysis, synthesis, inductive, deductive, etc. Results: the author's understanding of artificial intelligence is created, its intrinsic difference from intelligence natural is shown, their concepts are offered, possible socially dangerous risks of artificial intelligence are reasoned, legal mechanisms of prevention of its socially dangerous threats are shown. Conclusions: the artificial intelligence at its relevance for the personality, society, the government, the world and safety of mankind can objectively become the carrier of socially dangerous threats staticizing their prevention. It is proved that it can be performed by means of determination of artificial intelligence, its legal regulation and possible criminal legal protection.

Key-words: artificial intelligence, natural, human intelligence, threat of public danger, prevention of public danger, legal regulation, criminal legal protection.

Искусственный интеллект как категория и как явление представляет интерес

для многих научных специальностей, в том числе правовых. Как ученого, спе- ш

циализирующегося в сфере криминальных наук, меня интересуют отношения, |

связанные с исследованием искусственного интеллекта в качестве возможного а

носителя общественно опасных угроз, а при научном подтверждении данного о

предположения — с разработкой правовых механизмов их профилактики. О

Названное направление исследования предполагает выявление характерных С

черт искусственного интеллекта. Этому должно предшествовать установление а

С

сущностных свойств интеллекта естественного. Такой подход позволит увидеть В

общее между тем и другим интеллектом (если, разумеется, оно имеет место) и, О

что не менее важно, уяснить существующие между этими феноменами различия. р'

Это, как представляется, позволит определиться с возможностью искусственно- |

го интеллекта быть носителем общественной опасности не только на этапе его к

разработки, но и на этапах производства и эксплуатации. Полученные новые а'

к

научные знания такого рода актуализируют образование правовых механизмов Ш

профилактики общественно опасных угроз на каждой из стадий разработки и ||

использования искусственного интеллекта. ¡§

В общей теории права (как, впрочем, и в отраслевых теориях права) трудно 4

найти определение интеллекта человека в противовес интеллекту искусственно- ~

му. При этом надо понимать, что ряд отраслей права и науки активно оперируют 8 отдельными свойствами интеллекта — такими как сознание, воля, эмоциональное состояние. Некоторые отрасли права и знаний: уголовное право, уголовно-процессуальное право, криминология, профилактика и др. — в своем арсенале имеют категории, выступающие, по моему мнению, продуктами интеллекта. В частности, это вина, мотив, цель, невиновное причинение, аффект. Данные

категории отражают явления, свидетельствующие об органической связи поведения человека с его интеллектом.

В свете изложенного естественный интеллект — это, на мой взгляд, основанное на социально-биологических закономерностях явление, выступающее органической частью живой и неживой природы, самодостаточное для своего существования, развития, созидательного взаимодействия с природой, обществом, миром.

Представленное понимание основывается на совокупности сущностных признаков, каждый из которых отражает не какую-то часть интеллекта, а интеллект в целом. Интеллект, с моей точки зрения, непосредственно связан с закономерностями, присущими социально-биологическим факторам и образующими его содержание. По мнению К.В. Анохина, мозг человека не биологический орган, а когнитивный, хотя и подчиняется биологическим законам1. Вместе с тем в определение интеллекта мною включаются закономерности не биологические, а социально-биологические, поскольку, полагаю, биология человека органически «связана» с социальными отношениями. Это касается, на мой взгляд, и естественного интеллекта.

Признак самодостаточности придает интеллекту фундаментальное значение, в том смысле, что он не ограничен в формировании различных поведенческих актов его носителя. Интеллект достаточен для созидательного взаимоотношения с окружающей действительностью, однако при этом он столь же достаточен для взаимодействия разрушительного. Получается, что источником и общественно полезного и общественно опасного поведения человека выступает естественный интеллект. Можно предположить, что причиной обоих феноменов выступают социально-биологические свойства естественного интеллекта.

Следовательно, причиной общественно опасных посягательств, а значит и объектом профилактического воздействия для их предотвращения является непосредственно интеллект человека, его (человека) сознание, воля и окружающая его социальная действительность. При этом уместно отметить, что ясности относительно причин общественно опасного поведения человека в криминологической [1, с. 189] и профилактической [2, с. 198] теориях недостаточно для того, чтобы реально создавать механизм воздействия на них.

Определившись с естественным интеллектом в части источников его общественно опасных посягательств логично приступить к осмыслению искусственного интеллекта и возможных источников исходящих от него общественно опасных угроз для уяснения соответствующих правовых механизмов их профилактики.

Современная действительность показывает, что искусственный интеллект (далее — продукт, если не оговорено иного) так или иначе существует в реальной жизни [3, с. 462].

Можно предположить, что недалеко то время, когда осмысливаемое явление станет органической частью осуществляемой человеком деятельности в различных сферах — социальной, экономической, медицинской, биологической, экологической и др.

Закономерно возникает вопрос: может ли продукт обладать свойствами интеллекта естественного, в частности не только созидать, но и разрушать? Полагаю,

1 См.: Академик Анохин о природе сознания. URL: https://proza.ru/2021/07/07/995 (дата 156 обращения: 29.07.21).

что может. Основным аргументом является тезис: искусственный интеллект создается интеллектом естественным — следовательно, качества и свойства, присущие интеллекту человека, в большей или меньшей мере либо равные ему может получить и интеллект искусственный. Правда при этом надо иметь в виду, что коль скоро речь идет об интеллекте искусственном, то его разработчик осознанно либо неосознанно может усилить не только его позитивные, но и негативные свойства. Где речь идет об осознанном придании продукту общественно опасных свойств, там все ясно. Сложнее, когда созданный продукт обладает разрушительными свойствами, не включенными в него разработчиками. Они могут возникать или проявлять себя в силу каких-то закономерностей, присущих созданному интеллекту, как это в какой-то мере характерно для интеллекта естественного.

Наукой разработан ряд определений, пониманий искусственного интеллекта1 [4, с. 249; 5, с. 69]. Однако, по мнению С.Н. Павлова, создать единое понимание данного феномена пока не удалось [6, с. 9]. Многие определения чаще всего отражают его технологическую специфику, нередко не выступающую сущностным свойством данного явления. В большинстве своем они не содержат социальных признаков, отражающих статус продукта. Надо понимать, что определение того или иного явления (в нашем случае — искусственного интеллекта) важно само по себе, поскольку в какой-то мере теоретически обосновывает данный феномен. Однако суть не только в этом. Определение как в целом, так и в части признаков продукта служит ориентиром для его последующего производства и эксплуатации. А это означает, что теоретические разработки такого рода выступают своеобразными механизмами регулирования отношений по созданию продукта, его возможного производства и эксплуатации. Они позволяют более плодотворно совершенствовать специальные и социальные свойства продукта, включая его безопасность. В этой связи определение понятия «искусственный интеллект» приобретает не только теоретическую, но и практическую значимость. Думаю, что это понятие должно включать в себя признаки, характеризующие сущностные свойства продукта, поскольку именно они отражают его специфику. Если определяемое явление актуально для личности и общества, его понимание должно включать в себя и социальные признаки. Наличие сущностных специальных и социальных признаков явления, во-первых, максимально точно характеризуют его как в статическом, так и в динамическом состоянии, а во-вторых, констатирует его социальный статус, то есть непосредственную предназначенность для человека. В-третьих, наличие социальных свойств явления позволяют предметно регулировать его позитивными отраслями права, а при наличии противоправных общественно опасных угроз обеспечить уголовно-правовую охрану для их предотвращения.

По моему мнению, искусственный интеллект — это создаваемый (созданный) человеком на основе цифровизации физический продукт, обладающий ограниченной самостоятельностью во времени, пространстве, а также по характеру и видам системной деятельности, осуществляемой на нравственной основе в целях социального удовлетворения (полезности) для личности, общества, государ-

1 См.: John McCarthy. What is Artificial Intelligence? 2007. URL: jmc.stanford.edu/articles/ whatisai/whatisai.pdf (дата обращения: 29.07.21); Осипов Г. Искусственный интеллект: состояние исследований и взгляд в будущее. URL: www.raai.org/about/persons/osipov/pages/ai/ ai.html (дата обращения: 29.07.21). 157

ственной власти, мира и безопасности человечества. Охарактеризуем признаки данного понятия.

Итак, искусственный интеллект выступает в виде физического продукта. Это означает, что продукт может приобретать разные по форме очертания. При этом важно, что сам по себе он обладает физической характеристикой, что позволяет контролировать характер и виды его работы, включая время и пространство, продуктивность, возможные общественно опасные риски.

Физический продукт создается на основе цифровизации. Как представляется, современные технологии, в том числе и искусственный интеллект, так или иначе основываются на цифровизации. Следовательно, «цифра» отражает все виды технологий независимо от их совершенства. Поэтому при определении понятия «искусственный интеллект» правильно оперировать не видами технологий, образующих названный феномен, а технологией, которая является базовой для существующих и вновь возникающих продуктов такого рода.

Продукт предполагает системную деятельность. Системность как бы отражает некую его связь с интеллектом естественным. Как представляется, суть человеческого интеллекта заключается в способности отражать системное восприятие окружающего мира и превращать его в системное поведение. В этом смысле вряд ли можно согласиться с учеными полагающими, что искусственный интеллект не может осуществлять творческую деятельность1. Семантически творчество — это деятельность человека по созданию культурных или материальных ценностей [7, с. 345]. Можно предположить, что творчество человека объективно дифференцируется по степени, с учетом чего искусственный интеллект также будет дифференцирован в зависимости от уровня (степени) восприятия (объективного или субъективного) им окружающей действительности. Такого рода восприятие и его последующее преобразование в поведение может быть и творческим. Искусственный интеллект создается человеком, то есть естественным интеллектом. Полагаю, что это обстоятельство в определении рассматриваемого понятия следует не просто иметь в виду, а выделить в качестве самостоятельного признака. Он будет свидетельствовать о том, что создатель искусственного интеллекта — человек или группа лиц, обладающий(их) социально-правовым статусом, позволяющим ему (им) ориентироваться во времени и пространстве, нести ответственность (включая нравственную) за свою деятельность.

Разрабатываемый продукт не обладает самодостаточностью для своего существования, развития, связи с окружающей действительностью. Он наделен самостоятельностью, но и она ограничена — во времени, пространстве, по видам и характеру деятельности. Отсутствие самодостаточности будет свидетельствовать, что продукт носит искусственный характер. По мере познания социально-биологических закономерностей интеллекта продукт будет все более расширять самостоятельность, благодаря чему впоследствии, с учетом диалектического перехода количественных изменений в качественные, продукт может оказаться самодостаточным, не переставая при этом быть искусственным. Такое понимание перехода может включить «в работу» другой диалектический закон: отрицание отрицания. Поэтому уже на этапе разработки следует не упускать из виду возможность перехода продукта из состояния ограниченной самостоятельности в

1 См.: Рябов И. 10 законов и ИИ от Статьи Наделлы 2017. URL: http://droider.ru/post/10-zakonov-dlya-lyudey-i-ii-ot-sati-nadellyi-30-06-2016/ (дата обращения: 29.07.21).

состояние самодостаточности, что не исключает возможности создания общественной опасности для естественного интеллекта в целом.

Создание (разработка) продукта предполагает нравственную основу. Названный признак означает, что продукт имеет не только научный аспект, но и аспекты социальные, актуальные в определенных сферах жизнедеятельности человека. Отсюда вывод: цифровая (технологическая) составляющая не может иметь свойства, придающие продукту агрессивность, насилие, разрушительность (в том числе угрозу их проявления) в отношении окружающей действительности, включая живую и неживую природу, человека. В теории для предотвращения негативных последствий работы искусственного интеллекта (правда, пока лишь применительно к роботам) предложен ряд общих запретов [8, с. 129]. Это хорошо, однако вряд ли достаточно для гарантии безопасности искусственного интеллекта и отношений, с которыми он взаимодействует. В этом плане включение в понятие «искусственный интеллект» нравственной составляющей (как сущностного признака) делает излишними всякого рода запреты. И, что особенно важно, нравственность не допускает «работу» продукта на военные действия. Ряд ученых считают, что оружие, оснащенное искусственным интеллектом, уже существует и отчасти применяется [9, с. 63]. По мнению И.Н. Глебова, это вызывает необходимость усиления принципов гуманности на войне [10, с. 105.]. Можно считать, что опасность искусственного интеллекта заключается не только в возможной интенсификации военных действий, а главным образом в том, что он, формируя такого рода «мировоззрение», приобретя самодостаточность, становится реальной силой отрицания естественного интеллекта. Именно поэтому актуально придание продукту свойств нравственности в качестве его естественного состояния. И это свойство уместно придавать продукту сразу при его разработке, чтобы созданный продукт обладал этим свойством на этапе его производства и эксплуатации. По существу, нравственность продукта в принципе исключает его использование в военных целях вообще, и уж тем более для ведения войны.

Последний признак — это социальная цель работы продукта. Имеющиеся определения исследуемой проблемы в большинстве своем не включают в себя цели. Как я полагаю, отсутствие цели практически исключает социальную значимость искусственного интеллекта. На самом деле если то или иное явление: физическое, интеллектуальное, материальное или духовное — является носителем социальных свойств, то оно не может не иметь цели. Обладать социальными свойствами означает иметь социальную значимость: выполнять «работы», в которых объективно заинтересован человек, общество, а в отдельных ситуациях мир и безопасность человечества. Сам факт наличия цели искусственного интеллекта отражает несколько принципиальных моментов. Во-первых, это свидетельствует о том, что продукт выступает социально значимым фактором, то есть участвует в социальных отношениях. Во-вторых, продукт в этом случае не может быть общественно опасным для окружающей действительности. В-третьих, цель выступает объектом контроля со стороны человека. В-четвертых, она является критерием социальной эффективности его работы.

В науке представлено мнение, что целью искусственного интеллекта выступает оказание помощи человечеству1. Полагаю, что человечество само по себе вряд

1 См.: Статья Наделла: ИИ должен помогать людям, а не заменять их. URL: https://www. iguides.ru/main/gadgets/microsoft/satya_nadella_ii_dolzhen_pomogat_lyudyam_a_ne_ zamenyat_ikh/ (дата обращения: 29.07.21). 159

ли нуждается в помощи. Оно, как мною отмечалось, самодостаточно. В рамках такого рода самодостаточности человечество развивается, в том числе путем создания всякого рода продуктов, усиливающих его возможности. Одним из таких продуктов является искусственный интеллект, повышающий возможности человечества. Это не означает, что продукт помогает человечеству. Нет, таким образом, человечество проявляет свою самодостаточность.

Целью искусственного интеллекта, по моему мнению, выступает его способность удовлетворять социальные потребности личности, общества, государственной власти, мира и безопасности человека. Социальная полезность искусственного интеллекта может не ограничиваться национальными границами и носить международный характер, поскольку в соответствии с Конституцией РФ «общепризнанные принципы и нормы международного права и международные договоры Российской Федерации являются составной частью ее правовой системы. Если международным договором Российской Федерации установлены иные правила, чем предусмотренные законом, то применяются правила международного договора» (ч. 4. ст. 15 Конституции РФ).

Охарактеризованные признаки понятия «искусственный интеллект» позволяют констатировать, что продукт, разработанный с учетом заявленных признаков, не может обладать специальными свойствами общественно опасных угроз. Однако надо понимать, что поскольку речь идет хоть и об искусственном, но все-таки интеллекте, то объективно угрозы могут возникнуть как на стадии его разработки, так и на стадиях производства и применения (использования). Поэтому нужен правовой механизм регулирования такого рода отношений. В этой связи я следует признать обоснованность позиций ученых-криминалистов, ратующих за ? включение практики научных изысканий в сфере генетической безопасности в а правовое поле [11, с. 8]. Правовой механизм создания искусственного интеллекта » помимо собственно регулирования придает ему государственную значимость, I сам по себе может повышать эффективность его создания, позволяет соотносить | его с общественной и государственной безопасностью. В последнем случае речь I идет о профилактике общественно опасных угроз, носителем которых может

§ стать искусственный интеллект. Получается, что правовое регулирование может

ф

| включать в себя и профилактику общественно опасных угроз. В свете сказанного § встает вопрос о том, в каком качестве искусственный интеллект выступает в регулятивных отношениях: их субъектом или объектом? В зависимости от ответа Ц на этот вопрос решается проблема создания правового механизма, посредством | которого осуществляется профилактика общественно опасных угроз исследуемо-& го продукта. Отвечая на заданный вопрос, необходимо понимать, что источником | названного продукта выступает естественный интеллект. Создаваемый продукт ё не происходит из социально-биологических закономерностей, что характерно § лишь для естественного интеллекта, поскольку искусственный интеллект не | обладает биологическими качествами. Следовательно, этот продукт не является | носителем сознания и воли. А именно эти факторы сами по себе образуют основу для нравственного и правового регулирования поведения их носителей. В этой связи трудно согласиться с мнением В.А. Лаптева, полагающего, что развитие робототехники в будущем приведет к наличию у роботов свойств субъектов права [12, с. 97]. По существу, речь идет не только об уровне знаний, процесс их повышения — это, скорее, аксиома. Проблема в другом: может ли повы-160 шение знаний само по себе придать продукту биологические свойства подобно

тому, как «работа» интеллекта, сознания, воли осуществляется химическими процессами, запускаемыми биологическими свойствами человека? Думаю, что вряд ли, поскольку биология человека, а стало быть, его интеллект, сознание и воля, «завязаны» на неживой и живой природе мироздания. И в этом смысле следует согласиться с аргументами Б.Б. Леонтьева в пользу придания интеллектуальной природе самостоятельного значения наряду с неживой и живой природой. При этом неживая природа первична, биологическая — вторична, а интеллектуальная — третична [13, с. 10]. Можно предположить, что интеллект человека на биологическом уровне соотносится с неживой и живой природой. Вопрос: сможет ли искусственный интеллект, не обладающий биологическими свойствами, соотноситься соответствующим образом с неживой и живой природой? Полагаю, что вряд ли, что, однако, отнюдь не отрицает возможности искусственного интеллекта достичь уровня самодостаточности, характерной для интеллекта естественного.

Изложенное показывает, что искусственный интеллект (по крайней мере, на данном историческом этапе), не может воспринимать право в качестве регулятора обеспечения интересов личности (в том числе самого интеллекта), общества, государственной власти, мира и человечества. Не может он оценивать и правовой механизм регулирования и, как следствие, не может являться субъектом ответственности. Отсюда вывод: искусственный интеллект не может выступать субъектом регулятивных отношений. Однако для профилактики возможных общественно опасных угроз достаточно того, что искусственный интеллект может выступить объектом регулирования как на стадии его разработки, так и на стадии производства и эксплуатации. Продукт как объект регулирования е предполагает решение нескольких вопросов. Прежде всего, речь идет о его соз- и дании, развитии и взаимодействии с другими явлениями внешнего мира. Далее а решаются вопросы социальной полезности продукта для человека, общества, о природы — живой и неживой. И, наконец, решаются вопросы безопасности о продукта для человека, общества, природы. Последний аспект регулирования о

с

продукта предполагает как недопущение создания у него свойств общественно а

опасных угроз, так и их купирование в случае их возникновения. С учетом из- в

ложенного элементами правового механизма, регулирующего образование про- о

дукта, выступают права субъектов правоотношений и их обязанности. Права р'

предполагают создание продукта, его существование и развитие. Что касается |

нравственной составляющей продукта, его социальной полезности и защищен- к

ности общества от возможных угроз, связанных с его использованием, то их а

купирование в случае их возникновения — это обязанность соответствующих |

субъектов правоотношений. ии

Получается, что механизм профилактики возможных общественно опасных ¡§

угроз искусственного интеллекта включат в себя следующие два элемента: 1) объ- 4

ект правоотношений, то есть отношений по созданию продукта, его производству ) и эксплуатации; 2) правовые статусы субъектов ответственности, каковыми являются разработчик продукта (ответствен за его производство), управляющий (оператор) продуктом, и, наконец, истец, то есть физическое или юридическое лицо, выступающее заказчиком разработки, производства, собственник или управляющий эксплуатацией продукта.

В ситуации, когда продукт становится реальным носителем общественно

опасных угроз, их профилактика регулятивными отраслями права оказывается 161

недостаточной. Возникает потребность в уголовно-правовой охране отношений, относительно которых искусственный интеллект создает общественно опасные угрозы. Это может быть общественная, экологическая, государственная безопасность и др. При этом искусственный интеллект не может выступать субъектом уголовно-правовых отношений по тем же соображениям, которые приведены относительно субъекта ответственности регулятивных правоотношений. В этом качестве выступают разработчики продукта, лица, осуществляющие эксплуатацию искусственного интеллекта, либо другие физические лица, виновно придавшие продукту свойства общественной опасности. Сознание и воля лиц, придавших искусственному интеллекту общественно опасные риски для отношений, охраняемых уголовным законом, также становятся объектом профилактического воздействия. Это воздействие реализуется посредством механизма, включающего в себя следующие элементы:

1) вред или угроза его причинения отношениям, охранявшимся соответствующим составом преступления уголовного законодательства;

2) виновное физическое лицо (его сознание, воля), посредством деяния которого возникло общественно опасное «поведение» искусственного интеллекта.

В ситуации, когда общественно опасные риски искусственного интеллекта реально угрожают охраняемым уголовным законом отношениям и возникшая при этом угроза является следствием его самостоятельного поведения, объектом профилактического воздействия становится искусственный интеллект. Однако такого рода воздействие осуществляется в рамках регулятивных правовых отношений.

я Итак, искусственный интеллект характеризуется ограниченной самостоятель-

? ностью, в то время как интеллект естественный обладает самодостаточностью а для своего существования, развития, взаимодействия с окружающим миром. g Искусственный интеллект может быть носителем общественно опасных угроз, i профилактика которых осуществляется регулятивными отраслями права. | В ситуациях, когда угрозы становятся реальностью, возникает потребность в 1 уголовно-правовой охране отношений по производству искусственного интел-§ лекта и его эксплуатации. При этом объектом профилактического воздействия | выступают сознание и воля физического лица, виновно придавшего продукту § общественную опасность.

5 S

о

| Библиографический список

! 1. Варыгин А.Н. Преступность в органах внутренних дел. Саратов: Саратовский

S юридический ин-т МВД России, 2002. 246 с.

о

2. Разгилъдиев Б.Т. Проблемы понятия профилактики преступлений // Вестник

о

S Саратовской государственной юридической академии. 2020. № 5 (136). С. 194-201. ! 3. Мосечкин И.Н. Искусственный интеллект и уголовная ответственность: пробле-

<3 мы становления нового вида субъекта преступления // Вестник СПбГУ. Право. 2019. | Т. 10. Вып. 3. С. 461-476.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

m 4. Аверкин А.Н., Гаазе-Раппопорт М.Г., Поспелов Д.А. Толковый словарь по ис-

кусственному интеллекту. М.: Радио и связь, 1992. 256 с.

5. Морхат П.М. Искусственный интеллект: правовой взгляд. РОО «Институт государственно-конфессиональных отношений и права». М.: Буки Веди, 2017. 257 с.

6. Павлов С.Н. Системы искусственного интеллекта: учебное пособие: в 2-х ч. Томск: Эль Контент, 2011. Ч. 1. 176 с.

162 7. Словарь русского языка: в 4 т. М.: Русский язык, 1988. Т. IV. 796 с.

8. Azimov A. Robotaround. N.Y: Basic Books, 1960. 253 p.

9. Морхат П.М. К вопросу о соответствии автономных интеллектуальных систем вооружений принципам международного гуманитарного права // Вестник военного права. 2018. № 2. С. 58-65.

10. Глебов И.Н. Правовое регулирование автономных роботизированных средств ведения войны // Российское государствоведение. 2018. № 3. С. 104-116.

11. Блинов А.Г. Генетическая безопасность НОМО SAPIENS и модель ее уголовно-правового обеспечения // Развитие наук антикриминального цикла в свете глобальных вызовов обществу: сборник трудов по материалам всероссийской заочной научно-практической конференции с международным участием (Саратов, 26 октября 2020 г.). Саратов, 2021. С. 6-15.

12. Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 77-102.

13. Леонтьев Б.Б. Об открытии комплекса закономерностей интеллектуальной природы и обоснование феномена интеллектуальной природы. Правовая информация. 2016. № 4. С. 10-75.

References

1. Varygin A.N. Crime in the Internal Affairs Bodies. Saratov: Saratov Law Institute of the Ministry of Internal Affairs of Russia, 2002. 246 p.

2. Razgildiev B.T. Problems of the Concept of Crime Prevention // Bulletin of the Saratov State Law Academy. 2020. No. 5 (136). P. 194-201.

3. Mosechkin I.N. Artificial Intelligence and Criminal Responsibility: Problems of the Formation of a New Type of Crime Subject // Bulletin of St. Petersburg State University. Right. 2019. Vol. 10. Issue 3. P. 461-476.

4. Averkin A.N., Haase-Rappoport M.G., Pospelov D.A. Explanatory Dictionary on e Artificial Intelligence. Moscow: Radio aLnd Communications, 1992. 256 p. |

5. Morkhat P.M. Artificial Intelligence: a legal View. ROO "Institute of State-confes- n sional relations and law". Moscow: Buki Vedi, 2017. 257 p. 0

6. Pavlov S.N. Artificial Intelligence Systems: textbook: in 2 parts Tomsk: El Content, | 2011. Part 1. 176 p. 0

7. Russian Russian Dictionary: in 4 volumes. M.: Russian language, 1988. Vol. IV. 796 p. g

8. Azimov A. Robotaround. N.Y: Basic Books, 1960. 253 p. T

9. Morkhat P.M. On the Issue of Compliance of Autonomous Intellectual Weapons | Systems with the Principles of International Humanitarian Law // Bulletin of Military ° Law. 2018. No. 2. P. 58-65. P

s

10. Glebov I.N. Legal Regulation of Autonomous Robotic Means of Warfare // Russian | State Studies. 2018. No. 3. P. 104-116. 0

11. Blinov A.G. Genetic Security of HOMO SAPIENS and the Model of Its Criminal Legal | Support // Development of Anti-Criminal Cycle Sciences in the Light of Global Challenges e to Society: a collection of works based on the materials of the All-Russian correspondence | scientific and practical conference with international participation (Saratov, October 26, № 2020). Saratov, 2021. P. 6-15. 11

12. Laptev V.A. The Concept of Artificial Intelligence and Legal Responsibility for Its ) Work // Right. Journal of the Higher School of Economics. 2019. No. 2. P. 77-102. g

13. Leontiev B.B. On the Discovery of a Complex of Laws of Intellectual Nature and the Justification of the Phenomenon of Intellectual Nature. Legal information. 2016. No. 4. P. 10-75.

i Надоели баннеры? Вы всегда можете отключить рекламу.