Научная статья УДК 340.134
https://doi.org/10.36511/2078-5356-2022-2-177-182
К вопросу о презумпции опасности искусственного интеллекта
Балалаева Юлия Сергеевна
Нижегородская академия МВД России, Нижний Новгород, Россия, [email protected]
Аннотация. В настоящей статье автор обращает внимание на потенциальную опасность, которую несет в себе развитие и использование искусственного интеллекта, и полагает необходимым минимизировать данную опасность правовыми средствами. Им приводятся размышления над целесообразностью признания презумпции опасности искусственного интеллекта. По его мнению, юридическое значение указанной презумпции заключается в том, что она повлечет за собой создание дополнительных гарантий реализации прав и законных интересов граждан в условиях функционирования потенциально опасных технологий. Автор предлагает нормативно закрепить рассматриваемую презумпцию путем внесения изменений в действующее законодательство.
Ключевые слова: искусственный интеллект, технологии искусственного интеллекта, системы искусственного интеллекта, правовая презумпция, опасность
Для цитирования: Балалаева Ю. С. К вопросу о презумпции опасности искусственного интеллекта // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2022. № 2 (58). С. 177—182. https://doi.org/10.36511/2078-5356-2022-2-177-182.
Original article
To the question of the presumption of danger of artificial intelligence
Yulia S. Balalaeva
Nizhny Novgorod Academy of the Ministry of Internal Affairs of Russia, Nizhny Novgorod, Russian Federation, [email protected]
Abstract. In this article, the author draws attention to the potential danger posed by the development and use of artificial intelligence, and considers it necessary to minimize this danger by legal means. He gives reflections on the expediency of recognizing the presumption of the danger of artificial intelligence. In his opinion, the legal significance of this presumption lies in the fact that it will entail the creation of additional guarantees for the realization of the rights and legitimate interests of citizens in the context of the operation of potentially dangerous technologies. The author proposes to consolidate the presumption under consideration by amending the current legislation.
Keywords: artificial intelligence, artificial intelligence technologies, artificial intelligence systems, legal presumption, danger
For citation: Balalaeva Yu. S. To the question of the presumption of danger of artificial intelligence. Legal Science and Practice: Journal of Nizhny Novgorod Academy of the Ministry of Internal Affairs of Russia, 2022, no. 2 (58), pp. 177—182. (In Russ.). https://doi.org/10.36511/2078-5356-2022-2-177-182.
Технология — полезный слуга, но опасный хозяин.
К. Л. Ланге
Технологии искусственного интеллекта се- государства. Разработка и принятие в 2019 году годня представляют собой одну из наиболее Национальной стратегии развития искусствен-перспективных областей для научных изы- ного интеллекта [1] ознаменовали собой офи-сканий. Подтверждение этому находится пре- циальное признание значимости и всеобъем-жде всего в нормативных правовых актах лющего характера новых технологий. В данном
© Балалаева Ю. С., 2022
документе прямо обозначена цель по обеспечению ускоренного развития искусственного интеллекта в Российской Федерации, а также проведению научных исследований в указанной области. На необходимость развития правового регулирования отношений в сфере новых технологий обращает внимание принятая в 2020 году Правительством Российской Федерации соответствующая Концепция [2].
Сегодня технологии искусственного интеллекта представляются в основном в позитивном свете. Они призваны избавить человека от рутинных операций. Однако возникает вопрос: могут ли новые технологии не только созидать, но и разрушать? Б. Т. Разгильдиев на данный вопрос отвечает положительно, рассуждая следующим образом: «Искусственный интеллект создается интеллектом естественным — следовательно, качества и свойства, присущие интеллекту человека, в большей или меньшей мере либо равные ему может получить и интеллект искусственный» [3, а 157]. Помимо этого, по его мнению, нужно принимать во внимание то, что в ходе разработки искусственно интеллектуальных систем человеком могут быть допущены ошибки технического характера, вследствие чего данные системы приобретают изначально непредусмотренные разрушительные свойства.
Мы полагаем, что внедрение технологий искусственного интеллекта имеет, безусловно, как позитивные, так и негативные аспекты. Это неудивительно, поскольку с изобретением чего-либо всегда возникали проблемы, и они постоянно несли как позитивные, так и негативные последствия. Невозможно с этим не согласиться. Прогрессу свойственна противоречивость. Однако обществу он необходим.
О каких же негативных последствиях рассматриваемых технологий следует вести речь?
Во-первых, создается угроза жизни людей, в условиях функционирования автономных военных систем. Данные системы способны самостоятельно, без вмешательства человека искать, идентифицировать и поражать цели. Сегодня автономность таких систем ограничена:
а) временем (в пределах короткого периода);
б) строго определенными условиями применения (при относительно небольшом количестве гражданских лиц и объектов; в) типами целей для поражения (как правило, боеприпасы и транспортные средства) [4]. Последнее вызывает множество нравственных вопросов, в частности, правильно ли с моральной точки зрения доверять искусственному интеллекту распоряжаться человеческой жизнью.
Во-вторых, самостоятельно принимаемые системами искусственного интеллекта решения могут нарушать конституционные права и свободы граждан, в частности, право на равенство, а также право на неприкосновенность частной жизни. Испытание отдельных систем продемонстрировало, что в некоторых случаях их решения носят явно дискриминирующий характер [5]. Разумного же объяснения им не находится, поскольку искусственный интеллект функционирует в режиме «черного ящика», когда внутренне устройство и механизм работы системы настолько сложны, что недоступны для человеческого понимания. Проблема стоит настолько остро, что в начале текущего года Совет Федерации Российской Федерации дал министерствам поручение разработать меры, которые бы препятствовали «дискриминации граждан» искусственным интеллектом, а также предусмотреть юридическую возможность и порядок обжалования его решений [6].
Таким образом, мы не можем гарантировать объективность решений, исходящих от систем искусственного интеллекта. Именно поэтому представляется весьма затруднительным делегировать последним определенные функции, в частности, отправления правосудия. Хотя такая возможность обсуждается [7, с. 12].
В-третьих, появление новых технологий привлекает представителей преступного мира. Как правило, они учатся обращению с ними гораздо быстрее, чем лица, использующие их исключительно в благих целях. Как отмечают А. В. Во-лобуев и Н. А. Ореховская, «почти любая технология, попадая в злостные руки, обнаруживает потенциальные возможности для причинения вреда». Но это еще не все. Опасность заключается еще и в том, что «эти злонамеренные руки могут принадлежать самой технологии» [8, а 4].
Полагаем, что указанные последствия законодателю следовало учесть при разработке Национальной стратегии и предусмотреть в ней отдельный раздел, где содержался бы перечень угроз, которые несут в себе новые технологии, а также критические варианты развития событий. Это необходимо для своевременного «ответа» данным угрозам, своевременного принятия превентивных мер. Надо сказать, что учет не только положительных, но и отрицательных сценариев также корреспондировал бы сущности самой стратегии как правового документа, а также обеспечивал бы ее большую эффективность, о чем говорит в своей работе Ю. В. Говорухина: «Высокая эффективность реализации соответствующих документов (стратегий) будет
зависеть от правильного подбора и установления баланса между указанными (позитивными и негативными) вариациями» [9, с. 150].
Таким образом, как и любая технология, искусственный интеллект несет в себе опасность. Однако должны ли мы презюмировать данную опасность? Если да, то возникает необходимость в конструировании соответствующей правовой презумпции. Полагаем, что такая презумпция может служить одним из правовых средств минимизации рисков, связанных с использованием новых технологий, а также свидетельствовать о развитии правового регулирования в сфере их использования. Необходимость такого регулирования сегодня широко обсуждается теоретиками права. Создание комплексной системы правового регулирования отношений, возникающих в связи с внедрением и применением систем искусственного интеллекта, — стратегическая задача. Правовой регламентации требует следующее: правовой статус искусственного интеллекта, этические и технологические требования к его разработке и использованию, юридическая ответственность за вред, им причиненный, защита прав и свобод граждан в условиях, а также отдельные особенности его применения в конкретных сферах деятельности (юриспруденция, медицина, военное дело, образование и др.).
Правовое презюмирование — довольно частое явление. С точки зрения Е. А. Анчишиной, в настоящее время отмечается тенденция увеличения количества презумпций в нормативных правовых актах. По ее мнению, они оказывают значительное влияние как на законотворческий, так и на правоприменительный процесс [10, с. 70].
В юридической науке существует несколько подходов к определению правовой природы презумпции.
Согласно первому подходу правовая презумпция представляет собой «закрепленное в нормах права предположение о наличии или отсутствии юридических фактов, основанное на связи между ними и фактами наличными и подтвержденное предшествующим опытом» [11, с. 91]. Данный подход демонстрирует логико-философское понимание рассматриваемого понятия. Презумпция в этом смысле — отдельный вид индуктивного умозаключения (от частного к общему), который делается на основе предшествующего опыта.
Второй подход отражает в большей степени юридическое понимание презумпции: нормативно определенное правило, в соответствии
с которым наличие конкретных юридических фактов позволяет сделать предположение о наличии или отсутствии других фактов, правоотношений, без предоставления доказательств в их подтверждение» [12, с. 215].
Согласно третьему подходу презумпция — это правовая норма, которая имеет трехэлементную структуру и формулируется по схеме: «Если А (гипотеза), то предполагается Б (диспозиция), пока не доказано обратное (контрпрезумпция)» [13, с. 35].
Полагаем, что рассматриваемую нами презумпцию можно сформулировать следующим образом: «Опасность использования технологий искусственного интеллекта предполагается, пока не доказано обратное». По нашему мнению, данная презумпция означает, что технологии искусственного интеллекта рассматриваются как потенциально опасные, пока лица, заинтересованные в их развитии и использовании, не докажут их безопасность. Юридический смысл, вкладываемый в сформулированную нами презумпцию, аналогичен юридическому смыслу, который несет в себе презумпция невиновности, — обязанность субъектов правоотношений доказать факт, обратный презюмируемому.
Отметим, что в основе классической правовой презумпции лежит повторяемость того или иного юридического факта. Это означает, что есть определенная статистика проявления данного факта. Презумпция же невиновности, как и сформулированная нами презумпция опасности искусственного интеллекта, зиждется на необходимости доказывания обратного факта, что имеет большее юридическое значение, поскольку такая презумпция влечет за собой создание дополнительных гарантий реализации прав, свобод и законных интересов граждан.
Наличие таких гарантий представляется особенно значимым, если учитывать перспективы развития новых технологий, а именно разработку и внедрение автономных систем искусственного интеллекта, которые, по нашему мнению, представляют наибольшую опасность. Такие системы могут функционировать обособленно и принимать решения без вмешательства человека. На наш взгляд, данный факт еще больше подчеркивает необходимость презюми-рования опасности искусственного интеллекта. Конечно, системы искусственного интеллекта, развитие и внедрение которых происходит в настоящее время, работают преимущественно на основе алгоритмов. Они подчинены человеку и решают исходящие от него задачи (своеобразные «электронные рабы»). Примером
может являться изложенная в части 4 статьи 5 Федерального закона от 21 декабря 2021 года № 417-ФЗ «О внесении изменений в отдельные законодательные акты Российской Федерации» новелла, которая позволит с 20 июня 2022 года выносить решения о возбуждении исполнительного производства без участия должностных лиц, то есть в автоматическом режиме [14]. Однако не исключено, что стремительность развития новых технологий в скором времени позволит говорить и о приобретении ими способности функционировать автономно.
О каких же гарантиях можно вести речь с признанием презумпции опасности искусственного интеллекта? Нами были выделены следующие:
1) возложение на лиц, заинтересованных в развитии и внедрении технологий искусственного интеллекта, обязанности производить оценку связанных с ними рисков, а также государственную экспертизу их безопасности. Полагаем, что законодателю следует предусмотреть порядок организации и проведения такой экспертизы;
2) обязательное лицензирование деятельности, связанной с разработкой и производством систем искусственного интеллекта. Полагаем, что данная деятельность соответствует одному из предусмотренных законом критериев, определяющих необходимость лицензирования (нанесение ущерба правам, законным интересам, здоровью граждан) [15];
3) признание систем искусственного интеллекта источником повышенной опасности в соответствии со статьей 1079 Гражданского кодекса Российской Федерации [16] и возложение на их владельцев обязанности прохождения процедуры страхования ответственности за причинение ущерба третьим лицам при использовании таких систем. Следует отметить, что законодатель не раскрывает содержание понятия «источник повышенной опасности», что, по мнению А. А. Антонова, оказывает негативное влияние на правоприменительную деятельность [17, с. 70]. По его мнению, оно включает в себя объекты материального мира, которые: а) невозможно постоянно контролировать в процессе их использования; б) наносят вред личным и имущественным правам граждан, что обусловлено их физическими или техническими недостатками [18, а 73]. Думаем, что искусственный интеллект отвечает указанным А. А. Антоновым признакам источника повышенной опасности, в связи с чем может быть признан таковым.
Развитию технологий искусственного интеллекта сегодня уделяется большое внимание. Внедрение таких технологий открывает широкие
перспективы как для отдельного человека, так и для государства в целом. Однако нельзя упускать из вида угрозы (риски), которые несет в себе дальнейшее развитие искусственного интеллекта. В связи с этим уже сейчас стоит задуматься о правовых средствах минимизации этих рисков, особенно тех, что представляют автономные системы. Есть точка зрения, что вести рассуждения о таких рисках преждевременно, поскольку даже если мы создадим автономную систему искусственного интеллекта, способную к самообучению, то нужно понимать, что прежде чем такая система станет в своих проявлениях сравнимой с человеком, ей нужно пройти большой путь эволюционного развития [19].
Позволим себе выразить несогласие с указанной точкой зрения. Разумнее минимизировать эти риски сейчас, чем испытывать на себе их последствия в будущем. В качестве одного из правовых средств минимизации, по нашему мнению, может служить введение в действие презумпции опасности новых технологий, особенно тех, что способны функционировать автономно.
Учитывая все вышеизложенное, мы можем заключить, что признание презумпции опасности искусственного интеллекта является ключевым шагом в развитии правового регулирования связанных с ним общественных отношений, поскольку потребует законодательного урегулирования реализации предлагаемых нами дополнительных гарантий прав и законных интересов граждан, а также внесения изменений в действующее законодательство. Кроме того, считаем, что необходимо поднять вопрос о нормативном закреплении рассматриваемой нами презумпции. На наш взгляд, это можно сделать путем внесения изменений в пункт 19 III раздела Национальной стратегии (Основные принципы развития и использования технологий искусственного интеллекта), дополнив его подпунктом «з» следующего содержания: «презумпция опасности искусственного интеллекта: опасность искусственного интеллекта предполагается, пока не будет доказано обратное». Таким образом, мы придаем нашей презумпции значение принципа права, в чем будет проявляться ее юридико-техническая функция.
Подытоживая вышеизложенное, отметим, что развитие технологий искусственного интеллекта влечет за собой колоссальные изменения в жизни государства и общества. В частности, у законодателя появилась новая задача — создание комплексной системы правового
регулирования отношении, связанных с использованием данных технологии. При этом должны быть учтены исходящие от них угрозы. В связи с этим предлагаем следующее:
1) предусмотреть в Национальной стратегии отдельный раздел, содержащий перечень угроз, которые несет в себе развитие, внедрение и использование систем искусственного интеллекта;
2) признать презумпцию опасности искусственного интеллекта и внести изменения в пункт 19 III раздела Национальной стратегии (Основные принципы развития и использования технологий искусственного интеллекта), дополнив его подпунктом «з» следующего содержания: «презумпция опасности искусственного интеллекта: опасность искусственного интеллекта предполагается, пока не будет доказано обратное»;
3) возложить на лиц, заинтересованных в развитии и внедрении технологий искусственного интеллекта, обязанности производить оценку связанных с ними рисков, а также государственную экспертизу их безопасности. Полагаем, что законодателю следует предусмотреть порядок организации и проведения такой экспертизы;
4) предусмотреть обязательное лицензирование деятельности, связанной с разработкой и производством систем искусственного интеллекта;
5) признать искусственный интеллект источником повышенной опасности в соответствии со статьей 1079 Гражданского кодекса Российской Федерации и возложить на их владельцев обязанность прохождения процедуры страхования ответственности за причинение ущерба третьим лицам при использовании таких систем.
Список источников
1. О развитии искусственного интеллекта в Российской Федерации (вместе с Национальной стратегией развития искусственного интеллекта на период до 2030 года): указ Президента Российской Федерации от 10 октября 2019 года № 490 // Собрание законодательства РФ. 2019. № 41, ст. 5700.
2. Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года: распоряжение Правительства Российской Федерации от 19 августа 2020 года № 2129-р. URL: http://www. pravo.gov.ru (дата обращения: 23.03.2022).
3. Разгильдиев Б. Т. Искусственный интеллект и профилактика его общественной опасности // Вестник Саратовской государственной юридической академии. 2021. № 5 (142). С. 154—163.
4. Автономные системы вооружения: вопросы и ответы. URL: https://www.icrc.org/ru/doc/resources/ documents/faq/q-and-a-autonomous-weapons.htm (дата обращения: 23.03.2022).
5. Почему искусственный интеллект несправедлив? Этические проблемы технологий. URL: https:// tass.ru/obschestvo/11140359 (дата обращения: 24.03.2022).
6. Граждан защитят от роботов. URL: https:// www.kommersant.ru/doc/5173457 (дата обращения: 24.03.2022).
7. Козырева А. А., Пирожкова Т. В. Применение технологий искусственного интеллекта в правосудии // Администратор суда. 2021. № 2. С. 12—16.
8. Философские проблемы развития искусственного интеллекта: коллективная монография / под ред. А. В. Волобуева, Н.А. Ореховской. М.: Прометей, 2019. 194 с.
В. Стратегия как правовой до-юрид. наук. Н. Новгород, 2021.
9. Говорухина Ю. кумент: дис. ... канд.
226 с.
10. Анчишина Е. А. Презумпции в современном праве: понятие и правовое значение // Вестник Удмуртского университета. Серия «экономика и право». 2021. Т. 31. № 1. С. 70—80.
11. Бабаев В. К. Теория современного советского права: фрагменты лекций и схемы. Н. Новгород: НВШ МВД РСФСР, 1991. 156 c.
12. Каранина Н. С. Сущность правовой презумпции: определение понятия «презумпция» в современной теории права и российском законодательстве; признаки правовой презумпции // Юридическая техника. Ежегодник. Первые Бабаевские чтения: «Правовые презумпции: теория, практика, техника» / гл. ред. В. М. Баранов. Н. Новгород. 2010. № 4. С. 213 — 220.
13. Кузнецова О. А. Презумпции в российском гражданском праве: дис. ... канд. юрид. наук. Екатеринбург, 2001. 217 с.
14. О внесении изменений в отдельные законодательные акты Российской Федерации: федеральный закон от 21 декабря 2021 г № 417-ФЗ // Российская газета. 2021. 27 декабря.
15. О лицензировании отдельных видов деятельности: федеральный закон от 4 мая 2011 г № 99-ФЗ // Российская газета. 2011. 6 мая.
16. Гражданский кодекс Российской Федерации (часть первая) от 30 ноября 1994 г № 51-ФЗ // Российская газета. 1994. 8 декабря.
17. Антонов А. А. Искусственный интеллект как источник повышенной опасности // Юрист. 2020. № 7. С. 69—74.
18. Автономный и подчиненный искусственный интеллект. URL: https://postnauka.ru/video/47828 (дата обращения: 26.03.2022).
19. Краткая философская энциклопедия. М., Прогресс, 1994. 574 с.
References
1. On the development of artificial intelligence in the Russian Federation (together with the National Strategy for the Development of Artificial Intelligence for the period until 2030): decree of the President of the Russian Federation no. 490 of October 10, 2019. Collection of legislative acts of the RF, 2019, no. 41, art. 5700. (In Russ.)
2. On approval of the Concept for the development of regulation of relations in the field of artificial intelligence technologies and robotics until 2024: decree of the Government of the Russian Federation no. 2129-r of August 19, 2020 (accessed 23.03.2022). (In Russ.)
3. Razgildiev B. T. Artificial intelligence and prevention of its social danger. Bulletin of the Saratov State Law Academy, 2021, no. 5 (142), pp. 154 —163. (In Russ.)
4. Autonomous weapons systems: questions and answers. URL: https://www.icrc.org/ru/doc/resources/ documents/faq/q-and-a-autonomous-weapons.htm (accessed 23.03.2022). (In Russ.)
5. Why is artificial intelligence unfair? Ethical problems of technology. URL: https://tass.ru/obschest-vo/11140359 (accessed 24.03.2022). (In Russ.)
6. Citizens will be protected from robots. URL: https://www.kommersant.ru/doc/5173457 (accessed 24.03.2022). (In Russ.)
7. Kozyreva A. A., Pirozhkova T. V. Application of artificial intelligence technologies in justice. Court administrator, 2021, no. 2, pp. 12—16. (In Russ.)
8. Philosophical problems of the development of artificial intelligence: Collective monograph / ed. by A. V. Volobueva, N. A. Orekhovskaya. Moscow: Prometheus Publ., 2019. 194 p. (In Russ.)
9. Govorukhina Yu. V. Strategy as a legal document. Dissertation... candidate of legal sciences. N. Novgorod, 2021. 226 p. (In Russ.)
10. Anchishina E. A. Presumptions in modern law: concept and legal meaning, Bulletin of the Udmurt University. Series "Economics and Law", 2021, vol. 31, no. 1, pp. 70—80. (In Russ.)
11. Babaev V. K. The theory of modern Soviet law: fragments of lectures and schemes. N. Novgorod. Nizhegorsk Publishing House. Higher School of the Ministry of Internal Affairs of the RSFSR, 1991. 156 p. (In Russ.)
12. Karanina N. S. The essence of the legal presumption: the definition of the concept of «presumption» in modern theory of law and Russian legislation; signs of a legal presumption, Legal technique. Yearbook. The First Babaev Readings: "Legal Presumptions: Theory, Practice, Technique" / gen. ed. by V. M. Baranov. N. Novgorod, 2010, no. 4, pp. 213-220. (In Russ.)
13. Kuznetsova O. A. Presumptions in Russian civil law. Dissertation... candidate of legal sciences.Yekater-inburg, 2001. 217 p. (In Russ.)
14. On Amending Certain Legislative Acts of the Russian Federation: federal law no. 417-FZ of December 21, 2021. Rossiyskaya Gazeta, 2021, December, 27. (In Russ.)
15. On licensing certain types of activities: federal law no. 99-FZ of May 4, 2011. Rossiyskaya Gazeta, 2011, May, 6. (In Russ.)
16. Civil Code of the Russian Federation (Part One) no. 51-FZ of November 30, 1994. Rossiyskaya Gazeta, December, 8. (In Russ.)
17. Antonov A. A. Artificial intelligence as a source of increased danger, Lawyer, 2020, no. 7, pp. 69—74. (In Russ.)
18. Autonomous and subordinate artificial intelligence. URL: https://postnauka.ru/video/47828 (accessed 24.03.2022). (In Russ.)
19. Brief philosophical encyclopedia. Moscow: Progress Publ., 1994. 574 p. (In Russ.)
Статья поступила в редакцию 22.04.2022; одобрена после рецензирования 23.05.2022; принята к публикации 09.06.2022.
The article was submitted 22.04.2022; approved after reviewing 23.05.2022; accepted for publication 09.06.2022.