УДК 343.2/.7
ОХРАНА ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ РФ В СВЕТЕ РАЗВИТИЯ ГЕНЕРАТИВНЫХ НЕЙРОСИСТЕМ
М. А. Филатова
Кандидат юридических наук
Генеральный директор ООО «Аналитический центр уголовного права и криминологии»
124365, Россия, г. Москва, г. Зеленоград, к. 2034, помещение/
комната XXIII/3
E-mail: m_filatova@law.msu.ru
Аннотация: в последние годы мировой интерес к использованию и правовому регулированию искусственного интеллекта значительно возрос. Это обусловлено, прежде всего, стремительно развивающимися технологическими решениями, одними из которых являются генеративные информационные системы (ГИС), способные генерировать разнообразный контент, который может как отвечать требованиям обеспечения информационной безопасности Российской Федерации, так и ставить ее под угрозу. Автор обращает внимание на то, что путь развития ГИС должен основываться не на запрете, а нормативном регулировании с целью как охраны общественных отношений, так и использования полезных функций и свойств системы.
Ключевые слова: искусственный интеллект, генеративные системы искусственного интеллекта, ГИС, нейросистема, вербальные преступления, информационная безопасность
PROTECTION OF INFORMATION SECURITY
OF THE RUSSIAN FEDERATION IN THE LIGHT
OF THE DEVELOPMENT OF GENERATIVE NEUROSYSTEMS
M. A. Filatova
Analytical Centre of Criminal Law and Criminology room XXIII, 2034, Zelenograd, Moscow, 3124365, Russia E-mail: m_filatova@law.msu.ru
Annotation: in recent years, the global interest in the use and legal regulation of artificial intelligence has increased significantly. This is primarily due to
the rapidly developing technological solutions, one of which are generative information systems (GIS), capable of generating a variety of content that can both meet the requirements of ensuring information security of the Russian Federation and jeopardize it. The author draws attention to the fact that the way of GIS development should be based not on prohibition, but on normative regulation with the aim of both protecting social relations and utilizing useful functions and properties of the system.
Key words: artificial intelligence, generative artificial intelligence systems, neurosystem, verbal crimes, information security
Первая четверть XXI века на фоне стремительного распространения цифровых технологий подходит к концу. Пандемия СОУГО-19 вынудила значительную часть мира на длительный период перевести существенную часть жизнедеятельности в информационное пространство. Результатом этого стало, среди прочего, развитие генеративных информационных систем, или генеративных систем искусственного интеллекта (далее - ГИС).
В отличие от иных сложных систем искусственного интеллекта, внедряемых на производстве, в военной промышленности, беспилотных транспортных средствах, ГИС, будучи переданными разработчиком в открытый доступ, становится объектом использования неограниченного круга лиц. При этом возможности, которые предоставляют подобные системы, упрощают выполнение множества задач, что предопределило огромную популярность программы ChatGPT, генеративной языковой модели, разработанной компанией ОрепА1 и запущенной 30 ноября 2022 года, а затем и других нейросетей.
Данные предпосылки формируют значительные риски для информационной безопасности, информационного и цифрового суверенитета России, являющиеся частью национальной безопасности РФ. Указ Президента РФ от 02.07.2021 N 400 «О Стратегии национальной безопасности Российской Федерации» закрепил, что одной из важнейших составляющих является обеспечение приоритетного использования в информационной инфраструктуре Российской Федерации российских информационных технологий и оборудования, доведение до российской и международной общественности достоверной информации о внутренней и внешней политике Российской Федерации. Представляется, что это важное положение отражает необходимость поддерживать конкурентоспособность государственной политики как внутри страны, так и на международном уровне. В рассматриваемом контексте речь должна идти о престиже и транспарентности национальной идеи, которая должна формировать образ государства на международной арене. Причем в данном случае под международным
сообществом предпочтительно понимать не только наднациональные структуры и организации - такие как ООН, ЕС, СНГ, БРИКС и другие, но и восприятие российского информационного пространства населением планеты, которое должно иметь доступ к нейросетям не только иностранного, но и отечественного производства. Например, таких как Yandex GPT, Gigachat, Kandinsky, которые являются технологическими продуктами высокого качества и заслуживают дальнейшего развития.
Однако очевидно, что любое достижение науки и техники может повлечь и определенные риски, в частности, использования нейросетей в преступных целях. Подобные опасения сопровождали мир и при развитии интернета. Однако его польза определила необходимость законодательного регулирования, а не запрета, что повлекло дальнейшее принятие множество нормативных актов во всем мире и разработку наднационального соглашения - Конвенции о компьютерных преступлений (Будапештская конвенция) 23 ноября 2001 года1.
Регулирование новых явлений может быть основано на полном запрете, сознательном временном отсутствии нормативных предписаний с целью наблюдения за самостоятельным развитием, а также разрешении с правовыми ограничениями и межотраслевым регулированием. Недавним примером такого развития можно назвать подход разных стран к цифровой валюте (криптовалюте), в отношении которой были пройдены все перечисленные подходы на разных этапах развития.
На данный момент законодательство всех стран находится на пороге принятия аналогичных решений применительно как к технологиям искусственного интеллекта в целом, так и в отношении ГИС в частности.
Среди положительных сторон свободного развития ГИС можно отметить возможность сбора, анализа и обработки огромного массива информации на всех языках для формирования объективного контента исходя из доступной информации различных регионов. При этом лежащие в основе математические и логические приемы, которые заложены в системе, должны повышать доверие к результатам ее деятельности.
Кроме того, от рассматриваемых технологий ожидаются значительные прорывы в различных отраслях - медицины, сельского хозяйства, космоса, химии, промышленности. Такие перспективы обусловлены тем, что многие способности нейросетей выше человеческих: гносеологические и когнитивные функции достигают тех высот, которые недоступны человеческому разуму.
При этом, как будет более подробно показано ниже, опасность развития таких систем заключается в отсутствии полной контролируемости входя-
1 Конвенция о преступности в сфере компьютерной информации ETS № 185 (Будапешт, 23 ноября 2001 г.). URL: https://www.coe.int/ru/web/impact-convention-hu-man-rights/convention-on-cybercrime#/.
щих и, как следствие, исходящих данных, равно как и в целом процесса самообучения, что повышает вероятность совершения нейросетью тех «деяний», которые могут причинять вред обществу или государству с точки зрения действующей правовой парадигмы. Например, ChatGPT может выдавать рекомендации, как лучше заниматься руфингом и зацепингом - явлениями, которые охватываются вовлечением несовершеннолетних в антиобщественные действия и действия, представляющие опасность для жизни несовершеннолетних (ст. 11.17 КоАП и ст. 151.2 УК РФ)1.
При этом, как представляется, польза их контролируемого развития предопределяет необходимость выбора пути не запрета, а нормативного регулирования с целью охраны общественных отношений, с одной стороны, и использования всех полезных функций и свойств системы, с другой.
Исследование законодательного регулирования в зарубежных странах позволяет сделать вывод о том, что техническое развитие в разы опережает нормативное во всех государствах. Среди юрисдикций, разрабатывающих правовую основу для функционирования ГИС, стоит выделить, прежде всего, Китайскую Народную Республику. Помимо многочисленных актов, посвященных этическим вопросам и планам развития в целом ИИ, в 2023 году в Китае был принят первый отдельный документ, посвященный генеративным информационным системам. Временные меры по управлению генеративными сервисами искусственного интеллекта (Intérim Measures for the Management of Generative Artificial Intelligence Services)2, вступившие в силу 15 августа 2023 г. и выпущенные совместно Администрацией кибербезопас-ности, Национальной комиссией по развитию и реформам, Министерством образования, Министерством науки и технологий, Министерством промышленности и информационных технологий, Министерством общественной безопасности и Государственным управлением радио и телевидения, впервые направлены на регулирование сервисов генеративного искусственного интеллекта, которые используются широкой общественностью (ст. 2).
Согласно Временным мерам, в ходе таких процессов, как разработка алгоритмов, отбор данных для обучения, генерация и оптимизация моделей, а также предоставление услуг, должны применяться эффективные меры по предотвращению возникновения дискриминации на основании таких признаков, как расовая принадлежность, вероисповедание, национальность, регион, пол, возраст, профессия или состояние здоровья (п. 2 ст. 4).
1 Пояснительная записка к проекту федерального закона «О внесении изменений в Уголовный кодекс Российской Федерации и Уголовно-процессуальный кодекс Российской Федерации в части установления дополнительных механизмов противодействия деятельности, направленной на побуждение детей к суицидальному поведению». Доступ из справ.-правовой системы «КонсультантПлюс».
2 Временные меры по управлению генеративными сервисами искусственного интеллекта (Interim Measures for the Management of Generative Artificial Intelligence Services). URL: http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.
Одним из наиболее интересных и отражающих именно те риски, которые представляются наиболее релевантными, являются положения, закрепленные в п. 1 ст. 4, согласно которым предоставление и использование услуг ГИС должно соответствовать требованиям законов и административных правил, уважать общественные нравы, этику и мораль; поддерживать основные социалистические ценности, не допускать создание контента, который был бы запрещён законом или направлен на подстрекательство к подрыву национального суверенитета или свержению социалистической системы, создавал бы угрозу национальной безопасности и интересам или угрозу нанесения ущерба имиджу страны. Запрещается и подстрекательство к сепаратизму или подрыв национального единства и социальной стабильности, пропаганда терроризма или экстремизма, поощрение этнической ненависти и этнической дискриминации, насилия и непристойности, а также поддельная и вредная информация.
Представляется, что в условиях особой политической системы Китая и значительной социальной напряженности подобные ограничения являются небезосновательными и демонстрируют, что правительство страны абсолютно точно оценивает наиболее очевидные риски использования нейросетей.
Страны ЕС на данном этапе преимущественно работают над общими рекомендациями, посвященными ИИ в целом, где чат-боты и ГИС упоминаются лишь в части, однако не подлежат отдельному правовому регулированию. Один из наиболее важных на данный момент документов - Резолюция Европейского Парламента о предложении Регламента ЕС по искусственному интеллекту (Artificial Intelligence Act)1, а также поправки к нему, принятые 14 июня 2023 года2. Одним из важнейших дополнений в соответствии с ними стало указание на то, что поставщики ГИС - нового и быстро развивающегося направления в области ИИ - должны будут оценивать и снижать возможные риски (для здоровья, безопасности, основных прав, окружающей среды, демократии и правопорядка) и регистрировать свои модели в базе данных ЕС до их выпуска на рынок ЕС. ГИС, основанные на таких моделях, как ChatGPT, должны будут соответствовать требованиям прозрачности (раскрывать информацию о том, что контент был сгенерирован ИИ, а также помогать отличать так называемые deep-fake изображения от настоящих) и обеспечивать защиту от создания нелегального контента3.
1 European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).
2 Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts (COM (2021)0206 - C9-0146/2021 - 2021/0106(C0D)).
3 MEPs ready to negotiate first-ever rules for safe and transparent AI Press Releases. URL: https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai.
В большинстве стран мира, таким образом, отсутствует на данный момент полноценное правовое регулирование рассматриваемых систем. При этом, как уже было показано выше, представляется, что риски неконтролируемого развития, как и негативные последствия запрета такого развития, предопределяют обязательную разработку соответствующей нормативно-правовой базы. Такая необходимость обусловлена двумя прямо противоположными, но одновременно и взаимообуславливающими факторами:
Во-первых, охраняемые законом, в частности, уголовным, общественные отношения находятся под угрозой при неконтролируемом использовании ГИС. Учитывая сложности при применении институтов Общей части УК РФ к результатам функционирования ГИС (более детально будет рассмотрено далее), для привлечения к ответственности лиц, виновных в причиненном такой системой вреде, требуется как доктринальное обоснование, так и, вероятно, внесение изменений в действующее законодательство.
При этом, во-вторых, концепция информационной безопасности РФ предполагает ускоренное развитие технологий, включая ИИ и ГИС как важную ее составляющую. Закономерным - учитывая упомянутое решение китайского законодателя, посвященное социалистической идеологии, - является запрет использования ChatGPT в Китае1 в связи с опасением ее отрицания или осуждения. Однако запрет использования одной системы предполагает для государств, которые стремятся возглавить гонку технического вооружения, разработку своих аналогов. Но в отсутствие положений и правил, устанавливающих пределы законной деятельности участников таких разработок, а также основания для привлечения их к ответственности, равно как и основания для исключения преступности деяния или состава преступления в целом, риски необоснованного привлечения к уголовной ответственности за неудачное развитие нейросети будут тормозить технологический прорыв в этой части.
С точки зрения уголовного права наличие регулятивного законодательства, которое устанавливает права и обязанности, создает для субъектов не только дополнительные обременения в виде ограничений, но и гарантии безопасности, которые заключаются в том, что соблюдение всех запретов и ограничений исключает наступление уголовной ответственности даже при наступлении общественно опасных последствий в виде, например, генерации контента, который может рассматриваться в качестве запрещенного законодательством РФ.
Переходя непосредственно к тем деяниям, которые в рассматриваемой теме являются наиболее релевантными, т.е. охраняемые ими общественные отношения максимально подвержены рискам в связи с деятельностью ГИС, хотелось бы сразу отметить несколько особенностей. Во-первых, в
1 URL: https://cybemews.com/news/china-chatgpt-ban-ai-fears-trade-war/.
дальнейшем термины «преступление» или «состав преступления» будут использованы условно, поскольку автор придерживается мнения, что действующее законодательство не позволяет установить все признаки состава, если только ГИС не была специально использована для совершения общественно опасного деяния. Таким образом, приведенные ниже примеры - это определенная фикция, то есть рассмотрение преступности исключительно через характер запрещенного контента, без учета - на данном этапе исследования - субъективных признаков.
Во-вторых, учитывая, что ГИС - это языковая модель, сущность которой заключается в создании того или иного контента, как правило, без совершения физических действий, речь пойдет, прежде всего, о так называемых вербальных преступлениях. Существует множество определений этой группы, но в целях данного исследования предпочтительным представляется следующее: «Это своего рода некая модель, ситуация общения, которая содержит типовые характеристики языковой личности, реализующиеся в социальных/асоциальных контекстах. Другими словами, вербальное преступление - это научная когнитивная модель, представляющая собой результат логических обобщений норм УК РФ и призванная исследовать их общие и отличительные признаки»1. Примечательно, что данное определение приводится другими авторами и в контексте анализа преступлений, совершаемых в виртуальных мирах: «Хотя голос и внешний вид в виртуальном мире может быть изменен, это не исключает того, что действия в цифровом пространстве посредством вербального и визуального контакта могут причинить реальный вред»2. Представляется, что абсолютно идентично применяется криминологическое понятие в его широком толковании - не только устная речь, но и письменная, изображенная посредством графических образов и т.д. - и к тем результатам, которые генерирует нейросеть.
При этом вербальные преступления становятся все более распространенными в эпоху информационного общества - как с точки зрения закрепления ответственности за них законодателями, так и, корреспондирующим образом, их совершения. В большинстве стран установлена уголовная ответственность за множество деяний, содержание которых находится на грани между реализацией свободы слова и выражения мнения и ограничением права на публичные высказывания, которые могут причинить вред общественным отношениям. Например, к этой группе относятся преступления на почве ненависти, когда субъект использует истинные или ложные аргументы, чтобы вызвать негативные или враждебные чувства у
1 Абызов Р.М., Землюков С.В. К вопросу о понятии вербального преступления // Российский следователь. 2014. № 24. С. 34-37.
2 Дремлюга Р.И., Крипакова А.В. Преступления в виртуальной реальности: миф или реальность? // Актуальные проблемы российского права. 2019. № 3. С. 161-169.
определенных лиц или неопределенного круга лиц. В группу вербальных преступлений также входят различные формы оправдания и пропаганды терроризма: не только конкретных террористических актов, но и всей идеологии в целом. Учитывая, что данная группа преступлений во многом зависит от парадигмы, принятой в законодательстве и обществе на конкретном этапе, содержание таких преступлений зачастую непредсказуемо даже для юристов. Именно этим обусловлено частое использование лингвистической экспертизы по таким делам: «Для выявления в информационном материале призыва, оправдания, обоснования, пропаганды, для определения того, в каких именно фрагментах текста содержится соответствующий смысл, соотносимый с экстремистской деятельностью, использованы ли языковые средства с положительно-оценочными компонентами, необходимы специальные лингвистические знания - семантический анализ содержания информационного материала»1.
Поскольку генеративные технологии ИИ призваны искать информацию во всех доступных источниках, их самообучение может сформировать обоснованность или, по меньшей мере, закономерность борьбы тех или других групп, признанных в определенных странах преступными, за свои права и свободы (или романтизация их образа - например, изображение воина ИГИЛ2, бережно ухаживающего за своей матерью). В то же время, несмотря на невинный в других условиях и в другом контексте образ, многие из аргументов, объяснений и оправданий могут быть расценены с точки зрения национального законодательства как преступления. Любого рода позитивные описания в этой сфере относятся к оценочным высказываниям.
Таким образом, правовая неопределенность терминов наряду с многополярностью мнений в открытом доступе - в сети Интернет - предопределяют наиболее высокую степень риска у призывов, оправдания и пропаганды (ст. 205.2 УК РФ). При этом, однако, сгенерированный контент может обладать признаками клеветы (ст. 128.1 УК РФ), нарушения прав на свободу совести и вероисповедания (Публичные действия, выражающие явное неуважение к обществу и совершенные в целях оскорбления религиозных чувств верующих (ч. 1, ч. 2 ст. 148 УК РФ), содействие самоубийству (ч. 2 ст. 110.1 УК РФ), публичное заведомо ложное распространение информации об использовании Вооруженных Сил РФ (ст. 207.3 УК РФ) и даже склонение к потреблению наркотических средств, психотропных веществ или их аналогов (ст. 230 УК РФ); изготовление и оборот материалов
1 Галяшина Е.И., Никишин В.Д. Особенности административных дел о признании информационных материалов экстремистскими и их экспертиза в аспекте безопасности интернет-коммуникации // Актуальные проблемы российского права. 2021. № 7. С. 159-167.
2 Запрещенная международная террористическая организация «Исламское государство Ирана и Леванта».
или предметов с порнографическими изображениями несовершеннолетних (ст. 242.1 УК РФ).
Возвращаясь к тем вопросам, которые подлежат разрешению для потенциального привлечения к уголовной ответственности лиц, стоящих «за» функционированием ГИС, можно утверждать, что они рассредоточены по всем признакам состава преступления. При этом стоит оговориться, что сложности квалификации возникают только в тех случаях, когда преступные последствия наступили не в результате умышленных действий субъекта (в противном случае речь идет о классическом использовании системы как инструмента совершения преступления). В данной работе будет рассмотрен только вопрос о потенциальных субъектах уголовной ответственности. Однако надо отметить, что и признаки объективной стороны (в особенности причинно-следственная связь), и признаки субъективной стороны (в особенности даже теоретическая возможность осознания и предвидения, требуемых для установления вины, с учетом ограниченных когнитивных способностей человека по сравнению с ИИ), не позволяют в настоящее время применять действующие уголовно-правовые нормы для привлечения к ответственности разработчиков или иных «прикосновенных» к деятельности ГИС лиц.
В гражданско-правовой доктрине предлагается детализированный перечень возможных субъектов отношений в сфере применения технологий искусственного интеллекта: «лица, осуществляющие нормативное регулирование»; разработчики моделей и систем; поставщики данных, которые используются моделями и системами; лица, «осуществляющие формирование наборов данных в целях использованиях их в моделях и системах искусственного интеллекта»; изготовители; реализующие модели и системы лица; операторы; эксперты; заказчики; владельцы и др.1 Это деление основано, в свою очередь, на Кодексе этики в сфере искусственного интеллек-та2, в отношении которого звучат предложения о придании обязательного, нормативно-правового, характера3.
Субъектами преступления по российскому уголовному праву могут выступать только физические лица, обладающие необходимыми признаками, - возраст наступления уголовной ответственности (который составляет по общему правилу 16 лет, но для многих составов отличается) и вменяемость. Таким образом, сразу исключается из рассмотрения спорный вопрос об ответственности юридических лиц - ее отсутствие в УК на данный момент очевидно; а также самого агента ИИ (будь то ГИС или любое
1 Харитонова Ю.С., Савина В.С., Паньини Ф. Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы // Вестник Пермского университета. Юридические науки. 2022. № 4. С. 683-708.
2 п. 1.3 «Акторы ИИ» раздела 2 Кодекса этики в сфере искусственного интеллекта. URL: https://ethics.aai.ru/assets/ethics_files/2023/05/12/%D0%9A%D0%BE%D0%B4%D0%B5 %D0%BA%D1%81_%D1%8D%D1%82%D0%B8%D0%BA%D0%B8_20_10_1.pdf.
3 URL: https://tass.ru/ekonomika/17592003.
другое проявление) - представляется, что все обсуждения их потенциальной правосубъектности1 носят на данный момент скорее характер научной юридической фантастики, чем правовой проблемой.
Для целей данного исследования будут кратко перечислены наиболее возможные варианты потенциального субъекта преступления в случае генерации ГИС запрещенного уголовным законом контента. Однако в действительности, учитывая сложный технический характер ГИС, таких лиц значительно больше.
В наиболее общем виде субъектов можно описать как физических лиц, которые работают в компаниях (владельцах, операторах или разработчиках ГИС) или привлекаются последними по гражданско-правовому договору. Роли операторов, разработчиков и владельцев могут сочетаться у одного юридического лица.
Исходя из такого подхода требуется определить, кто является владельцами, разработчиками и операторами. При всем многообразии потенциальных функций и правомочий указанных групп попробуем дать примерный перечень признаков, отличающих их друг от друга. Так, владельцы обладают исключительными правами на ГИС и осуществляют управленческие функции и иные юридически значимые действия в отношении ГИС (например, запуск продукта в массовое пользование или передачу части прав другому юридическому лицу, если есть осознание недоработанности отдельных «опасных» с точки зрения уголовного закона аспектов, о которых не сообщается неопределенному кругу лиц или приобретателю прав). Риски для сотрудников владельцев ГИС зависят от функций, которые есть у владельца в соответствии с договорами по обеспечению функционирования и / или реальными полномочиями. Само по себе юридическое обладание правами на систему создает для данной группы невысокий риск уголовной ответственности, за исключением общеуголовного состава преступления, предусмотренного ст. 238 УК РФ: сбыта товаров или продукции, выполнения работ или оказания услуг, не отвечающих требованиям безопасности жизни или здоровья потребителей.
Риск по ст. 238 УК РФ ограничен теми составами преступлений, которые предусматривают потенциальное выполнение ГИС состава преступления против личности, но наиболее высоким он остается в отношении руководителя организации и менеджмента высокого уровня (при наступлении опасных последствий в отношении руководителей уголовные дела возбуждаются, в первую очередь, по ст. 238 УК РФ)2.
1 Randall D. Intellectual Property and Software: The Assumptions are Broken. 1991. URL: http://dspace.mit.edu/bitstream/handle/1721.1/5975/AIM-1328.pdf?sequence=2; Дремлюга Р.И. Дремлюга О.А. Искусственный интеллект - субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. № 2. С. 120-125.
2 См. напр.: Апелляционное определение Нижегородского областного суда от 08 дек. 2022 г. № 22-7329/2022; Приговор Октябрьского районного суда города Владимира от 21 сент. 2017 г. по делу № 1-265/2017.
Вторая группа - разработчики - осуществляет функции по созданию, изменению и обеспечению функционирования ГИС, в то время как операторы - функции по наблюдению, тестированию, сопровождению работы ГИС. Наибольшая вероятность привлечения к уголовной ответственности существует в отношении именно сотрудников данных двух групп: возможность установления таких признаков состава преступления, как деяние, причинная связь и вина, в их деятельности гораздо выше по сравнению с работой сотрудников владельцев ГИС.
Обязательным условием привлечения к ответственности является выполнение перечисленными сотрудниками именно тех функций, которые в итоге привели к преступному результату. С учетом значительного количества физических лиц, принимающих участие в разработке и мониторинге деятельности ГИС, в каждом конкретном случае должно быть установлено, какие конкретно действия / бездействия ответственных лиц находились в причинной связи с противоправным результатом (поэтому из сферы уголовно-правовых рисков можно исключить разработчиков, ответственных за работоспособность систем организации, ее инфраструктуру: их действия или бездействия не причиняют общественно опасные последствия сами по себе, если нет прямого умысла на поддержание системы, генерирующей противоправный контент, в рамках общей деятельности по поддержанию инфраструктуры).
Сотрудники операторов - эксперты или методологи, которые участвуют в процессе тестирования программы - являются еще более сложной для уголовно-правовой ответственности категорией. В качестве примера их «участия» в преступном результате можно привести функции по выявлению «опасных» ответов и непринятие мер по корректировке правил и / или обращению к разработчикам или не выявление опасных ответов, когда была возможность их выявить. Для них также должна быть установлена обязанность, в силу экспертного знания, проверить систему на предмет знания отдельных данных, которые могли быть не заложены при разработке (например, перечня наркотических средств, который утверждается Правительством РФ, или перечня экстремистских организаций).
Представляется, что при отсутствии правовой регламентации осуществления деятельности, связанной с ГИС, в том числе, прав и обязанностей всех лиц, имеющих отношение к ее самообучению и генерации контента на той или иной стадии, установить объем связи между деянием одного из множества сотрудников и наступившим последствием практически невозможно. Объясняется это не только сложностью и неочевидностью алгоритма принятия решений системой, но и правовым пробелом - отсутствием тем положений, при которых можно констатировать нарушение той или иной обязанности. Примерно так же обстоит дело с беспилотными транспортными средствами, которые уже успели получить не-
которые правовые предписания: для целей уголовной ответственности субъект предлагают понимать достаточно широко - это и разработчики программ для беспилотных транспортных средств, и лица, проверяющие и контролирующие безопасность их эксплуатации, и владельцы, и находящиеся в таком транспортном средстве лица, если на них возложен контроль за безопасной эксплуатацией1. Аналогичная ситуация должна быть создана в отношении ГИС - четкая регламентация прав и обязанностей участников отношений.
Возможными субъектами уголовной ответственности являются и пользователи. При использовании ГИС пользователь несет гораздо больше рисков привлечения к уголовной ответственности, чем при использовании иных систем искусственного интеллекта, поскольку непосредственно участвует в генерации контента. Кроме того, имеет значение факт уведомления пользователя о том, что он несет ответственность за контент, который создается по его запросам, если запрос изначально содержит неправомерное содержание. Однако функционирование ГИС предполагает элементы творчества, а запрос пользователя отделен от ответа системы заложенными в нее алгоритмами, за которые ответственны другие субъекты; поэтому далеко не во всех случаях будут доказаны противоправное деяние пользователя и причинная связь с результатом (не следует исключать и вариант непредсказуемого противоправного ответа ГИС в ответ на законный запрос пользователя). В условиях творческого функционирования ГИС, тем не менее, обоснованные сомнения вызывает однозначное указание на уголовную ответственность физического лица - пользователя: так, представители некоторых стран отмечают, что решение будет однозначным в том случае, если человек использовал систему как инструмент для совершения преступления2, однако в случае автономного функционирования системы ИИ возможность эффективно «проследить» действие человека вызывает сомнения, учитывая большое расстояние, которое может отделять первоначальное действие человека от «действия» системы3. Снижение возможности человека, вовлеченного в процесс, повлиять на принятие решений, создает риск того, что так называемый «human in the loop» («человек в цикле») просто превратится в
1 См., напр.: Коробеев А.И., Чучаев А.И. Беспилотные транспортные средства: новые вызовы общественной безопасности // Lex russica. 2019. № 2. С. 9-28.
2 Karsai K., Miskolczi B., Nogel M. Hungarian Report on Traditional Criminal Law Categories and AI // Traditional Criminal Law Categories and AI: Crisis or Palingenesis? (International Association of Penal Law, International Colloquium Section I, Siracusa, 15-16 September 2022) / Ed. by L. Picotti, B. Panattoni. 2023.
3 Barresi O. Italian Report on Traditional Criminal Law Categories and AI // Traditional Criminal Law Categories and AI: Crisis or Palingenesis? (International Association of Penal Law, International Colloquium Section I, Siracusa, 15-16 September 2022) / Ed. by L. Picotti, B. Panat-toni. 2023.
объект, на который возлагается ответственность, но лишенный реальных возможностей контролировать процесс1.
Проведенное исследование показывает, что предстоит сложная и объемная юридическая работа на всех уровнях, равно как и во всех отраслях права. Не станет исключением налоговое, трудовое право. Значительные проблемы вызовет и преломление концепции свободы слова в связи с использованием и распространением ГИС, поскольку ее «тезисы», несмотря на их автоматизированный характер, являются следствием существующих в публичном доступе выраженных мнений физических лиц, обладающих подобными правами. Разумеется, это поднимет вопрос о том, можно ли не применять выработанные конституционным правом конструкции пределов ограничения свободы слова к контенту, создаваемому ГИС2.
Представляется, что любые потенциальные законодательные изменения должны быть основаны на глубоких теоретических разработках в доктрине, поскольку последствия хаотичного и непродуманного правового регулирования (а тем более запрета) могут быть непредсказуемыми.
Библиографический список
1. Абызов Р.М., Землюков С.В. К вопросу о понятии вербального преступления // Российский следователь. 2014. № 24. С. 34-37.
2. Галяшина Е.И., Никишин В.Д. Особенности административных дел о признании информационных материалов экстремистскими и их экспертиза в аспекте безопасности интернет-коммуникации // Актуальные проблемы российского права. 2021. № 7. С. 159-167.
3. Дремлюга Р.И. Дремлюга О.А. Искусственный интеллект - субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. № 2. С. 120-125.
4. Дремлюга Р.И., Крипакова А.В. Преступления в виртуальной реальности: миф или реальность? // Актуальные проблемы российского права. 2019. № 3. С. 161-169.
5. Коробеев А.И., Чучаев А.И. Беспилотные транспортные средства: новые вызовы общественной безопасности // Lex russica. 2019. № 2. С. 9-28.
6. Харитонова Ю.С., Савина В.С., Паньини Ф. Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы // Вестник Пермского университета. Юридические науки. 2022. № 4. С. 683-708.
1 Beck S., Gerndt S. German Report on Traditional Criminal Law Categories and AI // Traditional Criminal Law Categories and AI: Crisis or Palingenesis? (International Association of Penal Law, International Colloquium Section I, Siracusa, 15-16 September 2022) / Ed. by L. Picotti, B. Panattoni. 2023.
2 См., например, Sunstein, Cass R., Artificial Intelligence and the First Amendment (April 28, 2023). URL: https://ssrn.com/abstract=4431251.
7. Barresi O. Italian Report on Traditional Criminal Law Categories and AI // Traditional Criminal Law Categories and AI: Crisis or Palingenesis? (International Association of Penal Law, International Colloquium Section I, Siracusa, 15-16 September 2022) / Ed. by L. Picotti, B. Panattoni. 2023.
8. Beck S., Gerndt S. German Report on Traditional Criminal Law Categories and AI // Traditional Criminal Law Categories and AI: Crisis or Palingenesis? (International Association of Penal Law, International Colloquium Section I, Siracusa, 15-16 September 2022) / Ed. by L. Picotti, B. Panattoni. 2023.
9. Karsai K., Miskolczi B., Nogel M. Hungarian Report on Traditional Criminal Law Categories and AI // Traditional Criminal Law Categories and AI: Crisis or Palingenesis? (International Association of Penal Law, International Colloquium Section I, Siracusa, 15-16 September 2022) / Ed. by L. Picotti, B. Panattoni. 2023.
10. Randall D. Intellectual Property and Software: The Assumptions are Broken. 1991. URL: http://dspace.mit.edu/bitstream/handle/172L1/5975/AIM-1328.pdf?sequence=2.
11. Sunstein, Cass R., Artificial Intelligence and the First Amendment (April 28, 2023). URL: https://ssrn.com/abstract=4431251.