^и- вопросы российской юстиции
УДК 341.1/8
Матевосова Елена Константиновна Московский государственный юридический университет имени О.Е. Кутафина
(МГЮА)
Кафедра теории государства и права
Россия, Москва [email protected] Matevosova Elena Kutafin Moscow State Law University (MSAL) Department of Theory of State and Law
Russia, Moscow
СМЕРТОНОСНЫЕ АВТОНОМНЫЕ СИСТЕМЫ ВООРУЖЕНИЙ: КАК ОТЛИЧИТЬ КОМБАТАНТА ОТ ОХОТНИКА С ФОТОРУЖЬЁМ? Аннотация: в настоящей статье исследуется проблематика использования смертоносных автономных систем вооружений в контексте действующего международного права с учётом актуальной практики ООН, а также юридической, гуманитарной, этической и технической аспектности функционирования таких систем.
Ключевые слова: международное право, искусственный интеллект, право вооруженных конфликтов, боевые роботы, международная безопасность.
LETHAL AUTONOMOUS WEAPON SYSTEMS: HOW TO DISTINGUISH A COMBATANT FROM A HUNTER WITH A GUN-CAMERA?
Annotation: this article examines the issue of the use of lethal autonomous weapons systems in the context of current international law, taking into account current UN practice, as well as the legal, humanitarian, ethical and technical aspects of the functioning of such systems.
ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №32
Key words: international law, artificial intelligence, law of armed conflict, combat robots, international security.
Вопрос о роли науки и техники в контексте безопасности человечества в 1988 году впервые был включен в повестку дня Первого комитета Генеральной Ассамблеи ООН, занимающегося проблемами разоружения и теми вызовами, которые, становясь рисками, переходят в реальные и серьёзные угрозы для всего международного сообщества. И за прошедшие десятилетия развитие цифровых технологий только усугубляет многие из существующих проблем и продуцирует всё больше новых, настолько, что в глобальном проекте строительства цифрового мира угрозы для всего мироздания перевешивают надежды на использование новаций исключительно на благо всего человечества.
18 июля 2023 года Совет Безопасности ООН, на которого возложена главная ответственность за поддержание мира, впервые проводило заседание, посвященное возможностям и рискам искусственного интеллекта для международного мира и безопасности. Открывающий это заседание Генеральный секретарь ООН Антонио Гутерриш обозначил риски использования генеративного интеллекта, обладающего «огромным потенциалом добра и зла» в тех целях, которые могут иметь разрушительные материальные и экзистенциальные последствия, особое внимание обращая на риски военного применения искусственного интеллекта [1].
Именно благодаря генеративному искусственному интеллекту сегодня возможны разработка и применение смертоносных автономных систем вооружений («смертоносное автономное оружие», «роботы-убийцы», «боевые роботы», «боевые автономные системы»), и большинство политических лидеров различных стран и международных организаций заявляют о том, что подобные полностью автономные системы, поражающие «цель» без какого-
ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №32
либо вмешательства человека, являются политически неприемлемыми, противоречат общечеловеческим моральным нормам, и, следовательно, должны быть запрещены международным правом в нашем настоящем и будущем.
Современные вооруженные конфликты характеризуются изменением подходов к использованию методов, средств и способов ведения боя, и сегодня стратегические преимущества получают прежде всего те стороны вооруженного противостояния, которые эффективно применяют передовые цифровые технологии. Обсуждение в рамках ООН и на других международных площадках конкретных «рабочих» моделей правового регулирования использования смертоносного автономного оружия особенно актуально и значимо, во-первых, в связи со стремительным усовершенствованием систем генеративного искусственного интеллекта, увеличивающих боевой потенциал роботов-убийц, и, во-вторых, в связи с возрастанием количества международных и немеждународных вооруженных конфликтов в условиях кризисного состояния гуманитарного права. Основную дискуссию среди экспертов вызывает выбор между либо установлением абсолютного правового запрета на использование автономных смертоносных вооружений, либо согласованием условий режима ограниченного их использования.
В настоящее время отсутствует какая-либо правовая определенность в части запрета, разрешения или ограничения использования соответствующих систем, кроме 11 руководящих принципов рекомендательного характера, в 2019 году утвержденных Группой правительственных экспертов по вопросам, касающимся новых технологий в сфере создания смертоносных автономных систем вооружений. Данная институция в системе ООН, созданная в 2016 году, продолжает функционировать и сегодня (в 2024 году заседания по плану проводятся с 4 по 8 марта и с 26 по 30 августа), однако между странами ещё не достигнут консенсус по ряду принципиальных вопросов проектирования,
ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №32
разработки, испытания и использования таких систем, в том числе в части определения самого понятия «смертоносные автономные системы вооружений».
В преддверии «Саммита будущего», запланированного на сентябрь 2024 года, Генеральный секретарь ООН Антониу Гутерриш в июле 2023 года опубликовал т.н. концептуальную записку № 9 «Новая повестка дня для мира»
[2] (из общей серии записок «Наша общая повестка дня»), в которой указывает на необходимость заключения к 2026 году юридически обязывающего договора, который полностью запрещает автономные системы вооружений, «которые функционируют без управления или контроля со стороны человека и которые нельзя применять в соответствии с международным гуманитарным правом», но вместе с тем будет содержать нормы, регулирующие все другие виды автономных систем вооружения, которые не подпадают под запрещающие условия.
Оценивая степень вероятности заключения такого международного договора, учитывая сложность переговорного процесса по многим другим проблемам международного масштаба, вполне обосновано могут звучать сомнения в достижении договорного согласия между странами, а также в его универсальности в аспекте итогового реального числа стран-участников.
22 декабря 2023 года Генеральной Ассамблеей ООН была принята первая в истории резолюция (A/RES/78/241), пункт 78/241 которой посвящен проблеме использования смертоносных автономных систем вооружений, отмечая особую важность учёта мнений государств, международных и региональных организаций, Международного комитета Красного Креста, гражданского общества, научного сообщества и отраслевых кругов, относительно допустимой автономности и необходимой роли человека в применении силы
[3].
ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №32
В целом динамика международного обсуждения данных вопросов подтверждает большую заинтересованность различных сторон, определяющих судьбу будущего цифрового мира: правительства государств (обеспечение национальной безопасности, использование новейших технологий в реализации военных планов, соблюдение императивных требований международного права, минимизация рисков международно-правовой ответственности), бизнес-сектор (разработка и коммерциализация новых технологий, применимых в военных целях), неправительственные организации на международном и национальном уровне (защита прав и свобод человека, укрепления мер доверия между государства, поиск новых форм согласования политической воли разных стран, в особенности ведущих мировых держав, «запретительный подход» правового регулирования использования вооружений, угрожающих здоровью и жизни людей), институты гражданского общества (широкое информирование о потенциальных угрозах и неизбежных последствиях использования автономных смертоносных систем вооружений, общественный контроль за принятием политических и правовых решений), научное сообщество (свобода научных разработок соответствующих систем, согласование этических правил при их проектировании и использовании).
В обычном международном гуманитарном праве действует норма, согласно которой «Стороны, находящиеся в конфликте, должны в любое время проводить анализ между гражданскими объектами и военными объектами. Нападения могут быть направлены лишь против военных объектов. Нападения не могут быть направлены против уголовных дел» (норма 7) [4], что находит своё отражение в статьях 48 и 52 Дополнительного протокола I к Женевским конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооруженных конфликтов [5]. А потому один из центральных вопросов рассматриваемой проблематики - какова вероятность ошибок автономных систем при решении задачи проведения различия, к примеру,
ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №32
между «солдатами» в боевом строю, и теми, которые сдаются в плен, или сотрудниками правоохранительных органов с табельным оружием, или охотниками со стрелковым ружьем или даже фоторужьем? Сегодня ни политики, ни юристы, ни технические специалисты не готовы дать однозначный и ясный ответ на данный вопрос, а следовательно, гарантировать соблюдение «принципа проведения различия».
Действующие принципы-рекомендации использования автономных смертоносных систем вооружения охватывают следующий круг проблемных аспектов: применимость существующих норм международного гуманитарного права, полная или частичная автономность работы систем, ответственность государств, ограничение рынка продажи данных систем, совершенствование технологий для обеспечения соблюдения норм гуманитарного права, запрет антропоморфизма «роботов-убийц», обеспечение киберзащищенности систем от взлома.
Представляется, что указанные аспекты проблематики должны получить более широкое обсуждение всеми заинтересованными сторонами при условии создания единого наднационального механизма контроля за разработкой, испытаниями, использованием и продажей государствами автономных смертоносных систем вооружений.
Если сценарий абсолютного запрета использования данных систем, как отмечают многие политические деятели, военные эксперты и технические специалисты, является нереалистичным, то возникает необходимость в дальнейшем усовершенствовании генеративного искусственного интеллекта, используемого подобными системами, для безошибочного выполнения требования о проведении различия между целями поражения (анализ позиции и движения человека, его внешних признаков, телескопическое наблюдение, звуковая аналитика и т.д.).
ВОПРОСЫ РОССИЙСКОЙ юстиции ВЫПУСК №32
Использование автономных смертоносных систем вооружений - это «обратная тёмная сторона» цифровых технологий, возможностей генеративного искусственного интеллекта. И выбор наиболее оптимальной модели правового регулирования использования этих систем зависит от степени и характера участия всех заинтересованных сторон при всестороннем учёте гуманитарных, юридических [6, 7], технических и этических аспектов [8, 9]. Применение положений международного права, в частности гуманитарного права, к подобным системам вооружений, не исключает необходимость выработки специальных правовых положений, учитывающих особенности автоматизации и алгоритмизации их использования в физическом пространстве.
Список литературы:
1. Цифровая библиотека ООН (отчёт S/PV.9381) [Электронный ресурс] // URL: https://digitallibrary.un.org/.
2. Официальный сайт ООН [Электронный ресурс] // URL: https: //www.un. org/ru/common-agenda/policy-briefs/.
3. Система официальной документации ООН [Электронный ресурс] // URL: https://documents.un.org/.
4. Customary International Humanitarian Law Volume 1: Rules, published by Cambridge University Press, 2005. 690 p.
5. Права человека. Сборник международных договоров. Т. I (часть вторая). Универсальные договоры.- Нью-Йорк и Женева: Организация Объединенных Наций, 1994. С. 1027 - 1106.
6. Скуратова, А. Ю. Смертоносные автономные системы вооружений: проблемы международно-правового регулирования / А. Ю. Скуратова, Е. Е. Королькова // Российский юридический журнал. - 2019. - № 1(124). - С. 22-30.
^и- вопросы российской юстиции
7. Ivanov, D. V. Lethal Autonomous Weapons Systems and International Law / D. V. Ivanov, A. M. Korzhenyak, E. S. Lapikhina // Moscow Journal of International Law. - 2021. - No. 3. - P. 6-19.
8. C. Anthony Pfaff. The Ethics of Acquiring Disruptive Technologies: Artificial Intelligence, Autonomous Weapons, and Decision Support Systems // PRISM, Vol. 8, No. 3 (2019), pp. 128-145.
9. Michael C. Horowitz. The Ethics & Morality of Robotic Warfare: Assessing the Debate over Autonomous Weapons // Daedalus, Vol. 145, No. 4, Ethics, Technology & War (Fall 2016), pp. 25-36.