Общество: политика, экономика, право. 2023. № 4. С. 107-114. Society: Politics, Economics, Law. 2023. No. 4. P. 107-114.
Научная статья УДК 342.9
https://doi.org/10.24158/pep.2023.4.15
Применение искусственного интеллекта в военных целях: проблемы теоретизации и правового регулирования
Атабек Рустамович Атабеков
Российский университет дружбы народов, Москва, Россия, [email protected]
Аннотация. Статья посвящена рассмотрению вопросов терминологического определения автономных летальных средств вооружения, их практического применения, установления правовых и технологических аспектов использования искусственного интеллекта для военных целей с учетом теоретических и практических наработок зарубежных стран, наднациональных объединений и международных организаций. Описаны дифференцированные оценки систем автономного вооружения в плане возможности их внедрения в практику ведения боевых действий в зависимости от уровня подконтрольности человеку. Представителями мирового сообщества отмечено, что искусственный интеллект, способный функционировать абсолютно без управления со стороны оператора, представляет опасность для гражданского населения вследствие неизбирательности действия и невозможности отменить ошибочно запущенную программу внешним воздействием. Обозначена необходимость регламентации применения военного ИИ. Предлагается комплекс административно-правовых компенсирующих мероприятий для безопасной и легитимной эксплуатации ИИ в правовом поле Российской Федерации.
Ключевые слова: искусственный интеллект, автономные военные средства вооружения, сравнительно-правовое исследование военного ИИ, безопасный ИИ, правовое поле, регламентирующие документы Для цитирования: Атабеков А.Р. Применение искусственного интеллекта в военных целях: проблемы теоретизации и правового регулирования // Общество: политика, экономика, право. 2023. № 4. С. 107-114. https://doi.org/10.24158/pep.2023A15.
Original article
The Use of Artificial Intelligence for Military Purposes: Issues of Theorization and Legal Regulation
Atabek R. Atabekov
Peoples' Friendship University of Russia, Moscow, Russia, [email protected]
Abstract. The article is devoted to the issues of defining lethal autonomous weapon systems, their practical application, and the establishment of legal and technological aspects of using artificial intelligence for military purposes taking into account theoretical and practical developments of foreign countries, supranational associations, and international organizations. Differentiated assessments of autonomous weapon systems in terms of the possibility of their introduction into the practice of warfare depending on the level of human controllability are described. The representatives of the world community noted, that artificial intelligence capable to function without the operator's control poses danger to the civil population because of the indiscriminate nature of its actions and the impossibility to cancel the program, launched by mistake, by the external impact. The need to regulate the use of military AI has been pointed out. A set of administrative and legal compensatory measures for the safe and legitimate operation of AI in the legal field of the Russian Federation is proposed.
Keywords: artificial intelligence, autonomous military weapons, comparative legal research of military AI, secure AI, legal framework, regulatory documents
For citation: Atabekov, A.R. (2023) The Use of Artificial Intelligence for Military Purposes: Issues of Theorization and Legal Regulation. Society: Politics, Economics, Law. (4), 107-114. Available from: doi:10.24158/pep.2023.4.15 (In Russian).
Современный период развития общества характеризуется значительным техническим прогрессом, в рамках которого широкое распространение получил искусственный интеллект (далее - ИИ). Цель настоящего исследования - провести сравнительный анализ действующих подходов к интеграции ИИ в сферу публичных правоотношений зарубежных стран и России в контексте военно-промышленного комплекса (далее - ВПК).
Указанная цель подразумевает выполнение следующих задач:
© Атабеков А. Р., 2023
1. Рассмотрение дефиниционного аппарата в отношении ИИ, применяемого в военной сфере в мировой практике.
2. Изучение теоретических и практических подходов к условиям применения ИИ в военной сфере и их возможному правовому оформлению.
3. Разработка правовых мероприятий, обеспечивающие безопасную интеграцию ИИ в ВПК России.
Объект исследования - нормативные и иные документы, регламентирующие вопросы интеграции ИИ, предлагаемые национальными и наднациональными объединениями зарубежных стран, а также академические публикации по исследуемой проблематике.
Методология работы представлена использованием комплекса современных философских, общенаучных, специально-научных методов познания, включая диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др.
В рамках настоящего исследования делается особый акцент на изучении опыта различных государств в правовом регулировании применения ИИ для нужд ВПК.
Необходимо отметить, что использование передовых информационных технологий в оборонном секторе хорошо себя зарекомендовало в силу того, что несло с собой ряд преимуществ на доктринальном уровне1 (Marchant, 2015): точность сектора поражения, сокращение «человеческих издержек» в лице комбатантов, уменьшение рисков послевоенной адаптации для членов общества и т. д.
Необходимо понимать, что военный потенциал ИИ напрямую связан со скоростью принятия решения (Sisson, 2019: 7-8), что ставит под вопрос целесообразность самого военного противостояния.
Базовыми нормами, определяющими регламентацию правоотношений на международном уровне относительно индивидуальной и коллективной самообороны, выступают: ст. 2, п. 4; ст. 51 о самообороне и глава VII о полномочиях Устава СБ ООН2, в которых рассматриваются вопросы международной коллективной безопасности (Delahunty, 2007).
При этом следует понимать, что указанный правовой институт регламентирует, в том числе, вопросы реализации процедуры возмещения убытков и иных компенсаций для участников военных действий (Morgenthau, 1978).
Практическое применение ИИ в военной сфере хорошо иллюстрируют беспилотные средства для патрулирования (например, в Корее - ДМЗ-24) (Klare, 2019: 6). Данная технология не является аналогом полностью автономного ИИ, однако постепенно отказывается от необходимости человеческого контроля. Идентичный пример - DARPA, использующие пули с наведением, цель которых определяется оператором (Laton, 2017). В этой связи возникает вопрос не столько об автономности подобного ИИ, сколько о степени фактического вмешательства в его деятельность со стороны человека, что оставляет надежду на ограниченное сохранение субъектного контроля (Singer, 2010).
При этом алгоритм применения военного ИИ может быть аналогичным тому, который уже апробирован и отработан на примере наземных мин (при заданных условиях) (Lewis, 2015). Данный тип активации ИИ обладает широким спектром применения в составе наземного, климатического вооружения, внутренних систем СКУД (система контроля и управления доступом по принципу «свой - чужой») и иных. Ряд аналитиков предлагает не включать в практическое использование только те, которые имеют автономное или полуавтономное наведение и/или развертывание сил3, внешнее управление в течение длительного периода (Noorman, Johnson, 2014: 58-59), а также со способностью принимать собственные решения (Solis, 2021: 8-10). Данный подход не лишен смысла, однако практика диктует необходимость применения ИИ с высокой скоростью реакции и приспособления к меняющимся внешним условиям, что невозможно без автономности ИИ (Golubski, 2002: 170-173; Lucas, 2016: 9-13).
Одним из аспектов, влияющих на регулятивный аспект применения ИИ для военных целей в контексте степени его автономности, является сложность идентификации поражаемой цели в рамках боевых действий, например, стоит вопрос о точности различения гражданского населения и комбатантов. В этой связи необходимо оценивать возможность применения определенных
1 Toscano C.P. Friend of Humans: an Argument for Developing Autonomous Weapons Systems [Электронный ресурс] // Journal of National Security. URL: https://jnslp.com/2015/05/08/friend-of-humans-an-argument-for-devel-oping-autonomous-weapons-systems/ (дата обращения: 10.04.2023).
2 Устав Организации Объединенных Наций (Принят в г. Сан-Франциско 26.06.1945) (с изм. и доп. от 20.12.1971) [Электронный ресурс]. Доступ из справ.-правовой системы «КонсультантПлюс».
3 Select Committee on Artificial Intelligence [Электронный ресурс] // Parliament.uk. URL: https://publica-tions.parliament.uk/pa/ld201719/ldselect/ldai/100/10001.htm (дата обращения: 21.03.2023).
средств поражения, которые потенциально могут навредить гражданскому населению. вопрос принятия решения переходит в моральную плоскость1.
В этой связи особую значимость приобретают нормы и правила, регламентирующие использование ИИ в военных целях. Сложность их установления определяется множественностью факторов и их неопределенностью (Boulanin et al., 2020: 23-25), а также универсальность их применения на всех этапах принятия решения относительно деятельности ИИ.
Кроме того, на уровне национальных законодательств различных стран возникает базовый вопрос применения автономных летальных средств с учетом характера их применения - наступательные ИИ или оборонительные ИИ2.
Первым принципиальным вопросом для целей правового регулирования военного ИИ является создание единого дефиниционного аппарата. Следует понимать, что доктринальных и правовых определений указанной технологии существует множество, и они варьируются в зависимости от страны и принятой в ней правовой культуры.
Выработка общего понимания ключевых характеристик ИИ позволит сделать шаг вперед к унификации требований его применения для военных целей.
В первую очередь при дефинировании следует помнить о том, что указанная технология может самостоятельно принимать решения после анализа ситуации, видеть все вокруг и реагировать на меняющиеся обстоятельства, как люди, только быстрее3. Речь в этом случае идет об автономности функционирования ИИ. Данная характеристика дифференцируется по степени проявления у технических средств, обладающих ИИ: может предусматриваться прямое управление человеком, частичное (при делегировании части функций для самостоятельного выполнения машине), удаленное на уровне целеполагания (полностью автономное тактическое исполнение решений со стороны ИИ).
Соединенные Штаты Америки характеризуют систему автономного вооружения (Autonomous Weapon Systems - AWS) как способную после активации самостоятельно выбирать цели и поражать их без дальнейшего вмешательства человека-оператора. Данный термин включает в себя системы вооружений, находящихся под наблюдением человека-оператора с возможностью блокировки функций ИИ, однако в целом упор делается на полную автономию техники4.
В США выделяют четыре уровня автономии ИИ, используемого для военных целей: управляемые человеком, с делегированными функциями, автономные с возможностью управления, полностью независимые от вмешательства человека. Первые три концептуальные формулировки относительно понятны, однако последний уровень автономии предполагает, что такие системы не требуют внешнего контроля человека и действуют в логике установленных законом норм и военной стратегии, определяющей поведение ИИ5.
Интересный подход к этому вопросу демонстрирует Великобритания, чьи военные специалисты дифференцируют автоматическое и автономное оружие.
Автоматические системы - это системы, которые «в ответ на входные данные от одного или нескольких датчиков запрограммированы логически следовать заранее определенному набору правил, чтобы обеспечить необходимый исход. Знание набора правил, по которым он работает, означает, что его результат предсказуем»6.
Автономная система - это система, «способная понимать намерение и направление более высокого уровня. Исходя из этого понимания и восприятия окружающей среды, она может предпринять соответствующие действия для достижения желаемого состояния. Способна выбирать курс действий из ряда альтернатив, не завися от человеческого контроля, хотя он может обеспечиваться. Общая активность автономного аппарата будет предсказуема, при этом отдельные действия могут быть непредсказуемыми»7.
1 Autonomy, Artificial Intelligence, and Robotics: Technical Aspects of Human Control : International Committee of the Red Cross (August 2019) [Электронный ресурс] // ICRC. URL: https://www.icrc.org/en/download/file/102852/auton-omy_artificial_intelligence_and_robotics.pdf (дата обращения: 21.03.2023).
2 Ibid.
3 Weiner T. A New Model Army Soldier Rolls Closer to the Battlefield [Электронный ресурс] // New York Times. https://www.nytimes.com/2005/02/16/technology/new-model-army-soldierrolls-closer-to-battle.html (дата обращения: 10.04.2023).
4 Autonomy in Weapon Systems : Directive 3000.09, November 21, 2012 [Электронный ресурс] // Department of Defense United States of America. URL: https://cryptome.org/dodi/dodd-3000-09.pdf (дата обращения: 21.03.2023).
5 Galdorisi G. Designing Autonomous Systems for Warfighters: Keeping Humans in the Loop [Электронный ресурс] // Small Wars Journal. URL: https://smallwarsjournal.com/index.php/jrnl/art/designing-autonomous-sys-tems-for-warfighters-keeping-humans-in-the-loop (дата обращения: 10.04.2023).
6 Select Committee on Artificial Intelligence ...
7 Ibid.
Для ЕС общий базовый подход был сформулирован еще в 2018 г. и определял нежелательность применения летального AWS в военной сфере1. Однако указанная резолюция носила рекомендательный характер, и впоследствии инициативы ЕС были направлены на детализацию правового статуса и оформления регламентирующих документов в отношении применения AWS странами - членами ЕС2.
В Голландии AWS рассматривается как оружие, «которое без вмешательства человека выбирает и поражает цели, соответствующие определенным заранее определенным критериям, следуя указаниям человека». При этом отмечается, что при начале развертывания системы в атакующей интерпретации уже отсутствует возможность вмешательства в процесс со стороны человека3.
Для Франции AWS - это полностью автономные системы, подразумевающие отказ от человеческого контроля, что означает абсолютное отсутствие связи с оборудованием и невозможность коррекции его действий со стороны командного пункта. Платформа AWS в этом случае способна двигаться, адаптироваться к своей наземной, морской или воздушной среде, а также самостоятельно выбирать цель и запускать смертоносный эффектор (пулю, ракету, бомбу и т. д.) без какого-либо вмешательства человека или его верификации с возможными функциями самообучения4.
Позиция немецкого сообщества в применении указанных средств военного применения ИИ на дату подготовки статьи отрицательная. Базовый тезис о недопустимости применения указанных летальных AWS был озвучен министром иностранных дел Хайко Маасом еще в 2018 г.5 Были попытки на уровне парламентских слушаний вернуть указанные технологии в список допустимых средств вооружения группой Bündnis 90/Die Grünen. Однако данная инициатива была пресечена (Dahlmann, Dickow, 2019: 7-9). В Бундесвере (Вооружённые силы Федеративной Республики Германия) также распространена неоднозначная позиция относительно применения ИИ в военной сфере. Так, управляемые дроны считаются допустимым видом вооружения, а применение полностью автономных систем пока отрицается (Wellbrink, 2014: 54-55)6. Федеральное министерство обороны не упоминает военную робототехнику в «Белой книге обороны» 2016 г.7
Актуальное определение летальных AWS в Германии имеет интересную интерпретацию в контексте ИИ. Под ними понимаются системы вооружения, полностью исключающие человеческий фактор при принятии решений. Кроме того, терминологически и концептуально различаются новые технологии в области летальных AWS и собственно летальные AWS. Первые предполагают цифровизацию военного дела и активное внедрение ИИ, который можно использовать в полном соответствии с международным правом8.
НАТО определяет летальные AWS как систему, которая в ответ на входные данные следует заранее определенному набору правил для обеспечения предсказуемого результата, основываясь на приобретенных знаниях, меняющихся условиях, оперируя ситуационной осведомленностью. Такие программы следуют оптимальному, но потенциально непредсказуемому курсу действий9.
1 Autonomous Weapon Systems : European Parliament resolution of 12 September 2018 on autonomous weapon systems (2018/2752(RSP)) [Электронный ресурс] // European Parliament. URL: https://eur-lex.eu-ropa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52018IP0341&from=EN (дата обращения: 21.03.2023).
2 SEDE Activity Report 2014-2019 [Электронный ресурс] // Committee. European Parliament. URL: http://www.europarl.europa.eu/committees/en/sede/publications.html (дата обращения: 21.03.2023).
3 Examination of Various Dimensions of Emerging Technologies in the Area of Lethal Autonomous Weapons Systems, in the Context of the Objectives and Purposes of the Convention : document CCW/GGE.1/2017/WP.2 of 9 October [Электронный ресурс] // Reaching Critical Will. URL: https://www.reachingcriticalwill.org/disarmament-fora/ccw/2017/laws/documents (дата обращения: 21.03.2023).
4 The Weaponization of Increasingly Autonomous Technologies: Concerns, Characteristics and Definitional Approaches [Электронный ресурс] // UN Institute for Disarmament Research, (UNIDIR). URL: https://uni-dir.org/sites/default/files/publication/pdfs//the-weaponization-of-increasingly-autonomous-technologies-concerns-characteristics-and-definitional-approaches-en-689.pdf (дата обращения: 21.03.2023).
5 Rede von Außenminister Heiko Maas: „Die Zukunft der nuklearen Ordnung - Herausforderungen für die Diplomatie" [Электронный ресурс] // Auswärtiges Amt. URL: https://www.auswaertiges-amt.de/de/news-room/maas-fes-tiergarten-konferenz/2l12704 (дата обращения: 21.03.2023).
6 Klare Regeln für Betrieb von Drohnen (2017) [Электронный ресурс] // Assembly Services. URL: https://www.as-sembly-services.de/2017/10/01/klare-regeln-fuer-betrieb-von-drohnen/ (дата обращения: 21.03.2023).
7 Security Policy Documents - an Overview in Germany [Электронный ресурс] // Federal Ministry of Defence. URL: https://www.bmvg.de/en/news/security-policy-documents-an-overview-5490932 (дата обращения: 21.03.2023).
8 German Commentary on Operationalizing All Eleven Guiding Principles at a National Level as Requested by the Chair of the 2020 Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems within the Convention on Certain Conventional Weapons [Электронный ресурс] // Docu-ments.unoda.org. URL: https://documents.unoda.org/wp-content/uploads/2020/07/20200626-Germany.pdf (дата обращения: 21.03.2023).
9 AAP-06 Edition 2020: NATO Glossary of Terms and Definitions [Электронный ресурс] // Coemed.org. 2020. URL: coemed.org/files/stanags/05_AAP/AAP-06_2020_EF_(1).pdf (дата обращения: 21.03.2023).
Китай на конференции в Женеве обозначил свое восприятие автономных летальных средств следующими базовыми 5 характеристиками (но не ограничиваясь ими):
1. Летальность - достаточная полезная нагрузка (заряд) и средства для летального действия.
2. Автономность - отсутствие вмешательства и контроля со стороны человека в течение всего процесса выполнения задачи.
3. Бесконтрольность - невозможность принудительного завершения работы устройства после запуска.
4. Неизбирательность - выполнение задачи по убийству и нанесению увечий независимо от условий, сценариев и целей.
5. Эволюция - способность устройства к автономному самостоятельному обучению посредством взаимодействия с окружающей средой1.
Израиль на той же конференции в Женеве заявил, что все виды вооружения, в том числе и военный ИИ, используются сейчас и будут использоваться в будущем людьми, поэтому предлагается исходить из того, что вопрос автономности все равно определяется человеком2.
Показательно, что для Международного комитета Красного Креста (МККК) летальные AWS - это любая система вооружения с автономией в своих критических функциях, то есть система оружия, которая может выбирать (искать или обнаруживать, идентифицировать, отслеживать, выбирать) и атаковать (применять силу против кого-либо, нейтрализовать, повреждать или уничтожать) цели без вмешательства человека3.
Следует отметить, что указанная дискуссия относительно содержания используемых терминов для обозначения автономных систем вооружения вызвала интерес со стороны Института Организации Объединенных Наций по исследованию проблем разоружения, который, развивая логику, озвученную выше МККК, обозначил, что с технической точки зрения любая система, которая продолжает обучаться во время развертывания и функционирования, постоянно меняется, адаптируясь к окружающим условиям. Это уже не та система, которая была проверена для развертывания, что вызывает вопросы о законности адаптивных систем, особенно в отношении обязательств государств - членов ООН по статье 36 Дополнительного протокола I к Женевским конвенциям о рассмотрении законности нового оружия, средств или метода ведения войны4.
Следует отметить, что Российская Федерация выразила критическую позицию в отношении запрета указанной технологии ИИ, поскольку представители разных стран уже сейчас используют полуавтономные средства вооружения, а дефиниционный аппарат сильно варьируется в зависимости от страны, что требует выработки единого понимания данного термина с учетом технологического прогресса5.
Базовое определение искусственного интеллекта отражает комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать сопоставимый с ними результат от автономной цифровой программы6.
При этом данная трактовка не является употребительной для военной сферы, поскольку в ней специальное определение строится вокруг конструкции автоматизированных систем управления (АСУ) (Козар, Моисеев, 2012: 33-34; Каргин, Гринь, 2020: 73-74)7. В военном контексте
1 Position Paper Submitted by China. Geneva, 9-13 April 2018 (first week) [Электронный ресурс] // Reach-ingcriticalwill.org. URL: https://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/docu-ments/GGE.1 -WP7.pdf (дата обращения: 21.03.2023).
2 Yaron M. Statement on Lethal Autonomous Weapons Systems (LAWS) [Электронный ресурс] // Docs-li-brary.unoda.org. URL: https://docs-library.unoda.org/Convention_on_Certain_Conventional_Weapons_-_Infor-mal_Meeting_of_Experts_(2016)/2016_LAWS_MX_GeneralDebate_Statements_Israel.pdf (дата обращения: 21.03.2023).
3 Позиция МККК в отношении автономных систем вооружений [Электронный ресурс] // МККК. URL: https://www.icrc.org/ru/document/poziciya-mkkk-v-otnoshenii-avtonomnyh-sistem-vooruzheniy-0 (дата обращения: 10.04.2023).
4 The Weaponization of Increasingly Autonomous Technologies: Concerns, Characteristics and Definitional Approaches [Электронный ресурс] // UNIDIR. URL: https://unidir.org/publication/weaponization-increasingly-au-tonomous-technologies-concerns-characteristics-and (дата обращения: 21.03.2023).
5 National Implementation of the Guiding Principles on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems [Электронный ресурс] // Documents.unoda.org. URL: https://documents.unoda.org/wp-content/up-loads/2020/09/Ru-Commentaries-on-GGE-on-LAWS-guiding-principles1.pdf (дата обращения: 21.03.2023).
6 О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» : Федеральный закон от 24.04.2020 № 123-ФЗ [Электронный ресурс]. Доступ из справ.-правовой системы «КонсультантПлюс».
7 Автоматизированные системы управления войсками. Требования к организации информационного обследования органа военного управления : государственный военный стандарт ГОСТ РВ 1210-012-2010. М., 2011. 11 с.
АСУ означает «систему, основное предназначение которой заключается в обеспечении качественного выполнения войсковыми формированиями боевых задач в интересах достижения целей операции (боя), проводимой общевойсковыми объединениями (соединениями, частями)»1.
Вопросы дефиниционного аппарата, ключевых характеристик автономных систем вооружения и регламентации применения находят свое отражение также в трудах отечественных ученых в области права (Ахмадова, 2021: 37; Глухов, 2022: 82-82; Беликова, 2020: 229; Харитонова, 2021: 78; Глебов, 2018: 116), военного дела (Об информатизации вооруженных сил Российской Федерации ..., 2019: 65-66; Буренок, 2021: 111-112).
Говоря о практике применения военного ИИ, можно отметить следующие его функции: использование системы поддержки принятия решений2, обучение по принципу цифрового двойника3, а также управление войсками и оружием4. При этом непосредственная ответственность за саму систему АСУ, ее разработку и внедрение в войска возлагается на конкретного руководителя, осуществляющего управление войсками, со всеми последующими правовыми последствиями.
В силу действующего приказа Министра обороны России провести детальный анализ правоприменительной практики и судебных разбирательств в отношении отданных приказов АСУ (или военному ИИ) не представляется возможным5.
Следует отметить, что практическое и дефиниционное отличие в отношении автономных летальных военных средств на уровне различных стран формирует для России возможный базис для определения своей национальной стратегии в указанной области. При этом в контексте права мы видим, что значимыми показателями для регламентации являются: степень автономности ИИ для военной сферы применения, условия его активации, а также градирование ответственности на различных этапах (входные данные, обработка и интерпретация их ИИ или оператором, обеспечение конечного результата). Кроме того, нельзя не отметить, что поспешность в ограничении распространения указанной технологии в военной сфере приведет только к ухудшению условий в отношении гражданского применения ИИ.
На основании вышеизложенного можно сформулировать следующие предложения по возможному регулированию сферы использования ИИ в России с учетом трансграничных правовых и технологических рисков, не углубляясь в сферу этических аспектов:
1. Необходимо закрепить законодательно определение искусственного интеллекта, используемого в военных целях, с градацией степени автономности, определением масштаба потенциального ущерба, целей использования, риска взлома программного обеспечения и нанесения вреда национальным интересам.
2. Должна быть осуществлена административная регламентация допустимых горизонтов применения автономного ИИ и условий его активации для военной сферы.
3. Требуется разработка универсальных правил использования ИИ, которые позволят однозначно трактовать и маркировать ситуации, возникающие в ходе военного применения автономных систем.
4. Необходимо дополнение действующих норм конкретизацией зон ответственности для разработчика, пользователя и администратора системы за действия ИИ в рамках принимаемых им решений на основе поступающих входных данных для ИИ, в процессе их обработки, интерпретации и формирования результата.
Список источников
Ахмадова М.А. Правовое регулирование развития и применения искусственного интеллекта в военной сфере России в контексте государственной стратегии и обеспечения охраны прав интеллектуальной собственности // Право и политика. 2021. № 8. С. 26-42. https://doi.Org/10.7256/2454-0706.2021.8.36144.
1 Военная мысль в терминах и определениях : в 3 т. / сост. Н.Н. Тютюнников. Т. 3. Информатизация Вооруженных Сил. М., 2018. С. 232.
2 Искусственный интеллект в военном деле [Электронный ресурс] // Энциклопедия Министерства обороны России. URL: https://encyclopedia.mil.ru/encyclopedia/dictionary/details_rvsn.htm?id=13200@morfDictionary (дата обращения: 03.04.2023).
3 Армию направят в виртуальный мир [Электронный ресурс] // Коммерсант. 2021. Дек. URL: https://www.kommersant.ru/doc/5116316?tg (дата обращения: 03.04.2023).
4 Автоматизированная система управления войсками и оружием (АСУ В и О) [Электронный ресурс] // Энциклопедия Министерства обороны России. URL: https://xn--d1abichgllj9dyd8a.xn--90anlfbebar6i.xn--p1ai/encyclopedia/dictionary/details_rvsn.htm?id=12536@morfDictionary (дата обращения: 03.04.2023).
5 Приказ Министра обороны РФ от 17 января 2022 г. № 22 "Об утверждении Перечня сведений Вооруженных Сил Российской Федерации, подлежащих отнесению к служебной тайне в области обороны" [Электронный ресурс]. Доступ из информ.-правовой системы «Гарант».
Беликова К.М. Основа правового регулирования развития и применения искусственного интеллекта в военной сфере Китая в контексте государственной стратегии и охраны авторских и патентных прав // Пробелы в российском законодательстве. 2020. Т. 13, № 5. С. 223-233.
Буренок В.М. Искусственный интеллект в военном противостоянии будущего // Военная мысль. 2021. № 4. С. 106-112.
Глебов И.Н. Правовое регулирование автономных роботизированных средств ведения войны // Российское государ-ствоведение. 2018. № 3. С. 104-116.
Глухов Е.А. О правовом регулировании применения искусственного интеллекта в военной сфере // Военная мысль. 2022. № 8. С. 73-85.
Каргин В.Н., Гринь В.Р. Роль военной стандартизации в создании автоматизированных систем военного назначения // Военная мысль. 2020. № 2. С. 70-80.
Козар А.Н., Моисеев В.С. Информационные технологии оптимального применения управляемых артиллерийских снарядов. Казань, 2012. 346 с.
Об информатизации вооруженных сил Российской Федерации / О.В. Масленников [и др.] // Военная мысль. 2019. № 12. С. 57-67.
Харитонова Ю.С. Правовое регулирование применения технологии искусственного интеллекта в военном деле: опыт России и Китая // Журнал прикладных исследований. 2021. № 1-2. С. 72-80. https://doi.org/10.47576/2712-7516_2021_1_2_72.
Boulanin V., Davison N., Goussac N., Carlsson M.P. Limits on Autonomy in Weapon Systems: Identifying Practical Elements of Human Control. Solna, 2020. 53 р.
Dahlmann A., Dickow M. Preventive Regulation of Autonomous Weapon systems. Need for Action by Germany at Various Levels. Berlin, 2019. 28 р.
Delahunty R.J. Paper Charter: Self-Defense and the Failure of the United Nations Collective Security System. Minneccota, 2007. 131 р.
Golubski W. Genetic Programming: A Parallel Approach // Soft-Ware 2002: Computing in an Imperfect World. Berlin, 2002. С. 166-173.
Klare M.T. Autonomous Weapons Systems and the Laws of War // Arms Control Today. 2019. Vol. 49, iss. 2. Р. 6-12.
Laton D. Manhattan_Project.exe: A Nuclear Option for the Digital Age // Catholic University Journal of Law and Technology. 2017. Vol. 25, iss. 1. Р. 1-61.
Lewis J. The Case for Regulating Fully Autonomous Weapons // The Yale Law Journal. 2015. Vol. 124. Р. 1-17.
Lucas N.J. Lethal Autonomous Weapon Systems: Issues for Congress. Washington, 2016. 31 р.
Marchant G.E., Allenby B., Arkin R.C., Borenstein J., Gaudet L.M., Kittrie O., Lin P., Lucas G.R., O'Meara R., Silberman J. International Governance of Autonomous Military Robots // Handbook of Unmanned Aerial Vehicles. Dordrecht, 2015. Р. 28792910. https://doi.org/10.1007/978-90-481-9707-1_102.
Morgenthau H.J. Politics among Nations: The Struggle for Power A. Peace. N. Y., 1978. 650 с.
Noorman M., Johnson D.G. Negotiating Autonomy and Responsibility in Military Robots // Ethics and Information Technology. 2014. Vol. 16, iss. 1. Р. 51-62. https://doi.org/10.1007/s10676-013-9335-0.
Singer P.W. War of the Machines // Scientific American. 2010. Vol. 303, iss. 1. Р. 56-63.
Sisson M., Spindel J., Scharre P., Kozyulin V. The Militarization of Artificial Intelligence. N. Y., 2019. 32 р.
Solis G.D. The Law of Armed Conflict: International Humanitarian Law in War. Cambridge, 2021. 659 р. https://doi.org/10.1017/9781108917797.
Wellbrink J. Mein Neuer Kamerad-Hauptgefreiter Roboter // Ethik und Militär. Kontroversen der Militärethik und Sicherheitskultur. 2014. Vol. 1, iss. 2014. Р. 52-55.
References:
Akhmadova, M. A. (2021) Legal Regulation of the Development and Application of Artificial Intelligence in Military Sector of the Russian Federation in the Context of the Government Strategy and Ensuring the Protection of Intellectual Property Rights. Law and Politics. (8), 26-42. Available from: doi:10.7256/2454-0706.2021.8.36144. (In Russian).
Belikova, K. M. (2020) Basis of Legal Regulation of Development and Application of Artificial Intelligence in the Military Sphere of China in the Context of State Strategy and Protection of Copyright and Patent Rights. Gaps in Russian Legislation. 13 (5), 223-233. (In Russian).
Boulanin, V., Davison, N., Goussac, N. & Carlsson M. P. (2020) Limits on Autonomy in Weapon Systems: Identifying Practical Elements of Human Control. Solna. 53 р.
Burenok, V. M. (2021) Artificial Intelligence in the Military Confrontation of the Future. Voennaya mysl'. (4), 106-112. (In Russian)
Dahlmann, A. & Dickow, M. (2019) Preventive Regulation of Autonomous Weapon systems. Need for Action by Germany at Various Levels. Berlin. 28 р.
Delahunty, R. J. (2007) Paper Charter: Self-Defense and the Failure of the United Nations Collective Security System. Minneccota. 131 р.
Glebov, I. N. (2018) Pravovoe regulirovanie avtonomnykh robotizirovannykh sredstv vedeniya voiny [Legal Regulation of Autonomous Robotic Means of Warfare]. Rossiiskoe gosudarstvovedenie. (3), 104-116. (In Russian)
Glukhov, Ye. A. (2022) On Legal Regulation of Artificial Intelligence Employment in the Military Sphere. Voennaya mysl'. (8), 73-85. (In Russian)
Golubski, W. (2002) Genetic Programming: A Parallel Approach. In: Soft-Ware 2002: Computing in an Imperfect World. Berlin, рр. 166-173.
Kargin, V. N. & Grin, V. R. (2020) The Role of Military Standardization in Devising Automated Military-Purpose Systems. Voennaya mysl'. (2), 70-80. (In Russian)
Kharitonova, Yu. S. (2021) Legal Regulation of the Application of Artificial Intelligence Technology in Military Affairs: The Experience of Russia and China. Journal of Applied Research. (1-2), 72-80. Available from: doi:10.47576/2712-7516_2021_1_2_72. (In Russian)
Klare, M. T. (2019) Autonomous Weapons Systems and the Laws of War. Arms Control Today. 49 (2), 6-12.
Kozar, A. N. & Moiseev, V. S. (2012) Informatsionnye tekhnologii optimal'nogo primeneniya upravlyaemykh artilleriiskikh snaryadov [Information Technologies for the Optimal Use of Guided Artillery Shells]. Kazan. 346 р. (In Russian)
Laton, D. (2017) Manhattan_Project.exe: A Nuclear Option for the Digital Age. Catholic University Journal of Law and Technology. 25 (1), 1-61.
Lewis, J. (2015) The Case for Regulating Fully Autonomous Weapons. The Yale Law Journal. 2015. 124, 1-17. Lucas, N. J. (2016) Lethal Autonomous Weapon Systems: Issues for Congress. Washington. 31 р.
Marchant, G. E., Allenby, B., Arkin, R. C., Borenstein, J., Gaudet, L. M., Kittrie, O., Lin, P., Lucas, G. R., O'Meara R. & Silberman, J. (2015) International Governance of Autonomous Military Robots. In: Handbook of Unmanned Aerial Vehicles. Dordrecht, рр. 2879-2910. Available from: doi:10.1007/978-90-481-9707-1_102.
Maslennikov, O. V., Kurochkin, V. P., Aliev, F. K. & Tlyashev, O. M. (2019) On Computerizing the Armed Forces of the Russian Federation. Voennaya mysl'. (12), 57-67. (In Russian)
Morgenthau, H. J. (1978) Politics among Nations: The Struggle for Power A. Peace. New York. 650 с. Noorman, M. & Johnson, D. G. (2014) Negotiating Autonomy and Responsibility in Military Robots. Ethics and Information Technology. 16 (1), 51-62. Available from: doi:10.1007/s10676-013-9335-0.
Singer, P. W. (2010) War of the Machines. Scientific American. 303 (1), 56-63.
Sisson, M., Spindel, J., Scharre, P. & Kozyulin, V. (2019) The Militarization of Artificial Intelligence. New York. 32 р. Solis, G. D. (2021) The Law of Armed Conflict: International Humanitarian Law in War. Cambridge. 659 р. Available from: doi:10.1017/9781108917797.
Wellbrink, J. (2014) Mein Neuer Kamerad-Hauptgefreiter Roboter. Ethik und Militär. Kontroversen der Militärethik und Sicherheitskultur. 1 (2014), 52-55. (in German)
Информация об авторе А.Р. Атабеков - кандидат экономических наук, доцент кафедры административного и финансового права Российского университета дружбы народов, Москва, Россия. https://www.elibrary.ru/author_items.asp?authorid=903288
Information about the author A.R. Atabekov - PhD in Economics, Associate Professor, Department of Administrative and Financial Law, Peoples' Friendship University of Russia, Moscow, Russia. https://www.elibrary.ru/author_items.asp?authorid=903288
Статья поступила в редакцию / The article was submitted 16.03.2023; Одобрена после рецензирования / Approved after reviewing 06.04.2023; Принята к публикации / Accepted for publication 18.04.2023.