2 Э01 10.22394/1726-1139-2023-6-34-45
| Проблемы применения искусственного интеллекта | в военном управлении*
о Казеян Х. А., Арутюнян Г. Э.*
со
о Академия государственного управления Республики Армения, Ереван, Республика Армения;
™ *ИагЛуипуап.дауапе@раага.ат
сг
с РЕФЕРАТ
^ В качестве суперсовременной технологии искусственный интеллект (ИИ) претендует на
^ ключевую роль в улучшении благосостояния и условий жизни человеческого общества, так
же как и в устойчивом развитии мировой экономики, повышении производительности и эффективном решении общечеловеческих проблем. Все чаще обсуждаются вопросы и о влиянии ИИ — как нового детерминанта баланса сил — на условия достижения и поддержания мира в отдельных регионах и во всем мире. Поэтому изучение современных тенденций применения ИИ в военных целях (в частности, в системе военного управления), а также обсуждение вопросов о возможностях, особенностях и проблемах его перспективного применения имеют большое значение с точки зрения конкретизации основных ориентиров сохранения и развития военного потенциала государства в современных условиях.
Целью статьи является обсуждение вопросов применения технологий ИИ в военном управлении как с точки зрения возможных преимуществ, так и в аспекте тех значительных рисков, которые сопряжены с применением ИИ в военной сфере, и которые носят общечеловеческий экзистенциальный характер и могут оказать непосредственное влияние на долгосрочное будущее человеческого общества — мировая война между крупными державами, возможность ядерного конфликта и вероятность выхода ИИ из-под контроля.
Теоретической основой для исследования послужили научные труды как армянских и российских, так и западных авторов.
Основными методами исследования являются сравнительный анализ, основанный на наблюдениях различных примеров применения ИИ в военном управлении, и метод научной индукции, актуализированный с учетом прагматического фактора (метод логического умозаключения, подтвержденного фактами).
В качестве результатов исследования в статье представлены те основные риски, которые возможны при использовании ИИ в военных целях. В частности, речь идет о мировой войне между крупными державами, вероятности ядерного конфликта и выхода ИИ из-под контроля. Все эти риски носят общечеловеческий экзистенциальный характер и могут оказать непосредственное влияние на долгосрочное будущее человеческого общества. Представлены также некоторые важные обстоятельства и факторы, заставляющие уделять больше внимания политике по нейтрализации рискам применения ИИ в сфере военного управления.
В выводах обоснована необходимость соблюдения «правила безопасности» применения ИИ. Формирование для этого законодательно-правовой базы и соответствующих инфраструктур должно происходить намного раньше фактического использования ИИ, иначе последствия могут быть скорее негативными, чем позитивными.
Ключевые слова: ситуационная осведомленность, автономные военные системы, будущие войны, дополнительная реальность, конкурентная разведка, принятие решений
Для цитирования: Казеян Х. А., Арутюнян Г. Э. Проблемы применения искусственного интеллекта в военном управлении // Управленческое консультирование. 2023. № 6. С. 3445.
* Исследование выполнено при финансовой поддержке Комитета по науке МОНКС РА в рамках научного проекта № 21Т-5В128. Статья подготовлена для участия в научно-практической конференции по вопросам государственного управления и общественного развития «Горчаковские чтения».
< >
о
The Problems of Using Artificial Intelligence in Military Management
Khachatur Ghazeyan, Gayane Harutyunyan*
Public Administration Academy of the Republic of Armenia, Yerevan, Republic of Armenia; *haru-tyunyan.gayane@paara.am o
ABSTRACT
As a state-of-the-art technology, artificial intelligence (AI) claims a key role in improving the well-being and living conditions of human society, as well as in the sustainable development of the global economy, increasing productivity and effectively solving universal problems. Increasingly, questions are also being discussed about the influence of AI — as a new determinant of the balance of power — on the conditions for achieving and maintaining peace in individual regions and around the world. Therefore, the study of modern trends in the use of AI for military purposes (in particular, in the system of military command), as well as the discussion of issues about the possibilities, features and problems of its prospective use, are of great importance in terms of specifying the main guidelines for the preservation and development of the military potential of the state in modern conditions.
The purpose of the article is to discuss the application of AI technologies in military control as in terms of possible advantages, and in the aspect of the significant risks associated with the use of AI in the military sphere, and which are universal existential in nature and can have a direct impact on the long-term future of human society — world war between major powers, the possibility of nuclear conflict, and the likelihood of AI spiralling out of control.
The theoretical basis for the study was the scientific works of both Armenian and Russian and Western authors.
The main research methods are comparative analysis based on observations of various examples of the use of AI in military control and the method of scientific induction, updated taking into account the pragmatic factor (the method of logical inference confirmed by facts).
As the results of the study, the article presents the main risks that are possible when using AI for military purposes. In particular, we are talking about a world war between major powers, the likelihood of a nuclear conflict and the withdrawal of AI from control. All these risks are universal existential in nature and can have a direct impact on the long-term future of human society. Some important circumstances and factors are also presented that force more attention to policies to neutralize the risks of using AI in the field of military administration.
The conclusions justify the need to comply with the "safety rule" for the use of AI. The formation of a legal framework and relevant infrastructures for this should take place much earlier than the actual use of AI; otherwise, the consequences can be negative rather than positive.
Keywords: situational awareness, autonomous military systems, future wars, additional reality, competitive intelligence, decision-making
For citing: Ghazeyan Kh. A., Harutyunyan G. E. The Problems of Using Artificial Intelligence in Military Management // Administrative consulting. 2023. N 6. P. 34-45.
Введение
В качестве суперсовременной технологии искусственный интеллект (ИИ) претендует на ключевую роль в улучшении благосостояния и условий жизни человеческого общества, так же как и в устойчивом развитии мировой экономики, повышении производительности и эффективном решении общечеловеческих проблем. Все чаще обсуждаются вопросы и о влиянии ИИ — как нового детерминанта баланса сил — на условиях достижения и поддержания мира в отдельных регионах и во всем мире [9, с. 14]. Разумеется, есть и противоположное мнение, что технологии ИИ еще недостаточно развиты, чтобы смогли изменить баланс сил или характер войны1. Однако стремительное развитие и распространение технологий ИИ прак-
1 Artificial Intelligence in support of defense. Report of the AI Task Force. September, 2019 // Ministère des Armées, République Française. P. 6.
о тически во всех сферах, а также необратимое снижение цен на мировом рынке
^ технологий, оснащенных искусственным интеллектом, позволяют предположить,
^ что указанные изменения могут произойти уже в ближайшем будущем. Поэтому
ЕЗ изучение современных тенденций применения ИИ в военных целях (в частности,
^ в системе военного управления), а также обсуждение вопросов о возможностях, особенностях и проблемах его перспективного применения имеют большое значе-
о ние с точки зрения конкретизации основных ориентиров сохранения и развития
со
о военного потенциала государства в современных условиях.
со
^ Теоретические основы
2 На наш взгляд, наиболее всеобъемлющим из множества подходов к определению н- ИИ представлен в «Национальной стратегии развития искусственного интеллекта ^ на период до 2030 года» Российской Федерации, согласно которой ИИ является ° «комплексом технологических решений, позволяющим имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека»1. В данном определении ключевым является словосочетание «как минимум», поскольку в противном случае внедрение и применение ИИ не только перестанет быть полезным и эффективным, но и может привести к обострению социальных проблем, в частности, в результате роста безработицы.
Уже сегодня ИИ широко используется практически во всех сферах общественной жизни, от промышленности и финансов до здравоохранения и безопасности. К тому же все процессы, в которых так или иначе участвует ИИ, сразу становятся более эффективными и рентабельными. Например, опыт применения технологий ИИ в сфере государственного управления показывает, что можно достичь повышения эффективности более чем на 35% за счет сокращения времени обработки обращений в разные государственные ведомства, снижения человеческого фактора и оптимизации ответов на обращения и принимаемых решений [3]. А по мнению экспертов Организации экономического сотрудничества и развития, ИИ позволит освободить треть рабочего времени государственных служащих, которое они смогут потратить на более продуктивную деятельность с точки зрения создания большей добавленной стоимости [10, с. 3]. В самом деле, не все сотрудники государственного и муниципального управления обладают идеальной памятью и концентрацией внимания, быстрой ориентацией в бесконечной базе данных, скоростью действий и умением обоснованно прогнозировать. И чаще всего именно эти способности ИИ обосновывают целесообразность его применения в сфере государственного управления [5, с. 17].
Что касается применения ИИ в системах военного назначения, то следует отметить, что отдельные субтехнологии ИИ применялись в военных целях еще в 90-х гг.2, однако фетишизация искусственного интеллекта в качестве умножителя военной мощи, способного в корне изменить все ранее существовавшие концепции и зако-
1 Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» // ГАРАНТ.
2 В 1991 г. Вооруженные силы США начали использовать программу ИИ «Dynamic Analysis and Replanning Too» — DART, разработанную при финансовой поддержке Управления перспективных исследовательских проектов (DARPA) Министерства обороны США, предназначенную для планирования тылового обеспечения и персонала, а также для решения логистических задач. Программа позволила сэкономить миллионы долларов за короткий промежуток времени. Более подробно см. Sara Reese Hedberg. DART: Revolutionizing Logistics Planning. IEEE Intelligent Systems. May/June, 2002. P. 81-83.
номерности ведения боевых действий и войны в целом, является относительно о новым явлением. Отправной точкой для этого, по сути, послужили известные слова ^ президента Российской Федерации о том, что если какая-либо страна сможет обе- ^ спечить монополию в сфере ИИ, то она станет властелином мира1. Уже сегодня Е^ трудно не согласиться с тем, что возможности поддержания передового и перспек- ^ тивного военного потенциала для каждой страны напрямую обусловлены реалиями «милитаризации» ^еароп^юп) искусственного интеллекта [13, с. 13]. о
Западные и российские теоретики по-разному классифицируют основные на- о правления применения ИИ в военной сфере. Например, Исследовательская служ- < ба Конгресса США представляет эти направления по разным военным сферам: ^ разведка, логистика, кибербезопасность, информационное противоборство (соз- х дание фейковых двойников), командование и контроль, дистанционно пилотируемые 2 и полуавтономные системы, автономные системы оружия летального действия2. н-В российских аналитических кругах направления военного применения ИИ в ос- ^ новном классифицируются по субтехнологиям ИИ и включают более двадцати щ технологий (в том числе, машинное обучение, интеллектуальный анализ больших данных, технологии прогнозирования и поддержки принятия решений, военный интернет вещей, обработка естественного языка, иммерсивные технологии для дополнительной и виртуальной реальности, гибридные технологии для человеко-машинного взаимодействия, квантовые вычисления, технологии «цифровых двойников» и т.д.) [2], которые используются или в перспективе могут быть использованы в военных целях.
Очевидно, что ИИ предоставляет достаточно широкие возможности для развития военного дела, но следует отметить, что проникновение искусственного интеллекта в систему военного управления произошло довольно поздно, к тому же по развитости заметно уступает технологиям ИИ, используемых в частном секторе. Это в основном обусловлено следующими обстоятельствами:
• необходимость обеспечения высокого уровня защиты данных;
• необходимость контролировать результаты работы технологий ИИ, что зачастую может нивелировать эффективность использования ИИ в системе военного управления;
• невозможность обеспечения прозрачности работы ИИ, что иногда может привести к снижению доверия к военно-политическим органам власти;
• недостаточная проработанность законодательных и правовых основ применения ИИ при реализации различных функций государства (в частности, при обеспечении безопасности страны), оценки последствий и определения круга ответственности;
• отсутствие достаточной базы «решений» для самообучения искусственного интеллекта, что особенно проблематично при использовании ИИ именно в системе военного управления, поскольку, как известно, военные стратеги, военачальники и обычные военные часто принимают решения интуитивно и не могут обосновать логику, закономерности и принципы своих умозаключений, что существенно усложняет разработку правил генерации знаний для искусственного интеллекта, и формирование «базовых знаний» для ИИ становится невозможным;
• слабое сотрудничество в целях развития ИИ на межгосударственном и международном уровнях, поскольку в современных условиях достижение доминирую-
1 Путин взялся за искусственный интеллект. Что обсуждали на первом совещании // BBCNews Русская служба (выполняет функции иностранного агента).
2 Artificial Intelligence and National Security, November 21, 2019, Congressional Research Service, R45178 [Электронный ресурс]. URL:https://fas.org/sgp/crs/natsec/R45178.pdf (дата обращения: 20.05.2023).
<
щего положения в развитии этой инновационной технологии стало самым важным критерием глобальной конкурентоспособности, справедливо подразумевая, что только те страны, которые смогут эффективно внедрить искусственный интеллект ЕЗ в систему государственного управления, смогут противостоять современным ^ внутренним и внешним угрозам [4].
2 Реалии и возможности применения искусственного интеллекта в сфере
ш военного управления
<
щ В настоящее время самой популярной системой военного управления с использова-х нием искусственного интеллекта является система C4ISR1, разработанная американ-2 ской компанией LockheedMartin, которая предоставляет следующие возможности [1]: н- • полностью автоматизировать сбор и обработку разведывательных данных; ^ • автоматически определять локацию военных подразделений и выбирать направ-° ления движения войск;
• определить местонахождение противника и представить передвижение войск противника на электронных картах;
• прицелиться и поразить цель огневым воздействием;
• моделировать бой (или иные формы вооруженной борьбы) и прогнозировать результаты;
• предлагать командиру варианты принятия решений, анализируя соотношение сил2.
Благодаря этим возможностям система C4ISR способствует формированию единого информационного поля и адаптивной системы управления, основанной на полноценном и целенаправленном использовании возможностей вооруженных сил. Примечательно, что, по разным сведениям, после апрельской войны 2016 г. Армия обороны непризнанной Республики Арцаха (Нагорного Карабаха) тоже имела такую систему, но она не была оснащена искусственным интеллектом [23].
Основой для применения искусственного интеллекта в системе военного управления являются те преимущества и новые функциональные возможности вооружений, которые оказались доступными благодаря искусственному интеллекту — скорость и точность, автономность, стойкость и живучесть, скоординированность, повышение эффективности принятия решений [8].
Скорость и точность
Первое и самое важное свойство, которое ученые начали развивать при разработке алгоритмов ИИ, — это способность быстро обрабатывать и анализировать большие объемы данных и производить точные расчеты на их основе. Это свойство является незаменимым не только при использовании технологий ИИ в разведывательных целях, но и при решении тактических задач. В США, например, для обработки огромного объема разведывательных данных и для поддержки принятия решений на их основе в структуре оборонного ведомства функционирует Межфункциональная группа алгоритмической войны (Algorithmic Warfare Cross-Functional Team), которая использует некоторые субтехнологии ИИ — компьютерное зрение и машинное обучение, для преобразования полученной от беспилотных и пилотируемых летальных аппаратов
1 Из аббревиатуры английских терминов, описывающих автоматизированные функции системы: command (командование), control (управление), communications (связь), computers (сбор информации и компьютерная обработка), intelligence (разведка), surveillance (наблюдение) и reconnaissance (рекогносцировка).
2 О возможностях системы более подробно см. Официальный сайт компании Lockheed Martin.
и других устройств, неструктурированной и структурированной разведывательной о
информации в полезный источник для принятия решений [6; 7]. Для эффективного ^
выполнения этих операций с человеческими способностями могут потребоваться ^
часы, при том, что вероятность ошибаться будет намного выше [12]. EJ
При решении тактических задач ИИ позволяет вести эффективные боевые дей- g
ствия в условиях предельной ограниченности времени. С одной стороны, посто- L-
янный анализ информации в режиме реального времени дает возможность значи- о
тельно повысить уровень ситуационной осведомленности (situation awareness), о
обеспечивая своевременность и точность реагирования. С другой стороны, уско- < рение темпов боевых действий в современных войнах требует от личного состава
способности быстро реагировать и контролировать ситуацию. Обеспечение такой х
многофункциональности, безусловно, было бы довольно сложной задачей без си- 2
стем поддержки, основанных на технологиях искусственного интеллекта, которые н-
могут также способствовать существенному повышению эффективности работы ^
военного персонала. Уже сегодня радиолокационные станции ряда стран, в том ° числе и России, используют ИИ для дифференциации военных целей от ложных и их быстрой идентификации [16].
Автономность
Использование автономных систем в военной сфере было тем стержневым фактором «Третьей компенсационной стратегии» (Third Offset Strategy) Пентагона, которая, по сути, должна была позволить США сохранить свое технологическое превосходство над геополитическими противниками1. Военные автономные системы, оснащенные ИИ, способны не только дополнять и поддерживать ту или иную функцию человека, но и полностью заменять ее при выполнении задач, требующих значительных когнитивных усилий. Эффективность таких систем уже доказана в работах по ликвидации последствий загрязнения окружающей среды в результате применения химического оружия, а также для «очистки» и прокладывания пути для продвижения различных систем вооружений [13, с. 12]. В таких условиях автономные системы позволяют снизить риски угроз жизни и здоровью военнослужащих и сократить расходы на подобные работы.
Живучесть
Живучесть определяется как способность вооружения и военной техники, а также вооруженных сил противостоять действиям противника в течение времени, необходимого для успешного выполнения задачи боевых действий. Военные действия часто могут продолжаться довольно долго, в неблагоприятных климатических условиях и при негативном влиянии внешней среды, способность сопротивляться которым может превысить пределы человеческой выносливости. Облегчая физическое и умственное напряжение человека, системы ИИ могут гарантировать большое преимущество в подобных операциях. Разработанные для этих целей технологии ИИ в научных кругах известны как технологии «аугментации человек» (human augmentation). Эти системы обеспечивают такой режим совместной работы человека и машин, в результате которого повышается производительность труда человека, например, «умная экипировка» солдата, оснащенная разными устройствами и механизмами, позволяет снизить утомляемость человека, повысить ситуационную осведомленность
1 Artificial Intelligence and National Security, November 21, 2019, Congressional Research Service, R45178. С. 28 [Электронный ресурс]. URL:https://fas.org/sgp/crs/natsec/R45178.pdf (дата обращения: 19.06.2023).
о и т. п. В этой сфере особую ценность представляют новые биомедицинские техноло-
^ гии с искусственным интеллектом, которые ориентированы на проектирование ней-
^ ронных систем и алгоритмов для анализа данных, благодаря которым нервная си-^ стема человека может эффективно взаимодействовать с несколькими устройствами
g и управлять роботизированными протезами конечностей [17].
2 Скоординированность
о
< В современных войнах успех может быть достигнут только при скоординированной с и эффективной работе всех составляющих сложной военной инфраструктуры. Дви-х жение войск, наступление и отступление, умение маневрировать на поле боя, целе-2 сообразность и своевременность ведения огня, бесперебойное снабжение и техни-н- ческое обслуживание — все это требует слаженной и согласованной работы всех ^ подразделений. С другой стороны, широкое использование беспилотных аппаратов 2 как в воздушном пространстве, так и на суше и на море, требует скоординированной работы и в плоскости сотрудничества человек-машина и машина-машина.
Технологии ИИ могут обеспечить оперативную совместимость и высокую скоординированность действий между всеми военными инфраструктурами в режиме реального времени, гарантируя тем самым успех боевой операции. Достижения военной науки в этом направлении были представлены в июне 2020 г., в журнале The National Interest с коротким гипотетическим эпизодом военных действий в качестве «гиперсетевого видения будущих войн» [18]. В представленном эпизоде беспилотный летательный аппарат, обнаружив агрессивную активность противника, скрытого за горным хребтом, передает эту информацию небольшой разведывательной колонне и роботизированным системам вооружения. Успешно преодолев труднопроходимую местность и маневрируя на территории противника, роботы-вооружения занимают выгодные позиции для контратаки. Солдаты, основными функциями которых являются контроль и командование системами, получают данные для навигации и целеуказания от «сетевых» роботизированных вооружений и разведывательной колонны, чтобы принять решение о том, какие пилотируемые и автономные транспортные средства, вооружение и военная техника должны быть вовлечены в военную операцию. Таким образом, хорошо осведомленные и хорошо вооруженные силы могут вести точный огонь по боевым единицам противника, предотвращая его атаки [5, с. 74].
Повышение эффективности принятия решений
Являясь мультипликатором для широкого спектра военных возможностей, ИИ фактически превращается в некую субстанцию военной мощи, подобно электричеству или радиосвязи, а не в отдельный вид «вооружения». При этом чтобы «присвоить» значение субстанции ИИ прежде всего «обязан» своей способности принимать решения. И хотя существуют значительные разногласия по вопросу об эффективности решений, принимаемых искусственным интеллектом [16, с. 5], нет никаких сомнений в том, что военные, использующие оснащенное вооружение и военную технику, имеют большое преимущество на поле боя, чем те, которые полагаются только на человеческие суждения при принятии решений.
Системы поддержки принятия решений на основе ИИ на самом деле на так сложны, как может показаться. Математические модели для них в основном строятся в линейной иерархии и состоят из последовательной реализации следующих подзадач: анализ текущей ситуации, поддержка принятия решений с целью планирования, их реализация, поддержка принятия решений с целью динамического перепланирования, корректировка и расширение планов по ходу развития ситуации [21, с. 6].
DARPA впервые начала разрабатывать подобные технологии ИИ еще в 2008 г. о
Это была технология DeepGreen, предназначенная для управления и контроля во- ^
оруженными силами на тактическом уровне. Однако наибольшие достижения в этом ^
направлении стали доступны позже, в процессе проектирования системы ИИ RAID, EJ
предназначенной для конкурентной разведки и принятия решений в режиме ре- g
ального времени. Система использует алгоритмы прогнозной аналитики, техноло- L-
гии моделирования, инструменты теории игр, ИИ и машинное обучение для ана- о
лиза и прогнозирования действий противника и принятия эффективных решений о
на их основе. В научных кругах технология известна как «технология, позволяющая <
читать мысли противника» [19]. Система позволяет командиру правильно оценить ^
численность сил противника, позиционные преимущества, прогнозировать наме- х
рения противника, стратегические и обманные маневры, предлагать решения по 2
выбору стратегии, способов военной хитрости и других действий. В системе ис- н-
пользуются чувствительные к обману и хитрости технологии, которые позволяют ^
командиру быстрее ориентироваться и принимать более эффективные решения. °
Основные риски применения искусственного интеллекта в военных целях
В условиях быстро меняющегося характера войны технологические возможности ИИ действительно незаменимы на разных уровнях военного управления (оперативном, тактическом и стратегическом). Однако обсуждение вопросов применения технологий ИИ в военном управлении или в других сферах государственного управления только с точки зрения возможных преимуществ является однобоким подходом, и в условиях «глобального шума» вокруг ИИ и неприкрытой рекламы может привести к недопустимым ошибкам государственной политики в этом направлении.
Вместе с внушительными потенциальными преимуществами, использование ИИ в военном управлении также сопряжено со значительными рисками, такими как мировая война между крупными державами, возможность ядерного конфликта и вероятность выхода ИИ из-под контроля. Все эти риски носят общечеловеческий экзистенциальный характер и могут оказать непосредственное влияние на долгосрочное будущее человеческого общества. Представим некоторые важные обстоятельства, заставляющие уделять больше внимания рискам применения ИИ в сфере военного управления.
1. Для бесперебойной и эффективной работы системы военного управления, оснащенной искусственным интеллектом, очень важно, чтобы база данных о поле боя — театре военных действий, была достаточно большой, а для сбора таких данных необходимы реальные войны или боевые действия. Например, для испытания обычных беспилотных автомобилей они проезжают сотни миллионов миль в реальных условиях для проверки системы управления. К счастью, войны случаются не так уж часто, хотя это в некотором смысле негативно сказывается на испытаниях военных систем ИИ и оценке их эффективности.
2. Разумеется, военные системы ИИ проходят испытания в условиях моделированной цифровой (дополнительной) реальности, но сколько бы военным инженерам не удавалось с максимальной точностью имитировать оперативные ситуации, они все равно не смогут в полной мере воспроизвести хаос, неопределенность и насилие, характерные войне в реальных условиях, как и не удастся предсказать с абсолютной точностью гуманитарные мотивы противоборствующей стороны в том или ином эпизоде военных действий.
3. Очевидно, что искусственный интеллект менее гибок, чем человеческий, в плане адаптации. Возможно, во время испытаний ИИ продемонстрирует отличные возможности, но в реальных боевых условиях, когда необходимо оперативно реагировать на ситуацию, ИИ может и не справиться со своей задачей. Даже при не-
о значительных различиях в оперативной обстановке, применение ИИ может привести, ^ например, к уничтожению мирного населения или ненужной эскалации обстановки, ^ которой в дальнейшем трудно будет управлять. Негибкая или «нечеловеческая» ЕЗ реакция ИИ при принятии важных стратегических решений может привести к фа-^ тальному исходу. Например, во время Карибского кризиса политические лидеры США решили, что будут атаковать СССР, если русские собьют их разведывательный о самолет. Однако они изменили свои намерения после того, когда самолет уже был о подбит, тем самым избежав ядерного столкновения.
< В целом риски применения искусственного интеллекта в системах военного 2 управления могут быть вызваны следующими факторами:
х • прозрачность. Из-за непрозрачности генерации алгоритмов реализации той или иной функции зачастую сложно выявить ответственных за неверные решения н- или действия. И хотя на практике можно раскрыть логику формирования алтеей ритмов, доступ к кодам может быть ограничен правами интеллектуальной соб-2 ственности;
• предрасположенность. Технологии ИИ самообучаются на закономерностях, выявленных при анализе существующих общественных отношений (в том числе и в военное время), следовательно, велика вероятность того, что ИИ будет копировать, воспроизводить, усиливать и расширять все существующие модели поведения в обществе: маргинализация, неравенство и дискриминация [14]. Кроме того, модели для рационального анализа и измерений в любом случае выбирают люди, поэтому алгоритмы ИИ, скорее всего, будут отражать предубеждения разработчиков;
• уязвимость личных данных. Иногда человек может оказаться в поле социальных экспериментов вопреки своему праву на неприкосновенность частной жизни;
• социальная изоляция и дезинтеграция [4, с. 20]. В результате широкого использования ИИ и автоматизации может снизиться потребность взаимодействия людей друг с другом. В качестве примера можно привести тот факт, как быстро общество перешло на виртуальное общение и отказалось от ряда социальных обычаев. Между тем, здоровое общество строится на доверительных человеческих отношениях, эмпатии и взаимопонимании;
• деградация человеческого интеллекта. По мере того, как развиваются технологии ИИ, постепенное ограничение некоторых возможностей человеческого мозга представляется неизбежным, поскольку человеческий мозг развивается благодаря разнообразию умственного и физического труда. Следовательно, наличие легкодоступных вспомогательных средств в повседневной жизни человека негативно скажется на дальнейшем совершенствовании мозга человека.
Выводы
Резюмируя, отметим, что проникновение ИИ в сферу военного управления уже состоявшийся факт. Потенциальные положительные эффекты применения ИИ в военной сфере также очевидны, как и то, что на мировой конкурентной арене ИИ станет основным фактором, вокруг которого будет разворачиваться будущая геополитическая конкуренция. С этой точки зрения среди приоритетов государственной политики современных государств (особенно тех, кто может тем или иным образом быть вовлечен в военные действия) чрезвычайно важным является развитие ИИ и его внедрение в сферу государственного управления (в частности, военного управления). Однако, с другой стороны, важно соблюдать «правила безопасности» применения ИИ. Причем формирование для этого законодательно-правовой базы и соответствующих инфраструктур должно происходить намного раньше фактического использования ИИ, иначе последствия могут быть скорее негативными, чем позитивными.
<
Невзирая на все риски, ИИ как новейшая технология с мощным потенциалом может изменить существующий статус-кво на мировом рынке вооружений и военной техники и формировать новые реалии и противовесы непредсказуемого и невероятного распределения силы. Важно найти правильное направление будущих изменений EJ и двигаться вперед параллельно с ними. g
Литература g
1. Абросимов В. К. Искусственный интеллект и проблемы развития вооружения и военной < техники // Вооружение и экономика. 2021. № 2 (56). С. 5-21. ¡=Ь
2. Астраханцев В. Применение интеллектуальных технологий в ИТ-инфраструктуре органов х государственной власти. Миф или реальность? [Электронный ресурс]. URL: https://ecm- < journal.ru/material/primenenie-intellektualnykh-tekhnologijj-v-it-infrastrukture-organov- х gosudarstvennojj-vlasti-mif-ili-realnost (дата обращения: 10.11.2022).
3. Васин С. Г. Искусственный интеллект в управлении государством // Государственное ^ и муниципальное управление. 2017. № 3 (17). C. 5-10. с
4. Талапина Э. В. Использование искусственного интеллекта в государственном управлении // Информационное общество. 2021. № 3. C. 16-22.
5. ¿шрп^т.ЦшЪ Q., ищшдш щшmbpшqd'Ubph pUnLjiQ прщЬи ^q^iwpnjnL^pbpnLia^'U qшpqшgdш'U nLqbgnLjg: «¿ш)1ш1ши ршиш1» ^q^qfis^^U h^Unbu, ¿J. 4(106), 2020, tg 74: [Арутюнян Г. Характер будущих войн как ориентир для развития оборонной промышленности // Военно-научный журнал «Армянская Армия». 2020. № 4 (106). С. 74]. (На армянском яз.).
6. ¿шрп^т.ЦшЬ Q., Uphbus^^U ршиш1ши^иши lhpшndш'U hшdш2^шphшJh'U ^inpAfig. hb^U^pUbp ^q^^U ninprnh h^^p: «¿ш)1ш1ши ршиш1» ^q^qfis^^U h^Unbu, 2020, hd. 1, tg 112 [Арутюнян Г. Из мирового опыта применения искусственного интеллекта: перспективы для военной сферы // Военно-научный журнал «Армянская Армия». 2020. № 1(103). C. 112]. (На армянском яз.)
7. №., nwq^^U Ui^s^lUbpn^ UP lhpшndш'U шpп.h ^rnnL^bpU nL hb^U^pUbpQ: «¿ш^ш)^ ^^^pnLd» qfis^^U h^Unbu, bpUш'U, 2022, № 2, tg 20-32: [Казеян Х., Современные тенденции и перспективы применения ИИ в военных целях // Научный журнал «Публичное управление». 2022. № 2. С. 20-32]. (На армянском яз.)
8. итЦ_шмшЪ 3nL., ¿шрп^т.ЦшЪ Q., ¿ш^ш)^ lшnшЦшpdш'U h^^^pqnLd iwphbus^^U ршиш1ши^иши lhpшnnL|Jш'U hh^ш^'U^hp'UbpD: «¿ш)1ш1ши ршиш1» nшqdшqhmшlш'U h^Un.bu, 1(111), 2022, tg 9-24: [Суварян Ю. Арутюнян Г., Проблемы применения искусственного интеллекта в системе государственного управления // Военно-научный журнал «Армянская Армия». 2022. № 1 (111). С. 9-24]. (На армянском яз.)
9. Bachle T. C., Bareis J. «Autonomous weapons» as a geopolitical signifier in a national power play: Analyzing AI imaginaries in Chinese and US military policies // Eur J Futures Res. 2022. N 10. P. 20. DOI: 10.1186/s40309-022-00202-w.
10. Berryhill J., Heang K. K., Clogher R., McBride K. «Hello, World: Artificial intelligence and its use in the public sector» // OECD Working Papers on Public Governance. N 36.
11. Corrigan J. «Three-Star General Wants AI in Every New Weapon System». November 2017 [Электронный ресурс]. URL: https://www.defenseone.com/technology/2017/11/three-star-general-wants-artificial-intelligence-every-new-weapon-system/142239/ (дата обращения: 25.02.2023).
12. Daniel Araya and Meg King . The Impact of Artificial Intelligence on Military Defence and Security // CIGI Papers. N 263. March 2022.
13. Defense Science Board // Summer Study on Autonomy. June 9, 2016. P. 12.
14. Hacker Ph., Petkova B. Reining in the Big Promise of Big Data: Transparency, Inequality, and New Regulatory Frontiers //15 NW. J. TECH. & INTELL. PROP.1. 2017.
15. Huizing A., Heiligers M., Dekker B., de Wit J., Cifola L., Harmanny R. Deep Learning for Classification of Mini-UAVs Using Micro-Doppler Spectrograms in Cognitive Radar // IEEE A&E Systems Magazine. 2019. N 10.
16. Johnson J. Artificial intelligence & future warfare: implications for international security // Defense & Security Analysis. 2019. DOI: 10.1080/14751798.2019.1600800.
17. Konaev M., Chahal H., Fedasiuk R., Huang T., Rahkovsky I. U. S. Military Investments in Autonomy and AI. Center for Security and Emerging Technology. October, 2020. P. 16-26.
о 18. Osborn K. Here Is the Army's Hyper-Networked Vision of Future War. June 2, 2020.
н 19. Ownby M., Dr. A. Kott. Reading the Mind of the Enemy: Predictive Analysis and Command
" Effectiveness // The State of the Art and The State of the Practice. 2006.
^ 20. Reese Hedberg S. DART: Revolutionizing Logistics Planning // IEEE Intelligent Systems. May/
> June, 2002. P. 81-83.
о 21. Schubert J., Brynielsson J., Nilsson M., Svenmarck P. Artificial Intelligence for Decision Support
ш in Command-and-Control Systems . 23rd International Command and Control Research &
о Technology Symposium «Multi-Domain C2».
о 22. Spangler M. Nagorno-Karabakh Is Ready for Another War.
™ 23. Szabadfold I. Artificial Intelligence in Military Application // Opportunities and Challenges, Land
^ Forces Academy Review. 2021. Vol. XXVI. N 2 (102). P. 157-165.
2 Об авторах:
¡E Казеян Хачатур Ашотович, ректор Академии государственного управления Республики Ар-
х мения (Ереван, Республика Армения), кандидат технических наук, доцент; rector@paara.am
о Арутюнян Гаяне Эрниковна, проректор по научной работе и внешним связям Академии государственного управления Республики Армения (Ереван, Республика Армения), кандидат экономических наук, доцент; harutyunyan.gayane@paara.am
References
1. Abrosimov V. K. Artificial Intelligence and Problems of the Development of Weapons and Military Equipment // Armament and Economics [Vooruzhenie I ekonomika]. 2021. N 2 (56). P. 5-21 (in Rus).
2. Astrakhantsev V. The use of intelligent technologies in the IT infrastructure of public authorities. Myth or reality? [Electronic resource]. URL: https://ecm-journal.ru/material/primenenie-intelle-ktualnykh-tekhnologijj-v-it-infrastrukture-organov-gosudarstvennojj-vlasti-mif-ili-realnost (accessed: 10.11.2022) (in Rus).
3. Vasin S. G. Artificial intelligence in state management // State and municipal management [Gosudarstvennoe I munitsipal'noe upravlenie]. 2017. N 3 (17). P. 5-10 (in Rus).
4. Talapina E. V. The use of artificial intelligence in public administration // Information society [Informatsionnoe obshchestvo]. 2021. N 3. P. 16-22 (in Rus).
5. Harutyunyan G. The nature of future wars as a guide for the development of military industry // "Armenian Army" Military Science Journal. 2020. Vol. 4 (106). P. 74 (in Armenian).
6. Harutyunyan G., From the world experience of using artificial intelligence. prospects for the military sphere // "Armenian Army" military scientific journal. 2020. N 1. P. 112 (in Armenian).
7. GhazeyanKh., Current trends and perspectives of the use of anti-aircraft guns for military purposes // "Public Administration" scientific journal. 2022. N 2. P. 20-32 (in Armenian).
8. Suvaryan Yu., Harutyunyan G., Problems of using artificial intelligence in the public administration system //"Armenian Army" Military Science Journal. 2022. N 1 (111). P. 9-24 (in Armenian).
9. Bachle T. C., Bareis J. «Autonomous weapons» as a geopolitical signifier in a national power play: Analyzing AI imaginaries in Chinese and US military policies // Eur J Futures Res. 2022. N 10. P. 20. DOI: 10.1186/s40309-022-00202-w.
10. Berryhill J., Heang K. K., Clogher R., McBride K. «Hello, World: Artificial intelligence and its use in the public sector» // OECD Working Papers on Public Governance. N 36.
11. Corrigan J. «Three-Star General Wants AI in Every New Weapon System». November 2017 [Electronic source]. URL: https://www.defenseone.com/technology/2017/11/three-star-general-wants-artificial-intelligence-every-new-weapon-system/142239/ (accessed: 25.02.2023).
12. Daniel Araya and Meg King . The Impact of Artificial Intelligence on Military Defence and Security // CIGI Papers. N 263. March 2022.
13. Defense Science Board // Summer Study on Autonomy. June 9, 2016. P. 12.
14. Hacker Ph., Petkova B. Reining in the Big Promise of Big Data: Transparency, Inequality, and New Regulatory Frontiers //15 NW. J. TECH. & INTELL. PROP.1. 2017.
15. Huizing A., Heiligers M., Dekker B., de Wit J., Cifola L., Harmanny R. Deep Learning for Classification of Mini-UAVs Using Micro-Doppler Spectrograms in Cognitive Radar // IEEE A&E Systems Magazine. 2019. N 10.
16. Johnson J. Artificial intelligence & future warfare: implications for international security // Defense & Security Analysis. 2019. DOI: 10.1080/14751798.2019.1600800.
17. Konaev M., Chahal H., Fedasiuk R., Huang T., Rahkovsky I. U. S. Military Investments in Autonomy o and AI. Center for Security and Emerging Technology. October, 2020. P. 16-26. ™
18. Osborn K. Here Is the Army's Hyper-Networked Vision of Future War. June 2, 2020. ^
19. Ownby M., Dr. A. Kott. Reading the Mind of the Enemy: Predictive Analysis and Command ^ Effectiveness // The State of the Art and The State of the Practice. 2006. >
20. Reese Hedberg S.DART: Revolutionizing Logistics Planning // IEEE Intelligent Systems. May/ o June, 2002. P. 81-83. ^
21. Schubert J., Brynielsson J., Nilsson M., Svenmarck P. Artificial Intelligence for Decision Support o in Command-and-Control Systems . 23rd International Command and Control Research & q Technology Symposium «Multi-Domain C2». ™
22. Spangler M. Nagorno-Karabakh Is Ready for Another War. q_
23. Szabadfold I. Artificial Intelligence in Military Application // Opportunities and Challenges, Land x Forces Academy Review. 2021. Vol. XXVI. N 2 (102). P. 157-165. <
i—
About the author: x
Khachatur Ghazeyan, Rector of the Public Administration Academy of Republic of Armenia (Yerevan, o Republic of Armenia), PhD in Technical Sciences, Associate Professor; rector@paara.am
Gayane Harutyunyan, Vice Rector for Science and External Relations of the Public Administration Academy of Republic of Armenia (Yerevan, Republic of Armenia),PhD in Economics, Associate Professor; harutyunyan.gayane@paara.am