Научная статья на тему 'Милитаризация систем искусственного интеллекта: возможности и угрозы'

Милитаризация систем искусственного интеллекта: возможности и угрозы Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
24
3
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
интеллектуализация вооружений и боевой техники / проблема непрозрачности / неинтерпретируемость алгоритмов / intellectualization of weapons and military equipment / problem of opacity / non-interpretability of algorithms

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Гнатик Екатерина Николаевна

Исследование посвящено осмыслению возможностей и рисков применения искусственного интеллекта в военном деле. Отмечено, что в настоящее время, когда в мире существенно возросла значимость фактора военной силы, технологии искусственного интеллекта рассматриваются в качестве одного из базовых инструментов укрепления потенциала милитаризации. Наряду с другими прорывными новшествами такие системы обретают приоритет в деле создания перспективных образцов вооружения, военной и специальной техники. Условия нарастающей напряженности современного противостояния государств стимулируют беспрецедентное увеличение темпов научно-технических разработок «интеллектуального» оружия, его серийного промышленного производства, испытаний и применения на поле боя. Развитие технологий искусственного интеллекта активно приближает принципиальную трансформацию научно-технической оснащенности оборонной сферы и ведет к возникновению новых тенденций в развитии военного искусства. Анализируя феномен непрозрачности искусственного интеллекта, автор отмечает, что превращение этих систем в подобие черных ящиков значительно затрудняет понимание принципов, алгоритмов, последовательности действий, на основе которых осуществляется принятие заключений, решений и т.п. Такая ситуация влечет за собой невозможность должного контроля адекватности данных, полученных с помощью этих систем, и тем более «автоматического» доверия им. Эти обстоятельства увеличивают потенциальные риски, поскольку применение вооружения, оснащенного платформами искусственного интеллекта, существенно сокращает возможности оператора контролировать ситуацию в районе ведения боевых действий, минимизируя время на осмысление обстановки и принятие стратегического решения. Подобные разработки могут послужить мощнейшим катализатором наступления эпохи следующего технологического уклада, где главным ориентиром провозглашается создание систем сильного (общего) искусственного интеллекта. Главная угроза перехода от роботизации к интеллектуализации вооружений и боевой техники состоит в отстранении человека от принятия решений. В работе отмечается, что вооружение, снабженное искусственным интеллектом, является более опасным в сравнении с традиционными средствами ведения войны из-за скорости и элементов непредсказуемости. С точки зрения автора, выход за рамки четко понимаемых и заданных алгоритмов – это опасность, которую нельзя игнорировать. Цена ошибки, допущенной вследствие неадекватно принятого цифровым сервисом решения, может оказаться неприемлемо высокой.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Гнатик Екатерина Николаевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Militarization of Artificial Intelligence Systems: Opportunities and Threats

The research is devoted to considering the possibilities and risks of using artificial intelligence in military affairs. It is emphasized that at present, when the importance of the factor of military force has significantly increased in the world, artificial intelligence technologies are increasingly being considered as one of the basic tools for strengthening the potential of militarization. Along with other breakthrough innovations, such systems are a priority in the creation of promising weapons, military and special equipment. The conditions of growing tension in the modern confrontation are stimulating an unprecedented increase in the pace of scientific and technical development of “smart” weapons, their serial industrial production, testing and use on the battlefield. The development of artificial intelligence technologies is actively bringing forward a fundamental transformation of the scientific and technical equipment of the defense sector and leading to the emergence of new trends in the development of military art. Analyzing the phenomenon of opacity of artificial intelligence, the author notes the tendency of these systems to turn into a kind of black boxes, which significantly complicates the understanding of the principles, algorithms, sequence of actions on the basis of which the system makes conclusions, decisions, etc. This entails the impossibility of properly monitoring the adequacy of the data obtained using these systems, and even more so of “automatically” trusting them. These circumstances increase potential risks, since the use of weapons equipped with artificial intelligence platforms significantly reduces the operator’s ability to control the situation in the combat area, minimizing the time to comprehend the situation and make a strategic decision. The author believes that the main threat of the transition from robotization to the intellectualization of weapons and military equipment is the removal of humans from decision-making. Going beyond clearly understood and defined algorithms is a danger that cannot be ignored. The cost of an error made as a result of an inadequate decision made by a digital service may turn out to be unacceptably high. The study notes that weapons equipped with artificial intelligence are more dangerous than traditional means of warfare due to speed and elements of unpredictability. Such developments can become a powerful catalyst for the onset of the era of the next technological structure, where the main guideline is the creation of systems of strong (general) artificial intelligence.

Текст научной работы на тему «Милитаризация систем искусственного интеллекта: возможности и угрозы»

RUDN Journal of Philosophy. ISSN 2313-2302 (Print), ISSN 2408-8900 (Online) Вестник РУДН. Серия: ФИЛОСОФИЯ

2024 Vol. 28 No. 3 771-784

http://journals.rudn.ru/philosophy

https://doi.org/10.22363/2313-2302-2024-28-3-771-784 EDN: VZSWGK

Научная статья / Research Article

Милитаризация систем искусственного интеллекта:

возможности и угрозы

E.H. Гнатик И

Российский университет дружбы народов, Москва, Россия [email protected]

Аннотация. Исследование посвящено осмыслению возможностей и рисков применения искусственного интеллекта в военном деле. Отмечено, что в настоящее время, когда в мире существенно возросла значимость фактора военной силы, технологии искусственного интеллекта рассматриваются в качестве одного из базовых инструментов укрепления потенциала милитаризации. Наряду с другими прорывными новшествами такие системы обретают приоритет в деле создания перспективных образцов вооружения, военной и специальной техники. Условия нарастающей напряженности современного противостояния государств стимулируют беспрецедентное увеличение темпов научно-технических разработок «интеллектуального» оружия, его серийного промышленного производства, испытаний и применения на поле боя. Развитие технологий искусственного интеллекта активно приближает принципиальную трансформацию научно-технической оснащенности оборонной сферы и ведет к возникновению новых тенденций в развитии военного искусства. Анализируя феномен непрозрачности искусственного интеллекта, автор отмечает, что превращение этих систем в подобие черных ящиков значительно затрудняет понимание принципов, алгоритмов, последовательности действий, на основе которых осуществляется принятие заключений, решений и т.п. Такая ситуация влечет за собой невозможность должного контроля адекватности данных, полученных с помощью этих систем, и тем более «автоматического» доверия им. Эти обстоятельства увеличивают потенциальные риски, поскольку применение вооружения, оснащенного платформами искусственного интеллекта, существенно сокращает возможности оператора контролировать ситуацию в районе ведения боевых действий, минимизируя время на осмысление обстановки и принятие стратегического решения. Подобные разработки могут послужить мощнейшим катализатором наступления эпохи следующего технологического уклада, где главным ориентиром провозглашается создание систем сильного (общего) искусственного интеллекта. Главная угроза перехода от роботизации к интеллектуализации вооружений и боевой техники состоит в отстранении человека от принятия решений. В работе отмечается, что вооружение, снабженное искусственным интеллектом, является более опасным в сравнении с традиционными средствами ведения войны из-за скорости и элементов непредсказуемости. С точки зрения автора, выход за рамки четко понимаемых и заданных алгоритмов - это опасность,

© fHaTHK E.H., 2024

lice) ®® This work is licensed under a Creative Commons Attribution 4.0 International License lfc^EB!I*https://creatiYecommons.org/licenses/by-nc/4.0/legalcode

которую нельзя игнорировать. Цена ошибки, допущенной вследствие неадекватно принятого цифровым сервисом решения, может оказаться неприемлемо высокой.

Ключевые слова: интеллектуализация вооружений и боевой техники, проблема непрозрачности, неинтерпретируемость алгоритмов

Информация о финансировании и благодарности. Исследование выполнено в рамках инициативной НИР № 100414-0-000 «Культура, наука и технологии: вызовы современности».

История статьи:

Статья поступила 15.05.2024

Статья принята к публикации 01.08.2024

Для цитирования: Гнатик Е.Н. Милитаризация систем искусственного интеллекта: возможности и угрозы III Вестник Российского университета дружбы народов. Серия: Философия. 2024. Т. 28. № 3. С. 771-784. https:IIdoi.orgI10.22363I2313-2302-2024-28-3-771-784

Militarization of Artificial Intelligence Systems: Opportunities and Threats

Ekaterina N. Gnatik 0

RUDN University, Moscow, Russia [email protected]

Abstract. The research is devoted to considering the possibilities and risks of using artificial intelligence in military affairs. It is emphasized that at present, when the importance of the factor of military force has significantly increased in the world, artificial intelligence technologies are increasingly being considered as one of the basic tools for strengthening the potential of militarization. Along with other breakthrough innovations, such systems are a priority in the creation of promising weapons, military and special equipment. The conditions of growing tension in the modern confrontation are stimulating an unprecedented increase in the pace of scientific and technical development of "smart" weapons, their serial industrial production, testing and use on the battlefield. The development of artificial intelligence technologies is actively bringing forward a fundamental transformation of the scientific and technical equipment of the defense sector and leading to the emergence of new trends in the development of military art. Analyzing the phenomenon of opacity of artificial intelligence, the author notes the tendency of these systems to turn into a kind of black boxes, which significantly complicates the understanding of the principles, algorithms, sequence of actions on the basis of which the system makes conclusions, decisions, etc. This entails the impossibility of properly monitoring the adequacy of the data obtained using these systems, and even more so of "automatically" trusting them. These circumstances increase potential risks, since the use of weapons equipped with artificial intelligence platforms significantly reduces the operator's ability to control the situation in the combat area, minimizing the time to comprehend the situation and make a strategic decision. The author believes that the main threat of the transition from robotization to the intellectualization of weapons and military equipment is the removal of humans from decision-making. Going beyond clearly understood and defined algorithms is

a danger that cannot be ignored. The cost of an error made as a result of an inadequate decision made by a digital service may turn out to be unacceptably high. The study notes that weapons equipped with artificial intelligence are more dangerous than traditional means of warfare due to speed and elements of unpredictability. Such developments can become a powerful catalyst for the onset of the era of the next technological structure, where the main guideline is the creation of systems of strong (general) artificial intelligence.

Keywords: intellectualization of weapons and military equipment, problem of opacity, non-interpretability of algorithms

Funding and Acknowledgement of Sources. The research was carried out within the framework of the initiative research project N° 100414-0-000 "Culture, science and technology: challenges of our time".

Article history:

The article was submitted on 15.05.2024 The article was accepted on 01.07.2024

For citation: Gnatik EN. Militarization of Artificial Intelligence Systems: Opportunities and Threats. RUDN Journal of Philosophy. 2024;28(3):771-784. (In Russian). https://doi.org/10.22363/2313-2302-2024-28-3-771-784

Введение

Цифровизация как ключевая тенденция развития современного мира в значительной степени стала причиной вступления человечества в эпоху кардинальных перемен и серьезных испытаний. Стремительное внедрение цифровых технологий способствует радикальной трансформации самых различных процессов: производственных, управленческих, экономических, финансовых, образовательных и иных. Степень доступности технологий и вовлеченности в них населения планеты непрерывно растет. Тенденция постепенной замены аналоговой культуры на цифровую вследствие масштабного расширения пространства всемирной паутины не может не впечатлять. Технологии искусственного интеллекта, включающие в себя перспективные компьютерные системы, большие данные, машинное обучение, искусственные нейронные сети, глубокое обучение, автоматизированные системы, робототехнику и пр. [1. C. 182], в последние годы обретают все большую значимость, неуклонно превращаясь в глобальный феномен. Примечательно, что наступление цифровой глобализации, сопровождающееся нарастающей конкуренцией за обладание пальмой первенства в деле контролирования цифровых технологий и ресурсов, происходит на фоне явно выраженного процесса снижения темпов глобализации в сфере экономики, политики и культуры. Возрастающее год от года воздействие цифровой реальности на социум, широкое использование технологий искусственного интеллекта создали условия для кардинального преобразования мира человека. Вместе с открытием и расширением потенциала новых возможностей цифровая среда порождает целый спектр социогуманитарных проблем, среди которых значатся

угрозы безопасности, идентичности, дискриминации, трансформации способа бытия, восприятия человеком мира и др.

Как известно, эволюция технологий, задействованных в сфере искусственного интеллекта, происходит на протяжении довольно небольшого по историческим меркам периода - менее восьми десятилетий (с конца 1940-х гг.). С тех пор развитие этого комплексного междисциплинарного направления, изначально возникшего в лоне кибернетики, - одна из самых перспективных научно-технических задач. О ее сложности свидетельствует уже один только тот факт, что единого, общепринятого термина «искусственный интеллект» до сей поры не существует. И всякий раз в каждом конкретном случае специалисты вынуждены формулировать конкретное определение, сообразно специфике и целям разработок, исследований и потенциальных сфер применения этих систем. Исторически сложились два магистральных направления искусственного интеллекта: логический и нейросетевой. Логический (или символьный) базируется «на знаниях, логическом выводе и имитации человеческих рассуждений. Примеры его - это универсальные решатели задач, программы, способные на основании аксиом геометрии доказать все множество теорем школьной программы... язык Пролог, экспертные системы и все, что с ними связано: базы знаний, логические модели, продукционные правила, семантические сети» [2. С. 7]. Нейросетевой (или слабый) искусственный интеллект представляет собой технологии машинного обучения, «основанного на примерах, выявлении смыслов и скрытых закономерностей «по аналогии» (индуктивно)» [2. С. 7]. Стремительное развитие технологических новаций и достижение впечатляющих успехов стало возможным во многом благодаря совершенствованию систем, основанных на сетях глубокого обучения. К настоящему времени реализован целый спектр сложных практических решений: разработка систем компьютерного зрения, распознавания речи, имитация текстов на естественном языке, предиктивная (предсказательная) аналитика, контролирование технологических процессов и управление ими, классификация элементов системы, создание баз знаний и пр1. Решение такого рода задач сегодня подвластно слабому искусственному интеллекту, по сути являющемуся когнитивной технологией, связанной с анализом и интерпретацией данных.

Проблема непрозрачности функционирования систем искусственного интеллекта

Движение по технологическим рельсам осуществляется от экспертного обучения систем искусственного интеллекта первого поколения к созданию систем второго поколения, базирующихся на нейросетях глубокого обучения на основе больших данных [3. С. 4]. Важно отметить, что подобные системы

1 Колонии А. Следующие цели в гонке ИИ - объяснимость и обучаемость. 2020. 5 февраля. Режим доступа: https://russiancouncil.ru/analytics-and-comments/analytics/sleduyushchie-tseli-v-gonke-ii-obyasnimost-i-obuchaemost/ (дата обращения: 14.05.2024).

при обработке больших объемов данных обладают способностью к самостоятельному извлечению информации и распознаванию определенных закономерностей. Вместе с тем функционирование сетей глубокого обучения обнажило ряд практически важных вопросов, которые в настоящее время крайне затруднительно (а порой и невозможно) снять известными методами. В частности, это слабая способность к генерализации, проблема катастрофического забывания и др. Одной из самых сложнопреодолимых на современном этапе является проблема принципиальной непрозрачности искусственных нейронных сетей. Как отмечают специалисты, «любая классическая нейросетевая модель, обученная на сколь угодно большом объеме данных и дающая сколь угодно точные предсказания, остается черным ящиком и не дает возможности объяснить причины принятия того или иного решения или тем более раскрыть структуру и содержание знаний, полученных ей в процессе обучения»2. В этой связи на современном этапе среди специалистов, да и в обществе в целом, нарастает осознание необходимости поисков решения вопроса «непрозрачности» функционирования систем искусственного интеллекта. Актуализации данной проблемы способствуют как онтологические вызовы, так и перманентное усложнение и расширение технологических задач. В отечественной «Национальной стратегии развития искусственного интеллекта на период до 2030 года» прозрачность трактуется как «объяснимость работы искусственного интеллекта и процесса достижения им результатов, недискриминационный доступ пользователей продуктов, которые созданы с использованием технологий искусственного интеллекта, к информации о применяемых в этих продуктах алгоритмах работы искусственного интеллекта»3. Таким образом, суть феномена непрозрачности заключается в лавинообразно нарастающей неинтерпретируемости, необъяснимости принципов функционирования технологий искусственного интеллекта по мере их совершенствования. Непрерывное усложнение искусственного интеллекта ведет к превращению этих систем в подобие черных ящиков, что значительно затрудняет понимание принципов, алгоритмов, последовательности действий, на основе которых система осуществляет принятие заключений, решений и т.п. И таких примеров сегодня уже описано немало [4. С. 82; 5; 6]. Причем, «даже сами создатели искусственного интеллекта не всегда в состоянии объяснить принципы его работы» [3. С. 5].

Таким образом, современные системы искусственного интеллекта, практикующие обучение и настройку нейросетевых алгоритмов (системы второго поколения), на данном этапе не способны удовлетворить присущую человеку потребность понимания сути происходящих в них процессов. Это влечет за

2 Колонии А. Следующие цели в гонке ИИ - объяснимость и обучаемость. 2020. 5 февраля. Режим доступа: https://russiancouncil.ru/analytics-and-comments/analytics/sleduyushchie-tseli-v-gonke-ii-obyasnimost-i-obuchaemost/ (дата обращения: 14.05.2024).

3 Национальная стратегия развития искусственного интеллекта на период до 2030 года. Режим доступа: https://ai.gov.ru/national-strategy/ (дата обращения: 14.05.2024).

собой невозможность должного контроля адекватности данных, полученных с помощью систем искусственного интеллекта, и тем более «автоматического» доверия им. В высшей степени неосмотрительно полностью полагаться на предлагаемое системой решение какой-либо задачи в случае, если механизм принятия такого решения является неинтерпретируемым для пользователя. Эти обстоятельства влекут за собой рост потенциальных рисков вследствие отсутствия гарантии эффективного, справедливого и главное -безопасного применения этих систем в различных областях жизни современного социума. Особенно остро эта проблема обнажается в связи с нарастающей тенденцией милитаризации искусственного интеллекта.

Специфика современного силового противостояния государств

События последних лет демонстрируют, что революция в военном деле, связанная с разработкой ракетно-ядерных комплексов, постепенно начинает представлять собой преимущественно исторический интерес, поскольку обладание подобным оружием массового поражения в нынешней ситуации кратного увеличения напряженности вооруженного противоборства, похоже, перестает являться единственным индикатором неоспоримого превосходства на международной арене. Военно-политическое сдерживание, ранее осуществляемое на основе баланса ядерных вооружений, а также осознания неизбежности возмездия и гарантированного уничтожения противника в случае его агрессии, в наши дни уже не выглядит столь надежным фактором безопасности, как прежде, во времена существования СССР. Конфликтное пространство современного мира значительно расширилось. Наряду с этим «силовое противостояние государств приобретает характер гибридной войны, включая «войну через подставных лиц - прокси-войну», санкционное давление, операции в кибернетическом пространстве, информационное противоборство и ряд других направлений, ранее не свойственных традиционным войнам» [7. С. 8]. Согласно одному из определений современная гибридная война представляет собой «координированное использование страной-агрессором многочисленных видов (инструментов) насилия, нацеленных на уязвимые места страны-мишени с охватом всего спектра социальных функций для достижения синергетического эффекта и подчинения противника своей воле» [8. С. 9]. В этой связи в настоящий момент осуществляется напряженный поиск неординарных способов достижения геополитического превосходства, что диктует необходимость расширения и пополнения арсенала гибридной войны и активизирует разработку самых различных средств для ее успешного ведения. Эксперты подчеркивают, что концепция гибридной войны «сама по себе сформировала новый вид стратегического неядерного сдерживания» [9. С. 26]. В деле создания перспективных образцов вооружения, военной и специальной техники, наряду с гиперзвуковыми, лазерными, квантовыми и иными прорывными новшествами, доминирующими направлениями являются автоматизация, цифровизация и роботизация [10. С. 24].

Сферы военного применения систем искусственного интеллекта

К технологиям искусственного интеллекта, используемым сегодня для наступательных киберопераций против критической информационной инфраструктуры стран-оппонентов (компьютерных систем государственной сферы, промышленного, энергетического, транспортного комплексов, банковского сектора и пр.), а также в качестве воздействия на умы потенциального противника (как средство когнитивного, информационно-психологического воздействия) [11. С. 172-177], активно присоединяются новейшие системы кинетического противостояния. Спектр областей военного применения этих инноваций необычайно широк. Платформы искусственного интеллекта в настоящее время используются в сфере управления повседневной деятельностью войск, поддержания их боевой готовности, военно-инженерного и строительного дела, а также «для навигации, связи, разведки, наблюдения и рекогносцировки, разминирования, логистики, обслуживания вооружения и техники, информационной войны, радиоэлектронной борьбы, обучения и контроля обучения, автоматического распознавания целей, подготовки управленческих решений, программного выведения из строя электрических и телекоммуникационных сетей противника» [12. С. 80] и пр.

Итак, в XXI веке, когда на планете существенно возросла значимость фактора военной силы, технологии искусственного интеллекта рассматриваются в качестве одного из ключевых инструментов укрепления потенциала милитаризации. Известно, что «на вооружение ряда стран уже приняты системы с элементами искусственного интеллекта, начиная с беспилотных летательных аппаратов, роботов-часовых и заканчивая системами обработки сложной информации» [12. С. 73]. Среди наиболее успешных актуальных научно-исследовательских работ значится создание возможностей автоматического распознавания и сопровождения объектов для роботизированных платформ с последующим автономным принятием решения на уничтожение цели [1. С. 180].

Очевидно, в настоящее время гонка вооружений совершает новый виток, связанный со стремительным переходом в информационно-технологическую сферу, поскольку «в ситуации, когда противоборствующие стороны имеют ударные вооружения, дающие возможность несколько раз полностью уничтожить противника, соревноваться дальше в их совершенствовании не имеет смысла» [13. С. 41]. Семимильные шаги в развитии этого комплексного междисциплинарного научно-технологического направления способствуют тому, что на смену гонке ядерных вооружений идет гонка искусственного интеллекта, победитель в которой, как предполагается, сможет обеспечить себе возможность глобального доминирования в системе зарождающегося нового мирового порядка. Согласно прогнозам аналитиков, неоспоримое преимущество лидера будет обеспечено тем, что «мощь искусственного интеллекта может купировать любые интеллектуально-технологические прорывы других центров многополярного мира и канализировать развитие государств»

[14. С. 109]. В перспективах военного планирования просматриваются вызовы формирующейся новой реальности. Наличие планов широкомасштабного внедрения искусственного интеллекта в системы вооружений и управления передовых держав мира свидетельствует о том, что «в будущих вооруженных конфликтах в среднесрочной перспективе центр тяжести переместится на противоборство систем управления средствами поражения, управления и разведки» [15. С. 84]. Кардинально трансформируется представление о батальном искусстве: предполагается, что в новой военной парадигме «применение живой силы и наземных группировок войск станут не потенциальным преимуществом, а большим недостатком» [13. С. 41]. Кроме того, «применение искусственного интеллекта позволит разорвать связь между численностью населения и возможностями экономики государства, с одной стороны, и боеспособностью вооруженных сил - с другой» [13. С. 41].

Восприятие искусственного интеллекта как ценного и весьма эффективного инструмента военной мощи порождает не просто серьезную конкуренцию, но ожесточенное соперничество между ключевыми мировыми центрами силы за достижение превосходства в этой области. Условия нарастающей напряженности современного противостояния стимулируют беспрецедентное увеличение темпов научно-технических разработок «интеллектуального» оружия, его серийного промышленного производства, испытаний и применения на поле боя. В частности, документ под названием «Инновационная оборонная инициатива США» содержит план перехода к «Третьей стратегии компенсации (СК-3), призванной обеспечить их военное доминирование в мире путем широкомасштабного использования искусственного интеллекта в системах вооружений» [13. С. 41]. Также известно, что в рамках реализации концепции «Многосферные операции» Пентагон наращивает усилия в деле объединения информационных систем вооруженных сил США с целью обеспечения эффективного управления подразделениями, находящимися в любой точке мира. Предполагается, что применение технологий искусственного интеллекта предоставит возможность «получить информационное превосходство над противником на театре военных действий путем сокращения времени на доведение информации до требуемых потребителей, конкретных средств поражения - оптимально расположенных по отношению к объекту воздействия, а также ее использования в системе поддержки принятия решений как боевых, так и обеспечивающих подразделений» [16. С. 134]. Российские специалисты также активно содействуют снабжению вооруженных сил автоматизированными системами военного назначения: «существуют разработки, позволяющие рассматривать элементы искусственного интеллекта некоторых систем вооружения, способные сопрягать их со средствами управления, разведки и навигации» [17. С. 27]. В свою очередь, Китай, наращивая военные возможности, амбициозно намерен в обозримом будущем (к 2030 г.) обрести мировое инновационное лидерство в сфере применения искусственного интеллекта [18. С. 150].

Риски военного применения искусственных интеллектуальных систем

По-видимому, масштаб грядущего преобразующего воздействия цифровых платформ на военную сферу столь велик, что сегодня это трудно даже себе представить. Сложившаяся ситуация демонстрирует важность интенсивного, тщательного и всестороннего изучения этих технологий с целью использования их преимуществ, а также насущную необходимость выявления исходящих от них потенциальных опасностей. Как это часто происходит в сфере новых технологий, польза от их применения формулируется очень четко и внятно. Гораздо сложнее бывает предвидеть возможные риски. Прежде всего, стоит подчеркнуть принципиальное отличие систем искусственного интеллекта, применяемых в интересах обороноспособности государства, от тех, что работают «в мирных целях»: эти комплексы неминуемо ориентированы на «именно причинение вреда живой силе и технике противника, иной заданной цели. Либо они опосредованно связаны с вышеуказанной функцией причинения вреда. Вред, причиняемый ими, возникает, как правило, не случайно, не в результате форс-мажора, а целенаправленно в результате их применения по назначению» [12. С. 78-79]. Во-вторых, развитие столь разнообразных прикладных технологий активно приближает принципиальную трансформацию научно-технической оснащенности оборонной сферы и ведет к возникновению новых тенденций в развитии военного искусства. Существует необходимость четкого различения понятий «роботизированные системы», «автоматизированные системы управления» и «системы с использованием искусственного интеллекта». Как констатирует президент Российской академии ракетных и артиллерийских наук, генерал-майор запаса, профессор В.М. Буренок, «основные отличия интеллектуализации по отношению к автоматизации - это реализация способности компьютера принимать решения в условиях значительной неопределенности, на основе разнородной и неполной информации, часто меняющихся ситуаций. Большое значение имеет также самообучаемость и адаптивность как способность системы искусственного интеллекта самостоятельно совершенствовать заложенное в нее программное обеспечение, в том числе осуществлять самопрограммирование в ситуациях, реакция на которые алгоритмически не предусмотрена» [19. С. 107].

В этой связи на передний план выдвигаются риски военного применения искусственного интеллекта, заключающиеся в принципиальном изменении стратегической и тактической сфер путем создания кибероружия, автономных систем вооружения, ядерного командования и контроля, милитаризации космоса, сбора разведывательной информации и пр.4 [14. С. 111]. Существенным является тот факт, что такие системы (в подавляющем большинстве случаев) не разрабатываются непосредственно «в недрах» научно-исследовательских структур силового блока, а интегрируются - как в новые, так и в уже

4 Волков А. Искусственный интеллект и международные отношения: социальные аспекты и влияние на международную безопасность. 31.01.2024. Режим доступа: https://russiancouncil. ru/blogs/a-volkov/iskusstvennyy-intellekt-i-mezhdunarodnye-otnosheniya-sotsialnye-aspekt/ ?sphrase_id=140769943 (дата обращения: 13.05.2024).

имеющиеся образцы военной техники [12. C. 74]. И как следствие - в мышлении людей в погонах неизбежно существует определенный пробел, который «затрудняет понимание сути и принципов использования искусственного интеллекта в качестве оружия» [20. C. 229]. И это вполне объяснимо, ведь применение вооружения, оснащенного платформами искусственного интеллекта, существенно сокращает возможности оператора контролировать ситуацию в районе ведения боевых действий, поскольку критично минимизирует время на осмысление обстановки и принятие стратегического решения. Кроме того, логика принятия решений алгоритмами искусственного интеллекта может остаться за гранью человеческого понимания из-за несопоставимости масштабов и уровня сложности работы машины. Это означает, что автономия военнослужащего значительно сокращается. Соответственно, вооружение, снабженное искусственным интеллектом, является более опасным в сравнении с традиционными средствами ведения войны из-за скорости и элементов непредсказуемости. Цена ошибки, допущенной вследствие неадекватно принятого цифровым сервисом решения, может оказаться неприемлемо, запредельно высокой.

Сведения из доступных источников указывают на то, что эксперты по вооружению, как правило, с очень большой осторожностью оценивают перспективы использования искусственных интеллектуальных систем, наделенных возможностью принимать самостоятельные решения, в военных целях, поскольку полагают, что на данном историческом этапе ответственно гарантировать безошибочное, безопасное и предсказуемое функционирование таких платформ невозможно. Известно, что гражданские и военные специалисты США проявляют «сдержанность в отношении автономных систем вооружения (Lethal autonomous weapons systems - LAWS). Это отражается в предубеждении в американском обществе против автономии искусственного интеллекта в целом, и конкретно - против автономной летальности, что приводит к обязательному присутствию человека при использовании интеллектуальных систем вооружения)» [20. C. 233]. Отечественные военные эксперты, анализируя расширение спектра возможностей для развития военной сферы, также осознают вероятность и весьма высокую цену ошибки в функционировании искусственной системы. Специалисты отмечают, что «основная проблема применения искусственного интеллекта в автоматизированных системах управления связана с риском неоднозначной интерпретации смысла тех данных, большие объемы которых поступают от различных информационных источников как текстовых, так и данных от средств видео-, аудиозаписи, радиолокации, гидроакустики, защиты, охраны, наблюдения, военной разведки и других технических средств. Риск ошибочной интерпретации возникает во всех случаях, когда эта информация неструктурирована или слабоструктурирована» [2. C. 10]. Иная ситуация складывается в Китае, где и военные специалисты, и политическое руководство склонны к выражению однозначной и решительной поддержки в деле использования достижений искусственного интеллекта в различных видах вооружения [20. C. 229]. Поднебесная уже достигла больших успехов в разработке высокотехнологичных

проектов и уверенно следует в фарватере развития военно-гражданской интеграции, ориентируясь на то, что «достижения в области больших данных, гибридного и роевого интеллекта, автоматизированного принятия решений, автономных беспилотных систем и интеллектуальной робототехники будут содействовать повышению ее военного потенциала» [18. С. 151].

Масштабы исследований, проводимых в лабораториях, разбросанных по всему миру, количество специалистов и бюджеты, выделяемые на разработки новых прикладных технологий, способствуют быстрому продвижению к созданию платформ третьего поколения (так называемого объяснимого искусственного интеллекта), когда система окажется способной «интерпретировать и объяснить алгоритм принятия решений, даже если он имеет природу «черного ящика»» [3. С. 4-5]. В рамках дальнейшего прогресса предполагается, что в 30-х годах возможно создание платформ четвертого поколения, которые будут оснащены самообучающимися системами, а в 40-х годах -пятого поколения («с воображением, которые больше не будут полагаться на людей в обучении» [3. С. 4-5]). Мнения на сей счет разнятся, и насколько выполнимой окажется реализация подобных проектов, покажет время.

Современная гонка вооружений ориентирована на «переход от автоматизации к интеллектуализации, т.е. внедрение высокоинтеллектуальных средств вооруженной борьбы» [8. С. 41]. При этом, несомненно, имплемента-ция цифровых платформ в системы вооружений создает не только новые возможности, но и новые угрозы. Сталкиваясь с проблемами непрозрачности алгоритмов искусственного интеллекта и угрозами неадекватного принятия решений цифровым сервисом, необходимо полномасштабное осознание цены ошибки. Однако в течение нескольких последних лет уже более четырех десятков государств (Великобритания, Соединенные Штаты Америки, Российская Федерация, Китай, Южная Корея, Израиль и др.) активно включились в программу создания робототехнических систем, обладающих способностью вести боевые действия без непосредственного человеческого участия [21. С. 5]. Подобные разработки могут стать мощнейшим катализатором наступления эпохи следующего технологического уклада, где главным ориентиром провозглашается создание систем сильного (общего) искусственного интеллекта. Памятуя, что «колыбелью» многих технологий была именно военная сфера, нельзя исключить, что уже в обозримом будущем обеспечивать военное преимущество над противником окажутся способны полностью автономные системы искусственного интеллекта, что приведет к возникновению абсолютно новой конфигурации как на театре военных действий, так и в военном искусстве в целом.

Представляется, что главная угроза перехода от роботизации к интеллектуализации вооружений и боевой техники состоит в отстранении человека от принятия решений. Выход за рамки четко понимаемых и заданных алгоритмов - это опасность, которую нельзя игнорировать: «необходимо иметь в виду, что в условиях, когда техническим устройствам предоставлена возможность давать оценку развитию событий в ходе военных конфликтов, существует вероятность непреднамеренного увеличения количества

незначительных алгоритмических сбоев, которые будут способны привести к непредвиденным и полностью спровоцированным со стороны искусственного интеллекта ... провалам сдерживания. При этом с того момента, как нападающие, так и обороняющиеся начнут полагаться на искусственный интеллект для управления поведением, сами системы станут взаимодействовать друг с другом уникальными (и непредвиденными) способами» [22. C. 78]. Это свидетельствует о необходимости и своевременности фундаментального научного рассмотрения вопросов разработки и практического внедрения новых систем вооружения и техники с использованием цифровых платформ.

Заключение

Внедрение новых технологических решений, риски милитаризации искусственного интеллекта пересекаются с опасениями относительно неопределенности перед онтологической неизвестностью будущего, осознание которых многократно возрастает на современном этапе, во время геополитических кризисов и социальной нестабильности. Масштабы и реальные угрозы современного инновационного процесса в условиях беспрецедентного обострения межгосударственных отношений и нарастания военного противостояния ставят мировое сообщество перед неотложной необходимостью поисков здравого смысла и признания приоритетности разработки новых глобальных подходов к решению задач обеспечения безопасности.

Список литературы

[1] Виловатых А.В. Искусственный интеллект как фактор военной политики будущего // Проблемы национальной стратегии. 2019. Т. 1. № 52. С. 177-192.

[2] Протасов А.А., Ширманов А.В., Радоманов С.И. Основные направления использования искусственного интеллекта в автоматизированных системах управления // Вооружение и экономика. 2023. Т. 4. № 66. С. 5-16.

[3] Аверкин А.Н. Объяснимый искусственный интеллект как часть искусственного интеллекта третьего поколения // Речевые технологии. 2023. № 1. С. 4-10.

[4] Черешнева И.А. Искусственный интеллект в государственном управлении и транспарентность: европейский опыт // Государственная служба. 2022. № 2. С. 80-87. https://doi.org/10.22394/2070-8378-2022-24-2-80-87

[5] AnannyM., Crawford K. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability // New Media & Society. 2018. Vol. 20. N 3. P. 973-989.

[6] Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines // Minds & Machines. 2020. Vol. 30. P. 99-120.

[7] Зарудницкий В.Б. Тенденции изменения системы обеспечения военной безопасности государства в условиях новой геополитической карты мира // Военная мысль. 2024. № 2. С. 6-14.

[8] Бартош А.А. Туман гибридной войны: Неопределенности и риски конфликтов XXI века. М.: Горячая линия - Телеком, 2019.

[9] Бартош А.А. Технологический суверенитет России как важный фактор победы в мировой гибридной войне // Военная мысль. 2023. № 8. С. 16-32.

[10] Ильницкий А.М. Ментальная война России // Военная мысль. 2021. № 8. С. 19-33.

[11] Гнатик Е.Н. Цифровая трансформация социотехнологической реальности: проблемы и риски // Вестник Российского университета дружбы народов. Серия: Философия. 2024. Т. 28. № 1. С. 168-180. https://doi.org/10.22363/2313-2302-2024-28-1-168-180

[12] Глухов Е.А. О правовом регулировании применения искусственного интеллекта в военной сфере // Военная мысль. 2022. № 8. С. 73-85.

[13] Уланов А.С. Прогностическая оценка тенденций развития средств вооруженной борьбы и способов их применения в войнах будущего // Военная мысль. 2022. № 8. С. 37-50.

[14] Бирюков А.В. К вопросу о влиянии научно-технического прогресса на международные отношения в цифровую эпоху // Международная аналитика. 2015. № 3. С. 103-115. https://doi.org/10.46272/2587-8476-2015-0-3-103-115

[15] Ишечкин Б.Б., Ишечкин В.Б., Евтихов С.В. Перспективы применения искусственного интеллекта в управлении войсками // Военная мысль. 2023. № 8. С. 79-84.

[16] Голубенко Н.Ю., Вавринюк С.А., Иванов А.А. Развитие автоматизированных систем боевого управления вооруженных сил США // Военная мысль. 2023. № 8. С. 134-145.

[17] Сержантов А.В., Смоловый А.В., Терентьев И.А. Трансформация содержания войны: контуры военных конфликтов будущего // Военная мысль. 2022. № 6. С. 19-30.

[18] Комиссина И.Н. Современное состояние и перспективы развития технологий искусственного интеллекта в Китае // Проблемы национальной стратегии. 2019. Т. 1. № 52. С. 137-160.

[19] Буренок В.М. Искусственный интеллект в военном противостоянии будущего // Военная мысль. 2021. № 4. С. 106-112.

[20] Изюмов Д.Б., Кондратюк Е.Л. Анализ различий в подходах США и Китая к применению искусственного интеллекта в системах вооружения // Инноватика и экспертиза: научные труды. 2022. Т. 2. № 34. С. 228-239.

[21] Фаличев О., Галанин Ю. Железные контрактники // Военно-промышленный курьер. Общероссийская еженедельная газета. 2018. Т. 38. № 751.

[22] Протасов А.А., Ширманов А.В., Радоманов С.И. Технологические разработки в области искусственного интеллекта и сдерживание потенциального агрессора // Военная мысль. 2023. № 11. С. 68-82.

Список литературы

[1] Vilovatykh AV. Artificial intelligence as a factor in the future military policy. Problems of national strategy. 2019;1(52): 177-192. (In Russian).

[2] Protasov AA, Shirmanov AV, Radomanov SI. Main directions of using artificial intelligence in automated control systems. Armament and Economics. 2023;4(66):5-16. (In Russian).

[3] Averkin AN. Explicable artificial intelligence as part of 3rd generation artificial intelligence. Speech technology. 2023;(1):4-10. (In Russian).

[4] Chereshneva IA. Artificial intelligence in public administration and its transparency: european experience. Public Administration. 2022;(2):80-87. (In Russian). https://doi.org/10.22394/2070-8378-2022-24-2-80-87

[5] Ananny M, Crawford K. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society. 2018;20(3):973-989.

[6] Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines. Minds & Machines. 2020;(30):99-120.

[7] Zarudnitsky VB. Trends of changes in the system of providing military security of the state in the conditions of the new geopolitical map of the world. Military thought. 2024;(2):6-14. (In Russian).

[8] Bartosh AA. The fog of hybrid war: Uncertainties and risks of conflicts in the 21st century. Moscow: Goriachaya liniya - Telecom; 2019. (In Russian).

[9] Bartosh AA. Russia's technological sovereignty as a key victory factor in global hybrid warfare. Military thought. 2023;(8):16-32. (In Russian).

[10] Ilnitsky AM. Russia's mental war. Military thought. 2021;(8):19-33. (In Russian).

[11] Gnatik EN. Digital Transformation of Socio-Technological Reality: Problems and Risks. RUDN Journal of Philosophy. 2024;28(1):168-180. (In Russian). https://doi.org/10.22363/2313-2302- 2024-28-1-168-180

[12] Glukhov YE. On legal regulation of artificial intelligence employment in the military sphere. Military thought. 2022;(8):73-85. (In Russian).

[13] Ulanov AS. Prognostic assessment of development trends in armed struggle assets and methods of their employment in future warfare. Military thought. 2022;(8):37-50. (In Russian).

[14] Biryukov AV. Remarks on the impact of science and technology progress on international relations in digital era. Journal of International Analytics. 2015;(3): 103-115. (In Russian). https://doi.org/10.46272/2587-8476-2015-0-3-103-115

[15] Ishechkin BB, Ishechkin VB, Yevtikhov SV. Prospects for the application of artificial intelligence in troop command and control. Military thought. 2023;(8):79-84. (In Russian).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

[16] Golubenko NYu, Vavrinyuk SA, Ivanov AA. U.S. army automated battle control system development. Military thought. 2023;(8):134-145. (In Russian).

[17] Serzhantov AV, Smolovy AV, Terentyev IA. Transformation of the war content: the outline of future military conflicts. Military thought. 2022;(6):19-30. (In Russian).

[18] Komissina IN. Current state and prospects for the development of artificial intelligence technologies in China. Problems of national strategy. 2019;1(52): 137-160. (In Russian).

[19] Burenok VM. Artificial intelligence in the military confrontation of the future. Military thought. 2021;(4):106-112. (In Russian).

[20] Izyumov DB, Kondratyuk EL. Analysis of differences between the United States and China in approaches to the use of artificial intelligence in weapons systems. Innovation and expertise: scientific works. 2022;2(34):228-239. (In Russian).

[21] Falichev O, Galanin Yu. Iron contract soldiers. Military-industrial courier. All-Russian weekly newspaper. 2018;38(751). (In Russian).

[22] Protasov AA, Shirmanov AV, Radomanov SI. Technological advancements in artificial intelligence and deterrence of a potential aggressor. Military thought. 2023;(11):68-82. (In Russian).

Сведения об авторе:

Гнатик Екатерина Николаевна - доктор философских наук, профессор, профессор, кафедра онтологии и теории познания, факультет гуманитарных и социальных наук, Российский университет дружбы народов, Российская Федерация, 117198, Москва, ул. Миклухо-Маклая, д. 6. ORCID: 0000-0003-0745-5019. E-mail: [email protected]

About the author:

Gnatik Ekaterina N. - DSc in Philosophy, Professor, Professor, Department of Ontology and Epistemology, Faculty of Humanities and Social Sciences, RUDN University, 6 Miklukho-Maklaya St., Moscow, 117198, Russian Federation. ORCID: 0000-0003-0745-5019. E-mail: [email protected]

i Надоели баннеры? Вы всегда можете отключить рекламу.