МЕЖДУНАРОДНО-ПРАВОВЫЕ НАУКИ
DOI 10.47643/1815-1329_2023_6_202
АНАЛИЗ НЕОБХОДИМОСТИ ПРИНЯТИЯ ГА ООН РЕЗОЛЮЦИИ О ЗАПРЕТЕ ИСПОЛЬЗОВАНИЯ БОЕВЫХ РОБОТОВ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ В ХОДЕ БОЕВЫХ ДЕЙСТВИЙ ANALYSIS OF THE NEED TO ADOPT A UNGA RESOLUTION ON THE PROHIBITION OF THE USE OF COMBAT ROBOTS WITH ARTIFICIAL INTELLIGENCE IN THE COURSE OF HOSTILITIES ДУБИНСКАЯ Юлия Владиславовна,
студентка Юридической школы Дальневосточного федерального университета. 690091, Россия, г. Владивосток, ул. Мордовцева, 12, стр. 2. E-mail: [email protected];
ЭШМУРАДОВА Екатерина Салойдиновна,
студентка Юридической школы Дальневосточного федерального университета. 690091, Россия, г. Владивосток, ул. Мордовцева, 12, стр. 2. E-mail: [email protected];
БАЛДИНА Виктория Вячеславовна,
студентка Юридической школы Дальневосточного федерального университета. 690091, Россия, г. Владивосток, ул. Мордовцева, 12, стр. 2. E-mail: [email protected];
DUBINSKAYA Yulia Vladislavovna,
a student of the Law School of the Far Eastern Federal University. 690091, Russia, Vladivostok, Mordovtseva str., 12, p. 2. E-mail: [email protected];
ESHMURADOVA Ekaterina Salaudinovna,
a student of the Law School of the Far Eastern Federal University. 690091, Russia, Vladivostok, Mordovtseva str., 12, p. 2. E-mail: [email protected];
BALDINA Victoria Vyacheslavovna,
a student of the Law School of the Far Eastern Federal University. 690091, Russia, Vladivostok, Mordovtseva str., 12, p. 2. E-mail: [email protected]
Краткая аннотация: Боевое оружие с искусственным интеллектом, его разработка и использование - проблема, стоящая перед мировым сообществом уже не первое десятилетие. Авторами была проанализирована сущность данного вида оружия, возможные аргументы за и против запрета данного оружия на международном уровне, а также возможные альтернативы запрету.
Abstract: Combat weapons with artificial intelligence, their development and use are a problem facing the world community for more than a decade. The authors analyzed the essence of this type of weapon, possible arguments for and against the prohibition of this weapon at the international level, as well as possible alternatives to the ban.
Ключевые слова: ООН, международное право, международное гуманитарное право, боевые роботы, искусственный интеллект.
Keywords: UN, international law, international humanitarian law, combat robots, artificial intelligence.
Для цитирования: Дубинская Ю.В., Эшмурадова Е.С., Балдина В.В. Анализ необходимости принятия ГА ООН резолюции о запрете использования боевых роботов с искусственным интеллектом в ходе боевых действий // Аграрное и земельное право. 2023. № 6(222). С. 202203. http://doi.org/10.47643/1815-1329_2023_6_202.
For citation: Dubinskaya Yu. V., Eshmuradova E. S., Baldina V. V. Analysis of the need to adopt a unga resolution on the prohibition of the use of combat robots with artificial intelligence in the course of hostilities // Agrarian and Land Law. 2023. No. 6(222). pp. 202-203. http://doi.org/10.47643/1815-1329_2023_6_202.
Статья поступила в редакцию: 30.05.2023
В настоящее время общественность широко обсуждает вопрос о необходимости принятия Генеральной Ассамблеей ООН резолюции о запрете использования государствами в ходе боевых действий боевых роботов с искусственным интеллектом. Авторами данной статьи были рассмотрены и проанализированы аргументы за и против принятия данной резолюции.
Суть предлагаемой резолюции заключается в следующем: страны-участницы отказываются от разработки боевых роботов и, соответственно, от их использования в ходе боевых действий в конфликтах любого уровня. Прежде чем рассматривать аргументы за и против принятия данной резолюции, следует обратиться к вопросу о сущности боевых роботов как вида оружия.
По мнению С.Г.Верещагина, под боевыми роботами следует понимать «устройства автоматики, заменяющие человека в боевых ситуациях или для работы в условиях, несовместимых с возможностями человека в военных целях: разведка, боевые действия, разминирование и др.»1. К таким устройствам могут относиться: воздушные(Ка-37, ZALA- 42108 и др.), сухопутные(ARV, SWORDS), морские( Transphibian) устройства, способные автономно(либо с минимальным участием человека в управлении) осуществлять различные боевые функции.
В контексте человеческого контроля преобладает следующая категоризация автономности оружия:
1) управление - системы с полным с дистанционным контролем (человек «в контуре/цикле», man-in-the-loop), где человек
(оператор) - центральное звено в контуре/цикле контроля принятия решений;
1 Верещагин С. Г. История трансформации роботов: от первых механических устройств до боевых роботов с искусственным интеллектом. Правовое регулирование их применения в вооруженных конфликтах / Верещагин С. Г. //Территория новых возможностей. Вестник Владивостокского государственного университета экономики и сервиса. 2020. № 4. с. 68-78.
Уголовно-правовые науки
2) надзор - полуавтономные системы (человек «над контуром», man-on-the-loop), в которых человек (оператор) участвует в принятии решений на отдельных звеньях алгоритма. Как правило, он контролирует процесс таргетинга и может вмешиваться в действие системы;
3) полная автономия (человек «вне контура/цикла», man-out-of-the-loop)
4) оператор-человек исключен из системы принятия решений, включая поражение цели (критические функции)1
В 2013 году К. Хейнс охватил все разнообразие подобных устройств термином «боевые автономные роботизированные системы»2. Международный Комитет Красного Креста применяет термин «автономные системы вооружения», понимая под ними любые виды систем оружия, автономно действующих в воздухе, на суше или на море и самостоятельно выполняющих критические функции.3 В официальных документах ООН, за редким исключением, используется термин «смертоносные автономные системы вооружений».
Основные аргументы сторонников запрета использования боевых роботов с ИИ строятся на несовершенстве искусственного интеллекта и негативно сказаться на ходе боевых действий. К таким рискам, в частности, относится риск случайных жертв среди мирного населения ввиду использования боевых роботов, которые не смогут проводить различия между комбатантами и некомбатантами. Данный вопрос обсуждается на протяжении последних 30-40 лет и, к сожалению, опасения основаны на реальных прецедентах. 12 октября 2007 года несанкционированным огнём автоматической зенитной пушки GDF-005 «Эрликон» (Oerlikon ) в Южной Африке были убиты 9 и ранены 14 военнослужащих, просто находившихся рядом с орудием и случайно вызвавшие срабатывание автоматики. Есть сомнения, которые не раз выражал МККК, и в их способности учитывать множество факторов, чтобы выяснить, приведет ли нападение к случайным потерям среди гражданского населения и ущербу для гражданских объектов, что было бы чрезмерным по отношению к военному преимуществу, которое предполагается получить, как того требует принцип соразмерности
Однако, в качестве контраргумента следует сказать о том, что по мере дальнейшего развития программирования и робототехники возможно удастся преодолеть данную проблему путем обучения искусственного интеллекта и/или совершенствования системы распознавания лиц.
Еще одна проблема, которую противники боевых роботов используют в качестве аргумента - оружие с искусственным интеллектом может обладать возможностью самостоятельного принятия рещений в критических ситуациях, что может негативным образом повлиять на исход военных действий. Однако, не стоит забывать о человеческом факторе, который также очень сильно влияет на ход боевых действий: человек более подвержен воздействию внешних факторов и может оказаться в стрессовой ситуации, в условиях которой принять взвешенное рещение будет очень сложно, что также может негативно повлиять на ход боевых действий.
В завершение следует сказать, что полный запрет боевых роботов с ИИ может повлечь "заморозку" гражданских исследований связанных с ИИ, что отрицательно скажется на научно-техническом прогрессе, поэтому необходимо не полностью запрещать использование боевых роботов, а регламентировать их разработку и использование в рамках боевых действий.
Таким образом, анализ представленных аргументов позволяет полагать, что единого мнения касаемо запрета использования боевых роботов в ходе боевых действий на настоящий момент в международном сообществе не сформировано. На наш взгляд, полный запрет будет слишком радикальной мерой и повлечет ряд международно-правовых последствий, например, усиление разработки других видов оружия, в том числе, запрещенного. В связи с этим предлагается не полный запрет использования боевых роботов с искусственным интеллектом в ходе боевых действий, а его четкая регламентация на международно-правовом и, соответственно, национальном уровнях путем принятия конвенций, подробно описывающих существующие технологии и возможные ограничения в отношении использования этих технологий. Также хотелось бы отметить, что более целесообразным, на наш взгляд, будет принятие не резолюции ГА ООН, а международной конвенции, так как именно последняя будет иметь обязательный характер для подписавших ее стран.
Библиогра фия:
1. Верещагин С. Г. История трансформации роботов: от первых механических устройств до боевых роботов с искусственным интеллектом. Правовое регулирование их применения в вооруженных конфликтах / Верещагин С. Г. //Территория новых возможностей. Вестник Владивостокского государственного университета экономики и сервиса. 2020. № 4. с. 68-78.
2. Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system 11 April 2016 (paper submitted to the Convention on Certain Conventional Weapons Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS)) // https://www.icrc.org/en/document/ views-icrc-autonomous-weapon-system
3. Evans T. D. At War with the Robots: Autonomous Weapon Systems and the Martens Clause // Hofstra Law Review. 2013. Vol. 41. Issue 3. Article 8. P. 698 // http://scholarlycommons.law.hofstra.edu/hlr/vol41/iss3/8
4. Promotion and protection of all human rights, civil, political, economic, social and cultural rights, including the right to development. Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns (9 April 2013) // https://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_en.pdf
References:
1. Vereshchagin S. G. The history of robot transformation: from the first mechanical devices to combat robots with artificial intelligence. Legal regulation of their use in armed conflicts / Vereshchagin S. G. //Territory of new opportunities. Bulletin of the Vladivostok State University of Economics and Service. 2020. No. 4. pp. 68-78.
2. Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system 11 April 2016 (paper submitted to the Convention on Certain Conventional Weapons Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS)) // https://www.icrc.org/en/document/ views-icrc-autonomous-weapon-system
3. Evans T. D. At War with the Robots: Autonomous Weapon Systems and the Martens Clause // Hofstra Law Review. 2013. Vol. 41. Issue 3. Article 8. P. 698 // http://scholarlycommons.law.hofstra.edu/hlr/vol41/iss3/8
4. Promotion and protection of all human rights, civil, political, economic, social and cultural rights, including the right to development. Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns (9 April 2013) // https://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_en.pdf
1 Evans T. D. At War with the Robots: Autonomous Weapon Systems and the Martens Clause // Hofstra Law Review. 2013. Vol. 41. Issue 3. Article 8. P. 698 // http://scholarlycommons.law.hofstra.edu/hlr/vol41/iss3/8
2 Promotion and protection of all human rights, civil, political, economic, social and cultural rights, including the right to development. Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns (9 April 2013) // https://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_en.pdf
3 Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system 11 April 2016 (paper submitted to th e Convention on Certain Conventional Weapons Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS)) // https://www.icrc.org/en/document/ views-icrc-autonomous-weapon-system