ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ С ТОЧКИ ЗРЕНИЯ МЕЖДУНАРОДНОГО ГУМАНИТАРНОГО ПРАВА
МОРХАТ Петр Мечиславович,
кандидат юридических наук, судья Арбитражного суда Московской области. E-mail: [email protected]
Краткая аннотация: В настоящей статье затронуты некоторые аспекты применения оружия, оснащенного искусственным интеллектом, с точки зрения международного гуманитарного права. Рассмотрены ключевые характеристики систем искусственного интеллекта, применяющихся в военных целях, которые могут противоречить требованиям международного гуманитарного права. Также обозначены некоторые существующие позиции отдельных исследователей и организаций относительно того, как именно в дальнейшем должно развиваться правовое регулирование в этой области.
Abstract: This article touches upon some aspects of the use of weapons equipped with artificial intelligence from the point of view of international humanitarian law. The key characteristics of artificial intelligence systems used for military purposes, which may contradict the requirements of international humanitarian law, are considered in this article. Some existing positions of individual researchers and organizations as to how the legal regulation in this area should develop in the future are also outlined.
Ключевые слова: международного гуманитарное право, искусственный интеллект, средства и методы ведения войны, автономные системы вооружений, права человека.
Keywords: international humanitarian law, artificial intelligence, means and methods of warfare, autonomous weapon systems, human rights
Введение
В настоящее время с учетом скорости развития новых инновационных технологий весьма актуальным является вопрос о том, соответствует ли (и насколько) использование искусственного интеллекта принципам международного гуманитарного права.
Речь в данном случае идет, главным образом, о применении автономных систем вооружений, оснащенных искусственным интеллектом.
Имеющее место уже сегодня применение подобных автономных систем вооружений в рамках вооруженных конфликтов поднимает серьезные этические вопросы, в частности - вопрос о том, позволяют ли принципы гуманности принимать машинам решения по поводу жизни и смерти в рамках вооруженных конфликтов без участия человека в процессе принятия таких решений .
Филип Олстон в Промежуточном докладе Специального докладчика по вопросу о внесудебных, суммарных и произвольных казнях № А/65/321 от 23.08.2010 на Шестьдесят пятой сессии Генеральной Ассамблеи ООН отметил, что быстрое раз-
1 Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system / Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11-15 April 2016, Geneva // <https://www.icrc.org/en/download/file/21606/ccw-autonomous-weapons-icrc-april-2016.pdf>. - 6 p. - P. 5.
витие технологий в области робототехники и автономных устройств, особенно тех, которые можно использовать для военных целей и в режиме пониженной управляемости со стороны человека-оператора, дает основание для серьезных опасений, которые почти не изучены правозащитниками или специалистами по гуманитарной деятельности2.
На сегодняшний день вопросы применения искусственного интеллекта и автономных систем вооружений нормами международного гуманитарного права непосредственно не урегулированы.
В настоящей статье будут затронуты некоторые аспекты применения оружия, оснащенного искусственным интеллектом, с точки зрения международного гуманитарного права, а также будут обозначены некоторые существующие позиции отдельных исследователей и организаций относительно того, как именно в дальнейшем должно развиваться правовое регулирование в этой области.
Понятие оружия, оснащенного искусственным интеллектом
Здесь представляется необходимым отметить, что хотя исследователи в рассматриваемой
2 Олстон Ф. Промежуточный доклад Специального докладчика
по вопросу о внесудебных, суммарных и произвольных казнях № А/65/321 от 23.08.2010 на Шестьдесят пятой сессии Генеральной Ассамблеи ООН // <https://documents-dds-ny.un.org/doc/UNDOC/GEN/N10/492/41/PDF/N1049241.pdf7OpenEle ment>. - 27 с. - С. 14.
сфере часто оперируют такими понятиями, как «искусственный интеллект», «робототехника» и «автономные системы вооружения», данные термины по своему содержанию не являются тождественными, хотя и схожи во многом.
Поэтому обратимся к выяснению и разъяснению соотношения этих понятий.
Автономные системы вооружений используются уже сейчас, и Международный комитет Красного Креста определяет их как «системы вооружений с автономией в ее важнейших функциях. То есть система вооружения способна отбирать (то есть, искать или обнаруживать, идентифицировать, отслеживать, выбирать) и атаковать (то есть, использовать силу, нейтрализовать, разрушать или уничтожать) цели без непосредственного человеческого вмешательства»3
Ключевой характеристикой таких систем, которая может объединять, по сути, совершенно разные виды оружия, является именно их автономность, то есть, независимость в определенных аспектах от действий человека.
Автономность является и важнейшей функцией систем искусственного интеллекта, которые при этом наделены и иными способностями, например, способностью к самообучению.
При этом, как отмечается в различных исследованиях, оружие с действительно полноценным искусственным интеллектом пока не создано, хоть и его создание весьма вероятно в перспективе.
Так, эксперты предсказывают вероятность разработки в течение 20-30 лет автономных вооружений, способных выбирать цели и взаимодействовать с ними без участия человека.
И хотя сейчас об этом говорится в ключе того, что человек всегда будет обеспечивать контроль над принятием решений о применении смертоносной силы, все равно существует вероятность того, что робот сможет сделать такой выбор самостоятельно. Оружие такого рода не будет соответствовать нормам международного гуманитарного права и увеличит риски причинения смерти или вреда здоровью мирному населению в период вооруженного кон
3 Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system / Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11-15 April 2016, Geneva //
<https://www.icrc.org/en/download/file/21606/ccw-autonomous-weapons-icrc-april-2016.pdf>. - 6 p. - P. 1.
фликта4
В Совместной доктрине Великобритании от 2011 года «Подход Соединенного Королевства к беспилотным летательным аппаратам» отмечается, что истинный искусственный интеллект, благодаря которому машина будет обладать способностью мыслить, аналогичной или большей, чем человеческая, будет, несомненно, полным изменением игры не только в военной отрасли, но и во всех аспектах современной мысли, и изменение парадигмы технологий искусственного интеллекта было бы разрушительным при их военном применении (пункт 623)5
На наш взгляд, вызовы международному гуманитарному праву, которые создает использование автономных систем вооружений, во многом могут быть схожи с проблемами, создаваемыми использованием таких систем, оснащенных искусственным интеллектом, с тем лишь различием, что последствия применения последних могут быть более серьезными в силу их способности самообучаться, в том числе, и в рамках взаимодействия при определенных условиях с другими системами искусственного интеллекта, которая еще более снижает степень их подконтрольности человеку.
Относительно соотношения понятий искусственного интеллекта и робототехники отметим, что Королевская инженерная академия наук Великобритании отмечает, что, хотя и может быть удобным рассматривать вместе искусственный интеллект и робототехнику, это все же две совершенно разные темы, разные направления, в которых используются разные технологии, и которые развиваются все же с различной скоростью. И хотя искусственный интеллект и робототехника могут, и, возможно, будут использоваться вместе, их объединение создает новые проблемы, еще более затрудняющие прогнозирование политики. Два этих термина могут рассматриваться как взаимозависимые, однако они не взаимо-заменяемы6
4 Losing humanity: The Case against Killer Robots / Human Rights Watch. - New York: Human Rights Watch, 2012. - 49 p. - P. 1. <https://www.hrw.org/sites/default/files/reports/arms1112ForUpload_0_0 .pdf>.
5 Joint Doctrine Note 2/11 «The UK approach to unmanned aircraft systems» / Ministry of Defence of UK. - Swindon: The Development, Concepts and Doctrine Centre, 2011. <https://www.law.upenn.edu/live/files/3890-uk-ministry-of-defense-joint-doctrine-note-211 -the>.
6 Robotics and artificial intelligence: A response to the House of
Commons Science and Technology Committee inquiry into robotics
and artificial intelligence / The Royal Academy of Engineering //
Робототехника рассматривается как концепция, отличная от концепции искусственного интеллекта, однако в дальнейшем две эти концепции все реже будут рассматриваться по отдельности7.
При этом и в настоящее время не все исследователи проводят различия между робототехникой и технологиями искусственного интеллекта.
В частности, например, Джек Балкин отмечает, что по мере развития инноваций различия между этими двумя технологиями могут быть гораздо менее важными для целей права8.
Далее в настоящей статье под автономными системами вооружения будут пониматься, в том числе, и системы, оснащенные искусственным интеллектом. Также далее будет использоваться в аналогичном значении понятие автономных интеллектуальных систем вооружений. Под роботами будем понимать все автономные системы вооружений.
Цели международного гуманитарного права в контексте использования искусственного интеллекта в целях ведения войны
Международное гуманитарное право нацелено на защиту человеческого достоинства и защиту жертв вооруженного конфликта посредством введения различных ограничений на применение силы. Международное гуманитарное право, в частности, запрещает использование определенных средств и методов ведения войны9.
Подобно некоторым другим новым технологиям, автономные системы вооружений бросают вызов традиционным представлениям относительно
применения силы, на которых основаны соответст-
10
вующие международно-правовые стандарты .
<https://www.raeng.org.uk/publications/responses/robotics-and-artificial-intelligence>. - 2016. - 6 p. - P. 1.
7 Van den Hoven van Genderen R. Privacy and Data Protection in the Age of Pervasive Technologies in AI and Robotics // European Data Protection Law Review. - 2017. - Vol. 3. - № 3. - P. 338-352. -P. 345. <http://www.switchlegal.nl/assets/Privacy-and-Data-Protection-edpl-3-2017.pdf>.
8 Balkin J.B. The Path of Robotics Law // California Law Review. -2015, June. - Vol. 6. - P. 45-60. - P. 45. <https://scholarship.law.berkeley.edu/cgi/viewcontent.cgi?article=107 1&context=clrcircuit>.
9 Brehm M. Defending the Boundary: Constraints and Requirements on the Use of Autonomous Weapon Systems Under International Humanitarian and Human Rights Law / The Geneva Academy // Academy briefing. - 2017, May. - № 9. - 71 p. - P. 24-25. <https://www.geneva-academy.ch/joomlatools-files/docman-files/Briefing9_interactif.pdf>.
10 Brehm M. Defending the Boundary: Constraints and Requirements on the Use of Autonomous Weapon Systems Under International Humanitarian and Human Rights Law / The Geneva Academy // Academy briefing. - 2017, May. - № 9. - 71 p. - P. 33.
Использование такого рода технологий - это принципиально новая проблема с точки зрения международного гуманитарного права, поэтому не совсем ясно на настоящий момент, к какому именно из направлений данной отрасли права ее относить, и, соответственно, не ясно, какими методами и инструментами корректнее ее решать.
Отметим, что, если повреждения, наносимые такими системами, не направлены непосредственно на причинение излишних повреждений или излишних страданий, то они не подпадают под действие соответствующего запрета, предусмотренного статьей 35 Дополнительного протокола к Женевским конвенциям от 12 августа 1949 года, касающегося защиты жертв международных вооружённых конфликтов (Протокол I) от 8 июня 1977 года11.
Не подпадает, на наш взгляд, использование такого оружия и под действие положений статьи 37 указанного Протокола, запрещающих вероломство.
Ключевым свойством автономных систем вооружений, которое обусловливает вообще отдельное их рассмотрение с точки зрения международного гуманитарного права, является их существующая и потенциальная неподконтрольность человеку, которая может приводить к разрушительным последствиям, и с этой точки зрения можно рассматривать такое неподконтрольное человеку оружие как могущее нанести вред гражданскому населению, так и комбатан-там.
Часть 4 статьи 51 Дополнительного протокола к Женевским конвенциям от 12 августа 1949 года, касающегося защиты жертв международных вооружённых конфликтов (Протокол I) от 8 июня 1977 года запрещает нападения неизбирательного характера.
Согласно пункту «в» статьи 23 Положения о
законах и обычаях сухопутной войны (приложения к Конвенции о законах и обычаях сухопутной войны от 18 октября 1907 года)12, запрещается убивать или ранить неприятеля, который, положив оружие или не имея более средств защищаться, безусловно сдался.
<https://www.geneva-academy.ch/joomlatools-files/docman-
files/Briefing9_interactif.pdf>.
11 Дополнительный протокол к Женевским конвенциям от
12 августа 1949 года, касающийся защиты жертв международных вооружённых конфликтов (Протокол I) / Принят на дипломатической конференции в Женеве 8 июня 1977 года // <https://www.icrc.org/rus/assets/files/2013/ap_i_rus.pdf>.
12 Конвенция о законах и обычаях сухопутной войны, 18 октября 1907 года //
<https://www.icrc.org/rus/resources/documents/misc/hague-convention-iv-181007.htm>.
В качестве одного из ключевых положений международного гуманитарного права здесь также отметим пункт преамбулы к Конвенции о законах и обычаях сухопутной войны от 18 октября 1907 года, согласно которому впредь до того времени, когда представится возможность издать более полный свод законов войны, Высокие Договаривающиеся Стороны считают уместным засвидетельствовать, что в случаях, не предусмотренных принятыми ими постановлениями, население и воюющие остаются под охраною и действием начал международного права, поскольку они вытекают из установившихся между образованными народами обычаев, из законов человечности и требований общественного сознания.
Автономная система вооружения, оснащенная искусственным интеллектом, не в состоянии учитывать законы человечности.
Необходимо также учитывать, что для того чтобы автономная система вооружения считалась используемой для ведения военных действий, человеческие агенты воюющей стороны должны осуществлять непосредственный контроль над этой системой, чтобы использовать ее в качестве средства ведения войны13, то есть, не на всякое совершение действий автономной системой вооружения даже в рамках вооруженного конфликта будет распространяться действие положений и требований международного гуманитарного права.
Самостоятельное принятие решений автономными интеллектуальными системами вооружений и связанные с этим негативные последствия
Основной проблемой является самостоятельное принятие решений интеллектуальной системой вооружения.
Отсутствие у робота способности различать комбатантов и мирное население может нарушать требования международного гуманитарного права, основной целью которого является как раз обеспе-
14
чение защиты мирного населения .
13 Brehm M. Defending the Boundary: Constraints and Requirements on the Use of Autonomous Weapon Systems Under International Humanitarian and Human Rights Law / The Geneva Academy // Academy briefing. - 2017, May. - № 9. - 71 p. - P. 40. <https://www.geneva-academy.ch/joomlatools-files/docman-files/Briefing9_interactif.pdf>.
14 Lewandowski T. Robots and International Humanitarian Law Contemporary Challenges // Zeszyt Studencki Kot Naukowych Wydziatu Prawa i Administracji UAM. - 2011. - № 1. - S. 87-90. - S. 88.
В частности, автономная система вооружения не в состоянии воспринять и рассмотреть все переменные на поле боя, в отличие от человека15.
Кроме того, самообучающиеся системы могут быть непредсказуемыми, а также их поведение может не вписываться в ожидания человека относительно надлежащего поведения16.
Алан Шуллер указывает, что роботам, несмотря на их потенциальную силу, не хватает контекста, с учетом которого они могут принимать надлежащее решение относительно применения силы, они не осознают социальные нормы, правила, либо же последствия своих действий, что, однако, несколько смягчается тем, что машина, в отличие от человека, не обладает свободной волей и действует так, как была запрограммирована17.
Даже при более тщательных подходах к разработке роботизированного оружия с искусственным интеллектом, так называемым сильным искусственным интеллектом, который стремится имитировать мысль человека, полностью автономное оружие будет лишено человеческих качеств, необходимых для соблюдения норм международного гуманитарного права, которые могут быть сложными и требовать субъективного человеческого суждения. Например, робот не может четко различить комбатанта и неком-
батанта, если оба ведут себя одинаково угрожаю-
18
ще .
И, несмотря на то, что человек в любом случае реализует определенный контроль над действиями системы искусственного интеллекта, его может быть недостаточно.
Так, Международный комитет Красного Креста указывает, что контроль, осуществляемый чело-
<https://repozytorium.amu.edu.pl/bitstream/10593/13763/1/09_LEWA NDOWSKI.pdf>.
15 Schuller A.L. At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law // Harvard National Security Journal. - 2017. -Vol. 8. - P. 379-425. - P. 412. <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2978141 >.
16 Balkin J.B. The Path of Robotics Law // California Law Review. -2015, June. - Vol. 6. - P. 45-60. - P. 52. <https://scholarship.law.berkeley.edu/cgi/viewcontent.cgi?article=1071 &context=clrcircuit>.
17 Schuller A.L. At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law // Harvard National Security Journal. - 2017. -Vol. 8. - P. 379-425. - P. 412. <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2978141>.
18 Losing humanity: The Case against Killer Robots / Human Rights Watch. - New York: Human Rights Watch, 2012. - 49 p. -P. 4. <https://www.hrw.org/sites/default/files/reports/arms1112ForUpload_0 _0.pdf>.
веком, может реализовываться на разных этапах разработки и применения автономного оружия, включая его разработку и программирование, развертывание и использование системы вооружения, включая принятие решения оператором использовать или активировать эту систему, и эксплуатацию системы вооружения, в процессе которой осуществляется выбор и атака целей. И на последнем этапе возникает очень важный вопрос относительно того, достаточно ли контроля человек на двух первых этапах, чтобы можно было допустить минимальный человеческий контроль или его отсутствие на последнем, с юридической, этической или военной точки
19
зрения .
Проблемы определения ответственности при использовании автономных интеллектуальных систем вооружений
Немаловажен в данном случае и вопрос определения субъекта ответственности за действия систем искусственного интеллекта в рамках вооруженных конфликтов, в особенности, когда автономная система изготовлена в одном государстве, запрограммирована в третьем, а используется в четвертом в конфликте с иным государством20.
В Рекомендации Парламентской Ассамблеи Совета Европы № 2102 (2017) от 2017 года «Слияние с технологиями, искусственный интеллект и права человека»21 ПАСЕ отметила, что ответственность за деяние лежит на человеке независимо от обстоятельств, и ссылки на независимые решения систем искусственного интеллекта не могут освобождать их создателей, владельцев и операторов от ответственности за нарушение прав человека, совершенное с использованием таких систем, даже в тех ситуациях, когда само действие не было совершено по прямому указанию человека (пункт 9.1.1).
Необходимо отметить также, что нормы международного гуманитарного права по ведению во-
19 Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system / Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11-15 April 2016, Geneva // <https://www.icrc.org/en/download/file/21606/ccw-autonomous-weapons-icrc-april-2016.pdf>. - 6 p. - P. 3.
20 Lewandowski T. Robots and International Humanitarian Law Contemporary Challenges // Zeszyt Studencki Kot Naukowych Wydziatu Prawa i Administracji UAM. - 2011. - № 1. - S. 87-90. - S. 90. <https://repozytorium.amu.edu.pl/bitstream/10593/13763/1/09_LEWA NDOWSKI.pdf>.
21 Recommendation № 2102 (2017) of Parliamentary Assembly of the
Council of Europe «Technological convergence, artificial intelligence
and human rights» // <http://assembly.coe.int/nw/xml/XRef/Xref-XML2HTML-en.asp?fileid=23726&lang=en>.
енных действий адресованы сторонам вооруженного
конфликта, в качестве которой не может выступать
22
сама система искусственного интеллекта .
Принципы применения искусственного интеллекта в военных целях
В силу высокой актуальности рассматриваемой темы, разработка принципов использования искусственного интеллекта в военных целях привлекает значительный интерес как исследователей, так и международных организаций.
Международный комитет Красного Креста отмечает, что существуют как минимум 3 подхода, которые государства могут реализовывать для решения правовых и этических проблем, связанных с использованием автономного оружия:
- усиление национальных механизмов реализации положений международного гуманитарного права;
- разработка определения того, что представляют собой смертоносные автономные системы вооружений для установления конкретных ограничений на автономность систем вооружений;
- разработка конкретных параметров человеческого контроля за использованием такого оружия с учетом требований международного гуманитарного права и этических соображений для установления конкретных ограничений на автономность систем
23
вооружений .
Алан Шуллер предлагает следующие принципы использования искусственного интеллекта во время военных действий, соблюдение которых позволит избегать ненадлежащей автономности искусственного интеллекта и, соответственно, нарушения требований и принципов международного гуманитарного права:
- решение убить никогда не может быть делегировано компьютеру (поскольку цель может быть атакована только в том случае, если она является законной военной целью, а корректно классифицировать цели в состоянии только человек);
22 Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system / Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11-15 April 2016, Geneva // <https://www.icrc.org/en/download/file/21606/ccw-autonomous-weapons-icrc-april-2016.pdf>. - 6 p. - P. 3.
23 Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system / Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11-15 April 2016, Geneva // <https://www.icrc.org/en/download/file/21606/ccw-autonomous-weapons-icrc-april-2016.pdf>. - 6 p. - P. 6.
- автономная система вооружения может законно контролироваться только посредством программирования (для того, чтобы обеспечить разумную предсказуемость искусственного интеллекта);
- необходимо учитывать, что международное гуманитарное право не требует непосредственного взаимодействия человека с автономной системой вооружения в процессе смертоносного кинетического действия, то есть, «нажатия на кнопку» (такое требование было бы эффективным в некоторых ситуациях, однако оно не закрепляется; утверждение, что всегда желательно присутствие человека на этапе действия при реализации смертоносных решений, терпит неудачу, во-первых, по той причине, что системы, требующие участия человека на финальных этапах реализации смертоносных решений, скорее всего, не смогут в будущем конкурировать с более автоматизированными сложными системами противников, во-вторых, потому что обслуживаемые или пилотируемые человеком системы требуют слишком много человеческих и финансовых ресурсов, в том числе, на обеспечение необходимого обучения и подготовки человеческих ресурсов, и, в-третьих, из участия человека в таких действиях не следует автоматическое соблюдение норм международного гуманитарного права, то есть, сам факт того, что именно человек нажимает на кнопку, чтобы одобрить, либо отказаться от смертоносного кинетического действия, не обязательно непосредственно коррелирует с совершенствованием соблюдения положений международного гуманитарного права);
- разумная предсказуемость автономной интеллектуальной системы вооружения требуется только с целью соблюдения международного гуманитарного права, но будет зависеть от конкретного фрагмента цикла принятия решений человеком, состоящего из элементов «наблюдение, ориентиро-
вание, принятие решения, совершение действия», делегированного автономной системе вооружения (то есть, предел возможной непредсказуемости автономной системы заканчивается там, где начинается вероятность совершения незаконного действия)24.
Нил Дэвисон предлагает следующее:
- новые технологии, применяемые в войнах, не должны оставаться неурегулированными законодательством;
- необходимо обеспечить реалистичную оценку новых технологий с точки зрения права;
- обязанности по соблюдению закона лежат на человеке, а не на системе вооружения25.
Относительно мер, уже сейчас реализуемых на уровне конкретных государств, отметим, что в Заявлении Соединенного Королевства Великобритании и Северной Ирландии по автономным смертоносным системам вооружений к Конференции Высоких Договаривающихся Сторон КНО, 12-13.11.2015 26 было отдельно отмечено, что Соединенное Королевство не планирует разрабатывать автономные смертоносные системы вооружений и привержено делу поддержания человеческого надзора и контроля за применением силы.
Заключение
В заключение отметим, что, для того чтобы обеспечить соблюдение требований и принципов международного гуманитарного права, необходимые меры должны приниматься, в первую очередь на уровне законодательства конкретных государств, причем они должны быть направлены на регулирование разработки и применения искусственного интеллекта не только в военных целях, но и в целом, поскольку излишняя автономность и неподконтрольность таких систем человек может приводит к нега-
24 Schuller A.L. At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law // Harvard National Security Journal. - 2017. -Vol. 8. - P. 379-425. - P. 415-421. <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2978141>.
25 Davison N. Presentation I: New Challenges - Conforming with IHL / Rapporteur's Report: New technologies in warfare and international humanitarian law (Jointly organised by Institute for Defence Studies and Analyses and International Committee of the Red Cross) // <https://www.icrc.org/en/download/file/63377/new_technologies_in_w arfare_and_international_humanitarian_law.pdf>. - 4 p. - P. 3.
26 Statement of the United Kingdom of Great Britain and Northern Ireland on Lethal Autonomous Weapons Systems to the CCW Meeting of the High Contracting Parties, 12-13th November 2015 // <https://www.unog.ch/80256EDD006B8954/(httpAssets)/880AB56F1A 934474C1257F170056A8F2/$file/2015_CCWMSP_LAWS_UnitedKing dom.pdf>.
тивным последствиям в большинстве сфер общест- венной жизни. Библиография:
1. Дополнительный протокол к Женевским конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооружённых конфликтов (Протокол I) / Принят на дипломатической конференции в Женеве 8 июня 1977 года // <https://www.icrc.org/rus/assets/files/2013/ap_i_rus.pdf>.
2. Конвенция о законах и обычаях сухопутной войны, 18 октября 1907 года // <https://www.icrc.org/rus/resources/documents/misc/hague-convention-iv-181007.htm>.
3. Олстон Ф. Промежуточный доклад Специального докладчика по вопросу о внесудебных, суммарных и произвольных казнях № A/65/321 от 23.08.2010 на Шестьдесят пятой сессии Генеральной Ассамблеи ООН // <https://documents-dds-ny.un.org/doc/UNDOC/GEN/N10/492/41/PDF/N1049241 .pdf?OpenElement>. - 27 c.
4. Balkin J.B. The Path of Robotics Law // California Law Review. - 2015, June. - Vol. 6. - P. 45-60.
5. Brehm M. Defending the Boundary: Constraints and Requirements on the Use of Autonomous Weapon Systems Under International Humanitarian and Human Rights Law / The Geneva Academy // Academy briefing. - 2017, May. - № 9. - 71 p. -P. 24-25.
6. Davison N. Presentation I: New Challenges - Conforming with IHL / Rapporteur's Report: New technologies in warfare and international humanitarian law (Jointly organised by Institute for Defence Studies and Analyses and International Committee of the Red Cross) // <https://www.icrc.org/en/download/file/63377/new_technologies_in_warfare_and_international_humanitarian_law.pdf>. - 4 p.
7. Joint Doctrine Note 2/11 «The UK approach to unmanned aircraft systems» / Ministry of Defence of UK. - Swindon: The Development, Concepts and Doctrine Centre, 2011. <https://www.law.upenn.edu/live/files/3890-uk-ministry-of-defense-joint-doctrine-note-211-the>.
8. Lewandowski T. Robots and International Humanitarian Law Contemporary Challenges // Zeszyt Studencki Kot Naukowych Wydziatu Prawa i Administracji UAM. - 2011. - № 1. - S. 87-90.
9. Losing humanity: The Case against Killer Robots / Human Rights Watch. - New York: Human Rights Watch, 2012. - 49 p.
10. Recommendation № 2102 (2017) of Parliamentary Assembly of the Council of Europe «Technological convergence, artificial intelligence and human rights» // <http://assembly.coe.int/nw/xml/XRef/Xref-XML2HTML-en.asp?fileid=23726&lang=en>.
11. Robotics and artificial intelligence: A response to the House of Commons Science and Technology Committee inquiry into robotics and artificial intelligence / The Royal Academy of Engineering // <https://www.raeng.org.uk/publications/responses/robotics-and-artificial-intelligence>. - 2016. - 6 p.
12. Schuller A.L. At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law // Harvard National Security Journal. - 2017. - Vol. 8. - P. 379-425.
13. Statement of the United Kingdom of Great Britain and Northern Ireland on Lethal Autonomous Weapons Systems to the CCW Meeting of the High Contracting Parties, 12-13th November 2015 // <https://www. unog.ch/80256EDD006B8954/(httpAssets)/880AB56F1A934474C1257F170056A8F2/$file/2015_CCWMSP_LA WS_UnitedKingdom.pdf>.
14. Van den Hoven van Genderen R. Privacy and Data Protection in the Age of Pervasive Technologies in AI and Robotics // European Data Protection Law Review. - 2017. - Vol. 3. - № 3. - P. 338-352.
15. Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system / Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11-15 April 2016, Geneva // <https://www.icrc.org/en/download/file/21606/ccw-autonomous-weapons-icrc-april-2016.pdf>. - 6 p.