Научная статья на тему 'ВОЙНА, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЧЕЛОВЕК: КУДА МЫ НАПРАВЛЯЕМСЯ?'

ВОЙНА, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЧЕЛОВЕК: КУДА МЫ НАПРАВЛЯЕМСЯ? Текст научной статьи по специальности «Право»

CC BY
87
24
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
война / вооружение / интеллектуальное оружие / искусственный интеллект / моральные поступки / риски / этика / artificial intelligence / war / weapons / smart weapons / risks / moral acts / ethics

Аннотация научной статьи по праву, автор научной работы — Георгиу Такис Софокли

Цель. Выявить аспекты использования систем искусственного интеллекта (ИИ) в области вооружения и определить вызовы и потенциальные риски, стоящие перед человечеством. Процедура и методы. Философские вопросы, связанные с внедрением систем ИИ в военной сфере, рассматриваются на основе системного и междисциплинарного подходов. Осуществлены наблюдения за аспектами, связанными со снабжением боевых систем технологиями ИИ. Анализируются в разрезе социально-философской методологии способности ИИ и исследуются последствия для человечества. Результаты. Развитие и использование ИИ, особенно в военной сфере, вызывает достаточно опасений самого различного характера. По итогам исследования сделан вывод, что осмысление вопросов философии войны и общечеловеческих ценностей становится критическим. Теоретическая и/или практическая значимость. В данной работе анализируется онтологический и этический взгляды на использование ИИ в системах вооружения и описываются возможные социальные риски для человечества.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

WAR, ARTIFICIAL INTELLIGENCE AND HUMAN: WHERE ARE WE GOING TO?

Aim. To identify aspects of the use of AI systems as a form of weapons and identify the challenges and potential risks facing humanity. Methodology. Philosophical issues related to the implementation of AI systems in the military sphere are considered based on a systematic and interdisciplinary approach. Observations have been made on the aspects related to the weapons equipped with AI systems. The abilities of AI are analyzed in the context of socio-philosophical methodology and in this framework, the consequences for humanity are explored. Results. The development and use of AI, especially in the military sphere, raises enough concerns of a very different nature. Based on the results of the study, it was concluded that studying and understanding the issues of the philosophy of war in comparison with the universal values is becoming critical. Research implications. This paper analyzes the ontological and ethical aspects of the use of AI in weapons systems and describes the possible social risks for humanity.

Текст научной работы на тему «ВОЙНА, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЧЕЛОВЕК: КУДА МЫ НАПРАВЛЯЕМСЯ?»

СОЦИАЛЬНАЯ И ПОЛИТИЧЕСКАЯ ФИЛОСОФИЯ

УДК 172

DOI: 10.18384/2949-5148-2023-3-76-85

ВОЙНА, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЧЕЛОВЕК: КУДА МЫ НАПРАВЛЯЕМСЯ?

Георгиу Т. С.

Государственный университет просвещения

141014, Московская обл., г. Мытищи, ул. Веры Волошиной, д. 24, Российская Федерация Аннотация

Цель. Выявить аспекты использования систем искусственного интеллекта (ИИ) в области вооружения и определить вызовы и потенциальные риски, стоящие перед человечеством. Процедура и методы. Философские вопросы, связанные с внедрением систем ИИ в военной сфере, рассматриваются на основе системного и междисциплинарного подходов. Осуществлены наблюдения за аспектами, связанными со снабжением боевых систем технологиями ИИ. Анализируются в разрезе социально-философской методологии способности ИИ и исследуются последствия для человечества.

Результаты. Развитие и использование ИИ, особенно в военной сфере, вызывает достаточно опасений самого различного характера. По итогам исследования сделан вывод, что осмысление вопросов философии войны и общечеловеческих ценностей становится критическим. Теоретическая и/или практическая значимость. В данной работе анализируется онтологический и этический взгляды на использование ИИ в системах вооружения и описываются возможные социальные риски для человечества.

Ключевые слова: война, вооружение, интеллектуальное оружие, искусственный интеллект, моральные поступки, риски, этика

WAR, ARTIFICIAL INTELLIGENCE AND HUMAN: WHERE ARE WE GOING TO?

T. Georgiou

State University of Education

ul. Very Voloshinoi 24, Mytishchi 141014, Moscow Region, Russian Federation Abstract

Aim. To identify aspects of the use of AI systems as a form of weapons and identify the challenges and potential risks facing humanity.

Methodology. Philosophical issues related to the implementation of AI systems in the military sphere are considered based on a systematic and interdisciplinary approach. Observations have been made on the aspects related to the weapons equipped with AI systems. The abilities of AI are analyzed in the context of socio-philosophical methodology and in this framework, the consequences for humanity are explored.

Results. The development and use of AI, especially in the military sphere, raises enough concerns of a 1 ery different nature. Based on the results of the study, it was concluded that studying and understanding the issues of the philosophy of war in comparison with the universal values is becoming critical.

© CC BY Георгиу Т. С., 2023.

TIT

Research implications. This paper analyzes the ontological and ethical aspects of the use of AI in weapons systems and describes the possible social risks for humanity.

Keywords: artificial intelligence, war, weapons, smart weapons, risks, moral acts, ethics

Введение

Внедрение ИИ во все социальные процессы осуществляется без каких-либо сомнений. Но самым страшным для человечества является то, что ИИ стал самой мощной технологией для армии и вооружения. Цель данного исследования заключается в определении вызовов и потенциальных рисков, стоящих перед человечеством при таком использовании. Новейшие технологические компьютерные разработки, нанотехнологии, спутниковая навигация, робототехника и тесно связанный с данными технологиями ИИ применяются в области вооружения, и в последнее время наблюдается бурное развитие этой области.

ИИ - самая обсуждаемая и противоречивая тема в современном обществе цифрови-зации. Возникающие проблемы в сфере ИИ и вооружения затрагивают острые философские вопросы, связаны с применением ИИ в военных действиях по уничтожению инфраструктуры, военной техники и людей. В данной работе предпринимается попытка философского осмысления этого процесса, особенно когда развитие ИИ в сфере вооружении достигает такого высокого уровня, а машине передаётся функция принятия решения вместо человека.

Ещё более сложный вопрос заключается в том, способны ли технические системы, такие как роботы, компьютеры или другие автоматизированные устройства, решая определенные задачи, достигать военных целей и принимать моральные решения, связанные с убийством людей? В какой степени и каким образом ИИ способен к машинному обучению в рамках этики, насколько общество готово принимать такое «машинное поведение», если допустить то, что ИИ в принципе будет способен принимать разные решения как «осознающее» существо [11]? При рассмотрении ИИ как смертоносной интеллектуальной техники, мы неизбежно сталкиваемся с этической

проблемой, которая становится центральной и сложноразрешимой задачей задачей для философии войны.

Война - общие сведения

Всем известна цитата римского историка и военного писателя Флавия Вегеция Рената "Si vis pacem, para bellum" (с лат. - «Хочешь мира, готовься к войне»1). Но Альберт Эйнштейн, зная возможности современной техники и ядерного оружия, сказал, что «нельзя предотвратить войну, готовясь к ней»2.

Философы со времён Античной эпохи с огромным интересом исследуют темы, связанные с войной, пересекающиеся с темами о взаимоотношениях государства и человека, государства и общества. Так, Платон в диалоге «Государство» делит общества на три сословия. Одно из них состоит из воинов-стражей, перед которыми стоит задача защиты государства. По Платону, ключевое место в военной подготовке воинов-стражей занимает воспитание и привитие нравственных норм. Кроме того, в диалоге «Алкивиад I» философ определяет причину, при которой война оправдана: война допускается, когда государство подвергается насилию, обману или ограблению. Аристотель тоже говорит о войне, утверждая, что единственной справедливой целью войны будет стремление к миру [8].

Русский философ Н. А. Бердяев в своих работах выражает своё понимание войны: «Зло нужно искать не в войне, а до войны, в самых мирных по внешнему обличию

Вегеций Ф. Р. Краткое изложение военного дела. Глава III. Вступление // Греческие полиоркетики. Вегеций. СПб.: Алетейя, 1996. С. 211.

2 Albert Einstein in a letter to Congressman Robert Hale (December 4, 1946) [Электронный ресурс]. URL: https://www.shmoop.com/quotes/cannot-simultane-ously-prevent-prepare-war.html (дата обращения: 07.09.2022).

ЧУ

временах. В эти мирные времена совершаются духовные убийства, накопляются злоба и ненависть»1.

Изучая вышеупомянутые трактаты философов, а также произведения других великих мыслителей, обращаем внимание на то, что все они особое внимание уделяют этике, моральным поступкам, вечной борьбе добра и зла. Из основных концептуальных положений теории войны можно выделить следующие: война - это продолжение политики другими средствами; там, где заканчивается дипломатия, начинается война. В этом контексте осмысления возникают фундаментальные философские вопросы: существует ли справедливая война? если да, при каких условиях и какими средствами можно её вести? какова роль государства и человека в военном процессе? какие этические и моральные ограничения должны соблюдаться?

В современном мире эксперты связывают новые боевые возможности аппаратов и систем оружия с внедрением технологии ИИ. И, как следствие, ИИ меняет характер войн. Наблюдается использование «умных» боевых систем, частично или полностью автоматизированной военной техники, а также роботизированных боевых средств. ИИ уже внедрён в системы управления и является стратегической составляющей современной армии. Следует отметить, что риск использования оружия массового поражения при использовании ИИ в военных целях является весьма вероятным, и, таким образом, тщательное философское осмысление поставленной проблемы становится чрезвычайно актуальным.

ИИ и оружие

Сегодня, эксперты разрабатывают новые боевые возможности с внедрением технологии ИИ в боевые системы. Уже экспертные системы, а также системы на-

1 Бердяев Н. А. Философия неравенства. Письмо одиннадцатое «О войне» // Николай Александрович Бердяев: [сайт]. URL: http://www.vehi.net/berdyaev/ neraven/ll.html (дата обращения 07.09.2022).

вигации и планирования с использованием ИИ являются основной составляющей современного оружия. Непрерывный рост вычислительных возможностей процессоров привёл к тому, что ИИ в боевых системах становится более «умным» и автономным [6, с. 58].

Именно необходимость в короткие сроки аналитической обработки данных значительных объёмов, так называемых больших данных, является одной из важнейших причин разработки различных систем военного назначения, обладающих ИИ [2, с. 117]. Одна из важнейших причин внедрения ИИ в армию - это нанесение максимального ущерба врагу как в боевой технике, так и в живой силе. С этой целью созданы вспомогательные и обслуживающие системы и многие виды военной разведки, включая воздушные беспилотники. ИИ может существовать и в любых средствах, выполняя важнейшие интеллектуальные функции, помогая принимать решения командования, либо участвуя в кибервойне с противником. Существуют интеллектуальные боеприпасы, которые выполняют интеллектуальные функции вместо солдата при поражении вражеских целей [2].

В этом смысле системы ИИ в армии не обязательно должны быть огнестрельным оружием, они имеют очень широкий спектр применения и используются в системах управления для подготовки управленческих решений, в навигационных системах, в системах связи, для наблюдения, рекогносцировки и разведки, корректировки огня, разминирования, обучения и контроля обучения, логистики и обслуживания вооружения и техники. Широкое применение таких систем встречается для ведения информационной войны, радиоэлектронной борьбы, автоматического распознавания целей, программного выведения из строя коммуникационных сетей противника [1, с. 5; 5, с. 80].

Конечно, в армии могут применяться системы ИИ с огнестрельным оружием, как, например, интеллектуальные боеприпасы. Такое оружие определяет цели

по заранее поставленным задачам и способно стрелять, поражая вражеские цели и убивать врагов-солдат. Под интеллектуальными боеприпасами понимаются такие боеприпасы, которые самостоятельно могут корректировать траекторию выстрела с точным попаданием в цель или даже выбирать самый оптимальный момент взрыва с учётом нанесения самого большого ущерба врагу. Это называется высокоточным оружием, оно предназначено для поражения цели с максимальной точностью и со значительной эффективностью [2]. Машины, которые способны принимать самостоятельно стратегические или другие военные решения, сегодня уже не редкость. Возможно, в будущем они будут даже воевать самостоятельно. Высокотехнологическая война будет вестись роботами или машинами, оснащёнными ИИ.

Сторонники внедрения ИИ в боевые средства утверждают, что, если будут воевать машины, значит, не будет человеческих жертв. Наряду с этим отмечают, что роботизированные боевые средства снижают военные преступления, такие как насилие и изнасилование, не совершают поступков в состоянии аффекта, не вступают в мародерство (при условии, если ИИ не запрограммирован на подобные действия). Такого типа боевые машины более точно выполняют приказы. Кроме того, утверждается, что боевые средства с технологиями ИИ являются эффективными сборщиками данных, поэтому при совершении военных преступлений можно быстро обнаружить виновных, что, безусловно, снижает вероятность военных преступлений. Таким образом, по мнению экспертов, использование ИИ в армии способствует уменьшению фундаментальных проблем, которые создаёт война, т. е. при их использовании нас ожидает:

- меньшее количество смертей, ранений и травм солдат;

- меньшее количество смертей, ранений и травм мирных жителей;

- в целом снижение ущерба для инфраструктуры, общества и будущих поколений [13, р. 11].

Из вышеизложенного следует отметить, что возникают главные философские вопросы: какова разница между войной и миром, если у воюющих сторон не будет жертв и ущерба? зачем нужны алгоритмы обнаружения человека и лишения его жизни? что будет происходить, если высокоразвитая страна, обладающая такими средствами, будет воевать против более слабой и отсталой страны? кто устанавливает необходимые правила боевых действий? сами машины через самообучение? кто будет осуществлять контроль над применением силы посредством таких роботизированных боевых ресурсов, особенно когда она нацелена на людей: средства и действия, которые могут дегуманизировать человечества, превращая человека в цель уничтожения? В этом контексте необходимо определить роль человека в процессе использования ИИ в военных действиях, а также сформулировать проблемы этики и роль институтов нравственных норм в связи с применением технологий ИИ для военных систем [5].

Роль человека

ИИ в армии предназначен для повышения боеспособности войск и нанесения потери противнику, и, как показывает опыт, современная война не существует без использования ИИ. На основе этого тезиса формулируется вопрос о роли человека. К настоящему времени сложились три основных категории роли человека (по степени управления со стороны человека) [2; 15].

Человек в системе управления - вспомогательная роль ИИ. На этом уровне ИИ обнаруживает и определяет враждебные объекты и после определённых интеллектуальных расчётов определяет цели. Однако решение и необходимые действия принимает только человек-оператор. Машина является вспомогательным средством.

Человек над системой управления - частично автономный ИИ. К этой категории относятся системы, которые самостоятельно способны обнаруживать и выбирать цели, а также принимать необходимые решения для достижения заранее поставленных задач. Однако человек-оператор, выполняющий роль наблюдателя и контролёра, в любой момент может вмешаться, изменить или заблокировать решение ИИ.

Человек вне системы управления - автономный ИИ. К этой категории относятся те боевые средства, которые способны самостоятельно воевать без человеческого вмешательства. Они способны собирать большое количество данных, и, анализируя их, могут обнаруживать и выбирать боевые цели, и, в итоге, самостоятельно принимать необходимые действия по уничтожению целей.

Последние войны доказали, что в боевых действиях уже применяются боевые средства, относящиеся к первой и второй категориям. Это лишь вопрос времени, когда мы доберёмся до третьей категории. Таким образом, современные автономные боевые системы могут действовать частично или полностью самостоятельно, без вмешательства оператора: от поиска цели до принятия решения и лишения человека жизни, даже если он не в военной форме. Философский вопрос: кто несёт ответственность за применение такого типа боевых систем [5, с. 81]?

Как следует, современные технологии позволяют «умным» системам обучаться на собственном опыте, адаптироваться к окружающей среде и к параметрам задач, принимать решения, которые раньше были прерогативой человека, и принимать такие решения, которые относятся к моральным поступкам [3, с. 72]. Значит, возникают серьёзные философские вопросы, связанные с рисками и, безусловно, с этикой, при таком опасном использовании ИИ. Поэтому, если ИИ необходим современной армии, нужно серьёзно относиться к главным этическим вопросам, связанным с ИИ, к учениям о социальной природе нравственной деятельности, моральных отношений

и морального сознания, отражающихся в категориях этики основного субъекта, человека, потому что такому боевому средству не нужна никакая этика. Этика нужна человечеству [4].

Риски применения ИИ

Многие военные утверждают, что ИИ в вооружении повышает эффективность вооружённых сил. Однако опыт показывает, что это приводит к увеличению жертв и ущерба воюющих сторон. Таким образом, очевидно, что существуют серьёзные риски при использовании ИИ в вооружении даже для тех систем, где человек находится в системе управления, контролируя весь военный процесс. Риски увеличиваются, когда увеличивается уровень автономности систем вооружения. Здесь мы сталкиваемся с фундаментальной проблемой человечества: насколько безопасным является создание интеллектуального смертоносного оружия, которое превосходит человека по силе и разуму и, что самое главное, потенциально независимо от воли самого человека? Вне всякого сомнения, существует опасность, при которой развитие ИИ может пойти не в том направлении, которое было запланировано человеком [6, с. 59].

По определению, любая технология должна развивать и расширять возможности человека, и ни при каких обстоятельствах неприемлемо превращать человека в объект, подвергая его цифровому измерению (идентификации). К сожалению, применение ИИ в боевых средствах неизбежно ведёт к потере человеческой природы. Как следствие, такие действия, когда машины, выполняя боевые задачи, принимают решения о нападении на человека, непременно приводят к наивысшей форме цифровой дегуманизации.

Некоторые учёные [12] утверждают, что одна из основных проблем ИИ - это предубеждения при его применении. Проблема усугубляется, когда эти структуры решают военные задачи. Наблюдается предвзя-

V8V

тое отношение к человеку, основанное на ряде таких типичных критериев, как пол, возраст, цвет кожи, состоятельность и т. д. Характерен пост соучредителя компании Apple Стива Возняка о том, что, хотя он и пользуется одними и теми же счетами со своей женой, его кредитный лимит, рассчитанный алгоритмами, в десять раз больше, чем у его жены1. Уверены ли мы, что хотим, чтобы такие «умные» алгоритмы решали, кто враг, в какую сторону стрелять, кого убивать и в итоге определять судьбу отдельных людей и человечества в целом?

Серьёзным вызовом для человека является утрата значительного человеческого контроля над машинами при их использовании на поле боя. При использовании любой техники человек должен контролировать процесс её применения. Особенно когда существует сложный этический выбор, когда сама техника не способна понять ценность человеческой жизни. Тем более, когда идёт речь о боевых системах и войне. Это ведёт к снижению человеком моральной ответственности и подрыву существующих правовых норм. Ответственность за свои поступки должны нести именно люди, а не машины. Однако, если люди не осознают полную меру своей ответственности при принятии взвешенных решений, они уже не способны нести ответственность за последствия своих действий.. Поэтому вопрос справедливого привлечения человека к ответственности за действия автономной системы вооружения, находящейся вне их эффективного контроля, весьма актуален.

Машинное обучение является идеальным инструментом для совершенствования ИИ. Однако сегодня трудно объяснить, как работает эта система, каким образом достигаются результаты, из чего можно заключить, что при боевых действиях жертвы остаются в неведении - без объяснений и без ответственности. Многие учёные и

1 Douglas J. Apple Card Algo Issue and the Future of AI in your Everyday Life [Электронный ресурс]. URL: https://www.cnbc.com/2019/11/14/apple-card-algo-affair-and-the-future-of-ai-in-your-everyday-life.html (дата обращения: 10.11.2022).

разработчики опасаются, что ИИ будет развиваться без наблюдения и руководства со стороны человека. Контроль является основным фактором безопасности при таком использовании ИИ [14]. Это значит, что без необходимого контроля мы не просто пользуемся технологиями, но ставим нашу жизнь в зависимость от них, что и делает нас уязвимыми.

ИИ - очень мощная технология, и при всей её значимости существует масса серьёзных рисков при её использовании. Халатность, недосмотр, легкомыслие и небрежность являются вероятными рисками во время боевых действий. Кроме того, существует риск злого умысла какой-то из воюющих сторон. Вполне возможны ситуации, при которых военные роботы, вышедшие из-под контроля, могут причинить вред человечеству, если окажутся в руках террористов и преступников.

Особого внимания заслуживает изучение рисков, связанных с возможной ядерной катастрофой на фоне использования ИИ. И вот мы подходим к страшному вопросу, связанному с машинным обучением: что произойдёт, если вдруг машина определит, что враг человечества - сам человек?

Опираясь на потенциальные вышеупомянутые риски, следует отметить, что эта тема становится предметом оживлённых философских дискуссий, т. к. затрагивает фундаментальные аспекты человечества.

Этические нормы -нравственные ограничения

Технологии разрабатываются и создаются людьми. Мы обязаны установить границы между приемлемым и неприемлемым, а этические принципы должны быть направлены на недопущение вышеупомянутых рисков. При этом нужно установить нормы, формируя их не на основе философии войны, а на основе философии жизни. Использование ИИ в военной сфере касается не только природы, но смысла и сущности войны и мира. Анализируя эти смыслы, необхо-

2023 / № 3

димо учитывать общечеловеческие ценности, такие как право на жизнь, свобода и достоинство. Любые моральные нормы и этические правила с необходимостью формулируют главный вопрос любого морального поступка: кто несёт ответственность за применение оружия, оснащённого ИИ? Кроме того, необходимо сформулировать условия, при которых дозволено использование таких боевых средств, и вообще отношение к дилемме «ИИ против человека-солдата» [7].

Следует добавить, что оснащение этих смертоносных автономных систем приборами слежения и камерами наблюдения делает доступным для просмотра весь процесс обнаружения и распознавания вероятной цели вплоть до огнестрельного поражения. Жестокая смерть по определению не приемлема для любого человека, она - результат нарушения всех возможных этических норм, особенно в условиях военных действий, когда их возможно смотреть на экранах наших телевизоров, а иногда и в прямом эфире. Достоинство человека как личности перестаёт существовать, порождая фундаментальный философский вопрос: в чём смысл такой войны и куда мы направляемся?

Машины, тем не менее, не несут никакой моральной ответственности, и все попытки оправдывать гонку вооружений в сфере ИИ неуместны по гуманным и этическим критериям. Несмотря на это, сторонники интеллектуального оружия утверждают, что машины смогут гораздо эффективнее по сравнению с человеком соблюдать международное гуманитарное право, и, таким образом, появляются возможности разработки алгоритмов, способных более чётко следовать этим правилам. По их мнению, такой подход может обеспечить исключение военных преступлений. Однако даже в таком оптимистическом сценарии существуют определенные риски, и человек должен нести ответственность за разработку, размещение и использование военных систем ИИ.

В условиях технологической войны ИИ может использоваться во вред человече-

ству, поэтому перед философским сообществом стоит серьёзная задача - сделать всё возможное для урегулирования этических вопросов, предусмотреть явные и латентные риски и обеспечить безопасность для человека и общества.

Заключение

Подводя итог, следует признать, что создание и развитие систем ИИ становится одним из важнейших направлений научно-технического прогресса. На наш взгляд, не стоит вдаваться в фантазии о восстании роботов против человечества, как это красочно представлено в некоторых фантастических фильмах и современных произведениях кибер-апокалипсиса. Тем не менее, вполне очевидно, что внедрение систем ИИ в военную область предопределит степень эффективности военных и боевых действий в будущем [2]. Каждый разработчик стремится опередить других разработчиков и производителей, поскольку деятельность в высокотехнологичной сфере обеспечивает огромные доходы для него и безопасность для государства. Именно поэтому разработчики и чиновники эксплуатируют тезис «если не мы, то будут разрабатывать они», т. е. «враги». Поэтому на сегодняшнем театре геополитических действий никого не удивляет развитие мировой гонки вооружений в сфере ИИ.

Установление «красной черты» для машин, которые могут принимать решения о смерти человека, а также для технологий, использующих силу без действительного человеческого контроля, представляет собой основательную проверку наших отношений с ИИ и новыми технологиями во всех областях общества. Если мы не установим эти грани сейчас, ситуация будет только усложняться, поскольку государства и коммерческие компании будут все больше вкладывать средства в развитие вооружений. Отказ от цифровой дегуманизации и обеспечение реального человеческого контроля над применением силы являются ключевыми шагами к построению более обширных возможностей в отношениях с технологиями для всех лю-

дей, сегодня и в будущем. Несомненно, технологии ИИ могут использоваться во вред человечеству, т. к. это мощное смертоносное средство становится более интеллектуальным и, следовательно, ещё более смертоносным. ИИ в сфере вооружения является средством массового поражения. Таким образом, ИИ может стать более опасным, чем клонирование человека и ядерное оружие, если не будут предусмотрены правила безопасности и этические нормы, регулирующие разработку, применение и использование ИИ в сфере обороны.

В то же время учёные, философы и другие организации неустанно работают над тем, чтобы убедить правительства замедлить безумную гонку вооружений и законодательно установить процедуры использования алгоритмов ИИ и необходимого контроля, который способствует устранению соответствующих рисков и обеспечивает уважение человека и таких общечеловеческих ценностей, как мир, свобода, равенство, социальный прогресс и человеческое достоинство.

Великий философ Аристотель утверждает, что поступки, которые совершает человек, отражают его истинную суть. Человеческая природа уникальна, моральный поступок присущ исключительно человеку. Следовательно, моральный поступок не может быть присвоен никакому материальному объекту-оружию.

Роджер Пенроуз в своей книге «Новый ум короля» аргументирует невозможность получения процесса мышления на основе формальных систем, а человеческое сознание, по мнению автора, не является алго-

ритмическим [10]. Поэтому в развитии и использовании ИИ, особенно в военной сфере, существует достаточно опасений самого различного характера.

Академик Н. Н. Моисеев в его книге «Судьба цивилизации. Путь Разума» также предупреждает о серьёзных рисках. Согласно Моисееву, весьма вероятно такое развитие ИИ: захват некоторой группой людей грандиозной информационной системы, созданной сегодня на планете, для использования её в собственных интересах. Это может обернуться глобальным зомбированием человечества, привести к абсолютному информационному тоталитаризму [9]. Риски кратно возрастают, когда человек способен создать такое мощное оружие. Именно в этот момент философ-ско-онтологический аспект существования человека проявляется наиболее рельефно.

История доказала, что человек может стать самым опасным и жестоким животным мире, но в то же время он может проявлять чудеса творчества, благородства и самопожертвования. Поэтому нам пора остановиться и подумать, куда мы направляемся. Сделали ли мы всё для сохранения и развития человека-добродетельного, и следовательно, для человечества и цивилизации в целом? К этим важнейшим вопросам можно прежде всего добавить, что любое средство в руках человека-доброде-тельного, в том числе и ИИ, станет самым полезным инструментом развития, процветания и здоровой социальной жизни.

Статья поступила в редакцию 17.05.2023.

ЛИТЕРАТУРА

1. Буренок В. М. Новая парадигма силового противостояния государств на основе применения искусственного интеллекта // Вооружение и экономика. 2020. № 52 (2). С. 4-8.

2. Галкин Д. В., Коляндра П. А., Степанов А. В. Состояние и перспективы использования искусственного интеллекта в военном деле // Военная мысль. 2021. № 1. С. 113-124.

3. Георгиу Т. С. Философия автоматизации и искусственного интеллекта: от мифологического Талоса до будущих киборгов // Вестник Московского государственного областного университета. Серия: Философские науки. 2022. № 1. С. 68-75.

4. Георгиу Т. С. Решение проблемы «сознание-тело» и искусственный интеллект // Вестник Тверского государственного университета. Серия: Философия. 2022. № 62 (4). С. 32-45.

5. Глухов Е. А. О правовом регулировании применения искусственного интеллекта в военной сфере // Военная мысль. 2022. № 8. С. 73-85.

6. Косоуров Д. А. Применение искусственного интеллекта в области вооружения // Искусственный интеллект: философия, методология, инновации: материалы IV Всероссийской конференции студентов, аспирантов и молодых учёных, Москва, 10-12 ноября 2010 г.: в 2 ч. Ч. 2. М.: Российский технологический университет, 2010. С. 58-60.

7. Ларионов И. Ю. Кто несёт ответственность за применение оружия с искусственным интеллектом? // Интернет и современное общество: труды XXV международной объединённой научной конференции, Санкт-Петербург, 23-24 июня 2022 г. СПб.: Национальный исследовательский университет ИТМО, 2022. С. 26-27.

8. Лобанов Е. В. Платон и Аристотель о «праве войны» // Знание. Понимание. Умение. 2015. № 1.

9. Моисеев Н. Н. Судьба цивилизации. Путь Разума. М: Языки русской культуры, 2000. 224 с.

10. Пенроуз Р. Новый ум короля. О компьютерах, мышлении и законах физики / пер. В. О. Малышенко. 7-е изд. М.: Синергетика: от прошлого к будущему, 2019. 413 с.

11. Разин А. В. Этика искусственного интеллекта // Философия и общество. 2019. № 90 (1). С. 57-73

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

12. Floridi L. AI4People-An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations // Minds and Machines. 2018. № 28. P. 689-707.

13. Müller V. C. Autonomous Killer Robots are Probably Good News // Drones and Responsibility: Legal, Philosophical and Sociotechnical Perspectives on the Use of Remotely Controlled Weapons. London: Ashgate, 2016. P. 67-81.

14. Siau K., Wang W. Artificial Intelligence (AI) Ethics: Ethics of AI and Ethical AI // Journal of Database Management. 2020. № 2 (37). P. 74-87.

15. Simpson T. W., Müller V. C. Just War and Robots' Killings // Philosophical Quarterly. 2016. № 263 (66). P. 302-322.

1. Burenok V. M. [A New Paradigm of State Force Confrontation on the Basis of Artificial Intelligence Application]. In: Vooruzhenie i ekonomika [Armament and Economics], 2020, no. 52 (2), pp. 4-8.

2. Galkin D. V., Kolyandra P. A., Stepanov A. V. [State and Prospects for the Use of Artificial Intelligence in Military Affairs]. In: Voennaya mysl' [Military Thought], 2021, no. 1, pp. 113-124.

3. Georgiou T. S. [Philosophy of Automation and Artificial Intelligence: From Mythological Talos to Future Cyborgs]. In: Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Seriya: Filosofskie nauki [Bulletin of the Moscow Region State University. Series: Philosophy], 2022, no. 1, pp. 68-75.

4. Georgiou T. S. [Solution of the problem "Mind-Body" and Artificial Intelligence]. In: Vestnik Tverskogo gosudarstvennogo universiteta. Seriya: Filosofiya [Herald of Tver State University. Series: Philosophy], 2022, no. 62 (4), pp. 32-45.

5. Gluhov E. A. [On the Legal Regulation of the Use of Artificial Intelligence in the Military Sphere]. In: Voennaya mysl' [Military Thought], 2022, no. 8, pp. 73-85.

6. Kosourov D. A. [Application of Artificial Intelligence in the Field of Weapons]. In: Iskusstvennyj intellekt: filosofiya, metodologiya, innovacii: materialy IV Vserossijskoj konferencii studentov, aspirantov i molodyh uchyonyh, Moskva, 10-12 noyabrya 2010g. Ch. 2 [Artificial Intelligence: Philosophy, Methodology, Innovation: Materials of the IV All-Russian Conference of Students, Graduate Students and Young Scientists, Moscow, November 10-12, 2010. Pt. 2]. Moscow, Russian Technological University Publ., 2010, pp. 58-60.

7. Larionov I. Yu. [Who is Responsible for the Use of Weapons with Artificial Intelligence?]. In: Internet i sovremennoe obshchestvo: trudy XXV mezhdunarodnoj ob»edinyonnoj nauchnoj konferencii, Sankt-Peterburg, 23-24 iyunya 2022g. [Internet and Modern Society: Proceedings of the XXV International Joint Scientific Conference, St. Petersburg, June 23-24, 2022]. St. Petersburg, National Research University ITMO Publ., 2022, pp. 26-27.

8. Lobanov E. V. [Plato and Aristotle on the Law of War]. In: Znanie. Ponimanie. Umenie [Knowledge. Understanding. Skill], 2015, no. 1, pp. 304-310.

9. Moiseev N. N. Sud'ba civilizacii. Put'Razuma [The Fate of Civilization. Path of Reason]. Moscow, Yazyki russkoi kul'tury Publ., 2000. 224 p.

10. Penrose R. The Emperor's New Mind: Concerning Computers, Minds and The Laws of Physics (Rus. ed.: Malyshenko V. O., transl. Novyi um korolya. O komp'yuterah, myshlenii i zakonah fiziki. Moscow, Sinergetika: ot proshlogo k budushchemu Publ., 2019. 413 p.).

C. 304-310.

REFERENCES

11. Razin A. V. [Ethics of Artificial Intelligence]. In: Filosofiya i obshchestvo [Philosophy and Society], 2019, no. 90 (1), pp. 57-73.

12. Floridi L. AI4People-An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. In: Minds and Machines, 2018, no. 28, pp. 689-707.

13. Müller V. C. Autonomous Killer Robots are Probably Good News. In: Drones and Responsibility: Legal, Philosophical and Sociotechnical Perspectives on the Use of Remotely Controlled Weapons. London, Ashgate, 2016, pp. 67-81.

14. Siau K., Wang W. Artificial Intelligence (AI) Ethics: Ethics of AI and Ethical AI. In: Journal of Database Management, 2020, no. 2 (37), pp. 74-87.

15. Simpson T. W., Müller V. C. Just War and Robots' Killings. In: Philosophical Quarterly, 2016, no. 263 (66), pp. 302-322.

ИНФОРМАЦИЯ ОБ АВТОРЕ

Георгиу Такис Софокли - аспирант кафедры философии Государственного университета просвещения;

e-mail: [email protected]

INFORMATION ABOUT THE AUTHOR

Takis S. Georgiou - Postgraduate Student, Department of Philosophy, State University of Education; e-mail: [email protected]

ПРАВИЛЬНАЯ ССЫЛКА НА СТАТЬЮ

Георгиу Т. С. Война, искусственный интеллект и человек: куда мы направляемся? // Современные философские исследования. 2023. № 3. С. 76-85. DOI: 10.18384/2949-5148-2023-3-76-85

FOR CITATION

Georgiou T. S. War, Artificial Intelligence and Human: Where are We Going to? In: Contemporary Philosophical

Research, 2023, no. 3, pp. 76-85.

DOI: 10.18384/2949-5148-2023-3-76-85

i Надоели баннеры? Вы всегда можете отключить рекламу.