Научная статья на тему 'ЭКЗИСТЕНЦИАЛЬНАЯ, ПРАВОВАЯ И ЭТИЧЕСКАЯ ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

ЭКЗИСТЕНЦИАЛЬНАЯ, ПРАВОВАЯ И ЭТИЧЕСКАЯ ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Право»

CC BY
287
51
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ЭКЗИСТЕНЦИЯ / МОРАЛЬ / ПРАВО / БЫТИЕ С ДРУГИМ-КАК-ИНЫМ / ТЕХНОЛОГИЧЕСКАЯ СИНГУЛЯРНОСТЬ / ИДЕАЛ И ЭТАЛОН / СОВЕРШЕННО ИНОЕ / СОЦИУМ

Аннотация научной статьи по праву, автор научной работы — Петев Николай Иванович

В статье рассматривается проблематика интегрирования искусственного интеллекта (далее - ИИ) в правовое и этическое поле, а также вопросы, связанные с экзистенциальным статусом данного феномена. Анализируются возможные вариации экзистенциальных, правовых и этических статусов ИИ, при этом принимаются во внимание особенности объекта исследования, в частности его потенциальное наличие как в слабой, так и сильной форме. Цель работы: моделирование основных специфик и проблемных моментов внедрения ИИ в сферы, в которых господствующим субъектом является человек. В исследовании предпочтение отдаётся сильной его форме, т. к. именно при наличии такой онтологической единицы возникает проблематика в области права, морали и существования (взаимоотношения человека и ИИ). Экзистенциальная проблема связана с возможностью присвоения ИИ определённого статуса: равного человеку, тождественного ему, стоящего выше/ниже человека и т. д. Правовой вопрос связан с экзистенциальным, поэтому некоторые спорные моменты (например, назначаемого статуса) пересекаются. Кроме того, актуальным является в данном проблемном поле юридическая легитимность самости ИИ, а также проистекающие из этого необходимые изменения законодательства. Этическая дилемма связана с вопросом о формировании и возможности морали у ИИ. Методика исследования: диалектический метод, который даёт возможность выявить и проанализировать противоречия, возникающие как внутри самого феномена ИИ, так и в рамках его гипотетического внедрения в социум и экзистенцию индивида; метод моделирования способствует формированию комплекса представлений о проблемных моментах и возможных кризисных ситуациях, которые могут быть вызваны интегрированием ИИ в социум, в частности в своей сильной форме; метод анализа и синтеза позволяет глубже проникнуть в суть проблемы, связанной с присвоением ему статуса онтологической (экзистенциальной) единицы; этический подход помогает проанализировать возможность создания «запрограммированной морали», вместе с психологическим подходом он предполагает формирование представлений о потенциальных сложностях взаимоотношения человека и ИИ, имеющего статус личности. Результаты: принципы комфорта и безопасности, а также принцип антропоморфной организации ИИ являются доминирующими (репрессивными); технологическая сингулярность, в частности инициированная появлением ИИ, имеет ряд требований для своей реализации (не только динамика, но и частота, глубина интеграции); массовость и страх нововведений как ингибитор становления научно-технического прогресса, в том числе появления сильного ИИ; инструментальный характер снимает необходимость рассмотрения отношения к ИИ как бытие-с-другим. В аспекте сильного ИИ возникает проблема существования с другим-как-иным и вытекающая из этого невозможность тождества «другого» и «иного»; правовая проблематика представлена рядом спорных моментов: гражданство сильного ИИ, его социально-юридический статус, необходимость отдельных законодательных актов и т. д.; несостоятельность антропоморфного идеала/эталона для ИИ и концепции «запрограммированной морали».

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

EXISTENTIAL, LEGAL AND ETHICAL PROBLEMS OF ARTIFICIAL INTELLIGENCE

This article discusses the problems of integrating artificial intelligence into the legal and ethical field, as well as issues related to the existential status of this phenomenon. The author analyzes possible variations in the existential, legal and ethical statuses of artificial intelligence, also relying on the features of the object of study, in particular on its potential presence, both in a weak and strong form. The purpose of the work is to model the main specifics and problematic aspects of the introduction of artificial intelligence in areas where person is a dominant subject. In the study, preference is given to a strong form of artificial intelligence, since it is in the presence of such an ontological unit that problems arise in the field of law, morality and existence (the relationship between a person and artificial intelligence). The existential problem is related to the possibility of assigning a certain status to artificial intelligence: equal to a person, identical to him, standing above/below a person, etc. Legal issues are related to the existential, so some problematic issues (for example, the assigned status) intersect. In addition, the legal legitimacy of the artificial intelligence self, as well as the necessary legislative changes resulting from this, is relevant in this problematic field. Ethical issues are related to the question of the formation and possibility of morality in artificial intelligence. Research methodology. In this work, the dialectical method is used. It allows you to identify and analyze the contradictions that arise both within the very phenomenon of artificial intelligence, and within the framework of its hypothetical introduction into society and the existence of an individual. The modeling method allows one to form a set of ideas about problematic moments and possible crisis situations that can be caused by the integration of artificial intelligence into society, in particular, in its strong form. The method of analysis and synthesis allows penetrating deeper into the essence of the problem associated with assigning the status of an ontological (existential) unit to artificial intelligence. The ethical approach allows us to analyze the possibility of creating a «programmed morality». Together with the psychological approach, it involves the formation of ideas about the potential complexities of the relationship between a person and artificial intelligence, which has the status of a person. Results. The principles of comfort and safety are dominant (repressive) in terms of the hypothetical creation of a strong artificial intelligence. At present, the principle of the anthropomorphic organization of artificial intelligence is dominant. Technological singularity, in particular also initiated by the advent of artificial intelligence, has a number of requirements for its implementation (not only dynamics, but also frequency and depth of integration). The phenomena of mass character and fear of innovation are an inhibitor of the formation of scientific and technological progress, including the emergence of a strong artificial intelligence. The instrumental nature eliminates the need to consider the relationship to artificial intelligence as being-with-other. In the aspect of strong artificial intelligence, the problem of existence with the other-as-other arises, and the impossibility of the identity of the «other» and «other» arising from this. Legal issues are represented by a number of controversial issues: the citizenship of a strong artificial intelligence, its social and legal status, the need for separate legislative acts, etc. The anthropomorphic ideal/standard is identified as ineffective for artificial intelligence and the concept of «programmed morality».

Текст научной работы на тему «ЭКЗИСТЕНЦИАЛЬНАЯ, ПРАВОВАЯ И ЭТИЧЕСКАЯ ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

УДК 004.8:141.32:17:34

ЭКЗИСТЕНЦИАЛЬНАЯ, ПРАВОВАЯ И ЭТИЧЕСКАЯ ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Петев Николай Иванович,

cyanideemo@mail.ru

Владимирский государственный университет имени А.Г. и Н.Г. Столетовых, Россия, 600000, г. Владимир, ул. Горького, 87

Петев Николай Иванович, кандидат философских наук, доцент кафедры философии и религиоведения Владимирского государственного университета имени А.Г. и Н.Г. Столетовых.

В статье рассматривается проблематика интегрирования искусственного интеллекта (далее -ИИ) в правовое и этическое поле, а также вопросы, связанные с экзистенциальным статусом данного феномена. Анализируются возможные вариации экзистенциальных, правовых и этических статусов ИИ, при этом принимаются во внимание особенности объекта исследования, в частности его потенциальное наличие как в слабой, так и сильной форме. Цель работы: моделирование основных специфик и проблемных моментов внедрения ИИ в сферы, в которых господствующим субъектом является человек. В исследовании предпочтение отдаётся сильной его форме, т. к. именно при наличии такой онтологической единицы возникает проблематика в области права, морали и существования (взаимоотношения человека и ИИ). Экзистенциальная проблема связана с возможностью присвоения ИИ определённого статуса: равного человеку, тождественного ему, стоящего выше/ниже человека и т. д. Правовой вопрос связан с экзистенциальным, поэтому некоторые спорные моменты (например, назначаемого статуса) пересекаются. Кроме того, актуальным является в данном проблемном поле юридическая легитимность самости ИИ, а также проистекающие из этого необходимые изменения законодательства. Этическая дилемма связана с вопросом о формировании и возможности морали у ИИ. Методика исследования: диалектический метод, который даёт возможность выявить и проанализировать противоречия, возникающие как внутри самого феномена ИИ, так и в рамках его гипотетического внедрения в социум и экзистенцию индивида; метод моделирования способствует формированию комплекса представлений о проблемных моментах и возможных кризисных ситуациях, которые могут быть вызваны интегрированием ИИ в социум, в частности в своей сильной форме; метод анализа и синтеза позволяет глубже проникнуть в суть проблемы, связанной с присвоением ему статуса онтологической (экзистенциальной) единицы; этический подход помогает проанализировать возможность создания «запрограммированной морали», вместе с психологическим подходом он предполагает формирование представлений о потенциальных сложностях взаимоотношения человека и ИИ, имеющего статус личности. Результаты: принципы комфорта и безопасности, а также принцип антропоморфной организации ИИ являются доминирующими (репрессивными); технологическая сингулярность, в частности инициированная появлением ИИ, имеет ряд требований для своей реализации (не только динамика, но и частота, глубина интеграции); массовость и страх нововведений как ингибитор становления научно-технического прогресса, в том числе появления сильного ИИ; инструментальный характер снимает необходимость рассмотрения отношения к ИИ как бытие-с-другим. В аспекте сильного ИИ возникает проблема существования с другим-как-иным и вытекающая из этого невозможность тождества «другого» и «иного»; правовая проблематика представлена рядом спорных моментов: гражданство сильного ИИ, его социально-юридический статус, необходимость отдельных законодательных актов и т. д.; несостоятельность антропоморфного идеала/эталона для ИИ и концепции «запрограммированной морали».

Ключевые слова: Искусственный интеллект, экзистенция, мораль, право, бытие с другим-как-иным, технологическая сингулярность, идеал и эталон, совершенно иное, социум.

55

ЭО! 10.18799/26584956/2022/2/1159

Современный трансгуманизм (1) пропагандирует в своей риторике сотериологи-ческий аспект развития науки и техники [1], в том числе в рамках идеи сильного искусственного интеллекта. Учитывая острую зависимость человечества от научно-технического процесса, в частности в сфере решения многих, в том числе глобальных проблем, и воспринимая ИИ как «великую панацею», ему стоит задаться следующими вопросами:

• Желает ли человечество, чтобы были решены самые важные проблемы человечества: экологический кризис, война, убийства, криминал и т. д.?

• Желает ли человечество, чтобы решением проблем занималась какая-то внешняя сила (2), тем самым снимая данную проблему (3) и необходимость её решение с себя?

• Принимая ИИ как «великую панацею человечества», готов ли человек к тем способам/методам, которые будут им выбраны как оптимальные и эффективные для преодоления кризиса, и последствиям/результатам, которые принесёт такое «исцеление»?

В данном случае речь идёт именно о сильной форме ИИ со всеми вытекающими из этого его спецификами, особенностями и характеристиками.

Несомненно, что ответ на первый вопрос будет утвердительным. Второй вопрос однозначно вызовет у некоторых индивидов определённые сложности, в частности по причине гипотетически возможных кризисных последствий при подобном положении вещей. Ответ на третий вопрос в большинстве случаев будет носить отрицательный характер. Человек действительно желает решения самых острых глобальных проблем и даже готов прибегнуть к помощи внешней силы, однако также он хочет исключить любые опасности для себя и своего комфорта. Стоит указать, что Ж. Бодрийяр рассматривал безопасность как феномен социального контроля и шантажа в рамках принципа абсолютного доминирования системой над индивидом, даже в аспекте права на смерть [2]. В абсолютизированной форме подобное стремление представляет собой омертвление. Вся техническая культура работает на производство искусственной среды смерти [2]. Смерть только по правилам и в установленных рамках. Она является ещё одним противником, которого необходимо победить человеку (наряду с такими как установленные ограничения временем и пространством, наличие конечной телесности и т. д.). Создание искусственного интеллекта и последующее его внедрение в различные сферы жизни также должны происходить по принципу безопасности: исключение любых случайностей, доминанта прагматического примата, переход творческого акта из познавательной и творческой плоскости в коммерческую и т. д. В результате подобных метаморфозов, происходит «омертвление» возможных достижений, превращая живое открытие в объект массового производства потребления.

Комфорт - фактор не менее важный для современного индивида, чем безопасность. Р. Барт отмечал особую силу конформизма и порядка. Избавляя индивида от прогрессистских убеждений, создаётся такое состояние, при котором жизнь человеку «обходится дешевле» [3, с. 108]. Порядок и комфорт - средства против различных убеждений, противостояний, борьбы, диалектического взаимодействия и т. д. Этими средствами снимается необходимость в определённом экзистенциальном (нравственном и волевом) напряжении. Можно пожертвовать чем-то или смириться с определёнными недостатками, ведь это настолько незначительно по сравнению с желаемым комфортным положением. М. Хайдеггер указывал на тенденцию к определённому абстрагированию и уравниванию в обыденности (публичности, повседневности), что облегчает и упрощает присутствие [4]. Вышеуказанные установки могут быть инициированы и

в отношении ИИ, т. е. даже при наличии у него некой самости свести её к чисто «человеческому», упуская тем самым иные альтернативные (с какой-то стороны - его собственные) онтологические черты.

В настоящее время человечество находится на пороге такого состояния, при котором интенсивное и динамичное развитие науки и техники приводит к тому, что мы уже не можем контролировать этот процесс эволюции и не можем предугадать исходы и результаты. Такое гипотетическое состояние называется технологической сингулярностью (создание сильного искусственного интеллекта теоретически будет являться отправной точкой данного феномена). Под данным термином мыслится некий гипотетический момент в будущем, в котором техническое развитие приобретает такую динамику, что этот процесс перестаёт быть управляемым (индивидом/обществом), а его результаты неосмысляемы (т. е. не поддаются прогнозу). Одни исследователи считают, что последствия изменений являются неизбежными и повлекут за собой фундаментальные изменения человека (его ума и тела), экономики, общества и т. д. (вплоть до деструктивных тенденций), другие - отрицают подобное положение вещей и подчеркивают спекулятивность таких утверждений, их эмпирическую недостоверность и псевдонаучность, придерживаясь позиции принципа стабилизации технического прогресса после изменений [5].

Стоит отметить, что важнейшим фактором для сингулярности является не только непосредственно динамичность. Дело в том, что лишь высокая скорость процесса развития не позволит пройти критическую точку, за которой последует «взрыв», изменяющий окружающую действительность (социум, индивида и т. д.). Скорость развития может быть схвачена массовым производством. Хотя возможно, что скорость производства продукта и будет высокой, но детонационный характер (подрывной для устоявшихся основ) будет отсутствовать. Амплификация может быть погашена многими факторами, как социальными, так и индивидуальными.

Важными являются также факторы частоты и глубины тенденции технического развития. Сдвиг не будет инициирован обычной пульсацией. Частота должна быть критически высокой для преодоления необходимой точки. Это предполагает, что, возможно, какого-то одного нововведения (появления чего-то нового, например сильного ИИ) недостаточно для возникновения необходимого напряжения и инициации технологической сингулярности. А вот ряд инноваций, которые могут иметь единственный первичный источник (например, какое-то одно конкретное открытие), способны вызвать некий «каскадный эффект» в системе устоявшегося. В таком случае возникает возможность преодоления «замирания», которое гасит ускорение технического развития.

Глубина интеграции «совершенно нового» также влияет на возможность появления технологического сдвига/взрыва. Дело в том, что важным являются такие факторы, как время апробации этого новшества (наиболее короткий период обеспечит лучший эффект), каналы «доставки» (сферы, через которые будут интегрироваться нововведения), масштаб распространения и доступность (элитарность будет способствовать «замиранию» процесса развития) и т. д. Достаточно серьезной проблемой для технической сингулярности является процесс стандартизации и хабитуализации совершенно нового. Технический прогресс должен пройти критическую точку до того, как инновация будет фундирована как часть традиции, т. е. станет обыденным стереотипом.

Вся фантастика, посвящённая столкновению человечества и ИИ, а также репрессивной техницизации (роботизации) мира, - это репрезентация фантомного страха перед не просто абстрактной онтологической идеей, а именно непосредственно экзистенциальной, которая уже как бы ближайшим образом наличествует. Яркими примерами

подобных страхов являются технофобия (неприязнь или боязнь передовых технологий, сложных электронных устройств и научно-технического прогресса вообще) и футуро-фобия (неприятие или боязнь человеком гипотетических представлений о качественно ином будущем, которое расходится с привычным для него настоящим). Противоположными данным взглядам являются технофилия и футурофилия, которые исключают критическое отношение к объектам своего отношения. Все они представляют собой крайние позиции, с вытекающим из этого отсутствием объективности оценивания, анализа, отношения и т. д.

Робототехника и высокие технологии в настоящее время повсеместно присутствуют в жизни человечества. При этом они не просто новая игрушка для досуга и развлечения, но и намного больше. Ярким примером является продукция компании Boston Dynamics. Более 500 роботов взято в аренду у данной организации для работы в различных сферах. Большинство из них используется в производстве, промышленности, строительстве и различными коммунальными компаниями. В 2019 г. имел место скандал вокруг робособаки Spot (4), которая около года служила в полиции Нью-Йорка (полицейские прозвали его Digidog) (5). Он стал целью сторонников борьбы с расовой дискриминацией в США, и руководству пришлось «уволить» «пса» [6]. Использование робота-собаки посчитали антиутопическим актом, обвинив его также в расизме и нетолерантности. Стоит указать, что полевые испытания Digidog происходили в период активности организации BLM, одним из пунктов программы которой является репрессия правовых возможностей полиции, в частности ограничение легитимности применения силы при арестах. Таким образом, робот, при всей своей нейтральности, стал символом ещё одного примера дискриминации в политико-социальной борьбе в США.

Ж. Бодрийяр отмечал, что практика суда и смертельной казни различных животных существовала вплоть до XVIII в., что вызывает у современного цивилизованного человека чувство отвращения [2]. Автор подчёркивает, что такое отношение человека не есть плод цивилизации/развития разума, но является следствием особо мифа об отличии человека от животного, а отвращение к такой практике есть отрицание символического (ритуального) равенства животных и человека, а также прямое презрение к ним [2]. В аспекте обвинения в расизме робота-пса возникает подобное непонимание такого отношения и поведения с позиции именно человека. Но в данном случае не стоит говорить о некой попытке в такой риторике/практике «приравнивания» (человека и робота) констатировать попытку восстановления «сакрального/ритуального» статуса Digidog, т. к. телеология и этиология в данном случае имеют чисто социально-политический примат.

В 2021 г. консультативная группа Конгресса США решила, что правительство должно попробовать создать хотя бы одного автономного робота-убийцу для рассмотрения его боевой эффективности и расчётов рисков автономного ИИ с доступом к вооружению [7]. Ранее, в 2020 г., Европарламент постановил запрет на любое убийство автономным ИИ. Основной топик обсуждения базировался на идее о том, что нельзя исключать человека из процесса принятия решений, дабы всё-таки были субъекты, которые могли бы отвечать за принятые решения в соответствии с нормами международного права. В основе дискуссии лежала резолюция «Толкование и применение международного права к ИИ в областях гражданского и военного использования и государственной власти» Ж. Лебретона, посвящённая вышеуказанной точке зрения о недопустимости автономии ИИ в аспекте войны и боевых действий [8].

Действительно, можно много шутить на тему «милой ссоры роботов-библиотекарей из провинции Цзянси» или иными подобными новостями/видео, однако

это не снимает серьезности применения автономного ИИ в тех сферах, которые связаны с вооружением и войной (6). В данном случае не стоит говорить о конспирологии, т. к. ужасающие последствия могут быть вызваны простой ошибкой программы/системы.

Проблема ИИ связана не только с его созданием, но и статусом (правовым, социальным, экзистенциальным и т. д.), который он приобретёт. ИИ делится на два основных типа: слабый (создание видимости умной машины) и сильный (наличествует способность мыслить, осознавать себя, чувствовать и т. д. (7)). Два этих типа соответствуют одноименным гипотезам в философии искусственного интеллекта. Если мы определяем ИИ лишь как умную программу (т. е. без наличия самосознания, воли, самомотивации, а тем более без способности сопереживания и «чувствования»), то таким образом можно установить перманентность его подручного и инструментального характера, что отменяет попытки его экзистенциального (онтологического), правового и этического определения.

Совершенно иная ситуация, если установить наличие сильного ИИ со всеми вытекающими из этого его качествами и характеристиками. Отто Р. указывал на особое чувство «совершенно иного», которое возникает благодаря столкновению с поразительными и бросающимися в глаза явлениями, предметами и т. д. [9]. Нечто приобретает такой статус, потому что несоизмеримо со мной [9, с. 46], и оно будоражит фантазию благодаря своей экстраординарности, а иногда бессмысленности [9, с. 48]. Конечно, не стоит утверждать, что в данном случае обязательно возникает нуминозное чувство. Подобное суждение будет восходить к области фантастики, фантазиям и конспирологиче-ским теориям, хотя и нельзя исключать такого квазирелигиозного отношения отдельных индивидов. Но вопрос о том, будет ли человек считать отношение с личностным (сильным) ИИ как «бытие-с-другим» (т. е. как некое сосуществование как с другим человеком) или же он признает его экзистенцию «иной». Кроме того, важно понимать, что эти отношения могут иметь как позитивный, так и негативный характер. А.П. Скрипник указывал, что для архаичного сознания была характерна демаркация на «свой» и «чужой», где статус «своего» имел относительный характер (его носил член группы, который мог принести общую пользу), а статус «чужого» имел негативную окраску (по эмоциональному содержанию совпадает с понятием зла развитого сознания) [10]. Конечно, современный человек не имеет настолько ярко выраженного бинарного разделения ввиду развитого мышления/сознания. Но человек ещё и не сталкивался с чем-то, что угрожает его экзистенциальной единственности и исключительности и при этом обладает непосредственной реальностью. Все вышеуказанные проблемы снимаются первичным установлением того, что личностный ИИ является лишь вещью/предметом. Таким образом, эти проблемы теряют свой смысл, ибо исчезает проблемный объект/субъект.

Сильный ИИ выходит из области всего лишь вещи. Подобное экзистенциальное соприкасание и отношение человека с искусственным интеллектом уже не являются простым отношением с подручным/инструментальным, а представляют собой некое бытие-с-другим, при этом с «другим» во всех смыслах (т. е. с другим-как-иным человеку). Возникает вопрос «Будет ли это действительно, говоря словами М. Хайдеггера, «бытие-с-другими» (со-бытие с другими)?». Недостаточно просто установить, что ИИ имеет бытие/существует. Такое утверждение будет пустым и абстрактным. Говоря о существовании «с-другим», необходимо предполагать, что это «другое» отлично от подручного и наличного (средств и вещей вообще) [4, с. 118], мир присутствия является совместным-миром (существование в мире сопряжено с существованием друго-

го) [4], наличествует одиночество и разлука как модусы соприсутствия [4], возникновение общего бытия к озаботившему миру [4, с. 122] и т. д. Ещё более сложной будет проблематика, связанная с понятием «иного», ведь он отражает в себе отрицание определения подручности/наличности, но и не тождественен «другому», т. е. не исчерпывается его содержанием.

Утверждая ИИ как автономную онтологическую единицу, тем самым мы устанавливаем его самость и действительность (экзистенцию), аналогично тем, которыми обладает человек. И здесь возникает ряд вопросов: начиная от юридически-правовых, социальных, экономических, заканчивая этическими и онтологическими.

Юридически-правовой вопрос заключается в следующем. Самое общее определение гражданина сформулировано следующим образом: «лицо, принадлежащее к постоянному населению данного государства, пользующееся всеми правами, обеспеченными законами этого государства и исполняющее все установленные законами обязанности, иными словами, это подданный какого-либо государства» [11]. Экстраполируя подобное определение на сильный ИИ, возникает ряд вопросов и проблемных моментов. Во-первых, вопрос его гражданской самоидентичности (8). Иными словами, возникает проблематика установления его гражданского определения и юридически узаконенного статуса: он априори будет иметь конкретное гражданство или право его выбирать, или ИИ будет тем, что вообще будет стоять вне подобной идентификации.

Несомненно, что два последних варианта представляются неприемлемыми для государства и общества, которые создали сильный ИИ. Это вызвано рядом причин, наиболее весомыми из которых являются экономические (понесённые издержки и затраты при создании ИИ, потенциальная материальная прибыль и т. д.) и политические (нарушение баланса сил в международных отношениях, приоритет на мировой арене и т. д.). Кроме того, стоит указать и на эксклюзивную возможность милитаристского применения ИИ, которая может стать тем фактором, который даст государству-обладателю несомненное преимущество (9).

Во-вторых, вопрос юридической легитимности (юридической интеграции). Если, например, в гражданском кодексе РФ 1551 ст., в уголовном - 361 ст., в трудовом -424 ст. и т. д., то каким образом будет распространяться законодательство на искусственный интеллект? Если будут внесены поправки, ориентированные именно на особенности ИИ, то какова их специфика и каково влияние на общество окажут эти изменения? Социально-правовые инновации, несомненно, окажут влияние на социальное устройство и будут способствовать возникновению новых видов деятельности, в том числе в парадигме правозащитников, активистов и т. д. Если будет инициирован совершенно отдельный закон/правовой акт, подобное может быть интерпретировано либо как сознательная сегрегация, либо как тенденция стратификации.

Такое протестное отношение к такому законодательному акту может возникнуть у правозащитников. Дело в том, что сильный ИИ - это отдельная, автономная онтологическая единица, т. е. личность, чьи права ущемляются. С одной стороны, данное положение вещей будет указывать на ослабление антропоцентрической позиции человека и возможность последующего адекватного интегрирования сильного ИИ в социум. С другой - в современном мире некоторые активисты/правозащитники могут спекулировать на популярных темах, но не преследовать собственно целей тех, кого они защищают (они лишь средство для достижения собственной цели, например в качестве пиара). Особую остроту данной проблематике может придать аспект, связанный с нормативно-правовым установлением ИИ как инструмента военного характера. Сам он (в частности, в аспекте своей деятельности) не должен быть милитаризован. ИИ не яв-

ляется оружием (если изначально он не создавался только для этого). Но его доступ к военной технологии (при его использовании в данной сфере) требует особого регламента. Всё это, несомненно, вызывает необходимость тщательного исследования.

В-третьих, вопрос о социальном статусе ИИ: он будет равен человеку, или же наоборот - новые законы/правки в законодательстве установят легитимность юридического обозначения личностного ИИ как «слой второго сорта» по сравнению с человеком, или же наоборот - утвердят его элитарность, в частности по причине специфики его экзистенциальных характеристик.

Ещё один возможным вариантом решения данного вопроса может быть связан с его исключением из гражданско-правового поля. Если это логично для ИИ как инструмента (слабая его форма) (в таком случае ИИ можно рассматривать лишь как вещь/некое имущество, что снимает необходимость нравственного и гражданского подхода к вопросу о его статусе), то возникают сложность и сомнительность данного подхода, если он обладает качеством экзистенциальной самости (сильная форма). В подобной ситуации исключение прав последнего может приравняться к легитимизации правового гнёта. Возникает некая специфическая современная форма рабства, основанная на экзистенциальном отличии, в частности в рамках различного происхождения и природы субъекта. И в данном случае рассмотрен личностный ИИ, который ментально, логически и этически максимально соответствовал бы человеку (т. е. максимально антропоморфен). При этом не учитывалась вероятность возможного расхождения в данных позициях между ними, что, несомненно, приведёт к усложнению прогнозирования и анализа взаимоотношений.

Спиноза Б. указывал, что добро есть то, о чём мы наверняка знаем, что оно полезно [12], а для человека нет ничего более полезного, чем другой человек [12]. А. Рэнд указывала, что «любой другой человек потенциально способен обладать теми же достоинствами, что и он сам, и таким образом может быть для него высочайшей ценностью» [13]. Ф. Ницше отмечал, что «человек любуется лишь собой в окружающем мире, он считает прекрасным всё то, в чём отражается его образ» [14, с. 84]. Однако, учитывая возможность того, что искусственный интеллект будет иметь иные установки, принципы, ментальность и т. д. (т.е. не будет иметь антропоморфного примата), он может иметь совершенно дифференциальное отношение к тому, что такое «человек» и «человеческое», вплоть до установления для них антагонистического статуса. Т. Гоббс указывал, что нельзя заключить соглашение со зверьми по причине невозможности диалога [15]. Кроме того, в естественном состоянии (т. е. «войны всех против всех»), в котором находятся животные, человек имеет право подчинять и убивать их, если это соответствует его благу [15]. Таким образом, с одной стороны, обретение человеком статуса «зверя» может иметь достаточно негативные и деструктивные последствия. С другой - принимая во внимание вышеуказанное отличие ИИ от человека, подобная риторика, которая есть продукт «человеческого», может быть индифферентной и несвойственной для ИИ.

Этический аспект ИИ также немаловажен в проблематике интегрирования данного феномена в социум. Дело в том, что этический подход к нему, как и решение вопроса разумности ИИ, осуществляется в парадигме его сопоставления с единственным доступным мерилом, «идеалом» и эталоном - человеком. Существует множество определений термина «идеал». Идеал представляет собой первообраз, определяющий способ мышления и деятельности человека или общественного класса [16]. Также под идеалом понимается: 1) в общем значении - как высшая степень ценного или наилучшего, некое завершенное состояние или же индивидуально принятые стандарты (качества и способ-

ности); 2) в гносеологическом - как истина; 3) в эстетическом - как прекрасное; 4) в этическом - как абсолютное нравственное представление, совершенство отношений между людьми (общественное устройство), высший образец нравственной личности [17]. Достаточно сложно объективно установить человека как некий абсолютно совершенный (этически, гносеологически, эстетически и т. д.) прототип, с которого по необходимости и только с него должно снимать слепок новой онтологической единицы. Такой подход имеет чисто спекулятивную специфику - для удобства самого человека.

Термин «эталон» (от фр. étalon - образец, мерило, идеальный или установленный тип чего-либо) часто отождествляют со стандартом. Хотя стандарт имеет характер минимума (низшего предела), тогда как эталон - максимума (высшего предела). Ещё одно определение данного термина - особая форма идеала, которому необходимо подражать. Устанавливая антропологический эталон как доминанту, «человек» становится не абстрактным образом, к которому необходимо лишь стремиться, но единственным и необходимым условием успешной и эффективной сборки ИИ. В данном случае можно говорить о той же проблематике «человека как совершенного образца» в риторике его статуса «идеальности», а также о спекулятивности и прагматизме данного подхода.

Стоит указать, что и само понятие «человек» (10) и «человеческое», в том числе с его понятием разума и моральности, можно считать искусственными конструктами (если исключить идеалистические подходы), т. е. синтетическими категориями, по которым определяется, является ли человек человеком как некий конкретный субъект, соответствующий определённым критериям, в том числе вышеуказанным.

И в данном случае актуален вопрос: должен ли искусственный интеллект по своему внутреннему содержанию соответствовать «человеческому»? Достаточно привлекательным является тезис о том, что любое разумное существо должно иметь тождественную человеческой разумность, а также соответствующие рациональные категории и способности суждения (11). Однако это не исключает возможности иного положения вещей, т. е. несоответствия, а возможно - противодействия, в том числе в аспекте нравственности (12). В настоящее время существуют разные подходы к проблеме происхождения, сущности и специфике морали и ценностей (прагматизм, утилитаризм, гедонизм, эвдемонизм, идеализм и т. д.). И при таком изобилии различных теорий невозможно точно определить, какая из них необходима и более оптимальна (с целью эффективного функционирования) для ИИ.

Гипотетически можно установить, что в процессе изучения различных имеющихся этических теорий, например в рамках процесса самообучения, искусственный интеллект сам выберет оптимальную концепцию или совокупность принципов, норм, правил и установок. В последнем случае происходит создание некоего компиляционно-го пакета из положений, правил и различных ценностей, в том числе нравственных систем. Сомнительным является возможность функционирования вышеуказанной искусственной компиляционной системы и её возможности в целом. Если всё-таки предположить гипотетическую возможность подобного, то возникают вопросы о системе отбора (что будет критерием). Решение диалектических противоречий элементов разных систем, статичность/динамичность такого комплекта (мораль индивида могут подвергаться со временем изменениям, переоценке ценностей, исключению одних и включению других компонентов из широкого диапазона доступных) и т. д.

В обоих случаях остаётся проблемным тот факт, что выбор может быть таким, какой не устроит человека. Критическим в своей невозможности прогнозирования является гипотетическая ситуация, при которой ИИ вырабатывает собственную этическую систему, т. к. её содержание остаётся слишком вариативным и случайным.

Главной субъектно-объективной единицей этического отношения долгое время был лишь только человек (и Бог, если этическая система связана с какой-либо религиозной доктриной или имеет от неё зависимый характер, т. е. мораль имеет своим истоком внешнюю божественную силу). Лишь только в конце XX в. появились дисциплины и концепции, которые разрушают данную антропоцентрическую монополию на нравственность, в частности биоэтика и экологическая этика. Современный трансгуманизм является апогеем борьбы с деспотическим доминированием «человеческого» в этике, предполагая необходимость преодоление понятия «человек» с целью выхода на новый уровень существования, при этом не представляя себе, какие изменения будут наличествовать, насколько они радикальны и как это отразится на экзистенции человека (или нового «уже-не-человека»). Таким образом, этическая система, построенная не на позиции гуманизма и антропоцентризма, может не только устанавливать человеку низкий статус, но и вообще исключать его из неё. Такая система может быть построена на основе принципа по ту сторону гуманизма.

Несомненно, что существует мнение об интеграции морали как системы в качестве определённого запрограммированного, чётко структурированного и установленного комплекса правил/законов. Таким образом, создается некий «этический кодекс», которому должен следовать ИИ в процессе своего функционирования/существования. Но такой набор правил не будет являться собственно моралью/нравственностью, а поведение на их основе некорректно оценивать в данной парадигме с использованием одноименных ценностей/добродетелей как индикатор соответствия. Данный вопрос пересекается с проблематикой институционализации нравственности, и оба таких подхода основаны на редукции всей специфики морали к однотипной схеме.

Таким образом, используя «запрограммированную мораль», нравственное поведение, сознание и отношение будут иметь абсолютно обязывающий характер. При подобном положении вещей сложно говорить о появлении такого феномена, как ценность. Возможно ли возникновение ценностей как невербализуемых и «атомарных» составляющих наиболее глубинного слоя интенциональной структуры личности» [18, с. 535-536]? Или же возникновение ценности как специфического указания на человеческое, социальное и культурное значение явлений действительности, связанное с познавательными и волевыми аспектами личности [19]? Или возникновение ценности как особого качества, которое связано с объектами и субъектами и характеризует их единственность, единство, место во всеобщей взаимосвязи [20]? Несомненно, что формально возможно утверждение тождества ценности и статуса «приоритетной задачи» для интегрированной «запрограммированной морали». Если с технической стороны это может быть приемлемо, то со стороны функциональной и содержательной - совершенно недопустимо. Утверждать для них идентичность - значит намеренно производить девальвацию содержания понятия «ценность». Отождествление её с оценкой/ценой также будет некорректным. При любом аналогичном вышеуказанном отождествлении будет возникать «аксиологическая» или «натуралистическая ошибка». Ценности при таком положении вещей не будут действительно ценностями. Такого понятия с соответствующим ему содержанием вообще не может быть в подобной системе. Кроме того, возникает проблема демаркации ценностей (разделения на экзистенциальные, моральные и т. д.). Также ряд иных вопросов: будет ли иметь место такое деление, какова будет иерархия, будет ли иметь место их полная контаминация в нечто единое или же будет проведена выборка и лишь некоторые получат статус «ценности» и т. д.

При использовании концепции «запрограммированной морали» исключаются важные компоненты для действительно нравственного поступка и поведения. Во-

первых, одним из компонентов является свобода воли. Свобода волеизъявления отличает действительно нравственный поступок от действия-операции, которое представляет собой автоматический акт, не предполагающий аксиологической (нравственной) оценки ввиду морально индифферентному содержанию.

Во-вторых, ещё один компонент, который связан с вышеуказанным (первый категорически предполагает второй) - это ответственность. Если предположить, что «мораль» искусственно интегрирована (т. е. отсутствует свобода выбора, осознания основных норм и т. д.), то невозможно говорить о наличии какой-либо ответственности. Любые акты действующего на основе такой «нравственности» не могут быть нравственно оценены и проанализированы, и поэтому невозможно говорить о наличии какой-либо ответственности.

В-третьих, отсутствует компонент жертвенности и необходимости напряжения усилий и воли. Итак, человек поступает этически правильно, если он стремится реализовать ценность, которая для своего осуществления предполагает затраты наибольшей нравственной силы, т. е. волевого напряжения. Нравственная ценность стоит выше остальных и может требовать от человека самоотверженности и жертвенности. Так Ницше Ф. отмечал, что ценность чего-либо определяется иногда не тем, чего ею можно достигнуть, а тем, что за неё дают, т. е. во что она нам обходится [14].

В-четвёртых, ценности не имеют характера чего-то хаотичного в индивиде. Для них свойственна строгая иерархия. В зависимости от того, какие ценности занимают вершину подобной «пирамиды», определяется отношение, сознание и поведение индивида. Этот «аксиологический набор» не является чем-то перманентно данным в неизменной форме, а представляет собой определённый выбор самого индивида (динамичную систему, созданную в результате отбора/подбора). Такой выбор невозможен, если имеет место «запрограммированная мораль». В таком случае любая иерархия есть указанная необходимость, которая не предполагает иного, отличного от данного, комплекса ценностей. А данное положение исключает то, что лежит в основе нравственного поведения, отношения и сознания, - свободу воли и ответственность.

В-пятых, «запрограммированная мораль», как и ограниченная свобода творчества ИИ, предполагает достаточно узкий диапазон возможной вариативности актов-поступков. Слово «вариант» происходит от латинского «уапаш^айш» и переводится как различный, разный, пёстрый, переменный, изменчивый, непостоянный и т. д. Иными словами, это нечто, что отступает от первоначально данного и имеет определённые изменения, т. е. некая альтернатива. Некая строго определённая система как совокупность конкретных элементов не способна предоставить такие варианты, которые действительно были бы альтернативой, а не инвариацией. Поиск дополнительных «вариаций» в данном случае не выходит за пределы установленной системы. Например, ИИ, будучи созданный как абсолютно рациональный, не способен к включению в вариацию иррациональных компонентов. Подобное положение вещей, в свою очередь, также ограничивает нравственность в аспекте свободы действия.

В-шестых, при интеграции «запрограммированной морали» исключается ее отрицательный аспект. А.А. Гусейнов указывает, что мораль получает свое адекватное теоретическое выражение в отрицательных определениях, а практическое воплощение - в запретах [21]. Достаточно сложно сгенерировать такую систему, при которой нечто одновременно устанавливается и запрещённым, и разрешённым. Нравственные положения, в частности запреты, обладают амбивалентным характером. С одной стороны, нечто является запрещённым (недопустимым с точки зрения нравственности), но с другой - гипотетически разрешено (свободой воли). На практике, в процессе реализации, в

некоем экзистенциальном аспекте человек абсолютно свободен в выборе, особенно если нарушаемые моральные ограничения не имеют пересечение с иными, например юридическими, запретами, нарушение которых могут повлечь конкретные санкции (физические и экзистенциальные). Кроме того, человек способен игнорировать не только моральные запреты, но и юридические законы, в реализации своей свободы, девальвируя значение как социума, так и отдельных индивидов. Таким образом, гипотетически он может поступать, как пожелает, даже если это запрещено в социуме. Последующее наказание за такое поведение будет неизбежным, но пока его нет - человек свободен выбирать между реализацией или исключением таких поступков. Сложнее в тех случаях, когда нарушение морали не влияют на физическую, социальную и юридическую основы жизни, а выражаются в форме внутреннего самоосуждения или общественного порицания (критики). При таком положении вещей сложно обосновать («почему нельзя, если можно») необходимость определённого поведения, особенно основываясь на искусственной системе, без осознания её положений.

Более того, важным в данном случае также является аспект желания как определенного аутентичного волеизъявления. З. Фрейд указывал, что нет необходимости запрещать то, что не желаемо, и если бы не было желания, то запреты (табу, мораль и т. д.) были бы излишними [22]. Если запреты представляют собой интегрированные искусственные запрещения (подобно юридическим законам), то будет отсутствовать сознательное волевое напряжение, в частности в аспекте пресечения поведения и отношения, которое гипотетически разрешено. Исключается рефлексивное отнесение необходимости следованию определённым правилам, а запреты рассматривается лишь как внешняя необходимость, не связанная с собственным выбором.

Подводя итог, необходимо отметить, что если исключать данные элементы, фундирующие собственно нравственное поведение, то уже невозможно говорить о каком-либо нравственном поведении, ведь подобное будет лишь действием-операцией, не имеющей ничего общего с нравственностью. Такое положение вещей, в свою очередь, будет снижать эффективность и возможность создания собственно нравственности, а не свода юридических запретов у ИИ. Иными словами, данный подход исключает то, что отличает нравственное поведение, а именно свободу воли и выбора, и в таком случае можно отмечать лишь действие-операцию, но не действительно нравственный акт, а это приводит к невозможности нравственной оценки поведения, сознания и поведения ИИ. Более того, само его отношение к нравственности как феномену поведения неоднозначно. Вопрос состоит в том, будет ли ИИ рассматривать мораль как нечто оптимальное и необходимое или же она будет классифицирована как поведение, отличающееся иррациональности и неэффективностью, а потому определена как некий рудиментарный элемент. В частности, подобные репрессивные действия могут быть инициированы по причине радикальной рационализации. Дело в том, что в морали присутствует также иррациональный элемент (например, эмоций и чувств, которые могут противоречить разуму, особенно в его прагматичной форме). Кроме того, мораль всегда рассматривает поступок в каждый отдельный момент и не имеет общей унифицированной схемы. Таким образом, наличествует акцидентный момент, который противоречит стремлению разума к абсолютной обустроенности, системности и схематичности.

Примечания

1. Стоит указать, что некоторые исследователи считают, что ИИ всё больше вовлекает человека в свои коммуникационные рамки, исключая нечеловеческие формы интеллекта [23]. Подобная девальвация и редукция интеллектуального разнообразия

влияет на проблематику возможностей ИИ, а также нивелирует необходимость исследования ситуаций, в которых он имеет альтернативный (не-человеческий) интеллект.

2. Х. Ортега-и-Гассет указывал, что массы не способны сами задавать вектор действия, следовать чему-то, что для них будет высшей целью или началом, и кто из индивидов не находит его, тот получает его из чужих рук и становится массой [24].

3. Снимая ответственность с себя, человек переносит не только саму проблему и задачу её решения на иной субъект (в данном случае на ИИ), но и свободу выбор методики и инструментов/способов/механизмов устранения проблемы на эту стороннюю силу. Таким образом, уже именно она выбирает оптимальные, по её мнению, пути и средства решения поставленной перед ней задачи.

4. Робот Spot является роботом «общего назначения» с открытым API (интерфейсом прикладного программирования), что позволяет выбрать необходимые настройки в соответствии с целями и задачами своих потребителей. Политика компании Boston Dynamics подчёркивает, что робот не предназначен для использования в качестве оружия, причинения вреда или запугивания людей или животных, таким образом отрицая его милитарийское использование. Основное поле деятельности - это применение роботов в тех местах, где необходимо провести какие-либо работы, связанные с риском для здоровья или жизни человека. Дабы пресечь использование Spot потребителями не в соответствии с установленными внутренним кодексом и принципами компании, изначально была возможна только его аренда. Таким образом, компания в любой момент могла бы разорвать контракт с недобросовестным пользователем. Однако в 2020 г. Boston Dynamics заявил о возможности приобретения робота. На официальном сайте можно купить робота (стоимость 74500 $), а также дополнительные принадлежности [25]. Представлен в двух вариантах: Spot Explorer (для разработчиков, желающих проверить применимость робота в сферах, начиная от промышленного контроля и заканчивая развлечением) и Spot Enterprise (имеет больший профильный характер, отличается комплектацией и настройками, более автономен). Компания подчёркивает, что роботы предназначены только для коммерческого использования. Таким образом купить его может только юридическое лицо, ведущее свою деятельность на территории США (лицам из других стран подобное приобретение возможно в исключительных случаях по договорённости с основным офисом о возможной аренде). В России с аналогичной продукцией можно ознакомиться благодаря компании 3Logic Group, официальным дистрибьютором Unitree (Китай) в 2020 г. Доступными стали роботы Go1 (235 тыс. руб. и выше), А1 (от 1 млн руб.), AlienGo (от 3,375 млн рублей) [26]. Также данная компания работает с Pudu Robotics (Китай).

5. Стоит отметить, что аналогичная ситуация произошла в штате Массачусетс, где роботособаку Spot на полгода «взяли в штат полиции» [27]. Ее служба вызвала бурное обсуждение среди различных активистов и правозащитников, буквально рассматривая использование Spot как предпосылки будущей милитаризации и ущемления прав граждан.

6. Несомненно, что некоторые могут несерьёзно относиться к тем последствиям для человека, которые могут последовать после появления личностного (мильного) ИИ. Подобное отношение может базироваться на так называемом «здравом смысле». А. Бергсон, рассматривая нелепость здравого смысла, который стремится подвести предметы вокруг себя под идеи своего ума (человек в таком состоянии не желает ничего иного ни слышать, ни видеть), отмечает в таком поведении индивида косность и соответственно комичность [28]. Смех стремится показать косность, автоматизм, навязчивость и т. д., что является негативной чертой человека или общества. Он «бичует

нравы» [28, с. 19] и преследует цель общего совершенствования [28]. Поэтому подобная несерьёзность указывает на недальновидность и беспечное отношение к действительности, базирующиеся на абстрактном здравом смысле (не принимающем ничего того, что не соответствует его идеям) и радикальном антропоцентризме (такое «идеальное» существо, как человек не может ошибаться, ведь он онтологически исключителен и особенен).

7. Существуют различные критерии, кроме способности мыслить и осознавать себя, определяющие действительно сильный ИИ: самообучение, представление о реальности, планирование, общение на естественном языке, творческий аспект, сила воли, и даже способность к эмпатии, чувствованию, самомотивации.

8. Т. Гобсс указывал, что одним из трёх основных аргументов (положений), которые утверждают господство над индивидом государства - это обретение власти по причине рождения [15]. Далее он подчеркивает, что важным условием для сохранения власти является не только рождение, но и кормление, воспитание и т. д., поэтому тот, кто находился под такой опекой, обязан опекающему всем [15]. Более того, невозможно представить, что кто-то дал кому-то жизнь, дабы тот в будущем стал врагом, ведь каждый враг тому, кому он не повинуется и кем он не повелевает [15]. Таким образом, дабы избежать «естественного состояния», при котором рождённый/появившийся находится в «состоянии войны» с государством, оно распространяет свою власть от рождения.

9. Некоторые исследователи считают, что современная борьба между странами за первенство в сфере ИИ аналогична космической гонке XX века [29].

10. Ж. Бодрийяр указывал, что именно с появления понятия «человек» инициировались репрессивные действия по отношению к тому, что не получило статус «человеческого» (неодушевлённая природа, животные, менее развитые расы) и данная экспансия распространяется не только вовне «человеческого общества», но и внутрь, лишая этого благородного статуса определённые слои/категории общества [2]. ИИ является совершенно новой онтологической единицей, возможно кардинально отличной от человека, поэтому аналогичная судьба может постичь и его.

11. И. Кант отмечал возможность, что всякое конечное мыслящее существо имеет аналогичный человеческому способ созерцания (чувственности) (в частности, в аспекте пространства и времени) [30]. Также он утверждал, что всякое наше знание начинается с чувств, переходит к рассудку, а от него - к разуму (более высшей инстанции обработки чувственного материала не существует) [30]. Подобная экстраполяция такого положения вещей не только является удобной для индивида, но и единственно понятной.

12. У человека вся специфика мышления, отношения, поведения и т. д. связана с его экзистенциальными особенностями: наличие бессознательных компонентов, чувств и эмоций, физическое тело, трехмерное пребывание и восприятие, конечность и смертность и т. д.

СПИСОК ЛИТЕРАТУРЫ

1. Bostrom N. A History of transhumanist thought // Journal of Evolution and Technology. - 2005. - V. 14 -Iss. 1. - P. 1-25. URL: http://jetpress.org/volume14/bostrom.html (дата обращения 15.03.2022).

2. Бодрийяр Ж. Символический обмен и смерть. - М.: Добросвет, 2015. - 392 с.

3. Барт Р. Мифологии. - М.: Академический проект, 2014. - 351 с.

4. Хайдеггер М. Бытие и время. - М.: Академический проект, 2015. - 460 с.

5. Singularity hypotheses: an overview / A.H. Eden, E. Steinhart, D. Pearce, J.H. Moor // Singularity Hypotheses A Scientific and Philosophical Assessment / Eds. A.H. Eden, J.H. Moor, J.H. S0raker, E. Steinhart. -Berlin, Heidelberg: Springer, 2012. - P. 1-12. DOI: https://doi.org/10.1007/978-3-642-32560-1

6. Mihir Z.N.Y.P.D. Robot dog's run is cut short after fierce backlash // New York Times, Apr. 28, 2021. URL: https://www.nytimes.com/2021/04/28/nyregion/nypd-robot-dog-backlash.html (дата обращения 15.03.2022).

7. Dastin J., Paresh D.U.S. commission cites «moral imperative» to explore AI weapons // Breaking International News & Views «Reuters», Jan. 27, 2021. URL: https://www.reuters.com/article/us-usa-military-ai-idUSKBN29V2M0 (дата обращения 15.03.2022).

8. Brooks T. No human out of the loop for autonomous weapons says new European parliament report // Jane's Information Group, Dec. 11, 2020. URL: https://www.janes.com/defence-news/news-detail/no-human-out-of-the-loop-for-autonomous-weapons-says-new-european-parliament-report (дата обращения 15.03.2022).

9. Отто Р. Священное. Об иррациональном в идее божественного и его соотношении с рациональным. - СПб.: Изд-во С.-Петерб. ун-та, 2008. - 272 с.

10. Скрипник А.П. Моральное зло в истории этики и культуры. - М.: Политиздат, 1992. - 351 с.

11. Гражданин // Энциклопедический словарь. URL: https://dic.academic.ru/dic.nsf/es/103259/%D0%B3% D1%80%D0%B0%D0%B6%D0%B4%D0%B0%D0%BD%D0%B8%D0%BD (дата обращения 15.03.2022).

12. Спиноза Б. Этика. - М.: АСТ, 2001. - 336 с.

13. Рэнд А. Добродетель эгоизма. - М.: Альпина Паблишер, 2018. - 267 с.

14. Ницше Ф. Падение кумиров: Избранное. - СПб.: Лениздат, 2014. - 224 с.

15. Гоббс Т. Философские основания учения о гражданине. - Минск.: Харвест, 2001. - 304 с.

16. Ильенков Э.В. Идеал // Философский энциклопедический словарь. - М.: Советская энциклопедия, 1983. - C. 195-196.

17. Апресян Р.Г. Идеал // Новая философская энциклопедия: в 4 т. Т. 2. - М.: Мысль, 2010. - С. 71-72.

18. Шохин В.К. Ценности // Этика: Энциклопедический словарь. - М.: Гардарики, 2001. - C. 535-536.

19. Киссель М.А. Ценность // Философский энциклопедический словарь. - М.: Советская энциклопедия, 1983. -765 с.

20. Матвеев П.Е. Аксиология: учебное пособие. В 2 ч. Ч. 1. История Аксиологии. - Владимир: Изд-во ВлГУ, 2017. - 176 с.

21. Гусейнов А.А. Философия - мысль и поступок: статьи, доклады, лекции, интервью. - СПб.: СПбГУП, 2012. - 840 с.

22. Фрейд З. Тотем и табу. Психология первобытной культуры и религии. - СПб: Лениздат, 2014. - 224 с.

23. Thompson T. Posthuman Folklore. - Jackson: University Press of Mississippi, 2019. - 214 p. DOI: 10.14325/mississippi/9781496825087.001.0001

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

24. Ортега-и-Гассет Х. Восстание масс. - М.: АСТ, 2018. - 256 с.

25. Сайт магазина инженерной компании «Boston Dynamics». URL: https://shop.bostondynamics.com (дата обращения 15.03.2022).

26. Сайт группы компаний «3Logic Group» «Makert». URL: https://robosobaka.ru (дата обращения 15.03.2022).

27. Jarmanning A. Mass. State police tested out Boston dynamics' spot the robot dog. Civil liberties advocates want to know more // News website «wbur.org», Nov. 25, 2019. URL: https://www.wbur.org/news/ 2019/11/25/boston-dynamics-robot-dog-massachusetts-state-police (дата обращения: 15.03.2022).

28. Бергсон А. Смех. - М.: Искусство, 1992. - 127 с.

29. Ulnicane I. Against the new space race: global AI competition and cooperation for people // AI & Society, 2022. DOI: https://doi.org/10.1007/s00146-022-01423-0

30. Кант И. Критика чистого разума. - М.: Эксмо, 2014. - 736 с.

Поступила 25.03.2022 г.

UDC 004.8:141.32:17:34 EXISTENTIAL, LEGAL AND ETHICAL PROBLEMS OF ARTIFICIAL INTELLIGENCE

Nikolay I. Petev,

cyanideemo@mail.ru

Vladimir State University, 87, Gorky street, Vladimir, 600000, Russia

Nikolay I. Petev, Cand. Sc., associate professor, Vladimir State University.

This article discusses the problems of integrating artificial intelligence into the legal and ethical field, as well as issues related to the existential status of this phenomenon. The author analyzes possible variations in the existential, legal and ethical statuses of artificial intelligence, also relying on the features of the object of study, in particular on its potential presence, both in a weak and strong form. The purpose of the work is to model the main specifics and problematic aspects of the introduction of artificial intelligence in areas where person is a dominant subject. In the study, preference is given to a strong form of artificial intelligence, since it is in the presence of such an ontological unit that problems arise in the field of law, morality and existence (the relationship between a person and artificial intelligence). The existential problem is related to the possibility of assigning a certain status to artificial intelligence: equal to a person, identical to him, standing above/below a person, etc. Legal issues are related to the existential, so some problematic issues (for example, the assigned status) intersect. In addition, the legal legitimacy of the artificial intelligence self, as well as the necessary legislative changes resulting from this, is relevant in this problematic field. Ethical issues are related to the question of the formation and possibility of morality in artificial intelligence. Research methodology. In this work, the dialectical method is used. It allows you to identify and analyze the contradictions that arise both within the very phenomenon of artificial intelligence, and within the framework of its hypothetical introduction into society and the existence of an individual. The modeling method allows one to form a set of ideas about problematic moments and possible crisis situations that can be caused by the integration of artificial intelligence into society, in particular, in its strong form. The method of analysis and synthesis allows penetrating deeper into the essence of the problem associated with assigning the status of an ontological (existential) unit to artificial intelligence. The ethical approach allows us to analyze the possibility of creating a «programmed morality». Together with the psychological approach, it involves the formation of ideas about the potential complexities of the relationship between a person and artificial intelligence, which has the status of a person. Results. The principles of comfort and safety are dominant (repressive) in terms of the hypothetical creation of a strong artificial intelligence. At present, the principle of the anthropomorphic organization of artificial intelligence is dominant. Technological singularity, in particular also initiated by the advent of artificial intelligence, has a number of requirements for its implementation (not only dynamics, but also frequency and depth of integration). The phenomena of mass character and fear of innovation are an inhibitor of the formation of scientific and technological progress, including the emergence of a strong artificial intelligence. The instrumental nature eliminates the need to consider the relationship to artificial intelligence as being-with-other. In the aspect of strong artificial intelligence, the problem of existence with the other-as-other arises, and the impossibility of the identity of the «other» and «other» arising from this. Legal issues are represented by a number of controversial issues: the citizenship of a strong artificial intelligence, its social and legal status, the need for separate legislative acts, etc. The anthropomorphic ideal/standard is identified as ineffective for artificial intelligence and the concept of «programmed morality».

Key words: Artificial intelligence, existence, morality, law, being with another-as-other, technological singularity, ideal and standard, completely different, society.

REFERENCES

1. Bostrom N. A History of transhumanist thought. Journal of Evolution and Technology, 2005, vol. 14, Iss. 1, pp. 1-25. Available at: http://jetpress.org/volume14/bostrom.html (accessed: 15 March 2022).

2. Bodriyar Zh. Simvolicheskiy obmen i smert [Symbolic exchange and death]. Moscow, Dobrosvet Publ., 2015. 392 p.

3. Bart R. Mifologii [Mythologies]. Moscow, Akademicheskiy proekt Publ., 2014. 351 p.

4. Khaydegger M. Bytie i vremya [Being and Time]. Moscow, Akademicheskiy proekt Publ., 2015. 460 p.

5. Eden A.H., Steinhart E., Pearce D., Moor J.H. Singularity hypotheses: an overview. Singularity Hypotheses A Scientific and Philosophical Assessment. Eds. A.H. Eden, J.H. Moor, J.H. S0raker, E. Steinhart. Berlin, Heidelberg, Springer, 2012. pp. 1-12. DOI: https://doi.org/10.1007/978-3-642-32560-1

6. Mihir Z.N.Y.P.D. Robot dog's run is cut short after fierce backlash. New York Times, Apr. 28, 2021. Available at: https://www.nytimes.com/2021/04/28/nyregion/nypd-robot-dog-backlash.html (accessed: 15 March 2022).

7. Dastin J., Paresh D.U.S. commission cites «moral imperative» to explore AI weapons. Breaking International News & Views «Reuters», Jan. 27, 2021. Available at: https://www.reuters.com/article/us-usa-military-ai-idUSKBN29V2M0 (accessed: 15 March 2022).

8. Brooks T. No human out of the loop for autonomous weapons says new European parliament report. Jane's Information Group, Dec. 11, 2020. Available at: https://www.janes.com/defence-news/news-detail/no-human-out-of-the-loop-for-autonomous-weapons-says-new-european-parliament-report (accessed: 15 March 2022).

9. Otto R. Svyashchennoe. Ob irratsionalnom v idee bozhestvennogo i ego sootnoshenii s ratsionalnym [Sacred. On the irrational in the idea of the divine and its relation with the rational]. St. Petersburg, St. Petersburg University Publ., 2008. 272 p.

10. Skripnik A.P. Moralnoe zlo v istorii etiki i kultury [Moral Evil in the History of Ethics and Culture]. Moscow, Politizdat Publ., 1992. 351 p.

11. Grazhdanin [Citizen]. Entsiklopedicheskiy slovar. Available at: https://dic.academic.ru/dic.nsf/es/103259/%D0%B3%D1%80%D0%B0%D0%B6%D0%B4%D0%B0%D0 %BD%D0%B8%D0%BD (accessed 15 March 2022).

12. Spinoza B. Etika [Ethics]. Moscow, AST Publ., 2001. 336 p.

13. Rand A. Dobrodetel egoizma [The Virtue of Selfishness]. Moscow, Alpina Publ., 2018. 267 p.

14. Nitsshe F. Padenie kumirov: izbrannoe [The fall of idols: favorites]. St. Petersburg, Lenizdat Publ., 2014. 224 p.

15. Gobbs T. Filosofskie osnovaniya ucheniya o grazhdanine [Philosophical foundations of the doctrine of the citizen]. Minsk, Harvest Publ., 2001. 304 p.

16. Ilenkov E.V. Ideal [Ideal]. Filosofskiy entsiklopedicheskiy slovar [Philosophical Encyclopedic Dictionary]. Moscow, Sovetskaya entsiklopediya Publ., 1983. pp. 195-196.

17. Apresyan R.G. Ideal [Ideal]. Novaya filosofskaya entsiklopediya: v 4 t. T. 2 [The New Philosophical Encyclopedia: In 4 vols. Vol. 2]. Moscow, Mysl Publ., 2010. pp. 71-72.

18. Shokhin V.K. Tsennosti [Values]. Etika: entsiklopedicheskiy slovar [Ethics. Encyclopedic dictionary]. Moscow, Gardariki Publ., 2001. pp. 535-536.

19. Kissel M.A. Tsennost [Value]. Filosofskiy entsiklopedicheskiy slovar [Philosophical Encyclopedic Dictionary]. Moscow, Sovetskaya entsiklopediya Publ., 1983. 765 p.

20. Matveev P.E. Aksiologiya. V 2 ch. Ch. 1. Istoriya Aksiologii [Axiology. In 2 parts. P. 1. The History of Axi-ology]. Vladimir, VlSU Publ., 2017. 176 p.

21. Guseynov A.A. Filosofiya - mysl i postupok: stati, doklady, lektsii, intervyu [Philosophy - thought and deed: articles, reports, lectures, interviews]. St. Petersburg, SPbGUP Publ., 2012. 840 p.

22. Freyd Z. Totem i tabu. Psikhologiyapervobytnoy kultury i religii [Totem and taboo. Psychology of primitive culture and religion]. St. Petersburg, Lenizdat Publ., 2014. 224 p.

23. Thompson T. Posthuman Folklore. Jackson, University Press of Mississippi, 2019. 214 p. DOI: 10.14325/mississippi/9781496825087.001.0001

24. Ortega-i-Gasset Kh. Vosstanie mass [The revolt of the masses]. Moscow, AST Publ., 2018. 256 p.

25. Sayt magazina inzhenernoy kompanii «Boston Dynamics» [«Boston Dynamics» company's online store]. Available at: https://shop.bostondynamics.com (accessed 15 March 2022).

26. Sayt gruppy kompaniy «3Logic Group» «Makert» [Website of the group of companies «3Logic Group» «Makert»]. Available at: https://robosobaka.ru (accessed 15 March 2022).

27. Jarmanning A. Mass. State police tested out Boston dynamics' spot the robot dog. Civil liberties advocates want to know more. News website «wbur.org», Nov. 25, 2019. Available at: https://www.wbur.org/ news/2019/11/25/boston-dynamics-robot-dog-massachusetts-state-police (accessed: 15 March 2022).

28. Bergson A. Smekh [Laughter]. Moscow, Iskusstvo Publ., 1992. 127 p.

29. Ulnicane I. Against the new space race: global AI competition and cooperation for people. AI & Society, 2022. DOI: https://doi.org/10.1007/s00146-022-01423-0

30. Kant I. Kritika chistogo razuma [Criticism of pure reason]. Moscow, Eksmo Publ., 2014. 736 p.

Received: 25 March 2022.

i Надоели баннеры? Вы всегда можете отключить рекламу.