Научная статья на тему 'ЭТИЧЕСКИЙ КАЛЬКУЛЯТОР: ОТ ФИЛОСОФСКОЙ «ВЫЧИСЛИТЕЛЬНОЙ МОРАЛИ» К МАШИННОЙ ЭТИКЕ ИСКУССТВЕННЫХ МОРАЛЬНЫХ АГЕНТОВ (ИМА)'

ЭТИЧЕСКИЙ КАЛЬКУЛЯТОР: ОТ ФИЛОСОФСКОЙ «ВЫЧИСЛИТЕЛЬНОЙ МОРАЛИ» К МАШИННОЙ ЭТИКЕ ИСКУССТВЕННЫХ МОРАЛЬНЫХ АГЕНТОВ (ИМА) Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
285
48
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
«ИСЧИСЛЕНИЯ СЧАСТЬЯ» / ЭТИЧЕСКОЕ ИСЧИСЛЕНИЕ / МАШИННАЯ ЭТИКА / ВЫЧИСЛИТЕЛЬНАЯ МОРАЛЬ / ИСКУССТВЕННЫЙ МОРАЛЬНЫЙ АГЕНТ (ИМА) / НЕТИКЕТ / ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / FELICIFIC CALCULUS / ETHICAL CALCULUS / MACHINE ETHICS / COMPUTATIONAL MORALITY / ARTIFICIAL MORAL AGENT (AMA) / NETIQUETTE / ETHICS OF ARTIFICIAL INTELLIGENCE

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Макулин Артем Владимирович

Одной из черт современного социально-философского познания является его включенность в решение этических проблем в новых условиях, фундированных последствиями «информационного взрыва», цифровизацией, массовым внедрением цифровых технологий в гуманитарные сферы. Ключевой проблемой становится осмысление роли так называемой «машинной этики», т. е. совокупности теоретических подходов к гипотетическим проблемам морального поведения машин в рамках искусственного интеллекта. В статье излагается точка зрения, согласно которой этика на протяжении многих веков становления различных философских систем выработала множество механизмов собственной алгоритмизации, что открывает широкие возможности для становления «вычислительной морали» вплоть до появления искусственных моральных агентов (ИМА). В работе кратко рассмотрены вопросы истории формализации этических проблем и решений, определены попытки их алгоритмизации в философии, охарактеризована социально-философская составляющая такого феномена, как этический калькулятор.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ETHICAL CALCULATOR: FROM PHILOSOPHICAL «COMPUTATIONAL MORALITY» TO MACHINE ETHICS OF ARTIFICIAL MORAL AGENTS (AMA)

One of the features of modern socio-philosophical knowledge is its involvement in the solution of ethical problems in new conditions, determined by the consequences of the “information explosion”, digitalization, the massive introduction of digital technologies in the humanitarian spheres. One of the key problems is understanding the role of the so-called “machine ethics”, ie. a set of theoretical approaches to hypothetical problems of the moral behavior of machines in the framework of artificial intelligence. The paper expounds the point of view according to which ethics, over the centuries of the formation of various philosophical systems, has developed many mechanisms of its own algorithmicization, which opens up wide opportunities for the formation of “computational morality”, up to the appearance of artificial moral agents (AMA). The paper briefly examines the history of the formalization of ethical problems and solutions. The key attempts of algorithmicization of ethical issues in the history of philosophy are identified, the socio-philosophical component of such a phenomenon as the “ethical calculator” is characterized.

Текст научной работы на тему «ЭТИЧЕСКИЙ КАЛЬКУЛЯТОР: ОТ ФИЛОСОФСКОЙ «ВЫЧИСЛИТЕЛЬНОЙ МОРАЛИ» К МАШИННОЙ ЭТИКЕ ИСКУССТВЕННЫХ МОРАЛЬНЫХ АГЕНТОВ (ИМА)»

УДК 17.03

Макулин Артем Владимирович

доктор философских наук, доцент, заведующий кафедрой гуманитарных наук Северного государственного медицинского университета https://orcid.org/0000-0002-7028-9650

ЭТИЧЕСКИЙ КАЛЬКУЛЯТОР: ОТ ФИЛОСОФСКОЙ «ВЫЧИСЛИТЕЛЬНОЙ МОРАЛИ» К МАШИННОЙ ЭТИКЕ ИСКУССТВЕННЫХ МОРАЛЬНЫХ АГЕНТОВ (ИМА)

Аннотация:

Одной из черт современного социально-философского познания является его включенность в решение этических проблем в новых условиях, фундированных последствиями «информационного взрыва», цифровизацией, массовым внедрением цифровых технологий в гуманитарные сферы. Ключевой проблемой становится осмысление роли так называемой «машинной этики», т. е. совокупности теоретических подходов к гипотетическим проблемам морального поведения машин в рамках искусственного интеллекта. В статье излагается точка зрения, согласно которой этика на протяжении многих веков становления различных философских систем выработала множество механизмов собственной алгоритмизации, что открывает широкие возможности для становления «вычислительной морали» вплоть до появления искусственных моральных агентов (ИМА). В работе кратко рассмотрены вопросы истории формализации этических проблем и решений, определены попытки их алгоритмизации в философии, охарактеризована социально-философская составляющая такого феномена, как этический калькулятор.

Ключевые слова:

«исчисления счастья», этическое исчисление, машинная этика, вычислительная мораль, искусственный моральный агент (ИМА), нетикет, этика искусственного интеллекта

Makulin Artem Vladimirovich

D.Phil., Associate Professor, Head, Department of Humanities, Northern State Medical University https://orcid.org/0000-0002-7028-9650

ETHICAL CALCULATOR: FROM PHILOSOPHICAL «COMPUTATIONAL MORALITY» TO MACHINE ETHICS OF ARTIFICIAL MORAL AGENTS ^MA)

Summary:

One of the features of modern socio-philosophical knowledge is its involvement in the solution of ethical problems in new conditions, determined by the consequences of the "information explosion", digitalization, the massive introduction of digital technologies in the humanitarian spheres. One of the key problems is understanding the role of the so-called "machine ethics", ie. a set of theoretical approaches to hypothetical problems of the moral behavior of machines in the framework of artificial intelligence. The paper expounds the point of view according to which ethics, over the centuries of the formation of various philosophical systems, has developed many mechanisms of its own algorithmicization, which opens up wide opportunities for the formation of "computational morality", up to the appearance of artificial moral agents (AMA). The paper briefly examines the history of the formalization of ethical problems and solutions. The key attempts of algorithmicization of ethical is-sues in the history of philosophy are identified, the socio-philosophical component of such a phenomenon as the "ethical calculator" is characterized.

Keywords:

felicific calculus, ethical calculus, machine ethics, computational morality, artificial moral agent (AMA), netiquette, ethics of artificial intelligence

Один из основанных на «эффектах вычислимости» доводов в пользу научного понимания этических проблем заключается в том, что без попыток создания единого, общепризнанного, понятного, проверяемого и вычисляемого кода-алгоритма невозможно будет решить этические проблемы общества в принципе, разночтение которых в рамках существующих этических систем считается серьезной преградой для осмысления моральной составляющей любого социального действия в глобализирующемся мире.

Развитие этики на протяжении уже более чем двух с половиной тысяч лет демонстрирует очевидный вывод: если пренебречь исключительными трудно разрешимыми случаями и условиями (этические дилеммы: соломоново решение, благородная ложь, плацебо), мы увидим, что обыватели, специалисты и даже коллективные субъекты (профессиональные сообщества, партии, движения, группы по интересам) недостаточно осведомлены об алгоритмах морального действия и, соответственно, не подготовлены к решению этических проблем, с которыми обычно приходится иметь дело современному человеческому сообществу. За исключением, видимо, только тех случаев, когда этика подчинена единому морально-нравственному предписанию, выраженному в религиозном тексте, - однозначное этическое решение нивелируется или «подгоняется» под текущие нужды, а вместе с ним исчезает и характерный для философской традиции

интерес к истине в вопросах познания добра и зла. Остаются условные «традиционалисты» и «модернисты», «коллективисты» и «индивидуалисты», явно или открыто использующие двойные стандарты при решении этических проблем. Первая группа склонна сохранять морально-нравственные нормы, которые часто не согласуются с современными изменениями, вторая выстраивает свою идеологию исключительно за счет борьбы со старыми ценностями и этическими программами, часто приводя в ужас представителей первой группы своими далеко идущими проектами и планами по деконструкции всего и вся, что некогда составляло суть морального поступка.

Цифровая революция, вычислительный поворот и развитие современных цифровых гуманитарных наук, а также постоянное апеллирование к проблеме искусственного интеллекта - все это не может не отразиться на классических проблемах этики и способах их решения. Одним из наиболее актуальных в этой области является вопрос, во-первых, о статусе «машинной этики» (англ. machine ethics), или этике искусственного интеллекта (англ. the ethics of artificial intelligence), и во-вторых, о том багаже философских знаний, которые были накоплены за две с половиной тысячи лет и непосредственно связаны с проблемой существования автономной от человека системы или процедуры принятия того или иного этического решения.

Рассматривая суть «машинной этики» через призму истории философии, следует отметить, что это очень обширная тема. Однако можно выделить несколько направлений в данной проблематике. Во-первых, машинная этика - этика искусственного интеллекта, которая является разделом этики технологий (англ. The ethics of technology). Последняя включает в себя робоэтику, курирующую вопросы морального поведения людей при проектировании искусственно разумных существ; машинная этика регулирует их же, но применительно к поведению искусственных моральных агентов (ИМА). Следовательно, можно выделить два больших блока проблем в рамках философского осмысления достижений современной технической мысли с точки зрения их соответствия этическим принципам: первый - моральные проблемы человека (разработчика) при создании искусственных систем, второй - моральное (псевдоморальное) поведение машин. Также значимым представляется и аспект общения людей в сети Интернет, т. е. сетевой этикет, так называемый нетикет (от англ. net - «сеть» + фр. etiquette - «этикет»), под которым понимаются правила поведения и общения в Сети, призванные нейтрализовать неприемлемые ситуации (иг-нор, спам, троллинг, флейм, флуд, некорректный ответ, хейтеринг и др.).

В данной работе будут рассмотрены только вопросы, касающиеся попыток создания неких автономных систем, способных алгоритмизировать этическое решение на конкретных примерах в историко-философской традиции.

Общая суть проблемы заключается в следующем: предположим, что дана некая программа, способная моделировать и даже разрешать этические ситуации. Существует ли у машины возможность на основе вложенных в нее алгоритмов и вполне проверяемых вычислений получать однозначное этическое решение? Этот вопрос можно сформулировать и чуть иначе: предоставляют ли возможность накопленные человечеством принципы и модели этического поведения получить для современного общества необходимое количество лаконичных алгоритмов, чтобы дать чему-либо однозначную этическую оценку, которой могут придерживаться в кантов-ском смысле все, кто будет следовать ее выводам.

Обобщая вышесказанное, мы видим цель нашей работы в том, чтобы ответить на вопрос о природе феномена, который условно обозначим как этический калькулятор. Следует отметить, что данное понятие не является чем-то абсолютно новым. В связи с этим обстоятельством необходимо посмотреть на историю философии, в которой мы можем найти примеры попыток формулирования и решения этических вопросов на основе их принципиальной вычислимости. Следует также отметить, что этическое редко рассматривалось изолированно и зачастую растворялось в политическом, социальном или чисто познавательном контекстах. Рассуждая о некой дедуктивности работы этического калькулятора, следует отметить, что в известном смысле он выступает против принципа «Deus ex machina» (лат. «Бог из машины»), отражающего непредвиденную и маловероятную развязку ситуации с вмешательством ранее отсутствовавшего в ней фактора.

Уточним, что описание эволюции «вычислительной морали» в рамках статьи может быть только обзорным и не претендует на исчерпывающий анализ.

В процессе изучения любой философской проблемы непременно всегда обращаются к Древнему Востоку. В рамках рассматриваемой нами проблемы нас интересует древнекитайская интеллектуальная традиция. Так, следует внимательно проанализировать «Книгу перемен» и ее четкую структурную организованность, представленную знаменитыми 64 гексаграммами. Известно, что и до сегодняшних дней китайцы используют их для принятия важнейших, судьбоносных решений в бизнесе, личных делах и др. (рис. 1). Суть выбора зависит от псевдослучайных процедур, опираясь на которые, комбинаторная таблица выступает в качестве инструмента для

гадания и руководства к действию. Следовательно, здесь можно обнаружить некое алгоритмизированное предписание, определяющее действия гадающего, хотя и сам выбор определяется случайностью не меньше, чем вложенным в гексаграммную таблицу «порядком». Так, рассматривая «Книгу перемен» под углом зрения этики, Ю.К. Щуцкий писал: «Именно наличие морального момента в гадании по "Книге перемен" отличает его коренным образом от всякого иного гадания, при котором, как думают, указывается лишь роковой ход событий, когда человек ничего не может изменить и поэтому не рассматривается как этический субъект. Момент случайности, на котором строится техника гадания, имеет своею целью лишь привлечение к участию подсознания, однако это не исключает в дальнейшем вопроса о моральных обязательствах, наличие которых сделало то, что данный памятник постепенно превратился в исходную точку философствования в самом Китае и в странах китайской культуры» [1, с. 103-104].

Рисунок 1 - Слева: гексаграммы «И Цзин» на диаграмме Лейбница [2, p. 117]; справа: современное табличное представление гексаграмм

Примечательно, что изобретатель комбинаторики Лейбниц, выдвинувший идею создания машины, выполняющей исчисления высказываний, интересовался китайским феноменом «И Цзин», с которой он познакомился, как считается, через европейских миссионеров, побывавших в Китае.

Исследуя формальную структуру «И Цзин», нельзя не отметить бросающиеся в глаза параллели. Так, 64 гексаграммы, полученные путем комбинирования прерывистых и целых линий (инь - янь) сначала в триграммах, а потом и гексаграммах, удивительным образом перекликаются с логикой, т. е. общеизвестными комбинациями классического силлогизма, которых, как известно, 64 по той причине, что категорические суждения (А, Е, I, О), входящие в трехчленный силлогизм, определяются соответственно возведением 4 элементов в 3 степень.

И совсем далекая и лишь чисто числовая параллель может быть проведена даже с генетикой. Как известно, в состав ДНК могут входить четыре азотистых основания: аденин (А), гуанин (Г), тимин (Т) и цитозин (Ц). Число сочетаний из 4 по 3 составляет 43=64, то есть ДНК может кодировать 64 аминокислоты. В самом метафорическом и приблизительном отношении 64 комбинации условно объединяют древнекитайскую гадательную книгу, логику и основы живой материи.

Примечательно, что Лейбниц мечтал именно об автоматизации логических процедур, т. е. о логическом исчислении и некой «разумной» вычислительной машине.

Попытки формализации этических и социально-этических феноменов можно найти еще в античной философии. Среди первых и ярких из них следует назвать рассуждения Платона о «истинном удовольствии монарха и ложном удовольствии тирана». Философ геометрически доказывает некую вычислительную стратегию «политической этики»: «...царь живет в семьсот двадцать девять раз приятнее, а тиран во столько же раз тягостнее» [3, с. 449-450]. Используя линию, на которой расположены формы правления по степени их возрастания от худшей к лучшей или наоборот (рис. 2), Платон устами Сократа делает вывод, что относящийся к каждой форме правления ее представитель живет хуже или лучше в зависимости от степени его удаления от других форм по некой шкале политических «призрачных подобий», следовательно, олигархическому человеку хуже, чем царю в три раза, а тирану еще в три раза хуже, чем олигарху, следовательно, 3 х 3 = 9. Считая одну из форм два раза (олигарх (аристократ)), Платон предлагает далее

еще возвести полученное число в квадрат и куб ((3 х 3)2 = 81 и далее (3 х 3)3 = 729), получив в итоге странную визуализацию (рис. 3).

Rulers King Timocrat Oligarch Democrat Tyrant

Glaucon 12 3 4 5

Socrates 1 2 3 (6) (9)

= 1 2 3

Рисунок 2- Формы правления, выстроенные по степени деградации

Рисунок 3 - «Геометрия» счастья монарха и тирана

Небезынтересны и попытки Платона вывести точное число граждан в идеальном государстве, которых согласно основателю идеализма должно быть 5040. Примечательно, что данное число является так называемым факториалом из числа 7, т. е. 7! = 1 х 2 х 3 х 4 х 5 х 6 х 7 = 5 040.

Что касается краеугольного камня в теории познания Платона - знаменитого «мифа о пещере», то и он тоже будет формализован, однако сделано это будет не отцом объективного идеализма, а в XX столетии комментаторами платоновской философии (рис. 4-5, табл. 1).

СЕ DЕ ВС __ __

— = — = —, из чего следует, что ВС = Ой.

АС CD АВ' '

£1 = = , из чего следует, что Ой = АВ, йЕ = ВО.

АС СБ АВ' '

Умопостигаемое Идеи фигур Вещи

-= —= —¡ч—, из чего следует, что рассудок напоминает уподобление, а

Видимое Фигуры Подобия

ум - веру.

Рисунок 4 - Формализация платоновской «метафоры линии» Таблица 1 - Платоновская «метафора линии»_

Пещера Греческий аналог Уровень познания

AC - видимое Внутри пещеры

CE - умопостигаемое Вне пещеры

DE - идеи фигур Episteme (Noesis) Ум

CD - геометрические фигуры Dianoia Рассудок

BC - вещи Pistis Вера

AB - «подобия» (тени) Eikasia Уподобление

THE SUN i

The LIGHT and POWER of THE SUN

The World of Sight, and of things ieen

THE GOOD *

The OFFSPRING or INFLUENCE of THE GOOD The World of Mind,

<3 n d of things thought

* Images В Ohjiclj

I i«A os I cvcfi as

J Shodowï on d I Animais. Tree* and Refledf'onj I Manufactured things

Ideai or Ideal!,

I

1 ilhe changing wor/d of fha Senses) i ( I CONJECTURE j BELIEF

H----OPINION-----

С D

(Thougbi-imo^oi, ldeai,l

j such oi ' *i/cb as 1

J/d'eof Squares A Cubes ' Per/ecf B+avty, Jvttico A GochJn*ts I

I Mathematical Thought] Otafectica! T h о if g h f t

I ( I

f UNDERSTANDING | EXERCISE OF REASON I

-- KNOWLEDGE

-------1

Рисунок 5 - Графическое представление видимого и умопостигаемого в платоновской философии

Не обошел стороной проблему исчисления добродетелей и Аристотель, который, как известно, впервые употребил термин «этика» для обозначения области исследования практической философии. Можно допустить, что «список пороков и добродетелей» выстраивался Стаги-ритом в табличной форме [4, с. 704] (табл. 2).

Таблица 2 - Добродетель как середина_

Порок Добродетель Порок Добродетель

безрассудство мужество благоразумие трусость

расточительство щедрость бережливость скупость

бесстыдство прямота скромность ханжество

В современной версии аристотелевская этика золотой середины обычно выражается как некая система настроек, в которой сама добродетель, т. е. середина, размыта и балансирует между двумя полюсами пороков (рис. 6).

Рисунок 6 - Пороки и добродетели

Попытки отдать сложные решения на откуп некой математической или геометрической гармонии были имманентны не только в философской, но и в политической древнегреческой традиции. Примечателен так называемый клеротерион (др.-греч. кЛпpwтпpюv - от древнегреческого «клерос» (kleros) - «жребий») - «машина для жеребьевки». Данное изобретение, как известно, служило ключевым техническим инструментом афинской демократии (рис. 7). Понятно, что клеротерион выступал в качестве некоего технического прообраза искусственного политического интеллекта, которому передавались функции средства «правильного» формирования власти.

Рисунок 7 - Реконструкция клеротериона

Исследователь В.Н. Руденко полагает, что клеротерион был ярким примером «матричного принципа формирования власти». С одной стороны, данное устройство олицетворяло стремление к введению начал справедливости и порядка в процедуру выборов, с другой - являлось «квинтэссенцией пороков демократии» [5, с. 159].

В Средние века попытки избавиться от субъективизма и математически приблизиться к божественному идеалу были предприняты Р. Луллием (1235-1315). Впечатляют предлагаемые им комбинаторно-табличные способы «правильного» избрания достойных иерархов церкви (рис. 8-9).

Ж_

Ьс сС Се еГ Гд ди ы 1к к1 1т тп по ор рж

Ьс1 се СГ ед т д| Ик N кт 1п то пр оЖ рг

Ье с1 сд еИ И дк Ы 1т кп 1о тр пЖ ог

М сд СИ е1 1к д| Ит 1п ко 1р тЖ пг

Ьд сИ с ек И дт Ип 1о кр 1Ж тг

ЬИ с1 Ск е1 1т дп Ио ¡р кЖ 1г

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ы ск С1 ет т до Ир ¡Ж кг

Ьк с1 Ст еп 1о др ИЖ 1г

Ь1 ст Сп ео 1р дж Иг

Ьт сп Со ер 1Ж дг

Ьп со Ср еж 1г

Ьо ср СЖ ег

Ьр сж Сг

ЬЖ сг

Ьг

Рисунок 8 - Комбинаторная таблица избрания иерархов церкви

Рисунок 9 - Оригинальное изображение таблицы избрания иерархов церкви [6, р. 30]

С точки зрения В.И. Вольского, данная процедура должна была исключить в церковной организации случаи «мошенничества и покупки церковной должности» [7, с. 191].

Нельзя не обратиться к рассмотрению так называемой «логической машины» Р. Луллия (рис. 10), описанной им в «Великом искусстве». Основное предназначение этого изобретения, которое было представлено системой концентрических кругов, разделенных на сегменты и вращающихся относительно друг друга, заключалось в том, чтобы «механически получить все комбинации понятий, соответствующие религиозным истинам» [8, с. 350].

Рисунок 10 - «Логическая машина» Р. Луллия [9]

В рамках новоевропейской философской традиции примечательны этические изыскания Б. Спинозы, который выстроил их на манер строгих геометрических доказательств. Система

обосновывающих друг друга схолий и аксиом в «Этике» философа позволила современным исследователям создать статичные и интерактивные цифровые графы, визуализирующие связи между различными положениями его книги. В целом система Спинозы напоминает первую в истории европейской мысли систему калькуляций этических положений, которой вполне мог бы воспользоваться некий искусственный разум, опирающийся на замкнутую систему аксиом и доказательств без обращения к какой-либо субъективной точке зрения на ту или иную проблему этики (рис. 11).

Рисунок 11 - Слева: граф этики Спинозы (автор Joel Friedman); справа: интерактивный граф 1-2 частей «Этики» Спинозы [10]

В эпоху Нового времени Бенджамин Франклин (1706-1790), пытаясь формализовать этическое поведение человека, составил таблицу добродетелей, которая должна была быть одновременно неким недельным отчетом и планом-матрицей для богобоязненного христианина. Тринадцать добродетелей сочетались с днями недели - необходимо лишь было отметить нарушение или соблюдение соответствующего показателя в определенный день (рис. 12).

Рисунок 12 - Матрица добродетелей

Особенная роль в формализации этики принадлежит родоначальнику утилитаризма И. Бентаму (1747-1832), автору проекта идеальной тюрьмы - Паноптикума (рис. 13), в котором

один стражник мог наблюдать за всеми заключенными одновременно, причем последние постоянно чувствовали «всевидящее око», т. к. не знали наверняка, находятся ли они в каждый момент времени под наблюдением или нет.

Рисунок 13 - Паноптикум. Чертеж Иеремии Бентама, 1791 г.

М. Фуко писал: «В паноптикуме... каждый в соответствии с его местом наблюдается всеми остальными или же только некоторыми, и потому мы имеем дело с аппаратом полного и кругового недоверия, поскольку здесь отсутствует какая-либо безусловная точка зрения. Совершенство наблюдения - это итог недоброжелательства» [11, с. 237-238].

Помимо паноптикума, конечно, следует обратить внимание на термин «исчисление счастья» (англ. the felicific calculus), предложенный И. Бентамом. Под данным выражением родоначальник утилитаризма понимал процедуру вычисления степени или количества удовольствия, которое может вызвать конкретное действие человека. Будучи этическим гедонистом, Бентам считал, что моральная правильность или неправильность действия зависит от количества удовольствия или боли, которое оно вызывает. Согласно его рассуждениям успешный расчет мог, по крайней мере в принципе, определить моральный статус любого рассматриваемого действия. Алгоритм также известен как исчисление полезности (англ. The utility calculus) и гедонистическое исчисление (англ. The hedonistic calculus).

Также примечательны такие разработки Бентама, как «Сравнительная таблица удовольствий», «Таблица источников действия с пояснительными замечаниями и наблюдениями [12, p. 32] и «Таблица супружеств, которые должны быть запрещаемы» [13].

Среди современных и компактных «вычислительных» инструментов этики и в большей степени логических средств в области этических изысканий выделяется деонтический гексагон [14], берущий свое структурно-функциональное начало в логическом квадрате и являющийся его расширением [15] (рис. 14).

Рисунок 14 - Слева: логический квадрат; справа: деонтический гексагон

В современной парадигме «машинной этики» большую роль играют приложения так называемой «машины Тьюринга» к этическим решениям [16], а также этика искусственного интеллекта,

рассматриваемая в рамках этики технологий морального поведения искусственных моральных агентов (ИМА), т. е. роботов или компьютерных программ принимающих этические решения.

На общем фоне выделяются попытки создания мобильных компьютерных приложений, моделирующих этические решения. Данные продукты представлены на базе крупных платформ App Store и Google Play. Например, интерес представляет проект «A Framework for Ethical Decision Making» [17], разработанный в рамках деятельности «The Markkula Center for Applied Ethics» (Santa Clara University).

Исследуя вклад мыслителей в проблему «машинной этики», нельзя пройти мимо отечественной философской рефлексии в отношении формализации этики и приложения результатов этого процесса к социально-философским проблемам.

На общем фоне выделяются работы В.А. Лефевра. Исследуя так называемые рефлексивные игры, ученый развивал «алгебру совести», в рамках которой математические модели субъектов коммуникации, многократно отображающие информацию о себе и друг друге посредством иерархии представлений, понимаются как средство представления формального поведения субъектов в рамках этических ситуаций [18].

Таким образом, в истории философии и социальной мысли накоплен одновременно богатый и противоречивый материал, который, безусловно, будет востребован парадигмой «машинной этики». Понятно, что, если в будущем и возникнет некий «этический калькулятор», позволяющий вводить в него данные об известных многочисленных условиях, способствующих объективному и глубокому решению этических дилемм и проблем, и получать мгновенный ответ, то все же маловероятно, чтобы «моральные решения» такого калькулятора смогли бы избежать критического отношения как со стороны мыслителей, так и пользователей, не говоря уже о самой постановке вопроса о независимом «моральном регуляторе», который априори видится бесчувственным, псевдо- или даже антиморальным.

Итак, с одной стороны, может показаться, что «этическая калькуляция» упростит и ускорит решение конфликтов в области морали и даже сделает их мгновенной за счет высоких скоростей вычислительных устройств, с другой - наделит автономные вычислительные системы свойствами моральных судей или моральных регуляторов, что не может не вызвать опасения как у конкретных людей, так и целых групп, часто рассматривающих этическое решение как сугубо личную или групповую прерогативу (голосование, консилиум), не подлежащую передаче на откуп в иную от человеческого разума инстанцию. Однако следует отметить, что автономные «моральные» системы уже есть и действуют независимо от воли людей, например, системы всевозможных защит для предотвращения возможности возникновения аварийных ситуаций: блокирование поврежденных отсеков подводной лодки с членами экипажа, вынужденными ликвидировать аварию; аварийные защиты ядерных реакторов; автоматическое регулирование интервалов между железнодорожными поездами; беспилотные автомобили и телефонные автоответчики; автоматическая блокировка сайтов, счетов и др. Несмотря на все опасения, обусловленные автономи-зацией «этических регуляторов», т. е. перекладыванием ответственности с человека на машину, алгоритм или какую-либо систему, следует признать, что человечество уже живет не одно десятилетие бок о бок с относительно автономными системами, принимающими в известном смысле этические решения с далеко идущими последствиями.

Также нельзя не отметить, что параллельно с ростом числа теорий, обосновывающих внедрение машин в процесс принятия моральных решений, развиваются концепции, выдвигающие на первый план перечень актуальных опасений по поводу тотальной цифровизации этических аспектов. Часто обсуждаемыми проблемами являются: вопросы об «этическом поведении» военных роботов, поведение которых предлагается контролировать другими роботами [19]; потеря людьми контроля над машинами в том случае, если последние получат различные формы автономности [20].

Примечательно создание специализированных философских центров, занимающихся рисками, связанными с массовым внедрением «машинной этики». Например, Центр изучения экзистенциального риска при Кембриджском университете (The Centre for the Study of Existential Risk (CSER)) официально заявил целью своей работы «изучение и снижение рисков, которые могут привести к вымиранию человечества или цивилизационному коллапсу» [21].

Подводя итог исследованию, по-нашему мнению, следует констатировать полиаспектность и междисциплинарность проблемы цифровизации природы этического решения: ускорение и алгоритмизирование процессов принятия моральных решений посредством технологий, с одной стороны, унифицирует и делает прозрачными традиционные этические правила, с другой -сужает горизонт свободы философского мышления, традиционно ориентирующегося на загадки

диалогического мышления, оставляющего за собой право на формулирование «неявного знания», которое не может быть как однозначно формализовано и уточнено, так и безусловно понято и интерпретировано.

Ссылки:

1. Щуцкий Ю.К. Китайская классическая «Книга перемен». М., 1993. 606 с.

2. Perkins F. Leibniz and China: A Commerce of Light. Cambridge, 2004. 244 p.

3. Платон. Сочинения: в 4 т. Т. 3, ч. 1. СПб., 2007. 752 с.

4. Аристотель. Сочинения: в 4-х т. Т. 4. М., 1983. 830 с.

5. Руденко В.Н. Клеротерион как выражение идентичности афинской модели демократии // Дискурс-Пи. 2005. № 1 (5). С. 159-162.

6. Pukelsheim F. Llull, Cusanus, Borda, Concordet // UniPress. 2002. № 4. P. 26-31.

7. Вольский В.И. О вкладе Раймунда Луллия в теорию голосования // Полития: Анализ. Хроника. Прогноз. 2011. № 1 (60). С. 188-196.

8. Жильсон Э. Философия в средние века: от истоков патристики до конца XIV века. М., 2010. 678 с.

9. Gray J. «Let us Calculate!» Leibniz, Llull, and the Computational Imagination [Электронный ресурс] // The Public Domain Review. URL: https://publicdomainreview.org/essay/let-us-calculate-leibniz-llull-and-the-computational-imagination (дата обращения: 08.11.2020).

10. Doppelt T. Summer 2018 Update. The First Phase of Version 7 of Spinoza's Ethics 2.0 is Now Live, and Involves Substantial Updates to the Code, Style, and Content [Электронный ресурс] // Spinoza's Ethics 2.0 v7.0. URL: https://ethics.spino-zism.org/ (дата обращения: 08.11.2020).

11. Фуко М. Интеллектуалы и власть: избранные политические статьи, выступления и интервью. М., 2002. 384 с.

12. Bentham J. Table of the Springs of Action with Explanatory Notes and Observations. London, 1817. 44 p.

13. Бентам И. Избранные сочинения Иеремии Бентама. СПб., 1867. 678 с.

14. Лобовиков В.О. От логических квадрата и гексагона метатеоретических высказываний к формально-этическим квадрату и гексагону любви и ненависти // Известия Уральского федерального университета. Серия 3: Общественные науки. 2014. № 3 (131). С. 13-21.

15. Joerden J.C. Deontological Square, Hexagon, and Decagon: A Deontic Framework for Supererogation // Logica Universalis. 2012. № 6. P. 201-216. https://doi.org/10.1007/s11787-012-0041-1.

16. Bogar A.T. Can a Machine be a Gentleman? Machine Ethics and Ethical Machines // Kurt Vonnegut: Critical Insights. Ipswich, 2012. P. 248-268.

17. Ethical Decision Making [Электронный ресурс] // Markkula Center for Applied Ethics. URL: https://www.scu.edu/ethics/eth-ics-resources/ethical-decision-making/ (дата обращения: 08.11.2020).

18. Лефевр В.А. Алгебра совести. М., 2003. 411 с.

19. Hellstrom T. On the Moral Responsibility of Military Robots // Ethics Inf. Technol. 2012. Vol. 15, iss. 2. P. 99-107. https://doi.org/10.1007/s10676-012-9301 -2.

20. Markoff J. Scientists Worry that Machines May Outsmart Man // New York Times. July 25. 2009.

21. The Centre for the Study of Existential Risk (CSER) [Электронный ресурс] // University of Cambridge. URL: https://www.cser.ac.uk. (дата обращения: 08.11.2020).

Редактор: Ситникова Ольга Валериевна Переводчик: Мельников Евгений Вячеславович

i Надоели баннеры? Вы всегда можете отключить рекламу.