Научная статья на тему 'ЦИФРОВЫЕ ТРАНСФОРМАЦИИ И НОВАЯ ЭТИКА: ФОРМИРОВАНИЕ НОВЫХ НОРМ ИЛИ МОРАЛЬНАЯ ДЕГРАДАЦИЯ'

ЦИФРОВЫЕ ТРАНСФОРМАЦИИ И НОВАЯ ЭТИКА: ФОРМИРОВАНИЕ НОВЫХ НОРМ ИЛИ МОРАЛЬНАЯ ДЕГРАДАЦИЯ Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
52
22
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
мораль / новая этика / нормы / инореференция / самореференция / morality / new ethics / norms / inoreference / self-reference

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Жадунова Наталья Владимировна

Статья посвящена проблемам современного общества, обусловленным цифровыми трансформациями жизни человека, неизбежным пересмотром моральных норм и принципов, регламентирующих поведение в социуме. Новые реалии цифрового мира порождают новые явления, изучение которых предполагает погружение в специфику развития цифровых технологии, возможностей машинного обучения, алгоритмов принятия решений искусственным интеллектом и прогнозирования последствий этих решений.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

DIGITAL TRANSFORMATIONS AND NEW ETHICS: FORMATION OF NEW NORMS OR MORAL DEGRADATION

The article is devoted to the problems of modern society caused by digital transformations of human life, the inevitable revision of moral norms and principles regulating behavior in society. The new realities of the digital world give rise to new phenomena, the study of which involves immersion in the specifics of the development of digital technology, the capabilities of machine learning, artificial intelligence decision-making algorithms and predicting the consequences of these decisions.

Текст научной работы на тему «ЦИФРОВЫЕ ТРАНСФОРМАЦИИ И НОВАЯ ЭТИКА: ФОРМИРОВАНИЕ НОВЫХ НОРМ ИЛИ МОРАЛЬНАЯ ДЕГРАДАЦИЯ»

УДК 179

DOI: 10.24412/2713-1033-2023-3-46-53

Н. В. Жадунова

Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева, Саранск, Россия, e-mail: [email protected]

ЦИФРОВЫЕ ТРАНСФОРМАЦИИ И НОВАЯ ЭТИКА: ФОРМИРОВАНИЕ НОВЫХ НОРМ ИЛИ МОРАЛЬНАЯ ДЕГРАДАЦИЯ1

Статья посвящена проблемам современного общества, обусловленным цифровыми трансформациями жизни человека, неизбежным пересмотром моральных норм и принципов, регламентирующих поведение в социуме. Новые реалии цифрового мира порождают новые явления, изучение которых предполагает погружение в специфику развития цифровых технологии, возможностей машинного обучения, алгоритмов принятия решений искусственным интеллектом и прогнозирования последствий этих решений.

Ключевые слова: мораль, новая этика, нормы, инореференция, самореференция

Благодарность: Исследование выполнено за счет гранта Российского научного фонда № 23-28-01167, https://rscf.ru/project/23-28-01167/

N. V. Zhadunova

National Research Mordovia State University, Saransk, Russia, e-mail: [email protected]

DIGITAL TRANSFORMATIONS AND NEW ETHICS: FORMATION OF NEW NORMS OR MORAL DEGRADATION2

The article is devoted to the problems of modern society caused by digital transformations of human life, the inevitable revision of moral norms and principles regulating behavior in society. The new realities of the digital world give rise to new phenomena, the study of which involves immersion in the specifics of the development of digital technology, the capabilities of machine learning, artificial intelligence decision-making algorithms and predicting the consequences of these decisions.

1 Материалы исследования представлены в докладе на круглом столе «Человек vs технологии в эпоху больших данных и искусственного интеллекта» в рамках XIII Международной Грушинской социологической конференции (Москва, 25-27 мая 2023 г.).

2 The research materials were presented in a report at the XIII International Sociological Grushin Conference "Reconstruction of the World: Research of (in) a New Reality" (Moscow, May 27, 2023).

Keywords: morality, new ethics, norms, inoreference, self-reference

Acknowledgments. The article is supported by the Russian Science Foundation № 23-28-01167, https://rscf.ru/project/23-28-01167/

Введение и постановка проблемы

Развитие технологий машинного обучения, нейронных сетей, создание больших языковых моделей, обучающихся на больших объемах данных, позволяют делать выводы о том, что в скором времени человеческое поведение, уникальность морального выбора будут являться результатом работы искусственного интеллекта.

Способность искусственного интеллекта обрабатывать большие массивы данных, работать с разными языковыми моделями, учитывать все многообразие повторяющихся и единичных явлений, делать точные прогнозы и предлагать готовые решения создает иллюзию, что все это не только работа математически выверенных алгоритмов, но и некий ценностно обоснованный результат.

Возникает достаточно большой круг вопросов, которые требуют ответов о том, как меняются моральные нормы в современном цифровом мире и меняются ли вообще; как меняется наше отношение к нормам и к понятию «нормального», «морального». Можем ли мы с уверенностью сказать, что знаем, что такое норма, чье авторитетное мнение в определении этого вопроса будет для нас решающим? Или сегодня формирование и применение моральной нормы - это область ненаблюдаемого, неочевидного?

Мораль в «области ненаблюдаемого»

Никлас Луман в работе «Почему необходима системная теория?» писал о том, что в современном мире больше не существует авторитета, на позицию которого мы могли бы опираться, высказывая свое мнение. «...Больше не существует позиций, позволяющих делать высказывания о мире на основе авторитета. Соответственно, мир сместился в область ненаблюдаемого» [Луман, 1992].

Это можно продемонстрировать на примере тех решений, которые выдают алгоритмы искусственного интеллекта. Алгоритм поиска принимает в качестве входных данных некоторую задачу и выдает готовое решение в форме последовательности действий. Предложенная последовательность действий необязательно будет являться тем результатом, на который рассчитывает тот, кто поставил задачу. Каждый шаг этой последовательности может быть неравнозначен другому и в свою очередь предполагать иные последовательности. Следовательно, результат будет зависеть не только от последовательности действий, но и того объема данных, с которыми работает алгоритм, закономерностей, которые выявляются в процессе получения результата.

Возможно ли предусмотреть в этих условиях ситуацию, когда алгоритм принимает моральные решения? Какие данные должны быть актуализированы

для того, чтобы последовательность действий приводила к безупречному или нормативно оправданному моральному результату?

Сегодня меняется отношение к тому, что совсем недавно находилось в границах нормы, было привычным, обоснованным, либо, напротив, признавалось ненормативным, но тем не менее не выходило за пределы узнаваемого, очевидного. Это происходит потому, что тотальная цифровизация общества позволяет собирать и аккумулировать большие данные, раздвигает пространственные и временные границы, открывает новые возможности для выявления и обсуждения вопросов и проблем, которые ранее маркировались, с одной стороны, как запретные, недопустимые, предполагали однозначную, как правило, негативную оценку, с другой стороны, выявляли особенности и слабости человека, демонстрировали несовершенство культуры и общества. Так, например, идеи превосходства одного этноса или расы над другими никогда не являлись признаком нравственности, как не является нравственным стремление навязать комплекс коллективной вины тем, чьи предки были сторонниками расизма.

А.П. Скрипник полагает, что в основе формирования моральной нормы лежит механизм рекурсии, то есть многократного повторения определенного действия или мыслительной операции, что позволяет соотносить последующие однотипные действия и операции с повторяемыми многократно. Уходящая в бесконечность рекурсивности норма обосновывает себя через повторяемость, узнаваемость, универсализуемость. Она становится исходной точкой, с которой мы соотносим все, что наблюдаем, оцениваем в поступках других и совершаем сами [Скрипник, 2012].

Рекурсивность моральной нормы

В математике рекурсия - это функция, которая вызывает саму себя, но с другими значениями параметров [Юнусова, 2020: 43]. Существуют два способа решения задач с использованием рекурсии: рекурсивный процесс и итеративный процесс. Собственно рекурсивный процесс - это процесс с отложенным вычислением, не требующий подсчета и обдумывания на каждом этапе, только в итоге. Итеративный процесс предполагает подсчет промежуточного результата на каждом шаге рекурсии, не нужно запоминать, но делать вывод и передавать информацию последовательно.

И тот, и другой рекурсивные процессы аналогичны процессам формирования и применения моральных норм: человек, анализируя совершенные им поступки, может суммировать их нравственные результаты на каждом этапе жизненного пути, либо соотносить каждый поступок с идеей высшего блага, стремление к которому уходит в рекурсивную бесконечность. Применение моральных норм, обоснование их необходимости в приложении к конкретной ситуации аналогично рекурсивной процедуре, норма «вызывает саму себя» в многократном повторении. Это происходит на системном уровне, где рекурсия масштабируется в социуме и напрямую взаимосвязана с интересами другого человека, ценностным отношением к нему.

Так, исследователь Майкл Корбаллис определяет фундаментальную роль рекурсии как основную характеристику нашей мыслительной деятельности. Он полагает, что механизм рекурсии позволяет ментально перемещаться во времени, включая осознание прошлого или будущего в настоящем, удерживать важные события и проектировать свои действия с учетом оценки их последствий [Корбаллис, 2014].

Возникает иллюзия, что цифровые технологии современного мира позволяют осуществлять огромное количество мыслительных операций, которые направлены на обработку различных ситуаций морального выбора, учет многих факторов, мотивов и предпосылок без эмоциональной составляющей, которая неизбежно возникает, когда речь идет о человеке.

Однако, как отмечают исследователи, пока не решена проблема формализации этических норм, как в плане создания «форм представлений норм», так и в плане выбора «соответствующего математического аппарата для работы с этими формами: сопоставления, измерения, анализа и т. д.» [Карпов, 2018: 94].

«Как быть моральным в определенных жизненных ситуациях?»

Анализ больших данных при помощи нейронных сетей, на первый взгляд, решает проблему субъективности в оценке морального поступка, предлагает решения, основанные на большом эмпирическом материале (описании норм и правил, оценках и суждениях), которые прежде всего закрепляются и находят свое отражение в коммуникативных практиках. Это, по определению Н. Лумана, внешняя референция (инореференция) [Луман, 2004: 40], которая в цифровом мире вторична (своеобразная оценка оценивания поступков, событий, конфликтов). Норма здесь является результатом коллективного сознательного, возникающего из отдельных самореференций (первичных оценок) [Луман, 2004: 40], которые собираются, хранятся, обрабатываются и используются впоследствии как обобщенный человеческий опыт.

В процессе становления морального сознания норма одновременно является и процессом (ее в своих поступках актуализирует человек), и результатом (поступок оценивается на предмет его соответствия норме). Норма как результат многократного осмысленного повторения самореферентна, позволяет человеку адаптироваться в сообществе себе подобных, и в тоже время она исторически и биологически обусловлена.

Этот процесс описывают исследователи, изучающие вопросы формирования предморальных явлений у приматов и предков человека. Так, например, Г.А. Шиловский, А.В. Марков отмечают, что моральные нормы возникают у человека в глубокой древности, они выстраиваются на основании анализа генетических и социальных причин возникновения альтруизма как способа выживания и жизнеспособности [Шиловский, 2021; Марков, 2021]. Однако важно отметить, что не только альтруизм был отобран как основополагающая идея, «мем» [Марков, 2010: 174], наряду с этим «в нас

заложена врожденная склонность делить людей на своих и чужих и к чужим испытывать отвращение и неприязнь» [Марков, 2010: 182].

И поскольку мораль подвижна и пластична, реагирует на изменения, происходящее в обществе, то предугадать и алгоритмизировать все идеи и их изменения не представляется возможным. «Мораль - это такая сфера межчеловеческих отношений, которая реагирует на изменения в любой другой сфере. Мораль есть своеобразная надстройка, регулирующая жизнедеятельность человечества, и потому в ней отражаются все перебои последней [Скрипник, 1992: 318].

Как фиксируются «перебои» в социуме, в какой момент отклонение от нормы перестает восприниматься недопустимым, как оно отражается в поведении отдельного человека, группы людей, общества? Если в доцифровую эпоху человека волновали вопросы «Почему я должен быть моральным? «Что значит быть моральным?», которые определяли личный поиск нравственного совершенства, то сегодня задачей для алгоритмов является ответ на вопрос «Как быть моральным в определенных жизненных обстоятельствах?». Такой вопрос задает определенную последовательность действий, расчлененных на «Если А, то «хорошо»; «Если В, «плохо»; «Если С, то «допустимо», но «нежелательно» и т.д. При таком подходе главным мотивом является не стремление к благу, а стремление к обоснованной большими выборками целесообразности, выгодности, полезности, удобству потребления.

Важно отметить, что, несмотря на это, последовательность действий все равно изначально определяется человеком, разработчиком алгоритма. Так, например, в аналитическом докладе «Этика в области искусственного интеллекта - от дискуссии к научному обоснованию и практическому применению», подготовленному группой исследователей из МГИМО, отмечается, что формализация процесса принятия этически обоснованных решений во многом зависит от разработчика, его предпочтений, общественных ожиданий: «...Многомерность и разнообразие таких критериев, этических норм и правил делает труднодостижимым их формализацию в законченном, обобщенном виде. Исходя из этого, рассматривая данное направление в прагматичном плане, именно роль этики человека - разработчика или другого актора, участвующего в жизненном цикле СИИ, представляется решающей.» [Этика в области искусственного интеллекта, 2021].

Еще один вопрос, который неизбежно возникает, когда мы анализируем этические аспекты современных цифровых технологий, это вопрос доверия и недоверия к решениям, предлагаемым искусственным интеллектом, комфортности и дискомфорта в конструировании межличностных и общественных отношений, которые просчитываются алгоритмами и предлагаются как наиболее оптимальные. Сбор данных, их обработка, хранение и использование является своеобразным цифровым дисконтированием будущего, это позволяет обеспечить сохранение и передачу знаний, норм, ценностей, однако накладывает ответственность за целесообразность и прозрачность их применения как в настоящем, так и в будущем.

Заключение

Сложность и сегментированность цифрового мира формирует новую коммуникативную и нормативную реальность, в которой предлагаемые решения могут быть обоснованы случайными переменными. Моральная позиция и моральная ответственность человека могут быть выражены только в поступке, который всегда единственен и субъективен, а стремление его стандартизировать (арифметически подсчитать все «за» и «против» во всем многообразии вариантов) сводит ситуацию поступка к абсурду.

Этику цифровых технологий нельзя рассматривать как совокупность прикладных этик (этика ИИ, этика больших данных и др.), она вырабатывает собственный теоретический подход. Кто является моральным субъектом и моральным объектом, когда речь идет о рекурсивной оценке морального поступка алгоритмами?

Список литературы (Refereces)

1. Карпов В.Э., Готовцев П.М., Ройзензон Г. В К вопросу об этике и системах искусственного интеллекта // Философия и общество. 2018. №2 2. С. 84105. DOI: 10.30884/jfio/2018.02.07.

Karpov V.E., Gotovtsev P.M., Roizenzon G.V. (2018) K voprosu ob etike i sistemakh iskusstvennogo intellekta (On the issue of ethics and artificial intelligence systems). Philosophy and Society. Vol. 2. P. 84-105. DOI: 10.30884/jfio/2018.02.07. (In Russ.)

2. Луман Н. Общество как социальная система. М.: Изд-во «Логос».

2004.

Luhmann N. (2004) Society as a social system. Moscow: Logos Publ. (In Russ.)

3. Луман Н. Почему необходима системная теория. 1992. URL: https://gtmarket.ru/library/articles/2971 (дата обращения: 12.10.2023)

Luhmann N. (1992) Why systems theory is necessary. URL: https://gtmarket.ru/library/articles/2971 (accessed 12.10.2023) (In Russ.)

4. Марков А.В., Марков М.А. Коэволюция мозга, культуры и продолжительности жизни: результаты компьютерного моделирования // Биохимия. 2021. Т. 86. № 12. С. 1739-1765. DOI 10.31857/S0320972521120010.

Markov A.V., Markov M.A. (2021) Koevolyutsiya mozga, kul'tury i prodolzhitel'nosti zhizni: rezul'taty komp'yuternogo modelirovaniya (Coevolution of the brain, culture, and lifespan: insights from computer simulations). Biochemistry (Moscow). Vol. 86. No. 12. P. 1739-1765. DOI 10.31857/S0320972521120010. (In Russ.)

5. Марков А.В. Эволюционные корни этики: от бактерий до человека // Историческая психология и социология истории. 2010. № 3 (2). С. 152-184.

Markov A.V. (2010) Evolyutsionnye korni etiki: ot bakteriy do cheloveka (Evolutionary roots of ethics: from bacteria to humans). Historical Psychology & Sociology. Vol. 3 (2). P. 152-184. (In Russ.)

6. Скрипник А.П. Моральное зло в истории этики и культуры. М.: Политиздат, 1992.

Skripnik A.P. (1992) Moral evil in the history of ethics and culture. Moscow: Politizdat. (In Russ.)

7. Скрипник А.П. Мораль: многообразие понятий и смыслов // Теоретический семинар сектора этики 27 ноября 2012. URL: https://iphras.ru/uplfile/ethics/seminar/27_11_2012/KS_Content.pdf (дата обращения: 04.05.2023).

Skripnik A.P. (2012) Morality: diversity of concepts and meanings // Theoretical seminar of the ethics sector November 27, 2012. URL: https://iphras.ru/uplfile/ethics/seminar/27_11_2012/KS_Content.pdf (accessed

04.05.2023). (In Russ.)

8. Шиловский Г.А., Путятина Т.С., Марков А.В. Альтруизм и феноптоз как программы, поддерживаемые эволюцией // Биохимия. 2021. Т. 86. № 12. С. 1782-1797. DOI 10.31857/S0320972521120034.

Shilovsky G.A., Putyatina T.S., Markov A.V. (2021) Al'truizm i fenoptoz kak programmy, podderzhivaemye evolyutsiey (Altruism and phenoptosis as programs supported by evolution). Biochemistry (Moscow). Vol. 86. No. 12. P. 1782-1797. DOI 10.31857/S0320972521120034. (In Russ.)

9. Этика в области искусственного интеллекта - от дискуссии к научному обоснованию и практическому применению: аналитический доклад / А.В. Абрамова, А.Г. Игнатьев, М.С. Панова. М.: МГИМО-Университет, 2021. 24 с.

Ethics in the field of artificial intelligence - from discussion to scientific justification and practical application: analytical report / A.V. Abramova, A.G. Ignatiev, M.S. Panova. Moscow: MGIMO-University Publ. 24 p.

10. Юнусова Л.Р., Магсумова А.Р. Рекурсивный алгоритм // Проблемы науки. 2020. № 2 (50). С. 43-45.

Yunusova L.R., Magsumova A.R. (2020) Rekursivnyy algoritm (Recursive algorithm). Science problems. No. 2 (50). P. 43-45. (In Russ.)

11. Corballis M.C. (2014) The Recursive Mind: The Origins of Human Language, Thought, and Civilization. Precenton: Precenton University Press.

Сведения об авторе

Жадунова Наталья Владимировна - кандидат философских наук, директор института корпоративного обучения и непрерывного образования Национального исследовательского Мордовского государственного университета.

E-mail: [email protected]. ORCID: 0000-0002-9058-0488.

About the author

Zhadunova Natalia Vladimirovna - Candidate of Philosophical Sciences, Director of the Institute for Corporate Education and Continuing Education of National Research Mordovia State University.

E-mail: [email protected] ORCID: 0000-0002-9058-0488

Поступила 25.10.2023; одобрена после рецензирования 29.11.2023; принята к публикации 01.12.2023.

i Надоели баннеры? Вы всегда можете отключить рекламу.