Научная статья на тему 'ДИЛЕММЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В АСПЕКТЕ ЭТИЧЕСКОГО ПРОГНОЗИРОВАНИЯ'

ДИЛЕММЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В АСПЕКТЕ ЭТИЧЕСКОГО ПРОГНОЗИРОВАНИЯ Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
58
13
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
этика цифрового общества / этическое прогнозирование / искусственный интеллект / этическая дилемма / этико-нормативное регулирование в сфере искусственного интеллекта / ethics of the digital society / ethical forecasting / artificial intelligence / ethical dilemma / ethical and normative regulation in the field of artificial intelligence

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Назарова Юлия Владимировна

На данный момент этико-правовая база регулирования ИИ подвергается критике, поскольку она не в состоянии предложить действенные механизмы предотвращения возможных этических последствий развития и повсеместного внедрения ИИ. Между тем, в этике ИИ формируется отдельное направление этической прогностики последствий применения ИИ, которое может стать основой для дальнейшего совершенствования этико-нормативного регулирования в сфере ИИ. В статье описываются обоснованные в философской литературе этические проблемы ИИ, проводится анализ научных исследований в сфере этического прогнозирования. Научная новизна: в статье выделены модели интерпретации искусственного интеллекта, использованные для философского обоснования дилемм этики ИИ. На основании собранных данных, обоснованы наиболее актуальные проблемы этики ИИ, в аспекте этического прогнозирования, проанализированы способы их разрешения.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

DILEMMAS OF ARTIFICIAL INTELLIGENCE IN THE ASPECT OF ETHICAL FORECASTING

At the moment, the ethical and legal framework for regulating AI is being criticized because it is not able to offer effective mechanisms to prevent possible ethical consequences of the development and widespread implementation of AI. Meanwhile, in the AI ethics, a separate direction for ethical prediction of the consequences of using AI is emerging, which can become the basis for further improvement of ethical and normative regulation in the field of AI. The article describes the ethical issues of AI substantiated in the philosophical literature and analyzes scientific research in the field of ethical forecasting. Scientific novelty lies in the fact that the article highlights models of artificial intelligence interpretation used to philosophically justify the dilemmas of AI ethics. The most pressing problems of AI ethics are substantiated in the aspect of ethical forecasting and ways of their resolution are analyzed based on the collected data.

Текст научной работы на тему «ДИЛЕММЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В АСПЕКТЕ ЭТИЧЕСКОГО ПРОГНОЗИРОВАНИЯ»

Актуальные проблемы цифровизации информационного общества

Ю. В. Назарова

Тульский государственный педагогический университет

им. Л. Н. Толстого

ДИЛЕММЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В АСПЕКТЕ ЭТИЧЕСКОГО ПРОГНОЗИРОВАНИЯ

На данный момент этико-правовая база регулирования ИИ подвергается критике, поскольку она не в состоянии предложить действенные механизмы предотвращения возможных этических последствий развития и повсеместного внедрения ИИ. Между тем, в этике ИИ формируется отдельное направление этической прогностики последствий применения ИИ, которое может стать основой для дальнейшего совершенствования этико-нормативного регулирования в сфере ИИ. В статье описываются обоснованные в философской литературе этические проблемы ИИ, проводится анализ научных исследований в сфере этического прогнозирования. Научная новизна: в статье выделены модели интерпретации искусственного интеллекта, использованные для философского обоснования дилемм этики ИИ. На основании собранных данных, обоснованы наиболее актуальные проблемы этики ИИ, в аспекте этического прогнозирования, проанализированы способы их разрешения.

Ключевые слова: этика цифрового общества, этическое прогнозирование, искусственный интеллект, этическая дилемма, этико-нормативное регулирование в сфере искусственного интеллекта.

Yulia V. Nazarova

Tula State Lev Tolstoy Pedagogical University

(Tula, Russia)

DILEMMAS OF ARTIFICIAL INTELLIGENCE IN THE ASPECT OF ETHICAL

FORECASTING

At the moment, the ethical and legal framework for regulating AI is being criticized because it is not able to offer effective mechanisms to prevent possible ethical consequences of the development and widespread implementation of AI. Meanwhile, in the AI ethics, a separate direction for ethical prediction of the consequences of using AI is emerging, which can become the basis for further improvement of ethical and normative regulation in the field of AI. The article describes the ethical issues of AI substantiated in the philosophical literature and analyzes scientific research in the field of ethical forecasting. Scientific novelty lies in the fact that the article highlights models of artificial intelligence interpretation used to philosophically justify the dilemmas of AI ethics. The most pressing problems of AI ethics are substantiated in the aspect of ethical forecasting and ways of their resolution are analyzed based on the collected data.

Keywords: ethics of the digital society, ethical forecasting, artificial intelligence, ethical dilemma, ethical and normative regulation in the field of artificial intelligence.

DOI 10.22405/2304-4772-2023-1 -2-39-47

Этика искусственного интеллекта (далее - этика ИИ) концентрируется вокруг распространения и влияния технологий ИИ на будущее человечества, что придает проблеме особую актуальность в условиях существующей глобальной напряженности.

При рассмотрении этики ИИ отдельное внимание следует уделить самому определению «искусственный интеллект». С правовой точки зрения ИИ предстает как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма)» [1].

Определения ИИ в философской (этической) литературе заостряют внимание на именно тех его функциях, которые так или иначе могут быть связаны с этическими и аксиологическими рисками [2; 3; 4]. Содержание этики ИИ описывается на основании определения ИИ как субъекта или объекта этических исследований [2]. При рассмотрении ИИ как объекта этического анализа описываются такие этические проблемы, как текущие риски воздействия систем ИИ на личность, общество, экономику, политику, культуру. Как субъект этических исследований ИИ анализируется как автономная система - именно такой подход к этике ИИ ставит на первый план проблему этического прогнозирования проблем ИИ [2].

Обзор философских исследований и этико-правовых документов по ИИ позволил сделать вывод, что актуальные проблемы ИИ можно структурировать в зависимости от определенных моделей интерпретации искусственного интеллекта. Нами были выделены следующие такие модели:

1. Либерально-утилитаристская модель интерпретации ИИ.

2. Этико-антропологическая модель интерпретации ИИ.

3. Социально-прогностическая модель интерпретации ИИ.

Либерально-утилитаристская модель интерпретации ИИ. Используя

подход С. С. Баженова к анализу этики ИИ [5], либерально-утилитаристскую модель можно разделить на два направления - деонтологическое и консеквенциальное. Пример консеквенциального направления этой модели можно найти в различных международных этико-правовых документах по регулированию технологий ИИ: Organisation for Economic Cooperation and Development, OECD; Принципы «Группы 20» (G20) по ИИ; Этические рекомендации по применению ИИ и робототехнике в Европейском парламенте, рекомендации ЮНЕСКО по этике ИИ. На данный момент эти документы подвергаются критике по причине политизации и коммерциализации проблемы [2; 6]. Либерально-утилитаристская модель предлагает достаточно ограниченную зону этической рефлексии, не выходящую за рамки либерального социально-политического устройства. С другой стороны, эта модель интерпретации ИИ, концентрирует внимание на политической и экономической сферах, и такой подход продвигает, в первую очередь, интересы международных корпораций и разработчиков ИИ. Примером этических проблем ИИ, обозначенных в рамках либерально-утилитаристской модели, являются дилеммы этики ИИ, выделенные, как наиболее значимые, в ходе Международного экономического форума [7]. Деонтологический подход в

либерально-утилитаристской модели интерпретации этики ИИ представлен известным исследователем цифровой этики Л. Флориди, который отмечает, что прогнозирование последствий ИИ может не иметь смысла, необходимо решать текущие проблемы, которые создает не ИИ, а сам человек [8]. Отношение к ИИ как к средству решения текущих проблем, о чем говорит Л. Флориди, можно интерпретировать достаточно широко, ведь, если текущая проблема предполагает, например, ограничение свободы ради блага всех, то ИИ станет средством ограничения свободы.

Этико-антропологическая модель интерпретации ИИ.

Эта модель учитывает не столько сам факт существования ИИ, сколько этические проблемы человека в цифровом обществе: вопрос об этической категории ответственности, как в сфере прикладной этики (этика науки), так и профессиональной (этика разработчиков ИИ) [9]; вопрос о недопустимости дегуманизации цифрового общества и создание «гибридной модели человек-ИИ» [10]; вопрос о трансформации морали индивида в цифровой среде, при пользовании системами ИИ [11]. Необходимо отметить, что именно этико-философская модель интерпретации ИИ преобладает в научных исследованиях российских специалистов по философии. Одной из причин этого может быть сложившаяся в русской философии академическая традиция рассмотрения прикладной этики без отрыва от нравственной философии, в отличие от западных научных школ, многие из которых выделяют прикладную этику как отдельное направление в современной философии.

Социально-прогностическая модель интерпретации ИИ. В рамках такой модели этический анализ основан на рассмотрении возможных последствий ИИ для человека. Общая характеристика таких вопросов представлена в Стэнфордской философской энциклопедии, и касаются следующих сфер: 1) сфера свободы человека от ИИ (манипуляция ИИ человеческим поведением; навязывание решений; разрушение приватности человека); 2) сфера власти (ИИ может стать инструментом неограниченной власти для корпораций и политиков) [2].

Кроме того, к этой модели можно отнести и этическое прогнозирование долгосрочных проблем ИИ. Так, известный исследователь философии ИИ Н. Бостром предполагает, что ИИ в будущем может развиться в глобальный Сверхразум, что повлечет формирование «сверхэтики», полностью перевернув представления о роли человека и традиционной аксиологии, и морали [12]. Рамон Лопес де Мантарас подчеркивает опасность неконтролируемого развития ИИ, описывая важность своевременного этического ограничения развития ИИ [13]. Часто при описании этических рисков ИИ используется словосочетание «кафкианское будущее»: ИИ представляется как механизм глобальной политической машины, не учитывающий интересы наименее защищенных социальных слоев и ограничивающий свободы и права человека [14].

Этические дилеммы будущего в сфере ИИ.

1. В этико-правовом поле регулирования ИИ на данный момент преобладает либерально-политическая модель интерпретации, что

потенциально грозит недооценкой этических последствий развития ИИ. Это формирует дилемму целей и средств, которую можно сформулировать следующим образом: ««ИИ является средством достижения всеобщего блага» -«ИИ является целью общества и всеобщим благом» [15]. Опасность либерально-политической интерпретации заключается в том, что ИИ может стать средством управления и контроля, подавлять свободу выбора и свободную волю. Ситуация будет парадоксальной, так как свобода - один из основных принципов философии либерализма В данном случае проблема кроется именно в распространенности ИИ, в степени его влияния; так, для минимизации этических рисков необходимо ограничить влияние ИИ на политику, экономику, социальную сферу и т.п. Очевидно, что на данный момент, это влияние только усиливается.

2. Этико-философская интерпретация ИИ предполагает, в первую очередь, дилемму ответственности, раскрывающуюся, с одной стороны с точки зрения ответственности разработчиков и владельцев ИИ, и, с другой - с точки зрения его потребителей: ««К ИИ не могут быть применимы моральные критерии, и поэтому никто не является ответственным за возможные решения ИИ» - «К ИИ не могут быть применимы моральные критерии, и поэтому ИИ должен быть областью внимательного этического контроля; все, так или иначе связанные с ИИ должны нести за него этическую ответственность» [15]. Проблема этико-философской интерпретации заключается в том, что философы, в основном, смутно представляют технологии ИИ и не могут предположить реальных последствий, опираясь на теоретические умозаключения. С другой стороны, этика ответственности может предложить некий этический минимум, который будет выражаться, скорее всего, в создании алгоритмов морали, внедряемых в программы ИИ. Идея технологизации морали в сфере ИИ сама по себе формирует этические вопросы, главный из которых - если в основании морали стоит сознательный выбор между добром и злом в сторону добра, есть ли смысл в ее технологизации, ведь в правовом смысле ИИ - это всего лишь имитация когнитивных функций человека? Значит ли это, что в данном случае произойдет имитация морали?

3. Социально-прогностическая модель интерпретации часто критикуется за то, что она связана с воображаемой технологией, а не с ИИ [2]. Данная модель предполагает широкий спектр дилемм, например: «Дилемма обезличивания (вопрос об обезличивании персональных данных в рамках технологий ИИ); Дилемма приватности (вопрос о цифровой прозрачности персональных данных); Дилемма творчества (что эффективнее - творческий подход к проблеме или заданный ИИ алгоритм); Дилемма туннеля (когда человек не видит иных решений, чем те, что предлагает ИИ); Дилемма справедливости (связана с использованием ИИ в судебной практике); Дилемма виртуальности (когда многие сферы жизни переходят в виртуальную плоскость); Дилемма зависимости (когда от ИИ начинают зависеть большинство сфер социальной жизни)» [15]. Однако основная опасность, которую видят философы, придерживающиеся данной модели интерпретации последствий ИИ, заключается в представлении об утрате контроля над ИИ.

Однако такой подход частично снимает ответственность с бизнесменов и политиков, связанных с разработкой и внедрением технологий ИИ, представляя ИИ как некое самостоятельное устройство, развитие которого стихийно и неуправляемо. Кроме того, исключается возможность сознательного морального выбора индивида, заранее определяя его моральную беспомощность перед технологиями.

Заключение и выводы. Авторитетные разработчики ИИ в марте текущего года выступили с открытым письмом, где говорится о необходимости ограничения экспериментов с ИИ [16]. Материалы о будущем ИИ, в которых его последствия представляются фантастическими - от всеобщего процветания до всеобщего «цифрового концлагеря» - все чаще тиражируются СМИ. Напряженная политическая обстановка также предполагает особое отношение к ИИ, требуя, с одной стороны, его внедрения, и, с другой - тщательного контроля над технологиями. Внедрение цифровых денег, апробация «социального рейтинга» в некоторых странах предполагают формирование принципиально нового общества, что не может не вызывать обеспокоенность у граждан. На этом фоне вопросы этики ИИ выходят на передний план во всем мире, но, парадоксальным образом, теряются в свете назревших политических, экономических и социальных проблем. Между тем, именно профессиональное этическое прогнозирование последствий разработки, внедрения и применения ИИ может предотвратить возможные опасности. Для разработки проектов этического прогнозирования необходимо создавать независимые научные институты, наделяя их реальными механизмами влияния на этико-правовое поле ИИ. Кроме того, по словам С. А. Смирнова «в этой связи становится все более актуальным формирование института гуманитарной экспертизы как практики по восстановлению нормы человека, переосмысления и смены оптики по отношению к разработкам ИИ и в целом понимания человека» [10]. В России, в настоящее время, в аспекте актуальных проблем, касающихся социально-политической безопасности, требуется разработка собственной этической политики в отношении ИИ, которая была бы независима от мировых тенденций, не игнорируя, при этом, необходимый мировой опыт этического регулирования технологий ИИ.

Литература

1. О развитии искусственного интеллекта в Российской Федерации : указ Президента Российской Федерации от 10.10.2019 г. № 490 // Президент России : офиц. сайт. URL: http://www.kremlin.ru/acts/bank/44731 (дата обращения: 13.04.2023).

2. Müller Vincent C. Ethics of Artificial Intelligence and Robotics // Stanford Encyclopedia of Philosophy : public internet encyclopedia of philosophy. Publication date: 30.04.2020. URL: https://plato.stanford.edu/entries/ethics-ai/ (accessed: 19.04.2023).

3. Литвак Н. В. К определению искусственного интеллекта // Восьмой Российский Философский Конгресс «Философия в полицентричном мире». Секции (II) : сб. науч. статей. М.: Логос, 2020. С. 2259-2262.

4. XI международная конференция «Теоретическая и прикладная этика: традиции и перспективы. К грядущему цифровому обществу. Опыт этического прогнозирования (100 лет со дня рождения Д. Белла - 1919-2019)» / отв. ред. В. Ю. Перов. СПб.: Сборка, 2019. 188 с.

5. Баженов С. С. Проблематика этического регулирования исследований искусственного интеллекта // XIII междунар. конф. «Теоретическая и прикладная этика: Традиции и перспективы - 2021. Этика как наука и профессия» / отв. ред. В. Ю. Перов. СПб.: Сборка, 2021. С. 205206.

6. Cole M., Cant C., Spilda U., Graham M. Politics by Automatic Means? A Critique of Artificial Intelligence Ethics at Work. DOI 10.3389/frai.2022.869114 // Frontiers in Artificial Intelligence. 2022. Vol. 5. URL: https: //www.frontiersin. org/articles/10.3389/frai.2022.869114/full (accessed: 19.04.2023).

7. Bossmann J. Top-9 ethical issues in artificial intelligence // Word economic forum : official website. 21.10.2016. URL: https://www.wefomm.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/ (accessed: 14.04.2023).

8. Floridi L. Should we be afraid of AI? // Aeon : digital magazine. 09.05.2016. URL: https://aeon.co/essays/true-ai-is-both-logically-possible-and-utterly-implausible (accessed: 14.04.2023).

9. Авдеева И. А. Ответственность в эпоху техногенной цивилизации // XI междунар. конф. «Теоретическая и прикладная этика: Традиции и перспективы - 2019...». СПб., 2019. С. 168-169.

10. Смирнов С. А. Этика для искусственного интеллекта (AI) и человек в норме // XIII международная конференция «Теоретическая и прикладная этика: Традиции и перспективы - 2021.». СПб., 2021. С. 216-217.

11. Мартынова М. Д. Дилеммы «цифрового доверия» и их влияние на нравственное развитие личности в контексте становления «цифрового образования» // XI междунар. конф. «Теоретическая и прикладная этика: Традиции и перспективы - 2019.». СПб., 2019. С. 173-174.

12. Bostrom N. Ethical Issues in Advanced Artificial Intelligence // Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence / I. Smit [et al.]. Tecumseh: International Institute in Systems Research and Cybernetics, 2003. Vol. 2. P. 12-17.

13. Mantaras R. L. de Towards artificial intelligence: Advances, challenges, and risks. DOI 10.7203/metode.9.11145 // Metode. 2019. Vol. 9. P. 119-125. URL: https://ojs.uv.es/index.php/Metode/article/view/11145 (accessed: 19.04.2023).

14. Cave St. To Save Us from a Kafkaesque Future, We Must Democratise AI // The Guardian, 04 January 2019. URL: https://www.theguardian.com/commentisfree/2019/jan/04/future-democratise-ai-artificial-intelligence-power (accessed: 19.04.2023).

15. Каширин А. Ю., Назарова Ю. В. Дилеммы этики искусственного интеллекта. DOI 10.22405/2304-4772-2020-1-4-23-31 // Гуманитарные ведомости ТГПУ им. Л.Н. Толстого. 2020. № 4 (36). С. 23-31. URL: https://tsput.ru/fb//hum/2020/№4°/o20(36)/23/index.html (accessed: 19.04.2023).

16. Pause Giant AI Experiments: An Open Letter // Future of Life Institute : official website. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Date of publication: 22.03.2023.

References

1. Ukaz Prezidenta Rossiyskoy Federatsii ot 10.10.2019 g. № 490 «O razvitii iskusstvennogo intellekta v Rossiyskoy Federatsii» [On the development of artificial intelligence in the Russian Federation: Decree of the President of the Russian Federation of 10 October 2019 No 490]. Prezident Rossii. URL: http://www.kremlin.ru/acts/bank/44731 (accessed: 13 April 2023) (in Russian).

2. Müller V. C. Ethics of Artificial Intelligence and Robotics. Stanford Encyclopedia of Philosophy. Publication date: April 30, 2020. URL: https://plato.stanford.edu/entries/ethics-ai/ (accessed: 19 April 2023)

3. Litvak N. V. K opredeleniyu iskusstvennogo intellekta [To the definition of artificial intelligence]. Vos'moy Rossiyskiy Filosofskiy Kongress - «Filosofiya v politsentrichnom mire». Sektsii (II) [The 8th Russian Philosophy Congress "Philosophy in a Polycentric World". Sections (II)]. Moscow, Izdatelstvo "Logos" publ, OOO «Novye pechatnye tekhnologii» publ, 2020. Pp. 2259-2262. (in Russian).

4. XI mezhdunarodnaya konferentsiya Teoreticheskaya i prikladnaya etika: traditsii i perspektivy. K gryadushchemu tsifrovomu obshchestvu. Opyt eticheskogo prognozirovaniya». (100 let so dnya rozhdeniya D.Bella - 1919-2019)». Sankt-peterburgskiy Gosudarstvennyy Universitet, 21-23 noyabrya 2019 g. [The 11th International Conference "Theoretical and Applied Ethics: Traditions and Prospects. Towards the Coming Digital Society. The experience of ethical forecasting (100 years since the birth of D. Bell (1919-2019))". St. Petersburg State University, November 21-23, 2019], ed. by V. Yu. Perov. St. Petersburg, OOO «Sborka» publ, 2019. 188 p. (in Russian).

5. Bazhenov S. S. Problematika eticheskogo regulirovaniya issledovaniy iskusstvennogo intellekta [Problematics of ethical regulation of artificial intelligence research]. XIII mezhdunarodnaya konferentsiya «Teoreticheskaya i prikladnaya etika: Traditsii i perspektivy - 2021. Etika kak nauka i professiya». Sankt-Peterburgskiy Gosudarstvennyy Universitet, 18-20 noyabrya 2021 g. Materialy konferentsii [The 13th International Conference "Theoretical and Applied Ethics: Traditions and Prospects - 2021. Ethics as a science and profession". St. Petersburg State University, November 18-20, 2021], ed. by V. Yu. Perov. St. Petersburg, OOO «Sborka» publ, 2021. Pp. 205-206. (in Russian).

6. Cole M, Cant C, Ustek Spilda F. & Graham M. (2022) Politics by Automatic Means? A Critique of Artificial Intelligence Ethics at Work. Frontiers in Artificial Intelligence. 2022. Vol. 5. URL:

https://www.frontiersin.org/articles/10.3389/frai.2022.869114/full doi:

10.3389/frai.2022.869114 (accessed: 19 April 2023)

7. Bossmann J. Top-9 ethical issues in artificial intelligence. Word economic forum. URL: https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/ (accessed: 14 April 2023)

8. Floridi L. Should we be afraid of AI? Machines seem to be getting smarter and smarter and much better at doing human jobs, but real AI is completely implausible. Why? Aeon. Publication date: May 9, 2016. URL: https://aeon.co/essays/true-ai-is-both-logically-possible-and-utterly-implausible (accessed: 14 April 2023)

9. Avdeeva I. A. Otvetstvennost' v epokhu tekhnogennoy tsivilizatsii [Responsibility in the era of technogenic civilisation] XI mezhdunarodnaya konferentsiya «Teoreticheskaya i prikladnaya etika: Traditsii i perspektivy - 2019. K gryadushchemu tsifrovomu obshchestvu. Opyt eticheskogo prognozirovaniya (100 let so dnya rozhdeniya D.Bella - 1919-2019)» [The 11th International Conference "Theoretical and Applied Ethics: Traditions and Prospects - 2019. Towards the Coming Digital Society. The experience of ethical forecasting (100 years since the birth of D. Bell (1919-2019))". St. Petersburg State University, November 21-23, 2019], ed. by V. Yu. Perov. St. Petersburg, OOO «Sborka» publ, 2019. Pp. 168-169. (in Russian).

10. Smirnov S. A. Etika dlya iskusstvennogo intellekta (AI) i chelovek v norme [Ethics for Artificial Intelligence (AI) and the human in the norm]. XIII mezhdunarodnaya konferentsiya «Teoreticheskaya i prikladnaya etika: Traditsii i perspektivy - 2021. Etika kak nauka i professiya». [The 13th International Conference "Theoretical and Applied Ethics: Traditions and Prospects - 2021. Ethics as a science and profession". St. Petersburg State University, November 18-20, 2021], ed. by V. Yu. Perov. St. Petersburg, OOO «Sborka» publ, 2021. Pp. 216-217 (in Russian).

11. Martynova M. D. Dilemmy «tsifrovogo doveriya» i ikh vliyanie na nravstvennoe razvitie lichnosti v kontekste stanovleniya «tsifrovogo obrazovaniya» [Dilemmas of "digital trust" and their impact on the moral development of the individual in the context of the formation of "digital education"]. XI mezhdunarodnaya konferentsiya «Teoreticheskaya i prikladnaya etika: Traditsii i perspektivy - 2019. K gryadushchemu tsifrovomu obshchestvu. Opyt eticheskogo prognozirovaniya (100 let so dnya rozhdeniya D.Bella - 1919-2019)» [The 11th International Conference "Theoretical and Applied Ethics: Traditions and Prospects. Towards the Coming Digital Society. The experience of ethical forecasting (100 years since the birth of D. Bell (1919-2019))". St. Petersburg State University, November 18-20, 2021], ed. by V. Yu. Perov. St. Petersburg, OOO «Sborka» publ, 2019. Pp. 173-174. (in Russian).

12. Bostrom N. Ethical Issues in Advanced Artificial Intelligence. Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, vol. 2, ed. by I. Smit, W. Wallach, G.E. Lasker (eds), (IIAS-147-2003), Tecumseh, ON: International Institute of Advanced Studies in Systems Research and

Cybernetics, 2003, pp. 12-17. URL: http://www.nickbostrom.com (accessed: 14 April 2023)

13. Ramon López de Mántaras. Towards artificial intelligence: Advances, challenges, and risks. 2012. URL: https://www.redalyc.org/iournal/5117/511766773020/ (accessed: 19 April 2023)

14. Cave, St., 2019, To Save Us from a Kafkaesque Future, We Must Democratise AI. The Guardian, 04 January 2019. URL: https://www.theguardian.com/commentisfree/2019/ian/04/future-democratise-ai-artificial-intelligence-power (accessed: 19 April 2023)

15. Kashirin A. Yu., Nazarova Yu. V. Dilemmy etiki iskusstvennogo intellekta [Dilemmas of Artificial Intelligence Ethics]. Gumanitarnye vedomosti TGPU im. L. N. Tolstogo. Tula, 2020. No 4 (36). Pp. 23-31. URL: https://tsput.ru/fb//hum/2020/№4%20(36)/23/index.html. DOI 10.22405/2304-47722020-1-4-23-31 (accessed: 14 April 2023) (in Russian).

16. Pause Giant AI Experiments: An Open Letter. Future of Life, Institute. Publication date: 22 March 2023. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (accessed: 19 April 2023).

Статья поступила в редакцию 04.05.2023 Статья допущена к публикации 15.07.2023

The article was received by the editorial staff04.05.2023 The article is approved for publication 15.07.2023

i Надоели баннеры? Вы всегда можете отключить рекламу.