Научная статья на тему 'Риски, угрозы и вызовы внедрения искусственного интеллекта и нейросетевых алгоритмов в современную систему социально-политических коммуникаций: по материалам экспертного исследования'

Риски, угрозы и вызовы внедрения искусственного интеллекта и нейросетевых алгоритмов в современную систему социально-политических коммуникаций: по материалам экспертного исследования Текст научной статьи по специальности «Право»

CC BY
834
50
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / нейросетевые алгоритмы / социально-политическая коммуникация / «умные» технологии / социально-политические риски / угрозы и вызовы / artificial intelligence / neural network algorithms / socio-political communication / smart technologies / socio-political risks / threats and challenges

Аннотация научной статьи по праву, автор научной работы — Володенков Сергей Владимирович, Федорченко Сергей Николаевич, Печенкин Николай Михайлович

В условиях глобальных технологических трансформаций и активного проникновения в цифровое пространство социально-политических коммуникаций технологий искусственного интеллекта и алгоритмов нейросетей сегодня формируется новый формат социально-политических взаимодействий, определяемый широким использованием в коммуникационных процессах «умных» инструментов и механик генерации и трансляции контента. В связи с этим формируется запрос на проведение научных исследований процессов влияния искусственного интеллекта и нейросетей на содержательные и функциональные параметры современных социально-политических коммуникационных взаимодействий. Целью исследования стало определение взаимосвязи между «умными» технологиями и трансформацией современного пространства социально-политических коммуникаций в аспекте формирования рисков, угроз и вызовов нового типа, связанных с внедрением в актуальную практику социально-политических коммуникаций цифровых решений, базирующихся на применении технологий искусственного интеллекта и нейросетевых алгоритмов. В качестве основного исследовательского вопроса выступает проблематика степени и характера влияния процессов внедрения технологий искусственного интеллекта и нейросетевых алгоритмов в современное пространство социально-политических коммуникаций. Для достижения цели исследования и ответа на поставленный исследовательский вопрос авторами был применен метод дискурс-анализа научных источников по данной теме, а также проведено международное экспертное исследование, позволившее выявить ключевые экспертные позиции по теме исследования и на основе комплексирования полученных экспертных оценок определить основные риски, угрозы и вызовы социально-политического характера, формирующиеся в процессах современных цифровых коммуникаций. В качестве главного вывода работы выступает обоснованный и подтвержденный результатами исследования тезис о наличии широкого спектра социально-политических рисков, угроз и вызовов, связанных с внедрением в процессы современной цифровой коммуникации технологий искусственного интеллекта и нейросетевых алгоритмов. Также проведен содержательный анализ данных рисков, угроз и вызовов нового типа, способных в значительной степени повлиять на характер, динамику и сценарии современного технологического развития ключевых сфер жизнедеятельности современного государства и общества.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Володенков Сергей Владимирович, Федорченко Сергей Николаевич, Печенкин Николай Михайлович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Risks, Threats, and Challenges of Introducing Artificial Intelligence and Neural Network Algorithms into the Contemporary System of Socio-Political Communications: The Results of Expert Study

In the context of global technological transformations and active penetration of artificial intelligence technologies and neural network algorithms into the digital space of socio-political communications, a new format of socio-political interactions is being formed today, defined by the widespread use of “smart” tools and mechanics of content generation and broadcasting in communication processes. In this regard, there is a demand for scientific research into the processes of the influence of artificial intelligence and neural networks on the content and functional parameters of modern socio-political communication interactions. The purpose of this study was to determine the relationship between “smart” technologies and the transformation of the contemporary space of sociopolitical communications in terms of the formation of risks, threats and challenges of a new type associated with the introduction of digital solutions based on the application of artificial intelligence technologies and neural network algorithms in the current practice of sociopolitical communications. The main research question is the extent and nature of the impact of the introduction of artificial intelligence technologies and neural network algorithms in the contemporary space of socio-political communications. To achieve the research goal and answer the research question, the authors applied the method of discourse analysis of scientific sources on the research topic, as well as conducted an international expert study, which allowed to identify key expert positions on the research topic and, based on the compilation of expert assessments, to identify the main risks, threats and challenges of socio-political nature formed in the processes of modern digital communications. The main conclusion of the paper is the thesis, substantiated and confirmed by the results of the research, that there is a wide range of socio-political risks, threats and challenges associated with the introduction of artificial intelligence technologies and neural network algorithms into the processes of contemporary digital communication. The paper provides a meaningful analysis of these risks, threats and challenges of a new type that can significantly affect the nature, dynamics and scenarios of the contemporary technological development of key spheres of life of the contemporary state and society.

Текст научной работы на тему «Риски, угрозы и вызовы внедрения искусственного интеллекта и нейросетевых алгоритмов в современную систему социально-политических коммуникаций: по материалам экспертного исследования»

RUDN Journal of Political Science. ISSN 2313-1438 (print), ISSN 2313-1446 (online) 2024 Vol. 26 No. 2 406-424 Вестник Российского университета дружбы народов. Серия: ПОЛИТОЛОГИЯ http://purna|s.rudn.rii/po|ta|-sdence

ЦЕННОСТИ В КОММУНИКАТИВНЫХ ПРОЦЕССАХ: СМЫСЛОВЫЕ И ТЕХНОЛОГИЧЕСКИЕ АСПЕКТЫ

VALUES IN COMMUNICATION PROCESSES: SEMANTIC AND TECHNOLOGICAL ASPECTS

DOI: 10.22363/2313-1438-2024-26-2-406-424 EDN: LWSYCV

Научная статья / Research article

Риски, угрозы и вызовы внедрения искусственного интеллекта и нейросетевых алгоритмов в современную систему социально-политических коммуникаций: по материалам экспертного исследования

С.В. Володенков Э И1 2, С.Н. Федорченко1' 2 , Н.М. Печенкин1' 3 ©

1 Государственный академический университет гуманитарных наук, Москва,

Российская Федерация

2 Московский государственный университет имени М.В. Ломоносова, Москва,

Российская Федерация 3 Финансовый университет при Правительстве РФ, Москва, Российская Федерация

И [email protected]

Аннотация. В условиях глобальных технологических трансформаций и активного проникновения в цифровое пространство социально-политических коммуникаций технологий искусственного интеллекта и алгоритмов нейросетей сегодня формируется новый формат социально-политических взаимодействий, определяемый широким использованием в коммуникационных процессах «умных» инструментов и механик генерации и трансляции контента. В связи с этим формируется запрос на проведение научных исследований процессов влияния искусственного интеллекта и нейросетей на содержательные и функциональные параметры современных социально-политических коммуникационных взаимодействий. Целью исследования стало определение взаимосвязи между «умными» технологиями и трансформацией современного пространства социально-политических коммуникаций в аспекте формирования рисков, угроз и вызовов нового типа, связанных с внедрением в актуальную практику социально-политических коммуникаций цифровых решений, базирующихся на применении технологий искусственного интеллекта и нейросетевых алгоритмов. В качестве основного исследовательского вопроса выступает проблематика степени

© Bo^ogemoB C.B., ®egopneHKO C.H., neneHKHH H.M., 2024

lice) (D® I This work is licensed under a Creative Commons Attribution 4.0 International License

Ife^KaEM https://creativecommons.org/licenses/by-nc/4.0/legalcode

и характера влияния процессов внедрения технологий искусственного интеллекта и нейро-сетевых алгоритмов в современное пространство социально-политических коммуникаций. Для достижения цели исследования и ответа на поставленный исследовательский вопрос авторами был применен метод дискурс-анализа научных источников по данной теме, а также проведено международное экспертное исследование, позволившее выявить ключевые экспертные позиции по теме исследования и на основе комплексирования полученных экспертных оценок определить основные риски, угрозы и вызовы социально-политического характера, формирующиеся в процессах современных цифровых коммуникаций. В качестве главного вывода работы выступает обоснованный и подтвержденный результатами исследования тезис о наличии широкого спектра социально-политических рисков, угроз и вызовов, связанных с внедрением в процессы современной цифровой коммуникации технологий искусственного интеллекта и нейросетевых алгоритмов. Также проведен содержательный анализ данных рисков, угроз и вызовов нового типа, способных в значительной степени повлиять на характер, динамику и сценарии современного технологического развития ключевых сфер жизнедеятельности современного государства и общества.

Ключевые слова: искусственный интеллект, нейросетевые алгоритмы, социально-политическая коммуникация, «умные» технологии, социально-политические риски, угрозы и вызовы

Благодарности: Исследование выполнено в рамках проекта «FZNF-2023-0011 — Искусственный интеллект и нейросетевые технологии как инструмент современных социально-политических коммуникаций: риски, угрозы и вызовы» при поддержке Министерства науки и высшего образования Российской Федерации и Экспертного института социальных исследований.

Для цитирования: Володенков С.В, Федорченко С.Н., Печенкин Н.М. Риски, угрозы и вызовы внедрения искусственного интеллекта и нейросетевых алгоритмов в современную систему социально-политических коммуникаций: по материалам экспертного исследования // Вестник Российского университета дружбы народов. Серия: Политология. 2024. Т. 26. № 2. С. 406-424. https://doi.org/10.22363/2313-1438-2024-26-2-406-424

Risks, Threats, and Challenges of Introducing Artificial Intelligence and Neural Network Algorithms into the Contemporary System of Socio-Political Communications:

The Results of Expert Study

Sergey V. Volodenkov Ь И1 2, Sergey N. Fedorchenko1, 2 (S, Nikolai M. Pechenkin1, 3 D

1 State Academic University for the Humanities, Moscow, Russian Federation

2 Lomonosov Moscow State University, Moscow, Russian Federation

3 Financial University under the Government of the Russian Federation, Moscow, Russian

Federation

И [email protected]

Abstract. In the context of global technological transformations and active penetration of artificial intelligence technologies and neural network algorithms into the digital space of socio-political communications, a new format of socio-political interactions is being

formed today, defined by the widespread use of "smart" tools and mechanics of content generation and broadcasting in communication processes. In this regard, there is a demand for scientific research into the processes of the influence of artificial intelligence and neural networks on the content and functional parameters of modern socio-political communication interactions. The purpose of this study was to determine the relationship between "smart" technologies and the transformation of the contemporary space of sociopolitical communications in terms of the formation of risks, threats and challenges of a new type associated with the introduction of digital solutions based on the application of artificial intelligence technologies and neural network algorithms in the current practice of sociopolitical communications. The main research question is the extent and nature of the impact of the introduction of artificial intelligence technologies and neural network algorithms in the contemporary space of socio-political communications. To achieve the research goal and answer the research question, the authors applied the method of discourse analysis of scientific sources on the research topic, as well as conducted an international expert study, which allowed to identify key expert positions on the research topic and, based on the compilation of expert assessments, to identify the main risks, threats and challenges of socio-political nature formed in the processes of modern digital communications. The main conclusion of the paper is the thesis, substantiated and confirmed by the results of the research, that there is a wide range of socio-political risks, threats and challenges associated with the introduction of artificial intelligence technologies and neural network algorithms into the processes of contemporary digital communication. The paper provides a meaningful analysis of these risks, threats and challenges of a new type that can significantly affect the nature, dynamics and scenarios of the contemporary technological development of key spheres of life of the contemporary state and society.

Keywords: artificial intelligence, neural network algorithms, socio-political communication, smart technologies, socio-political risks, threats and challenges

Acknowledgements: The study was carried out within the framework of the project «FZNF-2023-0011 — Artificial intelligence and neural network technologies as a tool for modern socio-political communications: risks, threats and challenges» with the support of the Ministry of Science and Higher Education of the Russian Federation and the Expert Institute of Social Research.

For citation: Volodenkov, S.V., Fedorchenko, S.N., & Pechenkin, N.M. (2024). Risks, threats, and challenges of introducing artificial intelligence and neural network algorithms into the contemporary system of socio-political communications: The results of expert study. RUDN Journal of Political Science, 26(2), 406-424. (In Russian). https://doi.org/10.22363/2313-1438-2024-26-2-406-424

Введение

При определении ключевых направлений современного академического дискурса по выбранному проблемному полю мы можем выделить несколько важнейших тематик, которые встречаются в научных работах исследователей в сегменте социально-политических рисков внедрения технологий искусственного интеллекта (далее — ИИ). Так, в качестве одного из аспектов ученые выделяют автоматизацию, связанную с ИИ. Например, существует

осторожная оценка, касающаяся последовательных волн автоматизации и появления рисков в отдаленном будущем. В период первой волны, которая должна завершиться в середине 2020-х гг., автоматизация затронет финансовый и IT-сектора и области операций с открытыми данными. Вторая волна автоматизации (конец 2020-х гг.) будет предполагать приобретение новых когнитивных и физических возможностей у людей-операторов в сфере розничных продаж, доставки и хранения. Наконец, для третьей волны (середина 2030-х гг.) будет характерно возникновение автономных систем и переход принятия решений к ИИ [Вислова 2020]. В существующих работах также описываются признаки сценария будущего на основе цифрового мониторинга (биометрии, видеофиксации), установления стандартов посредством алгоритмов [Hildebrandt 2018].

Другие авторы также обращают внимание на отдаленные фундаментальные или экзистенциальные риски ИИ, опасные для самого существования человека как субъекта социальных отношений. Н.В. Пашкова подчеркивает, что смысл экзистенциального риска кроется не в физическом исчезновении всего человеческого, а в утрате человеком рефлексии, без которой он не сможет выстроить свое же пространство, воздействуя на общество творчеством, открытиями, интеллектуальной деятельностью. С таким риском связаны факторы высоких скоростей, стирания грани между вымышленным и реальным, влияния виртуальной среды на социализацию человека [Пашкова 2023], что может привести к кризису прежних идентичностей, зарождению специфических сообществ людей, существующих благодаря компьютерным технологиям и свободному обмену информацией [Соколов 2012].

При этом сегодня существует и значительный корпус работ, в которых анализируются не отдаленные риски, а те социальные проблемы цифрового общества, которые могут обостриться из-за внедрения технологий ИИ. Так, Э.В. Талапина пишет о рисках некачественных, небезопасных результатов, предвзятости; деградации существующих социальных связей; вторжения интеллектуальных систем в частную жизнь; отказа от автономии личности при использовании ИИ прогнозов и классификаций; непонимания человеком высокомерных корреляций, практикуемых в машинном обучении [Талапина 2021]. Схожие риски (распад социальных связей, непредсказуемость, сбои и ошибки интеллектуальных систем, ненадежные результаты, проблемы с ответственностью, конфиденциальностью информации и др.) анализирует И.Н. Романова, добавляя к этому перечню риски в военном плане, потерю суверенитета, потерю контроля над экономикой страны, манипулирование политическими системами [Романова 2021]. Правда, последнее замечание автор не поясняет.

Авторы, анализирующие кейсы создания персонализованной рекламы и психологических портретов Cambridge Analytica, предупреждают, что алгоритмы могут использоваться для усугубления поляризации мнений, политической предвзятости, создания манипулятивной, сфабрикованной информации, усиления эмоционального контента, подмены дискуссий, ставя тем самым саму

демократию под угрозу [Цвык, Цвык 2022; Nemitz 2018]. П. Немитц связывает риски ИИ с описываемым им феноменом digital power concentration (концентрации цифровой власти). Данный феномен Немитц фиксирует на основе четырех трендов, являющихся, по его мнению, источниками цифровой власти у цифровых корпоративных медиаигроков:

а) накопление денег у этого типа корпораций, способных влиять на политику и общество;

б) воздействие корпораций на инфраструктуру общественного дискурса;

в) использование корпорациями персональной информации людей и технологий профилирования;

г) доминирование корпораций в разработках в сфере ИИ [Nemitz 2018].

Об опасности политико-пропагандистского манипулирования свидетельствуют и анализируемые в научной литературе факты попыток перепрограммирования (Microsoft Tay, BabyQ, Xiao Bing) [Xu 2018]; сбора и использования поведенческих данных посредством машинного обучения; ориентации сообщений на восприимчивых граждан; усиления и установления повестки дня посредством политических ботов; обработки естественного языка для понимания настроений масс; использования фейков, созданных на базе ИИ [Horowitz 2018]. При этом современные исследователи часто четко не отделяют риски формирования социума круглосуточной слежки, сбора данных о гражданской активности от угроз возникновения новых практик управления массовым сознанием [Ulbricht 2020].

Также существует мнение, что ИИ может усилить существующие проблемы в правовой области, сосредоточив внимание специалистов на юридическом формализме в ущерб содержательной стороне права. Сочувствие, сопереживание и творчество, чрезвычайно важные в юридическом процессе, редуцируются и теряют свою силу. Из-за того что у ИИ нет эмоций, страха, может происходить дегуманизация права [Овчинников 2020]. В свою очередь Д.С. Жуков напоминает, что население России и западных стран уже существует в среде, которая перенасыщена рейтинговыми системами. Это актуализирует риски ускользания рейтинговых систем, использующих принципы ИИ, от публичного контроля. Вместе с тем, условно обозначая «приложения ИИ в политической сфере» как «политический искусственный интеллект», Жуков подчеркивает, что его создание не обязательно связано только с угрозами. Напротив, игнорирование создания политического ИИ ставит вопрос о выживании политической системы страны [Жуков 2020].

Цифровой суверенитет в эпоху активного внедрения интеллектуальных систем действительно также является важным вызовом для государства, его политической системы и политического режима. Неслучайно современные государства начинают выбирать стратегии противостояния тотальному вмешательству цифровых техногигантов в свою внутреннюю и внешнюю политику, в том числе создавая национальные цифровые государственные экосистемы [Гавриленко 2023]. Тем более, что интеллектуальные машины, создаваемые цифровыми корпорациями, не только анализируют цифровые следы человека,

но и способны подталкивать его к принятию нужного интересантам решения, используя разработки в области поведенческих реакций.

Также встречаются исследования [КиЫег 2017], переосмысливающие работу Дж. Чейни-Липпольда «Новая алгоритмическая идентичность» (2011 г.) и труд Д. Маккуиллана «Алгоритмическое чрезвычайное положение» (2015 г.). Здесь применение современных алгоритмов рассматривается как вызов онтологическим моделям традиционных государственных субъектов. Такие системы могут создаваться как в качестве цифрового продолжения жестких форм государственной власти, так и для применения более мягких технологий наблюдения или биополитики.

Таким образом, мы можем констатировать формирование в последние годы научного дискурса на фоне разворачивающихся процессов интенсивного развития технологий ИИ, в рамках которого фиксируются потенциальные социально-политические угрозы, риски и вызовы ключевым сферам жизнедеятельности современных государств и обществ, которые требуют их определения, глубокого рассмотрения и анализа современными специалистами и учеными в области политических наук.

Обращение авторов статьи к экспертной проверке позволило дать свой ответ на поставленный в работе исследовательский вопрос о характере и степени влияния процессов внедрения технологий ИИ и нейросетевых алгоритмов на современное пространство социально-политических коммуникаций, определив при этом актуальные угрозы, вызовы и риски, связанные с данными процессами.

Методология исследования

В настоящей работе в качестве основного исследовательского вопроса выступает проблематика характера и степени влияния процессов внедрения технологий ИИ и нейросетевых алгоритмов в современное пространство социально-политических коммуникаций.

В целях определения аргументированного ответа на поставленный исследовательский вопрос авторами работы был применен метод дискурс-анализа научных источников по теме исследования.

Для более глубокого понимания основных линий напряжения, связанных с обозначенной проблематикой, авторами настоящей работы в сентябре-ноябре 2023 г. было проведено экспертное исследование «Искусственный интеллект и нейросетевые технологии как инструмент современных социально-политических коммуникаций: риски, угрозы и вызовы», в рамках которого приняли участие 28 экспертов из России, Белоруссии, Сербии, Казахстана, США, Кыргызстана и Узбекистана.

Комплексирование полученных в ходе исследования ответов позволило оценить степень и характер влияния ИИ и нейросетевых алгоритмов на современные социально-политические коммуникации, а также определить ключевые риски, угрозы и вызовы для современного государства и общества, связанные с применением ИИ и нейросетевых технологий.

Результаты экспертного исследования

Оценка степени и характера влияния искусственного интеллекта и нейросетевых технологий на процессы современных социально-политических коммуникаций

В целом эксперты весьма высоко оценили степени влияния ИИ и нейросе^ тевых технологий на дизайн и содержание процессов современных социально' политических коммуникаций.

На рис. 1 можно увидеть распределение экспертных баллов по данному во просу, средний уровень оценки степени влияния — 7 баллов.

Рис. 1. Оценка степени влияния искусственного интеллекта и нейросетевых технологий на современные социально-политические коммуникации (количественная оценка от 1 до 10 баллов: 1 — абсолютное отсутствие влияния, 10 —

максимальное влияние) Источник: составлено авторами.

Figure 1. Assessing the degree of influence of artificial intelligence and neural network technologies on contemporary socio-political communications (quantitative score from 1 to 10 points: 1 — no effect at all, 10 — maximum influence)

Source: compiled by the authors.

Одновременно с этим, помимо количественной оценки, в рамках исследования экспертам было предложено содержательно оценить влияние искусственного интеллекта и нейросетевых технологий на современные социально-политические коммуникации. На рис. 2 представлено распределение качественных экспертных оценок такого влияния. Примечательно, что никто из опрошенных экспертов не отметил однозначно положительное влияние «умных» технологий на пространство социально-политических коммуникаций. Преимущественно участники исследования отмечали скорее отрицательный и однозначно отрицательный характер влияния.

Рис. 2. Оценка характера влияния искусственного интеллекта и нейросетевых технологии на современные

социально-политические коммуникации Источник: составлено авторами.

What is the influence of Al and neural network technologies on socio-political communications

of responses 7

■ Negative Rather negative

Figure 1. Assessing the nature of the influence of artificial intelligence and neural network technologies on contemporary

socio-political communications Source: compiled by the authors.

Содержательные аспекты влияния искусственного интеллекта и нейросетевых технологий на процессы современных социально-политических коммуникаций

Как отмечает большинство участников исследования, являясь лишь инструментами, в настоящее время по-прежнему используемыми и контролируемыми человеком, ИИ и нейросетевые алгоритмы сами по себе не обладают конструктивным или деструктивным потенциалом (по крайней мере, до тех пор, пока не будет создан и внедрен сильный ИИ (ASI)). В связи с этим на сегодняшний день более уместно говорить о конструктивных и деструктивных потенциалах, связанных с применением людьми соответствующих технологических инструментов. При этом эксперты отметили в своих ответах, что на данный момент деструктивный потенциал «умных» технологий и алгоритмов в социально-политической сфере во многом превосходит выгоды от их использования, и для изменения ситуации необходимо проактивное формирование комплекса взвешенных политических решений, направленных на противодействие негативному влиянию ИИ и нейросетей в ключевых сферах жизнедеятельности современного государства и общества при сохранении конструктивного потенциала.

В целом по итогам комплексирования ответов участников исследования мы можем выделить ключевые направления, в рамках которых ИИ и нейросе-тевые алгоритмы могут влиять на современные социально-политические коммуникации, формируя соответствующие риски, угрозы и вызовы современному государству и обществу.

1. Автоматизированный анализ Big Data и утрата приватности. ИИ позволяет оперативно обрабатывать и анализировать большие объемы данных, в том числе оставляемые пользователями в процессах их цифровой активности многообразные персональные данные и «цифровые следы». Это помогает политическим акторам адаптировать свои коммуникационные стратегии и агитационно-пропагандистский контент под ожидания, убеждения, представления целевых аудиторий, позволяя вырабатывать персонализированные политики по отношению к значительному множеству отдельных людей и их групп. Кроме того, данный инструментальный потенциал работы с Big Data делает ИИ пригодным для выявления специфики мышления представителей целевых аудиторий, а также мониторинга и прогнозирования политического поведения как на массовом, так и на групповом и индивидуальном уровнях. Такой мониторинговый и прогностический потенциал значительным образом повышает эффективность деятельности заинтересованных акторов по достижению своих политических целей на основе получаемой аналитической информации. Как отметил один из экспертов, «виртуализация и имитация социально-политической коммуникации „сжимается" до майнинга социальных данных, построения на их основе прогнозных продуктов и принятия алгоритмических решений». Неслучайно многие работы современных ученых посвящены именно данной проблематике. Особо отметим в этой связи концепцию капитализма слежения (надзорного капитализма), разработанную Ш. Зубофф [Зубофф 2022], в которой указывается, что бенефициары, стоящие за процессами сбора, обработки, хранения и использования

цифровых массивов больших данных знают о гражданах больше, чем граждане сами о себе. В подобной ситуации использование автоматизированных алгоритмов обработки Big Data на основе технологий ИИ лишь усугубляет проблему, позволяя в автоматическом режиме осуществлять сбор, обработку, анализ и использование персональной информации в интересах владельцев таких алгоритмов, которыми могут, помимо государств, технологических компаний, политических сил, выступать террористические, радикальные и экстремистские организации.

2. Персонализация контента и формирующее воздействие на массовое сознание. Как уже было показано выше, нейросетевые алгоритмы на основе анализа цифровых следов пользователей обладают потенциалом персонали-зации и адаптации социально-политического контента к групповым либо индивидуальным предпочтениям и потребностям граждан. Это значительным образом повышает эффективность информационно-коммуникационного воздействия, позволяя оптимизировать коммуникационные стратегии и тактики политических проектов. В результате, по мнению экспертов, уже в ближайшей перспективе мы можем стать свидетелями перехода от таргетинга гомогенных социально-демографических групп к персонификации политики политических субъектов применительно к каждому конкретному человеку или группе граждан. Причем такая персонификация может осуществляться в автоматическом режиме, в рамках которого алгоритмы социальных медиа и поисковых систем, работающие на основе ИИ, самостоятельно определяют, какой контент должен отображаться для каждого пользователя в его новостной ленте или результатах поисковой выдачи. Это существенным образом может повлиять на то, какую информацию аудитория получает, а какой контент остается недоступным и «невидимым» для нее.

В целом формирующее воздействие «умных» технологий определяется, по мнению участников исследования, тем, что алгоритмы ИИ и нейросетевые алгоритмы в автоматическом режиме могут при помощи генерации, фильтрации и трансляции социально-политического контента задавать оценки социально-политических фактов, событий, процессов, явлений, политиков, создавая определенным образом нагруженные и ценностно окрашенные образы, манипулируя поисковой выдачей, участвуя в реализации задач внешнего информационного давления, в том числе на избирательные системы, мобилизуя массовые протест-ные настроения, устанавливая «правильные» социально-политические ориентиры в политике.

К числу рисков следует отнести и редукцию сложности мировоззренческих и ценностно-смысловых систем граждан, деградацию коммуникативных навыков и компетенций общественно-политического взаимодействия. В условиях фильтрации цифровых информационных потоков, алгоритмического создания пузырей фильтров и ограничения видимости контента обычный человек оказывается, по сути, информационно капсулированным, лишенным альтернативных точек зрения, иных мнений, потребляя лишь доминирующий в искусственно созданной информационной повестке контент, пользуясь для оценки

социально-политической реальности заранее сгенерированными простыми объяснительными моделями, максимально адаптированными к субъективным особенностям реципиента, специфике его убеждений, ценностей, представлений. В качестве примера можно привести чат-бот Google Bard с ИИ, который на момент написания статьи не давал никаких ответов пользователям о текущей ситуации в Израиле и секторе Газа, полностью блокируя информацию о ситуации1. По сути, в цифровом пространстве все в большей мере внедряется автоматизированное управление информационной повесткой, в рамках которой формируется необходимый общественно-политический дискурс, а также осуществляется навязывание «выгодных» смыслов, проблем, ценностей социально-политического характера, а следовательно, и соответствующих поведенческих моделей.

При этом особое внимание в условиях обострения геополитических угроз в современном мире обращают на себя возможности внешнего экстерриториального информационно-коммуникационного воздействия на политическое сознание граждан стран-мишеней со стороны технологически развитых противников. Как отметил в этой связи Президент России В.В. Путин, «западные поисковые системы, как и некоторые генеративные модели, работают зачастую весьма избирательно, ангажированно, не учитывают, а порой — просто игнорируют и „отменяют" российскую культуру»2.

3. Дезинформация, fake-news и автоматизированная вычислительная пропаганда. Значительное число экспертов, принявших участие в исследовании, указали на такой риск, как использование технологий ИИ и нейросетевых алгоритмов для манипулирования мнением рядовых потребителей цифрового контента. На данный момент анализ актуальной практики применения нейро-сетевых алгоритмов в процессах генерации социально-политического контента демонстрирует способность создания фейковых текстов, фотоизображений, аудио- и видеозаписей, дискредитирующих политических оппонентов. Такой контент имеет значительный потенциал своего применения в кампаниях по дезинформации целевых аудиторий. Как в связи с этим отмечает глава OpenAI Сэм Альтман, «я ожидаю, что ИИ будет способен к сверхчеловеческому убеждению задолго до того, как он превзойдет человека в базовых интеллектуальных способностях»3. По мнению участников исследования, «умные» технологии способны значительным образом искажать социально-политическую реальность, наполняя пространство социально-политических коммуникаций сфабрикованным содержанием и формируя управляемый общественно-политический дискурс. То есть речь идет о широких возможностях автоматизированного деструктивного воздействия на социум и его дезориентации, формирования управляемых

1 Google Bard AI appears to be censoring Israel-Palestine prompt responses. URL: https:// venturebeat.com/ai/google-bard-ai-appears-to-be-censoring-israel-palestine-prompt-responses/ (accessed: 26.11.2023).

2 Путин заявил, что часть западных поисковых систем работают ангажированно. URL: https://tass.ru/politika/19372929 (дата обращения: 26.11.2023).

3 ChatGPT chief warns of some 'superhuman' skills AI could develop. URL: https://www.foxnews. com/us/chatgpt-chief-warns-superhuman-skills-ai-develop (accessed: 24.11.2023).

политических коннотаций и общественных запросов, манипулирования общественным мнением при помощи «умных» технологий.

И здесь особое внимание эксперты уделяют вопросам использования технологий автоматизированной вычислительной пропаганды в современной практике социально-политических коммуникаций, отмечая при этом, что реалистичные аккаунты цифровых актантов в пространстве социальных медиа, репрезентирующие вымышленных или реальных людей, способные к автоматической генерации и трансляции таргетированного контента на основе предварительного анализа цифровых следов пользователей, могут быть применены в широких масштабах в процессах цифровых коммуникаций, подменяя собой реальных пользователей, обеспечивая продвижение необходимого контента в сознание целевых аудиторий манипулятивно-пропагандистского воздействия.

При этом, получая в виде цифровых следов информацию о реакциях пользователей на полученный контент, цифровой алгоритм позволяет (в том числе в автоматическом режиме) на основе анализа пользовательских реакций уточнять, дополнять, трансформировать контент для следующей коммуникационной итерации (и так необходимое число раз), тем самым постоянно увеличивая эффективность информационно-коммуникационного воздействия на целевые аудитории. В результате формируется потенциал реализации такого сценария, в рамках которого манипулятивно-пропагандистский фейк-контент будет доминировать в цифровом пространстве социально-политических коммуникаций как за счет широкого использования маскирующихся под реальных пользователей цифровых актантов, осуществляющих масштабную трансляцию тарге-тированного фейк-контента на цифровых площадках, так и за счет постоянной подстройки такого контента к особенностям целевых аудиторий на основе алгоритмического использования обратной связи с пользователями в виде их цифровых следов.

4. Транснациональные компании как политические акторы. По мнению участников исследования, контроль над значительным числом общественно значимых цифровых платформ позволяет корпорациям встраиваться в качестве «супер-модератора» в социальные и политические отношения для реализации корпоративных коммерческих, культурных и политических стратегий. Усугубляет ситуацию разработка и использование техногигантами собственных инструментов ИИ и нейросетей. По сути, сегодня сформировалась ситуация, в которой владельцы крупных цифровых платформ в большинстве случаев являются также и владельцами «умных» решений, разрабатываемых ими. Так, компания Google разработала чат-бот с ИИ Bard и нейросеть PaLM2, корпорация Microsoft интегрировала в свои продукты нейросеть Bing (поисковик Bing) и помощника на базе ИИ Copilot (Windows), а также является крупнейшим инвестором Open AI — разработчика нейросети GPT-4 и чат-бота ChatGPT. Нейросеть Meta AI также выступает примером концентрации в руках техноги-гантов не только цифровых коммуникационных площадок, но и «умных» технологий, которые могут быть использованы в процессах поиска и потребления

информации, а также коммуникационных взаимодействий пользователей в пространстве социальных медиа.

Кроме того, потенциальные возможности применения политического ИИ Интернет-корпорациями для персонификации манипулятивных воздействий (от рекламных до политических) могут привести к существенному повышению эффективности нелегального и нелегитимного вмешательства корпораций в политические процессы, формирование коллективной и персональной идентичности, трансформацию исторической памяти, формирование образов цифрового будущего. И если общество, организованное в государство, прямо или косвенно (хотя и не всегда в должной мере) посредством государственной машины контролирует наиболее важные аспекты своего существования — такие как применение силы, защита от врагов, обязательность сделок и т.д., то, если сохранятся современные темпы ускоренного развития корпоративного политического ИИ, многие экзистенциальные функции социального управления и самоорганизации могут перейти от государства к Интернет-корпорациям, а население стран может оказаться отсеченным от традиционных источников информации, контролируемых государством. При этом, как отмечают участники исследования, каким бы ни было государство, корпоративное правление всегда будет неизмеримо хуже, так как корпорации неизбираемы, непрозрачны, преследуют частные интересы, находятся преимущественно в юрисдикции США и не разделяют традиционные ценности, присущие современным обществам. Неслучайно, выступая на пленарном заседании конференции AI Journey, Президент России В.В. Путин особо подчеркнул, что «монопольное доминирование подобных чужих разработок в России неприемлемо, опасно и недопустимо»4.

5. Теневизация процессов алгоритмического управления. Тесно связана с предыдущей и такая проблема, как непрозрачность процессов функционирования алгоритмов ИИ и нейросетей, используемых в процессах принятия решений в социально-политической сфере. Говоря об активной алгоритмизации сферы социально-политического управления, следует отметить, что еще в 2006 г. А. Аниш сформулировал концепцию алгократии как власти, основанной и реализуемой на основе автоматизированного использования алгоритмов [Aneesh, 2006].

По мнению участников исследования, сегодня разворачиваются противоречивые и скрытые от социального наблюдения и контроля процессы, связанные с трансформацией смысловых и системообразующих элементов нового властного господства. По сути, современные общества сталкиваются с новой теневой формой принятия и реализации управленческих решений на базе ИИ, системой форм и методов властного господства, распределения ресурсов (энергетических, экономических, силовых и т.д.) и формирования структуры публичных и частных потребностей, прозрачность и объяснимость которых имеют недостаточный уровень. В связи с этим в своем выступлении Президент России В.В. Путин

4 Путин назвал опасной и недопустимой монополию западных платформ в сфере ИИ в РФ. URL: https://tass.ru/politika/19372977 (дата обращения: 26.11.2023).

отметил, что «нужно обязательно использовать российские решения в сфере создания надежных, прозрачных и безопасных для человека систем искусственного интеллекта»5.

Невозможность спрогнозировать действия ИИ как самостоятельного субъекта принятия решений и действий, отсутствие ясности в алгоритмической логике нейросетей приводят к теневизации процессов алгоритмического управления на основе «умных» технологий, непрозрачности конечных бенефициаров подобных управленческих процессов. Как отмечают эксперты, не вполне понятно, насколько полезными и эффективными для общества будут действия ИИ в социально-политической сфере. Например, широко известная потенциальная предвзятость и ценностная окрашенность алгоритмов может с высокой степенью вероятности приводить к несправедливому с точки зрения общественности принятию решений. Как, например, показал опыт анализа чат-бота ChatGPT, нейросеть имеет политическую предвзятость. Так, широкомасштабное исследование, проведенное Университетом Восточной Англии (Великобритания), показало, что ChatGPT явно симпатизирует левым партиям Великобритании, США и Бразилии6. В свою очередь, ученые из Корнеллского университета по итогам своего исследования определили, что ChatGPT имеет собственные политические воззрения и, например, в 2021 г. нейросеть проголосовала бы за «зеленых» в Германии и Голландии. ChatGPT также предложила ввести узаконенное право на аборты по всему миру7. При этом нейросети и ИИ могут значительно усиливать существующие социальные неравенства и предвзятость в случаях, когда данные, на которых они обучаются, также уже содержат искажения или предвзятости. Кроме того, как отметил один из участников исследования, «если результаты решения ИИ будут восприниматься без должной степени критического осмысления, то появится еще один способ „продавливания" слабых и малообоснованных решений в авторитарных государствах». В свою очередь, другой эксперт отметил, что «результатом несбалансированного применения систем принятия решений на базе ИИ может стать рост числа ошибок и в конечном итоге либо нерациональное распределение ресурсов, либо, в худшем случае, угроза жизни и безопасности населения». Таким образом, чрезмерное злоупотребление «умными» алгоритмами при принятии решений способно самым негативным образом повлиять на процессы социально-политического развития в современных государствах.

5 Путин назвал опасной и недопустимой монополию западных платформ в сфере ИИ в РФ. URL: https://tass.ru/politika/19372977 (дата обращения: 26.11.2023).

6 ChatGPT DOES have a left-wing bias: Scientists confirm the AI bot's responses favour the Democrats in the US and the Labour Party in the UK. URL: https://www.dailymail.co.uk/sciencetech/ article-12413139/ChatGPT-DOES-left-wing-bias-Scientists-confirm-AI-bots-responses-favour-Democrats-Labour-Party-UK.html (accessed: 26.11.2023).

7 Генеративная постправда: искусственный интеллект направлен против России. URL: https://topwar.ru/214617-generativnaja-postpravda-iskusstvennyj-intellekt-napravlen-protiv-rossii.html (дата обращения: 26.11.2023).

6. Формирование режимов цифровых автократий. Применение нейросетевых алгоритмов и технологий ИИ расширяет инструментарий государств в области контроля над населением. По мнению ряда участников исследования, в настоящее время «умные» технологии могут активно использоваться автократическими политическими режимами в своих стратегических интересах. При этом формирование режимов цифровой автократии может быть вынужденным. Очевидно, что государству в условиях стремительных технологических трансформаций приходится прилагать серьезные усилия не только в сфере публичного управления, но и в сфере формирования социально-политических представлений, которая является высококонкурентной в силу наличия значительного числа политических акторов нового типа (цифровые корпорации, международные террористические организации и т.д.), способных создавать как внутреннюю, так и внешнюю экстерриториальную конкуренцию государству, подрывая его традиционно монопольное право на генерацию и трансляцию ценностей, идей и смыслов в собственных границах.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В таких обстоятельствах государства вынуждены подавлять конкурентные попытки внедрения в сознание населения альтернативных объяснительных моделей реальности, мировоззренческих компонент, ценностей и смыслов, способных разрушить либо трансформировать национальные общественно-политические системы в интересах альтернативных акторов. И такое подавление конкуренции может иметь негативный характер, выражаясь в виде построения режимов цифровой автократии, направленных на защиту собственного пространства и населения от технологических угроз в информационно-коммуникационном пространстве. В связи с этим актуализируется проблема соблюдения баланса между обеспечением безопасности государства и сохранением общественно-политических прав и свобод граждан.

В случае смещения баланса в сторону обеспечения безопасности государства возникает ситуация, в которой под предлогом защиты государственно-технократические элиты способны обеспечить полный контроль над информационно-коммуникационными потоками, элиминацию социально-политических площадок, каналов и акторов, продвигающих альтернативные идеи и смыслы. И цифровые актанты в таких обстоятельствах могут выступать автономными агентами влияния, обеспечивающими в интересах цифровой автократии монопольную генерацию и трансляцию единственно допустимого контента. Более того, на основе анализа цифровых следов граждан возможно осуществление автоматизированного контроля не только за их политическим поведением, но и за их образом мыслей, политическими настроениями, что позволяет выявлять неугодных и неблагонадежных граждан, представляющих угрозу для стабильного функционирования цифровой автократии, с последующим включением санкционного аппарата.

При этом в условиях глобальной цифровизации ключевых сфер функционирования государства и общества применяемые санкции не обязательно могут носить характер физического принуждения. Системы ИИ способны

в автоматическом режиме применять по отношению к гражданам санкции, основанные на цифровой депривации личности. Тотальное блокирование цифровых активов и счетов, пропусков, аккаунтов, каналов личной коммуникации и доступа к любой информации позволяет обеспечить «цифровую смерть» человека без необходимости его физического устранения в цифровом обществе.

Заключение

По итогам проведенного исследования мы можем сделать несколько ключевых выводов. В первую очередь, на основе комплексирования полученных в ходе экспертного опроса оценок следует констатировать значительную степень влияния ИИ и нейросетевых технологий на современные социально-политические коммуникации. При этом на данный момент, согласно мнению подавляющего большинства экспертов, риски, угрозы и вызовы в социально-политической сфере в существенной мере превышают конструктивный потенциал, связанный с внедрением в нее «умных» технологий, что требует комплексной и заблаговременной разработки превентивных механизмов упреждения негативных последствий применения технологий ИИ и нейросетевых алгоритмов в социально-политической сфере.

Кластеризация экспертных мнений участников исследования позволила определить ключевые социально-политические риски, угрозы и вызовы, к числу которых следует отнести автоматизированный сбор и алгоритмический анализ Big Data, приводящие к рискам утраты приватности личности; персонализацию контента и связанный с ней потенциал алгоритмизированного формирующего воздействия на массовое сознание в автоматическом режиме со стороны нейросетевых комплексов и систем, базирующихся на технологиях ИИ; автоматизированную вычислительную пропаганду, осуществляемую при помощи «умных» цифровых актантов, и связанный с ней потенциал проведения манипулятивно-пропагандистских кампаний и реализации социально-политических проектов по дезинформации и искажению реальности, направленных на различные целевые аудитории информационно-коммуникационного воздействия; формирование нового типа политических акторов в лице транснациональных технологических кампаний, обладающих собственными технологическими ресурсами (системами ИИ и нейросетевыми решениями) и способных составить конкуренцию традиционным государствам в социально-политической сфере в процессах реализации своих интересов; теневизацию процессов алгоритмического управления, характеризующуюся предвзятостью, непрозрачностью и отсутствием ясности в алгоритмической логике нейросетей и ИИ, осуществляющих принятие решений в социально-политической сфере; риски формирования режимов цифровых автократий, основанных на автоматизированном слежении и контроле со стороны государства социально-политического пространства коммуникаций при помощи технологий ИИ и нейросетевых алгоритмов.

Приведенный спектр рисков, угроз и вызовов в социально-политической сфере, безусловно, не является исчерпывающим и лишь демонстрирует основные опасения экспертов применительно к процессам внедрения технологий ИИ и нейросетевых алгоритмов в актуальную практику социально-политических коммуникаций. Тем не менее полученный нами результат позволяет говорить о высокой значимости многостороннего и комплексного изучения специалистами и учеными в области политических наук потенциалов применения «умных» технологий в условиях стремительной цифровизации современного государства и общества.

Поступила в редакцию / Received: 14.11.2023 Доработана после рецензирования / Revised: 20.12.2023 Принята к публикации / Accepted: 15.03.2024

Библиографический список

Вислова А.Д. Современные тенденции развития искусственного интеллекта // Известия Кабардино-Балкарского научного центра РАН. 2020. № 2 (94). С. 14-30. http://doi. org/10.35330/1991-6639-2020-2-94-14-30 Гавриленко О.В. Социальные технологии в эпоху «надзорного капитализма»: цифровизация и власть алгоритмов // Вестник Московского университета. Серия 18. Социология и политология. 2023. Т. 29, № 3. С. 145-165. http://doi.org/10.24290/1029-3736-2023-29-3-145-165 Жуков Д.С. Искусственный интеллект для общественно-государственного организма: будущее уже стартовало в Китае // Журнал политических исследований. 2020. Т. 4, № 2. С. 70-79. http://doi.org/10.12737/2587-6295-2020-4-2-70-79 Зубофф Ш. Эпоха надзорного капитализма: битва за человеческое будущее на новых рубежах власти. М.: Издательство Института Гайдара, 2022. 784 с. Овчинников А.И. Безопасность личности и государства в цифровую эпоху: политико-правовой аспект // Журнал российского права. 2020. № 6. С. 5-21. http://doi.org/10.12737/ jrl.2020.064

Пашкова Н.В. Искусственный интеллект как источник «экзистенциального риска»: проблема самоидентификации общества и личности в условиях глобального виртуального пространства // Alma Mater (Вестник высшей школы). 2023. № 8. С. 33-35. http://doi. org/10.20339/AM.08-23.033 Романова И.Н. Внедрение технологий искусственного интеллекта: анализ вероятных рисков и возможных угроз // Материалы Ивановских чтений. 2021. № 4 (35). С. 15-18. Соколов Ю.И. Глобальные социальные риски высоких технологий XXI века // Проблемы

анализа риска. 2012. Т. 9, № 6. С. 4-29 Талапина Э.В. Использование искусственного интеллекта в государственном управлении // Информационное общество. 2021. № 3. С. 16-22. http://doi.org/10.52605/16059921_2021_ 03_16

Цвык В.А., Цвык И.В. Социальные проблемы развития и применения искусственного интеллекта // Вестник Российского университета дружбы народов. Серия: Социология. 2022. Т. 22. № 1. С. 58-69. http://doi.org/10.22363/2313-2272-2022-22-1-58-69 Aneesh A. Virtual Migration: The Programming of Globalization. Duke University Press, 2006. 208 p.

Hildebrandt M. Algorithmic regulation and the rule of law // Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 2018. Vol. 376, no. 2128. 20170355. http://doi.org/10.1098/rsta.2017.0355

Horowitz M.C., et al. Artificial intelligence and international security. Washington: Center for a New American Security (CNAS). 2018. URL: https://www.cnas.org/publications/reports/ artificial-intelligence-and-international-security (accessed: 26.11.2023). Kubler K. State of urgency: Surveillance, power, and algorithms in France's state of emergency // Big Data & Society. 2017. http://doi.org/10.1177/2053951717736338. URL: https://journals. sagepub.com/doi/full/10.1177/2053951717736338 (accessed: 26.11.2023). Nemitz P. Constitutional democracy and technology in the age of artificial intelligence // Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 2018. Vol. 376, no. 2133. P. 20180089. http://doi.org/ 10.1098/rsta.2018.0089 Ulbricht L. Scraping the demos. Digitalization, web scraping and the democratic project // Democratization. 2020. Vol. 27. Iss. 3. P. 426-442. http://doi.org/10.1080/13510347.2020.17 14595

Xu Y. Programmatic Dreams: Technographic Inquiry into Censorship of Chinese Chatbots // Social Media + Society. 2018. Vol. 4, no. 4. URL: https://journals.sagepub.com/ doi/10.1177/2056305118808780 (accessed: 26.11.2023).

References

Aneesh, A. (2006). Virtual Migration: The Programming of Globalization. Durham: Duke University Press.

Gavrilenko, O.V. (2023). Social technologies in the era of "surveillance capitalism": Digitalization and the power of algorithms. Bulletin of Moscow University. Series 18. Sociology and political science, 29(3), 145-165. (In Russian). https://doi.org/10.24290/1029-3736-2023-29-3-145-165 Hildebrandt, M. (2018). Algorithmic regulation and the rule of law. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2128): 20170355. https://doi.org/10.1098/rsta.2017.0355 Horowitz, M.C., et al. (2018). Artificial intelligence and international security. Washington: Center

for a New American Security (CNAS). Kubler, K., (2017). State of urgency: Surveillance power and algorithms in France's state of emergency. Big Data & Society. Retrieved November, 26, 2023 from https://journals. sagepub.com/doi/full/10.1177/2053951717736338. https://doi.org/10.1177/2053951717736338 Nemitz, P. (2018). Constitutional democracy and technology in the age of artificial intelligence. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2133): 20180089. https://doi.org/10.1098/rsta.2018.0089 Ovchinnikov, A.I. (2020). Security of the individual and the state in the digital era: Political and legal aspect. Journal of Russian Law, (6), 5-21. (In Russian). https://doi.org/10.12737/ jrl.2020.064

Pashkova, N.V. (2023). Artificial intelligence as a source of "existential risk": The problem of self-identification of society and the individual in the conditions of global virtual space. AlmaMater (Bulletin of Higher School), (8), 33-35. (In Russian). https://doi.org/10.20339/AM.08-23.033 Romanova, I.N. (2021). Introduction of artificial intelligence technologies: Analysis of probable

risks and possible threats. Materials of the Ivanovo Readings, 4(35), 15-18. (In Russian). Sokolov, Yu.I. (2012). Global social risks of high technologies of the XXI century. Problems

of risk analysis, 9(6), 4-29. (In Russian). Talapina, E.V. (2021). The use of artificial intelligence in public administration. Information

Society, (3), 16-22. (In Russian). https://doi.org/10.52605/16059921_2021_03_16 Tsvyk, V.A., & Tsvyk, I.V. (2022). Social problems of development and application of artificial intelligence. Bulletin of the Russian Peoples' Friendship University. Series: Sociology, 22(1), 58-69. (In Russian). https://doi.org/10.22363/2313-2272-2022-22-1-58-69 Ulbricht, L. (2020). Scraping the demos. Digitalization, web scraping and the democratic project. Democratization, 27(3), 426-442. https://doi.org/10.1080/13510347.2020.1714595

Vislova, A.D. (2020). Modern trends in the development of artificial intelligence. News of the Kabardino-Balkarian Scientific Center of the Russian Academy of Sciences, 2(94), 14-30. (In Russian). https://doi.org/10.35330/1991-6639-2020-2-94-14-30 Xu, Y. (2018). Programmatic dreams: Technographic inquiry into censorship of Chinese chatbots. Social Media + Society, 4(4). Retrieved November, 26, 2023 from https://journals. sagepub.com/doi/10.1177/2056305118808780 Zhukov, D.S. (2020). Artificial intelligence for the social-state organism: the future has already started in China. Journal of Political Research, 4(2), 70-79. (In Russian). https://doi.org/10.12737/2587-6295-2020-4-2-70-79 Zuboff, Sh. (2022). The era of surveillance capitalism: The battle for the human future at the new frontiers of power. Moscow: Gaidar Institute Publishing House. (In Russian).

Сведения об авторах:

Володенков Сергей Владимирович — доктор политических наук, доцент, главный научный сотрудник научно-проектного отдела Научно-инновационного управления, Государственный академический университет гуманитарных наук, профессор кафедры государственной политики факультета политологии, Московский государственный университет имени М.В. Ломоносова (e-mail: [email protected]) (ORCID: 0000-0003-2928-6068)

Федорченко Сергей Николаевич — доктор политических наук, доцент, главный научный сотрудник научно-проектного отдела Научно-инновационного управления, Государственный академический университет гуманитарных наук, доцент кафедры истории и теории политики факультета политологии, Московский государственный университет имени М.В. Ломоносова (e-mail: [email protected]) (ORCID: 0000-0001-6563-044X)

Печенкин Николай Михайлович — лаборант, Государственный академический университет гуманитарных наук, научный сотрудник, преподаватель Департамента политологии, Факультет социальных наук и массовых коммуникаций, Финансовый университет при Правительстве РФ (e-mail: [email protected]) (ORCID: 0000-0002-7846-4847)

About the authors:

Sergey V Volodenkov — Doctor of Political Sciences, Chief Researcher of the Research and Design Department, Scientific and Innovation Department, State Academic University for the Humanities; Professor of the Department of Public Policy, Faculty of Political Science, Lomonosov Moscow State University (e-mail: [email protected]) (ORCID: 0000-0003-2928-6068)

Sergey N. Fedorchenko — Doctor of Political Sciences, Chief Researcher of the Research and Design Department, Scientific and Innovation Department, State Academic University for the Humanities; Associate professor, Department of History and Theory of Politics, Faculty of Political Science, Lomonosov Moscow State University (e-mail: [email protected]) (ORCID: 0000-0001-6563-044X)

Nikolai M. Pechenkin — Laboratory Assistant at the State Academic University of Humanities; Researcher and Lecturer at the Department of Political Science, Faculty of Social Sciences and Mass Communications, Financial University under the Government of the Russian Federation (e-mail: [email protected]) (ORCID: 0000-0002-7846-4847)

i Надоели баннеры? Вы всегда можете отключить рекламу.