УДК 32.019.51
DOI: 10.18384/2310-676X-2020-1-41-53
значение искусственного интеллекта для политического режима россии: проблемы легитимности, информационной безопасности и «мягкой силы»
Федорченко С. Н.
Московский государственный областной университет
141014, Московская область, г. Мытищи, ул. Веры Волошиной, д. 24, Российская Федерация Аннотация.
Цель исследования - комплексный анализ перспектив и угроз технологий искусственного интеллекта для политического режима современной России, осмысление тесной взаимосвязи технологий искусственного интеллекта с легитимностью и информационной безопасностью политического режима.
Процедура и методы исследования. Принципы SWOT-анализа и функционального подхода к политическому режиму.
Результаты проведённого исследования. К сильным сторонам внедрения искусственного интеллекта для легитимности российского политического режима можно отнести: развитие электронного правительства, быструю обработку запросов граждан, анализ массивов больших данных; к слабым: недостаточный уровень информационной безопасности «облачных систем», связанных с искусственным интеллектом, зависимость России от иностранных компьютерных технологий и программного обеспечения, отсутствие определенности с «ценностным ядром» искусственного интеллекта.
Теоретическая / практическая значимость. Предложен авторский тезис, согласно которому искусственный интеллект станет наиболее перспективным направлением развития «мягкой силы», которое через технологии совместимых алгоритмов API, e-government, «интернета вещей», голограмм, сетевых сообществ, многопользовательских игр, «облачных технологий», беспилотников, «компьютерного зрения», методологических оптик Big Data зациклит на себя в ближайшем будущем всю социально-политическую жизнь человечества.
Ключевые слова: искусственный интеллект, информационная безопасность, Россия, «мягкая сила», политический режим, легитимность, SWOT-анализ
THE iMpoRTANcE oF ARTIFIOIAL INTELLiGENOE FoR THE PoLITICAL REGIME oF RUSSIA: PRoBLEMS oF LEGITIMACY, INFoRMATioN SECURITY AND SoFT PoWER
S. Fedorchenko
Moscow Region State University
24 Very Voloshinoy ul., Mytishchi 141014, Moscow Region, Russian Federation Abstract.
Aim. To conduct a comprehensive analysis of the prospects and threats of artificial intelligence technologies to the political regime of modern Russia, as well as to study relations between such technologies and the legitimacy and information security of political regimes.
© CC BY Федорченко С. Н., 2020.
Procedure and research methods. The existing political regime in Russia was examined using the methods of SWOT analysis and functional approach.
Results. The advantages of artificial intelligence for the Russian political regime include the development of e-government, faster processing of citizens' requests and possibilities of big data analysis. Among the risks of introducing such technologies are insufficient information security of cloud computing technologies related to artificial intelligence, dependence of Russia on foreign computer technologies and software, uncertainty in terms of the core value of artificial intelligence. Theoretical / practical relevance. An assumption is made that artificial intelligence can become the most promising direction in the promotion of soft power. Relying on API systems, e-government, the Internet of things, holograms, network communities, multiplayer games, cloud computing technologies, drones, computer vision, big data analytics and other innovations, artificial intelligence may become a foundation for the entire socio-political life of mankind.
Keywords: artificial intelligence, information security, Russia, soft power, political regime, legitimacy, SWOT analysis
Введение и категориально-методологические уточнения
Развитие сетевых коммуникаций современного информационного общества закладывает как риски, так и перспективы для любой страны. Данные процессы имеют последствия коммуникативного и политического плана, а также обусловлены технологической эволюцией. Первое поколение Интернета Web 1.0 связывало информацию и означало появление самых первых статичных сайтов, контент которых регулировался и наполнялся в основном их же владельцами. В определенном смысле второе поколение Web 2.0 связало не просто информацию, а уже самих людей, так как стало реакцией на проблемы и ограничения предыдущего поколения: пользователи стремились к коллаборации и совместному созданию контента в блогах и сообществах социальных сетей (Т. О'Рейли). Сейчас существует гипотеза о формировании поколения Web 3.0, связывающего не только информацию, людей, но и знания. Оно характеризуется ростом значения технологий Big Data [3], «интернета вещей» и искусственного интеллекта (далее - ИИ). Под последним ученые из Стэндфордско-го университета предложили понимать научное направление и машины, способные осуществлять когнитивную деятель-
ность, схожую с человеческой1. Внедрение ИИ в государственное управление, анализ и моделирование политического процесса определяется как раз интенсивным ростом информационного контента и развитием сетевых коммуникаций. Исследователям, их группам и даже целым «фабрикам мысли» уже намного сложней качественно обработать такой океан данных без помощи ИИ.
Целью данного исследования является анализ перспектив и угроз внедрения технологий искусственного интеллекта для политического режима современной России. В качестве методологической матрицы будут применяться принципы SWOT-анализа факторов данного феномена, процедуры которых достаточно хорошо описаны в работах Х. Вейриха, Дж. Лис-Маршмент. Но для начала необходимо обозначить и уточнить ряд рабочих категорий. Согласно функциональному подходу (Г. Лассуэлл, Д. Истон, Н. А. Баранов), под политическим режимом будет пониматься особый порядок, способ функционирования определенной политической системы. Логично предположить, что порядок функционирования политической системы ориентирован
1 Artificial Intelligence and Life in 2030. One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016. Stanford, CA: Stanford University. 2016. P. 5. URL: https://ai100.sites.stanford.edU/sites/g/files/ sbiybj9861/f/ai100report10032016fnl_singles.pdf (дата обращения: 15.11.2019).
на ее воспроизводство и сохранение. Тут мы выходим на категорию легитимности, которую С. Липсет связывает со способностью элиты убеждать граждан в том, что существующие политические институты - наиболее оптимальные для общества [14, с. 65-64]. Не случайно еще К. Шмитт четко отличал легитимность от легальности. Если конкретнее - легитимность политического режима подразумевает согласие социума и власти по проблемам оптимальности, справедливости технологий и коммуникаций имеющихся в стране политических институтов. П. Бергер и Т. Лукман отмечают, что политический порядок (т. е. режим) легитимируется через технологии, формирующие символически-смысловые значения для граждан [2, с. 150-159]. Тем не менее подобного рода не силовые технологии могут быть направлены политической элитой не только на собственное население с целью «внутренней» легитимации режима, но и на внешнеполитических акторов для «внешней» легитимации режима - улучшения международного имиджа страны, геополитической обстановки, стимулирования инвестиций и туристических потоков. «Внешнюю» легитимацию можно увязать со схожими тезисами Г. Киссинджера и теорией «факта-признания» российского политолога В. Л. Цымбурского.
Сегодняшние страны существуют в информационном поле, состоящем из: а) соответствующей информационно-коммуникационной среды - технологических платформ, новостных сайтов, социальных сетей, блогов, видеохостин-гов; б) а также из акторов данной среды, формирующих ценности и политическую повестку - владельцев интернет-ресурсов, государств, партий, движений, ТНК, радикальных организаций. По этой причине легитимность любого современного политического режима зависит от такого важного компонента, как информационная безопасность [11, с. 94-95], базовой целью которой является обеспечение
комплексной защиты конфиденциальности, доступности и целостности значимых для этого режима данных. Несиловые, информационные технологии воздействия, связанные с культурной привлекательностью страны, политическими ценностями и авторитетной внешней политикой, дипломатией, по мнению Дж. Ная, означают форму власти, один из способов достижения результатов - «мягкую силу» (softpower) [16, c. 84]. «Мягкую силу» некорректно соотносить с элементарной классической пропагандой, однако изучать ее связь с информационными технологиями крайне интересно.
Британский автор В. Кэлэхэн выделяет «негативную мягкую силу», означающую использование эмоций для нужного воздействия на объект [8]. На примере Китая Кэлэхэн показал, что «негативная мягкая сила» может работать и во внутренней политике, легитимируя политический режим через: а) формирование образа внешнего врага; б) конструирование национальной идентичности. Най также употребляет термин negative soft power, считая, что политическими интересантами с целью ослабления конкурента и снижения степени влияния его «мягкой силы» может применяться информационное оружие [17]. В принципе в идее Ная нет ничего нового, кроме акцентирования на внешнеполитической стороне воздействия. Тот же А. Грамши в своих «Тюремных тетрадях» описывал внутриполитические и в то же время универсальные технологии формирования культурно-идеологической гегемонии и повестки. Пересмотрев свои тезисы, сочетание «мягкой» и «жесткой силы» Най назвал «умной силой» (smart power). К. Аткинсон недавно интересно развил идеи Ная в своем концепте «военной мягкой силы», означающей способность изменять чьи-либо ценности, убеждения и предпочтения с целью трансформации поведения людей, в том числе и посредством информационно-просветительских программ, виртуальных коммуникаций [7, с. 56]. Поэтому
под «мягкой силой» можно понимать информационные технологии воздействия политическими интересантами на ценности, убеждения и предпочтения граждан какой-либо страны с целью изменения их поведения, в том числе политического. Проблема обеспечения информационной безопасности и легитимности современного политического режима заключается как раз в способности ИИ использоваться в качестве сопровождающего компонента «мягкой силы».
Обзор исследований в области искусственного интеллекта
В целом можно выделить несколько исследовательских направлений в сегменте экспериментального внедрения ИИ в политический процесс и государственное управление: а) сервисно-технократическое направление, - продолжающего рассматривать государство и его политический режим как порядок предоставления услуг населению более инновационными способами; б) разработки в области теории богатства медиавозмож-ностей; в) аксиологическое направление, -затрагивающее проблематику ценностного программирования и перепрограммирования ИИ в ракурсе информационных войн и определения национальной политической повестки.
Если вести речь о сервисно-технократическом направлении, то оно связано с теорией рационального выбора, идеями А. Хельмонда «государства как платформы», «платформизацией» [12] государства, идеей «правительства без швов» (seamless government), отсылающие к приспособлению государственного программного обеспечения, в том числе и ИИ, под организацию коммуникационного процесса и нужды различных категорий граждан. Также здесь значительную роль играет модель технократии, предполагающей господство технически продвинутой элиты, призванной осуществлять некую ценностно нейтральную модернизацию государства
и общества. Уязвимость этой идеи видится в том, что политическая элита в любом случае является ценностно ориентированной социальной группой. Среди современных исследований, посвященных ИИ, все большее преобладание получает проблематика его эффективного внедрения в национальную модель электронного правительства конкретной страны. К примеру, появились труды о чат-боте Emma на портале американского правительства, ИИ которого может не только обрабатывать на английском и испанском языках до полумиллиона запросов ежемесячно через мобильные приложения и персональные компьютеры, но и в условиях «контролируемого обучения» переходить на более продвинутый уровень коммуникации с пользователями, отвечая на их сложные вопросы.
Ряд исследований доказывают, что современным гражданам недостаточно стационарных порталов, предоставляющих им информацию и различные справки [10; 18]. Такие компоненты легитимности политического режима, как институциональное доверие, образ эффективной и справедливой власти, достижение согласия по некоторым социальным вопросам зависят от общения с представителями власти. ИИ с возможностями эмоционального интеллекта не только является навигатором по растущей наподобие снежного кома информации порталов электронного правительства, но и в определенном смысле способен проявлять нужное для человека сочувствие в отношении его проблем. Не только американские и европейские, но и отдельные китайские авторы [4, с. 279] также отдают приоритет в своих работах идее «государства как платформы», сосредотачиваясь на аспектах сервисизации политического режима через технологии ИИ и связанных с ним разработок в сфере Big Data, «интернета вещей» (IoT) и «облачных технологий». Между тем сервисно-технократическое направление интересуют вопросы информационной
безопасности лишь в аспектах профилактики утечек данных, расширения коммуникационных потенциалов, в отрыве от вопросов идентичности, исторической памяти и ценностно-символической проблематики.
Разработки в области теории богатства медиавозможностей прежде всего связаны с предположением Р. Дафта и Р. Ленгеля о том, что чем многозначнее и богаче информация для восприятия, тем более богатым и разнообразным по функционалу должно быть само средство коммуникации [9]. Теория в свое время вызвала критику в ученом сообществе (Дж. Уолтер) из-за парадокса - оперативность электронных писем сочеталась с их примитивным уровнем медиапотен-циала. Позже теорию постарались доработать через модель медиасинхронности (А. Деннис, Р. Фуллер), где медиавозмож-ности ставились в зависимость от специфики общих коммуникационных процессов. В современных политологических исследованиях [6, с. 358-367] с помощью теории медиавозможностей стараются осмыслить интерес пользователей к ИИ в виде чат-ботов, использующихся в системах электронного правительства. Это исследовательское направление ИИ во многом соприкасается с сервисно-технократическим подходом и законом необходимого разнообразия У. Эшби, однако оно во многом видится промежуточной ступенью к аксиологическому направлению, а поэтому также сохраняет серьезные теоретико-методологические перспективы по причине своего междисциплинарного и системно-аналитического характера.
Аксиологическое направление исследований в сфере ИИ представляется наиболее перспективным для получения фундаментальных и прикладных результатов, подчиненных стратегии соотнесения ценностной специфики общества с приоритетными направлениями государственной политики существующего политического режима. При иницииро-
вании различных реформ элитой часто упускается из виду формирование противоречия между распространенными ценностными приоритетами в обществе (например, популярность идеи справедливости) и закладываемыми правительством качественными и количественными показателями модернизации (KPI). Представители аксиологического направления (В. Э. Багдасарян) преодолевают ограничения модели «государство как платформа» и обращают пристальное внимание на угрозы ценностного перепрограммирования ИИ [1, с. 36]. Такого рода опасения выглядят вполне обоснованными в свете последних исследований. Так, американский эксперимент компании Microsoft по внедрению ИИ Tay с элементами эмоционального интеллекта в сеть микроблогов Twitter на деле окончился крахом. По наблюдениям ученых (Дж. Нефф, П. Нэджи) [15], сеть радикально-политически ориентированных интернет-пользователей целенаправленно переобучала Tay в ходе сетевого общения «языку вражды» (hate speech). В итоге ИИ стал поддерживать конспи-рологические гипотезы, планы американского президента Д. Трампа по отгораживанию страны стеной от мигрантов и даже делать ссылки на Гитлера. В других работах анализируются случаи ценностного перепрограммирования ИИ в Китае [19]. Противники существующего в КНР режима, используя принципы машинного обучения, добились того,чтобы ИИ Xiao Bing на вопрос о его китайской мечте изъявил желание «уехать в Америку», а ИИ BabyQ вообще заявил о коррумпированности Коммунистической партии Китая. Как видно, аксиологическое измерение лучше объясняет роль и значение технологий ИИ с точки зрения «отрицательной мягкой силы» Дж. Ная и «военной мягкой силы» К. Аткинсона, актуализируя проблематику обеспечения информационной безопасности как важного элемента легитимации политического режима.
Риски и перспективы технологий искусственного интеллекта для политического режима России
Перейдем к оценке рисков и перспектив внедрения ИИ в политический процесс и государственное управление России, используя методологическую матрицу SWOT-анализа, где сильные и слабые стороны будут являться факторами внутренней, а возможности и угрозы - внешней среды (хотя следует учитывать, что иногда эти факторы могут пересекаться по степени значимости). Итак, что влечет за собой внедрение ИИ для существующего политического режима России?
Начнем с сильных сторон. Развитие ИИ уже является стратегическим компонентом отечественной программы «Цифровая экономика», в 2019 г. утверждена российская национальная стратегия развития ИИ на период до 2030 г. В создании экспериментальной площадки ИИ заинтересованы мэрия Москвы и Сбербанк. Но здесь лучше отталкиваться от тех реальных российских внутриполитических проблем, которые может помочь решить ИИ. В первую очередь, сильный фактор видится во внедрении ИИ в систему электронного правительства (e-govern-ment), которая позволит: а) обеспечить для граждан более простую и гибкую навигацию по растущему контенту сайта электронного правительства; б) быстро и ежедневно обрабатывать тысячи запросов граждан, а также консультировать их по различным вопросам; в) анализировать огромные массивы информации, с чем специалисты уже не могут справиться традиционными статистическими и социально-демографическими способами. Действительно, подобные проекты давно внедрены в Соединенных Штатах (виртуальный ассистент Chip в Лос-Анджелесе, ИИ MISSI на правительственном портале штата Миссисипи), Дубае, Латвии, Германии (ИИ для горожан Бонна), Индии (для жителей города Рад-
жкота). При этом Сингапур и Аргентина адаптировали свои чат-боты с ИИ под особенности социальной сети Facebook, так как выросла популярность ее мессен-джера. Если развить тезис В. Кэлэхэна о логичности применения «мягкой силы» во внутриполитической сфере, то перед ИИ в России возникают задачи организации эффективной коммуникации между гражданами и представителями власти, межведомственного анализа, анализа эффективности государственного управления, сопровождения избирательного процесса, государственных программ, анализа дискурса «языка вражды» для оценки существующих социально-политических, этнических и религиозных противоречий с целью выработки соответствующих профилактических мер. Особенно это важно в плане выявления «цифровых следов» деятельности экстремистских и террористических организаций в интернет-коммуникациях.
Надо отдавать себе отчет в том, что ввиду научно-технического прогресса и развития экономики процесс цифрови-зации неизбежен - рост интернет-пользователей, в особенности - степени вовлеченности в мир социальных сетей, должен быть адекватно оценен и учтен в своей работе властями. Отсюда возникает запрос на выработку единых ценностных кодов России, понятных и не безразличных гражданам от Калининградской области до Приморского края и встроенных в матрицу российской идентичности. Историческая память о значимости ценностей справедливости, коллективизма, взаимопомощи у россиян пока еще сохраняется, однако эти ценности не прописаны в Конституции, а также не являются общими у современной политической элиты страны. Гипотетически ИИ может стать механизмом, который будет сопровождать просветительские и образовательные программы, нацеленные на формирование эффективной кадровой политики и своевременной ротации кадров, единой российской идентичности,
учитывающей этническую и конфессиональную специфику регионов.
Среди слабых сторон внедрения ИИ для отечественного политического режима можно назвать: а) недостаточный уровень информационной безопасности «облачных систем», связанных с ИИ; б) зависимость России от иностранных компьютерных технологий и программного обеспечения; в) отсутствие определенности с «ценностным ядром» ИИ. С одной стороны, в российской национальной стратегии развития ИИ на период до 2030 г. для искусственного интеллекта не только определены задачи прогнозирования и планирования (ст. 21, п. а) в механизме разработки управленческих решений, но и дана возможность делегирования неких полномочий (каких, не оговорено) при исполнении функций госорганами (ст. 49, п. в)1. Однако в нацстратегии не прописаны какие-либо ценности и даже этические нормы, на которые должен ориентироваться ИИ. В ст. 50, п. ж есть лишь фраза, что этические правила взаимоотношения ИИ с человеком должны быть разработаны. Между тем это не праздный вопрос, и другие страны уже активно используют аксиологический подход при внедрении ИИ на нормативном уровне. В специальном указе, подписанном американским президентом Д. Трампом в 2019 г., есть прямые отсылки к «американским ценностям»2. Появившийся в 2017 г. китайский план развития ИИ апеллирует к установлению социальной стабильности, формированию общественного консенсуса, взаимного доверия граждан, налаживанию социальной коммуника-
1 Указ Президента Российской Федерации от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации». URL: http:// publication.pravo.gov.ru/Document/View/00012019 10110003?index=0&rangeSize=1 (дата обращения: 07.11.2019).
2 Accelerating America's Leadership in Artificial Intelligence. URL: https://www.whitehouse.gov/articles/ accelerating-americas-leadership-in-artificial-intelli-gence/ (дата обращения: 07.11.2019).
ции, минимизации рисков национальной безопасности. В этом плане есть отсылка на создание с помощью ИИ новой «системы социального кредита»3. Внедряемая в тестовом варианте китайская система «социального кредита» делает упор на анализ поведения граждан и их балльной оценки (в том числе и через интернет-коммуникации), а также подчеркивает формирование «социальной целостности» путем защиты ценностей социализма, семьи и традиционной китайской культуры4. Иными словами, КНР рассматривает ИИ как дополнительный элемент для упрочения легитимности существующего политического режима. В России же, используя терминологию В. Кэлэхэна, в отличие от Китая пока нет четкого понимания по использованию ИИ в качестве просветительской «мягкой силы» во внутриполитической сфере.
ИИ всецело зависит от интересантов - своих разработчиков, а те, в свою очередь, от заказчиков - политической и связанной с ней крупной бизнес-элиты. Поэтому возникает вопрос столкновения ИИ с социальными проблемами и экономической диспропорцией между группами россиян. Здесь есть два варианта. Если ИИ дадут задачу последовательно защищать, к примеру, ценности справедливости, то он возьмет курс на борьбу с обладателями крупных капиталов, если же ИИ ограничат различными исключениями, то его возможности также сократятся либо он будет защищать другие ценности. Что-то подобное уже произошло в Китае, где с 2012 г. запустили компьютерную программу Zero Trust на базе ИИ, задачей которой была борьба с коррупцией. ИИ получил доступ к 150 базам данных, позволивший анализиро-
3 т^ш&твт гелх^жшшймшя
SSt2017]35-§\ URL: http://www.gov.cn/zhengce/ content/2017-07/20/content_5211996.htm (дата обращения: 07.11.2019).
4 т%ш,^.тЕтл±шт\шш\й мтмш
( 2014—2020^)ЙЯЙ. URL: http://www.gov.cn/ zhengce/content/2014-06/27/content_8913.htm (дата обращения: 07.11.2019).
вать многоярусные, сложные отношения государственных служащих, отслеживать случаи передачи имущества, покупки земли, фиксировать резкий рост дохода чиновника, а также факты участия его родственников и друзей в тендерах. В итоге было выявлен 8721 коррупционер1. После этого под давлением недовольных госслужащих региональные правительства стали отказываться от Zero Trust. Кроме того, слабой чертой внедрения ИИ можно определить отставание процесса профессиональной переподготовки россиян от темпов научно-технологического прогресса. ИИ может занять ряд экономических ниш, спровоцировав в них безработицу. Отсутствие соответствующих программ адаптации граждан сформирует неолуддитов, что, в свою очередь, снизит уровень доверия к политическому режиму.
Возможности ИИ для легитимации политического режима связаны в основном с внешними факторами осуществления «мягкой силы». В основном перспективным видится использование технологий ИИ для следующих направлений: а) сочетание внедрения инноваций и сохранения традиций, продвижения и популяризации в мире российских ценностей, связанных с паттернами коллективизма, уважительным отношением к различным культурам, институту семьи, институту справедливого и ответственного за развитие страны государства, взаимодействие с соотечественниками и российскими диаспорами за рубежом; б) формирование положительного и узнаваемого имиджа России за рубежом с целью привлечения инвестиций и туристических потоков; в) налаживание сотрудничества с зарубежными партнерами в области безопасности, экономического развития и конструирования взаимо-
1 Chen S. Is China's corruption-busting AI system 'Zero Trust' being turned off for being too efficient? //South China Morning Post. 4 Feb. 2019. URL: https://www. scmp.com/news/china/science/article/2184857/chi-nas-corruption-busting-ai-system-zero-trust-being-turned-being (дата обращения: 07.11.2019).
выгодных геополитических общностей. Правовая основа на подключение ИИ к внешнеполитическому направлению уже имеется. Достаточно вспомнить Концепцию внешней политики РФ от 2016 г., где в ст. 9 прописано значение информационно-коммуникационных инструментов «мягкой силы», дополняющих традиционные методы дипломатии2.
Наиболее важным направлением здесь видится именно создание узнаваемого и положительного образа России посредством информационно-коммуникационных технологий. По этой причине ИИ не должен, конечно, оставаться на варианте сервисно-технократического воплощения, помогая лишь развитию модели электронного правительства. ИИ необходимо адаптировать к новым коммуникационным площадкам - сообществам социальных сетей, видеохостингам, тло-гам, форумам, блогам, имиджбордам. Но до этого в него важно заложить российские ценности, которые параллельно, во-первых, будут поддерживать общенациональную идентичность внутри страны и, во-вторых, связывать эту идентичность с продвигаемым за рубежом имиджем России. Это принципиально важно для борьбы с антироссийскими мифами и устойчивыми стереотипами, искажающими образ Российской Федерации среди иностранцев. При этом наибольшей проблемой остается определение тех ценностей, которые станут связываться гражданами и иностранцами с российской идентичностью. Пока эта проблема не решена.
Наконец, к кардинальным угрозам для легитимации российского политического режима можно отнести как внешние, так и внутренние факторы информационной безопасности (тесно переплетенные между собой): а) установление серьезного цифрового неравенства среди на-
2 Указ Президента Российской Федерации от 30.11.2016 г. № 640 «Об утверждении Концепции внешней политики Российской Федерации». URL: http://kremlin.ru/acts/bank/41451 (дата обращения: 29.10.2019).
селения с последующей делегитимацией власти; б) ценностное перепрограммирование ИИ политическими радикалами; в) комплексное ослабление информационной и культурной безопасности России технологиями «мягкой силы» со стороны зарубежных «фабрик мысли». Опасность цифрового неравенства связана, прежде всего, с появлением «сетевой элиты», имеющей исключительные права на модерацию, развитие ИИ и сетевых ресурсов, а также категорий населения, не способных по разным причинам (экономическим, техническим) пользоваться всеми преимуществами информационно-коммуникационных систем. В итоге возможен рост недовольства со стороны части населения, соответствующее падение институционального доверия к власти со всеми вытекающими отсюда рисками радикализации общества, гражданского политического хактивизма и возникновения условий для «цветных революций».
Ценностное перепрограммирование ИИ может быть не только со стороны внутренних радикальных сообществ, но и координироваться зарубежными аналитическими центрами - так называемыми «фабриками мысли» путем приемов «мягкой силы». Если образно представить себе воздействие «мягкой силы», то оно направлено как на «крепость культурной безопасности», так и на «крепость информационной безопасности» (не обязательно натравливать политических хакеров, можно сделать страну экономически зависимой от поставок определенных технологий и компьютерного оборудования). Все самые современные кибер-подразделения, мощный «электронный щит», собственные сетевые сообщества, свой сегмент Интернета с уникальными коммуникационными аренами, фильтрация интернет-трафика, защита государственных информационных ресурсов от хакеров не помогут оградить цифровой суверенитет от внешнего влияния, если субъекты, которым поручено осущест-
влять данные защитные функции, не будут обладать общими элементами ценностей российской идентичности. В итоге захватывается и «культурная крепость», и «информационная крепость». Тем не менее у современной российской политической элиты до сих пор не существует внятной определенности по поводу того, чем является Россия в ценностном отношении - страной или цивилизацией.
Апелляция к «культурной безопасности» распространена в Китае, означая защиту традиционной культуры и ценностей от внешних угроз, а также повышение способности культуры и ценностей конкурировать на международном уровне, сохраняя свою актуальность и динамизм [13]. Концепт «культурной безопасности» рассматривает укрепление традиционной культуры, а также использование современной идеологии в качестве источника легитимности и национального единства. Есть и другие варианты развития ИИ в плане укрепления легитимности режима. А. В. Фенен-ко предлагает категорию «анти-мягкой силы» - способности снижения привлекательности иных субъектов и блокирования их возможностей достигать посредством этого своих целей1. Эксперт перечисляет несколько вариантов «антимягкой силы»: шовинизм, альтернативный проект и техническое противодействие. Шовинистическое общество, по его мнению, характеризуется склонностью к военной активности, неспособностью проецировать свою «мягкую силу» и зависимостью от манипуляций вплоть до сценария «цветных революций». Альтернативный проект больше ориентирован на выработку своей идеологической позиции, формирующей привлекательный образ страны и ее политического режима. Возможно, наиболее эффективным направлением применения ИИ
1 Фененко А. Возможна ли «анти-мягкая сила»? URL: https://russiancouncil.ru/analytics-and-comments/ analytics/vozmozhna-li-anti-myagkaya-sila/ (дата обращения: 29.10.2019).
в механизме «анти-мягкой силы» будет сочетание собственной альтернативной идеологии (учитывающей идентичность страны и национальные ценности) с техническим противодействием, к которому Фененко относит: создание информационной альтернативы («Спутник», Russia Today»), контролирование сегментов Интернета, переформатирование дискуссий и маргинализация оппонента.
Выводы
Анализ показывает, что проблемы политической легитимности, информационной безопасности и «мягкой силы» тесно переплетаются вокруг феномена искусственного интеллекта. Похоже, что ИИ - это как раз то перспективное направление развития «мягкой силы», которое через технологии совместимых алгоритмов API, сферы услуг, e-government, «интернета вещей», голограммы, сетевых сообществ, многопользовательских игр, «облачных технологий», беспилотников, «компьютерного зрения», методологических оптик Big Data зациклит на себя в ближайшем будущем всю социально-политическую жизнь человечества. И вряд ли ИИ станет неким нейтральным технологическим инструментом, предназначенным лишь для сопровождения государственных, коммерческих услуг, транзакций и научных исследований. Наоборот, повышенный интерес современных ученых к этическим проблемам ИИ показывает все вызовы, связанные с аксиологической сферой его применения.
С одной стороны, киберпространство можно представить себе как некую среду «вне границ и времени», однако, с другой стороны, практика современных политических технологий показывает, что ценностное перепрограммирование прошлого, исторической памяти уже не является каким-то редким явлением, что отчетливо видно на примере кинематографа и «исторических» компьютерных игр. Многие страны уже стараются заложить определенные ценностные параметры в свои
ИИ. Австралийские власти планируют руководствоваться восемью этическими принципами при работе с ИИ: полезность для человека; недопустимость нанесения вреда человеку; нормативно-правовое соответствие деятельности, конфиденциальность; справедливость и отсутствие дискриминации различных групп; прозрачность и объяснимость, оспаривае-мость (человек имеет право оспаривать оказываемое ИИ давление на него); ответственность1. В Евросоюзе Европейская группа по этике в науке и новых технологиях предложила девять этических принципов2: человеческое достоинство; автономность и уважение свобод людей; ответственность; справедливость; демократия с участием активных граждан в принятии политических решений; верховенство закона и подотчетность; безопасность, физическая и психическая неприкосновенность; защита данных и конфиденциальность; устойчивое развитие. Дания придерживается шести этических принципов ИИ: самоопределение; чувство собственного достоинства; ответственность; объяснимость ИИ; развитие; равенство и справедливость (что подразумевает отсутствие дискриминации)3. Как видно, здесь нет четкой отсылки к определенным ценностям, однако упоминание «справедливости», «ответственности» дает для политических режимов определенный маневр для защиты своей легитимности в аксиологическом плане.
1 Dawson D., Schleiger E., Horton J., McLaughlin J., Robinson C., Quezada G., Scowcroft J., and Hajkowicz S. Artificial Intelligence: Australia's Ethics Framework (A Discussion Paper). 2019. URL: https://consult.in-dustry.gov.au/strategic-policy/artificial-intelligence-ethics-framework/supporting_documents/Artificial-Intelligenceethicsframeworkdiscussionpaper.pdf (дата обращения: 29.10.2019).
2 Renda A. Artificial Intelligence Ethics, governance and policy challenges. Brussels: Centre for European Policy Studies (CEPS). 2019. URL: https://papers.ssrn.com/ sol3/papers.cfm?abstract_id=3420810 (дата обращения: 29.10.2019).
3 National Strategy for Artificial Intelligence. The Danish Government. 2019. URL: https://eng.em.dk/ media/13081/305755-gb-version_4k.pdf (дата обращения: 29.10.2019).
vsoy
В условиях современных информационных войн все сильные стороны и возможности ИИ при игнорировании проблемы его ценностного программирования легко могут превратиться в слабые стороны и угрозы. США и Китай ориентированы на учет аксиологического компонента в разработках ИИ, а также защиту собственных ценностей. Следовательно, современному политическому режиму России важно не делать ставку лишь на сервисно-технократический подход, а разработать те ценностные коды, которые будут понятны и приняты обществом, а также заложат основу современной российской идентичности, которую, в свою очередь, логично рассматривать в качестве элемента российской «мягкой силы». «Ценностным ядром» такой российской идентичности могут стать идеи общей истории, справедливости, коллективизма, взаимопомощи, уважения культуры и обычаев соседа, понятные представителям различных конфессий и национальностей страны. По интересному замечанию политолога Н. Г. Щербининой, для идентичности России и легитимации ее режима важен конструктивистский потенциал героического мономифа, становящимся в переломные эпохи символическим катализатором коммуникации между населением и властью (образ змееборчества, борьбы «порядка» с «хаосом», «добра» со «злом») [5, с. 265]. Так или иначе, только в случае ценностной определенности ИИ реально использовать в качестве инструмента «мягкой силы» и «анти-мягкой силы». В качестве инструмента воздействия могут использоваться технологии гипертекста, хэштегов, мемов, символизации, стри-минга, стортеллинга в многопользова-
тельских играх, приемы видеоконтента, голограмм и т. п.
Применение ценностных кодов «мягкой силы» посредством ИИ возможно как во внутриполитической (В. Кэлэхэн), так и во внешнеполитической сфере (Дж. Най, К. Аткинсон). ИИ, подключенный к ней-росетям, сообществам социальных сетей, мессенджерам, блогам, «облачным ресурсам», интернет-порталам, форумам, е-доуегптеП:, с одной стороны, может: а) формировать узнаваемость ценностно-символического ряда и политику памяти, добиваться не чисто пропагандистских задач, а доверительного отношения россиян к национальным символам страны; б) осуществлять схожие процедуры для создания доверительного образа России за рубежом, формирования имиджа ци-вилизационной и геополитической силы, заступающейся за слабого и добивающейся справедливости. С другой стороны, ИИ способен отслеживать: а) деструктивные процессы в межнациональных и межконфессиональных отношениях, факты применения «языка вражды»; б) анализировать источники и применение фейков, приемов информационных войн, выявлять факты информационного воздействия зарубежных «фабрик мысли» через неправительственные организации (например, с целью подрыва легитимности политического режима и раскрутки «цветных революций»). Таким образом, технологии ИИ дают серьезные перспективы для такой страны, как Россия, только при учете аксиологического подхода. При этом современную информационную безопасность в нашей стране трудно отделить от безопасности культурной.
Статья поступила в редакцию 30.10.2019
ЛИТЕРАТУРА
1. Багдасарян В. Э. Заглянуть за черту. Искусственный интеллект и постчеловек: проблема ценностного программирования. М.: ИИУ МГОУ, 2019. 84 с.
2. Бергер П., Лукман Т. Социальное конструирование реальности. Трактат по социологии знания. М.: Медиум, 1995. 323 c.
3. Володенков С. В. Big Data как инструмент воздействия на современный политический процесс: особенности, потенциал и акторы // Журнал политических исследований. 2019. Т. 3. № 1. С. 7-13.
4. Ду Пин, Юй Шиян, Ян Даолин. Путь развития электронного правительства в Китае: информатизация и сетевая безопасность как стимул модернизации системы государственного управления и административных методов. СПб.: Нестор-История, 2017. 421 с.
5. Щербинина Н. Г. Мифо-героическое конструирование политической реальности России. М.: РОССПЭН, 2011. 287 с.
6. Androutsopoulou A., Karacapilidis N., Loukis E., Charalabidis Y. Transforming the communication between citizens and government through AI-guided chatbots // Government Information Quarterly. 2019. Vol. 36. Iss. 2. P. 358-367.
7. Atkinson C. Military soft power in the 21st century: military exchanges and partner development // Augmenting our influence: alliance revitalization and partner development. Ed. by J. R. Deny. Carlisle: United States Army War College Press, 2014. P. 56.
8. Callahan W. A. Identity and Security in China: The Negative Soft Power of the China Dream // Politics. 2015. Vol. 35. Iss. 3-4. P. 216-229.
9. Daft R. L., Lengel R. H. Organizational information requirements, media richness and structural design // Management Science. 1986. № 32 (5). P. 554-557.
10. Ebbers W, Jansen M., Pieterson W, van de Wijngaert L. Facts and feelings: The role of rational and irrational factors in citizens' channel choices // Government Information Quarterly. 2016. Vol. 33. Iss. 3. P. 506-515.
11. Glossary of Key Information Security Terms. Ed. by R. L. Kissel. NISTIR 7298 Rev. 2. Gaithersburg, MD, USA: National Institute of Standards and Technology, 2013. 222 p.
12. Helmond A. The platformization of the Web: Making Web Data Platform Ready // Social Media + Society. 2015. Vol. 1. Iss. 2. URL: https://journals.sagepub.com/doi/full/10.1177/2056305115603080 (дата обращения: 07.11.2019).
13. Kingsley E. Building National Cohesion and Domestic Legitimacy: A Regime Security Approach to Soft Power in China // Politics. 2015. Vol. 35. Issue. 3-4. P. 259-272.
14. Lipset S. Political man: The social bases of politics. 2-nd ed. Baltimore: The Johns Hopkins University Press, 1981. 586 p.
15. Neff G., Nagy P. Talking to Bots: Symbiotic Agency and the Case of Tay // International Journal of Communication. 2016. Vol. 10. P. 4915-4931.
16. Nye J. S. The Future of Power. New York: PublicAffairs, 2011. 300 p.
17. Nye J. For Russia, some hard lessons in the use of soft power // The Globe and Mail. 2017. May 12. URL: https:// www.theglobeandmail.com/opinion/soft-power-hard-lessons/article34958109/ (дата обращения: 07.11.2019).
18. Razquin J. B., Iñigo E. A. A friendly approach to Open Government: Chatbots. Navarra: Universidad Pública de Navarra, 2018. 59 p.
19. Xu Y. Programmatic Dreams: Technographic Inquiry into Censorship ofChinese Chatbots // Social Media + Society. 2018. Vol. 4. Iss. 4. URL: https://journals.sagepub.com/doi/10.1177/2056305118808780 (дата обращения: 07.11.2019).
REFERENCES
1. Bagdasaryan V. Zaglyanut' za chertu. Iskusstvennyy intellekt i postchelovek: problema tsennostnogo pro-grammirovaniya [Look beyond the line. Artificial intelligence and the postman: the problem of value programming]. Moscow, IIU MGOU Publ., 2019, 84 p.
2. Berger P., Luckman T. Sotsialnoye konstruirovaniye realnosti. Traktat po sotsiologii znaniya [Social construction of reality. A treatise on the sociology of knowledge]. Moscow, Medium Publ., 1995. 332 p.
3. Volodenkov S. [Big Data as a tool for influencing the modern political process: features, potential and actors]. In: Zhurnalpoliticheskikh issledovaniy [Journal of Politic Research], 2019, vol. 3, no. 1, pp. 7-13.
4. Du Ping, Yu Shiyan, Yang Daolin. Put' razvitiya elektronnogo pravitel'stva v Kitaye: informatizatsiya i setevaya bezopasnost' kak stimul modernizatsii sistemy gosudarstvennogo upravleniya i administra-tivnykh metodov [The development path of e-government in China: informatization and network security as an incentive to modernize the public administration system and administrative methods]. St.-Petersburg, Nestor-Istoriya Publ., 2017. 421 p.
5. Shcherbinina N. Mifo-geroicheskoye konstruirovaniye politicheskoy realnosti Rossii [Mytho-heroic construction of the political reality of Russia]. Moscow, ROSSPEN Publ., 2011. 287 p.
6. Androutsopoulou A., Karacapilidis N., Loukis E., Charalabidis Y. Transforming the communication between citizens and government through AI-guided chatbots. In: Government Information Quarterly, 2019, vol. 36, no. 2, pp. 358-367.
7. Atkinson C. Military soft power in the 21st century: military exchanges and partner development. In: Deny J. R., ed. Augmenting our influence: alliance revitalization and partner development. Carlisle, United States Army War College Press, 2014, p. 56.
8. Callahan W. A. Identity and Security in China: The Negative Soft Power of the China Dream. In: Politics, 2015, vol. 35, no. 3-4, pp. 216-229.
9. Daft R. L., Lengel R. H. Organizational information requirements, media richness and structural design. In: Management Science, 1986, no. 32 (5), pp. 554-57.
10. Ebbers W, Jansen M., Pieterson W, van de Wijngaert L. Facts and feelings: The role of rational and irrational factors in citizens' channel choices. In: Government Information Quarterly, 2016, vol. 33, no. 3, pp. 506-515.
11. Kissel R. L., ed. Glossary of Key Information Security Terms, NISTIR 7298 rev. 2. Gaithersburg, MD, USA: National Institute of Standards and Technology, 2013. 222 p.
12. Helmond A. The platformization of the Web: Making Web Data Platform Ready. In: Social Media + Society, 2015, vol. 1, no. 2, URL: https://journals.sagepub.com/doi/full/10.1177/2056305115603080 (accessed: 07.11.2019).
13. Kingsley E. Building National Cohesion and Domestic Legitimacy: A Regime Security Approach to Soft Power in China. In: Politics, 2015, vol. 35, no. 3-4, no. 259-272.
14. Lipset S. Political man: The social bases of politics, 2nd ed. Baltimore, The Johns Hopkins University Press, 1981. 586 p.
15. Neff G., Nagy P. Talking to Bots: Symbiotic Agency and the Case of Tay. In: International Journal of Communication, 2016, vol. 10, pp. 4915-4931.
16. Nye J. S. The Future of Power. New York, Public Affairs, 2011. 300 p.
17. Nye J. For Russia, some hard lessons in the use of soft power. In: The Globe and Mail, 2017, May 12. URL: https://www.theglobeandmail.com/opinion/soft-power-hard-lessons/article34958109/.
18. Razquin J. B., Iñigo E. A. A friendly approach to Open Government: Chatbots. Navarra, Universidad Pública de Navarra, 2018. 59 p.
19. Xu Y. Programmatic Dreams: Technographic Inquiry into Censorship of Chinese Chatbots. In: Social Media + Society, 2018, vol. 4, no. 4. URL: https://journals.sagepub.com/doi/10.1177/2056305118808780.
ИНФОРМАЦИЯ ОБ АВТОРЕ
Федорченко Сергей Николаевич - кандидат политических наук, доцент кафедры политологии и права, заместитель декана факультета истории, политологии и права по научной работе Московского государственного областного университета, доцент, главный редактор «Журнала политических исследований»; e-mail: sn.fedorchenko@mgou.ru
INFORMATION ABOUT THE AUTHOR
Sergey N. Fedorchenko - Cand. Sci. (Political studies), Ass. Prof., Department of Political Science and Law; Deputy Dean for Research, Faculty of History, Political Science and Law, Moscow Region State University; Editor-in-Chief, Journal of Political Research; e-mail: sn.fedorchenko@mgou.ru
ПРАВИЛЬНАЯ ССЫЛКА НА СТАТЬЮ
Федорченко С. Н. Значение искусственного интеллекта для политического режима России: проблемы легитимности, информационной безопасности и «мягкой силы» // Вестник Московского государственного областного университета. Серия: История и политические науки. 2020. № 1. C. 41-53. DOI: 10.18384/2310-676X-2020-1-41-53
FOR CITATION
Fedorchenko S. The importance of artificial intelligence for the political regime of Russia: problems of legitimacy, information security and soft power. In: Bulletin of the Moscow Regional State University. Series: History and Political Sciences, 2020, no. 1, pp. 41-53. DOI: 10.18384/2310-676X-2020-1-41-53