I 1 DiacouRBB-p Я ft
Шскурс ш
УДК 327 DOI: 10.24411/1817-9568-2020-10210
манипулирование
социальным поведением
в условиях цифровой среды
Виловатых Анна Вячеславовна,
Российский институт стратегических исследований, эксперт,
кандидат политических наук, Москва, Россия, ORCID: 0000-0003-4449-3305, E-mail: [email protected]
поступила в редакцию 22.02.2020, принята к публикации 08.06.2020
Для цитирования: Виловатых А.В. Манипулирование социальным поведением в условиях цифровой среды // Научный журнал «Дискурс-Пи». 2020. № 2 (39). С. 149-164. doi: 10.24411/1817-9568-2020-10210
Аннотация
Целью настоящей статьи является анализ научной мысли и современных политических технологий в сфере информационно-психологического воздействия на массовое сознание в условиях становления цифровой социально-политической реальности, что обусловлено широким, но мало изученным потенциалом применения современных инноваций в области коммуникационных технологий в политических целях. Теоретическую основу составляют основные идеи и положения политологии и социологии. Изучение поведения масс и личности в условиях цифровой реальности обусловило обращение к инструментарию психологической науки, в частности «Пятифакторной модели» Г. Оллпорта, Р. Кэттела и пр. Кроме того, в статье приведены идеи теории подталкивания, предложенной зарубежными учеными Р. Талером и К. Санстейном. Для обоснования массового иррационального поведения в условиях цифровой среды, способного вызвать непредсказуемые колебания социальной деятельности вплоть до перетекания общественного недовольства из виртуальной среды в реальную социально-политическую плоскость, используется концепция симметрии заблуждений. Набор междисциплинарных концепций позволил автору предложить
© Виловатых А.В., 2020
взаимосвязанную сетку когнитивных искажений, во многом определяющих эффективность информационно-психологического воздействия на массовое сознание в сети Интернет, в результате чего в статье раскрыты феномены коммуникации, присущие социальным взаимодействиям в условиях цифровой реальности. Применение междисциплинарных теорий в контексте исследования проблемы формирования общественного мнения и воздействия на массовое сознание в условиях цифровой среды позволило обосновать такие технологии информационно-психологического воздействия, как таргетирование, астротурфинг, троллинг, надж. Автор приходит к выводу о нарастающих перспективах становления качественно новой декомпозиции отношений между властью и обществом ввиду все более активного использования преимуществ трансграничного интернет-пространства для подготовки общественного мнения к принятию важных политических решений.
Ключевые слова:
информационно-психологическое воздействие, Интернет, цифровая среда, массовое сознание, когнитивные искажения, симметрия заблуждений, надж, астротурфинг, таргетинг, троллинг.
UDC 327 DOI: 10.24411/1817-9568-2020-10210
manipulation of social behavior under the digitalization of social environment
Vilovatykh Anna Vyacheslavovna,
Russia's Institute for Strategic Studies, PhD in Political Sciences, Moscow, Russia, ORCID: 0000-0003-4449-3305, E-mail: [email protected]
Article received on February 22, 2020, accepted on June 8, 2020
To cite this article: Vilovatykh, A.V. (2020). Manipulirovanie social'nym povedeniem v usloviyax cifrovoj sredy [Manipulation of social behavior under the digitalization of social environment]. Scientific Journal "Discourse-P", 2(39), 149-164. doi: 10.24411/1817-9568-2020-10210
Abstract
The purpose of the article is to analyze scientific thoughts and modern political technologies in the field of information-psychological impact on the mass consciousness.
I 1 тасоиавв-р Ж А
Шскурс ш
This is important at the time of socio-political reality digitalization because modern innovations in the field of communication technologies have wide applying for political purposes. The theoretical basis of the article lies of the ideas and principles of political science and sociology. Studying mass and individual behavior in digital reality led by means of psychological science. In the article there are also presented the ideas of nudge theory (R. Thaler, K. Sanstein). By the means of the "symmetry of delusions" concept (proposed by Russian economist Vladimir Milovidov) the author analyzes if irrational behavior in the digital environment can cause unpredictable fluctuations of social activity up to public discontent flowing from virtual environment into reality. This approach allowed the author to propose an interconnected network of cognitive distortions, which largely determine the effectiveness of the information-psychological impact on mass consciousness in the Internet. The interdisciplinary theory basis helped to reveal targeting, astroturfing, trolling, nudge in the context of public opinion forming at the time of digitalization social-political connections. The author comes to the conclusion that there are growing prospects for a qualitatively new decomposition of future relations between government and society.
Keywords:
information and psychological impact, Internet, digital environment, mass consciousness, cognitive distortions, symmetry of delusions, nudge, astroturfing, targeting, trolling.
В прежние времена при изучении основ социального поведения специалисты опирались прежде всего на классические методы психологии и социологии, когда результаты замеров на микрогруппах экстраполировались на макрогруппы. Однако в настоящее время такой экстраполяции зачастую не требуется. Многие необходимые для аналитической работы сведения содержатся в Интернете, который является своего рода огромным поведенческим архивом.
Активность в области исследований проблематики поведения личности и социальных масс в виртуальной реальности обусловлена колоссальным, еще до конца не изученным потенциалом инноваций в области коммуникационных технологий. Вместе с тем ученые и государственные деятели уже осознали всеобъемлющий характер информационно-психологического воздействия в условиях цифровизации (Рогачев, 2019). Они изучают, а затем и апробируют новые технологии формирования общественного мнения и массового сознания.
Данным процессам способствует расширение научного инструментария и эмпирической базы подобного рода исследований: достижения технологической революции постепенно смещают вектор научно-исследовательской и экспертной деятельности в области изучения и апробирования потенциала цифровой среды в сторону перспектив трансформации социального и индивидуального поведения в соответствии с целями субъекта управления. Отдельное место в указанных процессах занимают социальные сети, где политические взгляды и предпочтения населения умело моделируются.
Пятифакторная модель как инструмент изучения интернет-поведения личности
Такие труды в основном базируются на научной основе психометрии (пси-хографии) - развивающемся с 1980-х гг. направлении психологической науки, сосредоточенном на изучении деятельности, интересах и мнениях личности. В рамках данного научного направления разработана диспозициональная Пятифакторная модель (Big Five Personality Model), в основе которой лежат исследования Гордона Оллпорта и Рэймонда Кэттела (Goldberg, 1990).
Как продемонстрировано в таблице 1, каждая личность характеризуется индивидуальными различиями в степени и форме адаптации к социальной среде с учетом пяти общих и относительно независимых факторов (диспозиций): экстраверсии, приятности в общении (способности прийти к согласию), добросовестности, невротизма (эмоциональной нестабильности), открытости к опыту. В работах современных зарубежных авторов достаточно убедительно доказывается, что переменные Пятифакторной модели связаны с поведением конкретной личности в социальных сетях.
Таблица 1 - Пятифакторная модель личности. Составлено по: Goldberg, L.R. (1990). An alternative «description of personality»: The Big-Five factor structure. Journal of Personality and Social Psychology, 6, 1216-1229.
Экстраверсия Невротизм Открытость к опыту Приятность в общении Добросовестность
экстраверт + + + +
Сердечность, общительность, активность, настойчивость, поиск положительных эмоций Высокая самооценка, устойчивость к стрессу, самодостаточность, эмоциональная стабильность, пониженное чувство вины Фантазия, эстетика, чувства, действия, идеи, ценности Доверие, прямолинейность, альтруизм, уступчивость, скромность, мягкость Компетентность, порядок, чувство долга, стремление к результату, самодисциплина, осмотрительность
интроверт - - - -
Спокойствие, сдержанность, пассивность, избегание внимания, замкнутость Озабоченность, враждебность, депрессия, рефлексия, импульсивность, неустойчивость к стрессу Консерватизм, нечувствительность, реалистичность, практичность, негибкость Циничность, подозрительность, грубость, безжалостность, эгоизм, жадность Безответственность, лень, непрактичность, небрежность, беспечность
В частности, крупные исследователи в области интеллектуального анализа больших данных Михал Косински и Дэвид Стиллуэлл утверждают, что информация из профилей пользователей социальных сетей («цифровые следы») предоставляет возможность посредством Пятифакторной модели выявить
I 1 oibcourbb-p Ж ft
Шскурс ш
специфические характеристики личности и использовать их в манипулятивных целях. Так, в 2016 г. на основе активности пользователей в социальных сетях эксперты частной английской компании «Кэмбридж Аналитика», применяющей технологии глубинного анализа данных для разработки стратегической коммуникации в ходе избирательных кампаний в Интернете, выделили 32 личностные категории, различающиеся между собой по уровню готовности отдать свой голос за кандидата в президенты Дональда Трампа (Weedon, 2017).
Специалисты отмечают, что легкодоступные цифровые записи поведения личности, такие как «лайки», могут быть использованы для автоматического и достаточно точного прогнозирования, в том числе: пола, возраста, этнической принадлежности, религиозных и политических взглядов, личностных качеств, уровня интеллекта, сексуальной ориентации, состояния счастья и пр. В целом, в цифровом мире личность может быть описана многими показателями, включая успехи в учебе, характер работы, социальный статус, здоровье, успех в романтических отношениях, политические взгляды, субъективное благополучие и пр. (Kosinski, 2015).
Потенциал применения теории подталкивания
в условиях цифровой реальности
Помимо изучения личностных особенностей пользователей Интернета ученые активно прибегают к исследованию базисных основ массового поведения в условиях цифровой среды. Теоретические наработки в этой области и проведенные эксперименты свидетельствуют, что человеческое поведение зависит не только от убеждений, а базируется на стереотипах и складывается под воздействием формальных и неформальных институтов. Даже в сложных ситуациях выбора, казалось бы, требующих глубоких размышлений и мобилизации ресурсов сознания, от 50 до 90 % своих действий люди осуществляют «автоматически (Szymanski, 1987). Соответственно, в условиях цифровой среды присутствуют широкие возможности использования потенциала управления социальным поведением.
В настоящее время в интернет-пространстве активно применяется такая социальная технология манипулирования, как «надж» (nudge), основывающаяся на одноименной теории подталкивания (nudge theory). Суть данной технологии предполагает возможность влияния на процесс принятия групповых и индивидуальных решений посредством положительного подкрепления и непрямых указаний. При таком подходе подталкивание к действию не менее эффективно, чем силовое принуждение к действию или предписание.
Авторами теории подталкивания в ее оригинальном перцепте являются американские ученые Ричард Талер и Касс Санстейн. Их совместный труд «Nudge. Как улучшить наши решения о здоровье, благосостоянии и счастье», выпущенный в 2008 г., был признан полезным государственными структурами США и Великобритании. В настоящее время в обеих странах созданы официальные структуры, исследующие возможности применения данной технологии для управления социальным поведением в условиях цифровой реальности. Среди зарубежных экспертов присутствуют предположения, что бывший премьер-министр Великобритании Дэвид Кэмерон, равно как и экс-президент США Барак
Обама, использовали теорию подталкивания для достижения поставленных целей во внутренней и внешней политике.
В сфере государственного регулирования такое подталкивание включает в себя, например, графические предупреждения на какой-либо продукции, плакаты о необходимости эффективного использования энергии или экономии топлива, информацию о пищевой ценности продукта. В категорию «подталкивания» входит даже дизайн веб-сайтов, которые располагают на первом плане материалы крупным шрифтом.
Основное преимущество наджа, в противоположность ограничениям и запретам, состоит в том, что он избегает принуждения, а скорее ориентирует людей, задавая им определенное направление поведения. Таким образом, данная технология не принимает явную форму манипуляции или обмана. Между тем ряд влиятельных исследователей указывают, что подталкивание является эвфемизмом для названия психологических манипуляций, к которым прибегают в социальной инженерии (Tapson, 2013).
Применительно к осуществлению подталкивания в интернет-пространстве надж базируется на следующих постулатах:
1. У отдельных социальных групп разные стереотипы, у людей - привычки, но обработка больших данных, присутствующих в Интернете, позволяет обладать относительно верифицированной информацией о склонности конкретных групп и отдельных людей. Соответственно, большие данные способствуют прогнозированию социального поведения в различных масштабах.
2. Через различного рода поисковые сети, электронные выборы, платформы интернет-магазинов, где локализована конкретизированная информация, в цифровой реальности осуществляется «мягкое подталкивание» личности, возможное благодаря техническим возможностям интернет-сервисов. Такое подталкивание создает для человека ситуацию, когда самое легкое решение оказывается таким, какое нужно тому, кто эту ситуацию создает, то есть «подталкивателю».
При оказании воздействия на сознание масс и отдельной личности посредством надж-технологии эксперты предлагают учитывать ряд когнитивных искажений, определяющих эффективность такого воздействия. В частности, ученые указывают на большую роль феномена «множественности источников». Это предполагает, что различные аргументы от разных пользователей воспринимаются личностью как более весомые, чем один и тот же аргумент от разных источников или разные аргументы от одного пользователя. Данный эффект воздействия связан с тем, что большое количество материалов усиливает интерес целевой аудитории и, соответственно, повышает вероятность привлечения других потенциальных аудиторий. Кроме того, множественность каналов распространения увеличивает эффективность усваивания информации (Harkins, 1981).
Информационно-психологическое воздействие в Интернете реализуется и с учетом склонности личности отдавать предпочтение такой информации, которая согласуется с ее точкой зрения - феномен «предвзятости подтверждения» (confirmation bias), что было выяснено еще в ходе экспериментов 19б0-х гг.
Причем это проявляется сильнее в отношении эмоционально значимых вопросов и глубоко укоренившихся убеждений. Склонность к подтверждению влияет на излишнюю уверенность человека в собственных суждениях и может поддерживать и усиливать убеждения при получении доказательств обратно-
I 1 о/асоиявв-р Ж А
Шскурс ш
го (Виловатых, 2018). Эти когнитивные искажения находят отражение в том числе в решениях, принимаемых в рациональных внешне политической и экономической сферах.
Рисунок 1 - Феномен «предвзятости подтверждения». Составлено по: Harkins, S.G., & Petty, R.E. (1981). The multiple source effect in persuasion. Personality and Social Psychology Bulletin. Retrieved September 13, 2019, from http://journals.sagepub.com/doi/abs/10.1177/014616728174019
Когнитивные искажения в контексте «симметрии заблуждений»
Труды современных ученых предоставляют возможность скорректировать выводы, сделанные в более ранних работах. В особенности это касается склонности людей проверять их гипотезы в предвзятом виде, фокусировать внимание только на одной возможности выбора и игнорировать альтернативные. Об этом свидетельствует исследование российского экономиста В.Д. Миловидова, где продемонстрировано, что равномерно распределенную в обществе или внутри конкретных социальных групп устойчивую ложную, ошибочную убежденность в чем-либо - эффект «симметрии заблуждений» - крайне сложно выявить, поскольку массовое сознание отталкивает, отвергает любое несогласие с ним. Соответственно, люди склонны интерпретировать в принципе неоднозначные свидетельства таким образом, чтобы поддерживалась их точка зрения (Миловидов, 2019).
Такая интерпретационная база обусловлена сущностью природы человека: ограниченной способностью перерабатывать информацию и склонностью принимать желаемое за действительное. Симметрия заблуждений обусловливает предвзятый поиск информации, особенности процессов запоминания, специфику толкования и пр. Соответственно, в условиях цифровой среды люди в большей или меньшей мере подвержены когнитивным искажениям более низкого порядка: «поляризации взглядов» (attitude polarization) - когда разногласия становятся ещё сильнее, несмотря на то, что сторонам были представлены одни и те же свидетельства; «стойкости убеждения» (belief perseverance) - когда
Информация, основанная на фактах
Информация, основанная на убеждениях
Переоценённая информация
мнение сохраняется даже тогда, когда поддерживающие его свидетельства были опровергнуты»; «первичность информации» (primacy effect) - склонности отдавать предпочтение информации, полученной первой; «иллюзорность корреляции» (illusory correlation) - склонности видеть взаимосвязь между двумя явлениями или ситуациями там, где её нет и пр.
Во многом отмеченные феномены определяют высокую вероятность возникновения в условиях информационной среды эффекта «пузыря фильтров» (filter bubble) - технологии персонализированного подбора контента для интернет-пользователя, основанного на его месторасположении, прошлых нажатиях, предпочтениях, поиска, а также интересах и предпочтениях друзей.
Как отмечает автор приведенного термина блогер Илай Парайзер в одноименной книге «Пузырь фильтров», потенциальным недостатком фильтрации поисковых запросов является то, что она «закрывает людей от новых идей, предметов и важной информации» и «создает впечатление того, что наши узкие собственные интересы и есть все, что существует и окружает нас» (Pariser, 2011).
На рисунке 2 продемонстрирована негативная сторона персонализированного поиска. Она заключается в том, что информационные системы веб-сайтов выводят в поисковой строке лишь ту информацию, которая соответствует истории поиска конкретного пользователя, а другой контент, как правило, пользователю не выводится. В результате такой методики отбора подходящего контента человек оказывается в уютном «информационном пузыре», экранирующем от нарушающих гармонию его индивидуальной картины мира информационных раздражителей. Вполне возможно согласиться с выводом экспертов о том, что вредное воздействие «пузыря фильтров» может подрывать формирование гражданского общества и делать людей более уязвимыми для пропаганды и манипуляций.
Эффект «пузыря фильтров» схож с таким когнитивным искажением, как «парадокс релевантности». Этот феномен проявляется тогда, когда люди ищут информацию, которая изначально, исходя из цели такого поиска, кажется им важной, но в итоге она оказывается совершенно бесполезной или почти бесполезной. Одновременно они избегают информации, которая кажется им неправильной и несущественной, но оказывающейся полезной. Проблема появляется в связи с тем, что реальная значимость конкретного факта или понятия в этих случаях очевидна только после того, когда данный факт стал известен. Соответственно, в поисках информации пользователь Интернета нередко не может узнать то, что ему действительно нужно, попадая в своего рода информационное слепое пятно (First Monday, 2011).
Важным с точки зрения оказания информационно-психологического воздействия на личность в цифровой реальности является и формирование эффекта «эхо-камеры» (echo chamber), который способствует распространению в сети контента, соответствующего целям субъекта управления. Специалисты в области политических технологий определяют эффект «эхо-камеры» как ситуацию, при которой определенные идеи, убеждения подкрепляются путем передачи сообщений или их повторением внутри закрытой системы (это может быть партия, круг единомышленников, субкультура, интернет-блог и пр.). Адресаты, находящиеся в такой закрытой системе, мало восприимчивы к альтернативной информации и ориентируются на взгляды себе подобных (референтной груп-
Рисунок 2 - Эффект «пузыря фильтров».
Составлено по: поисковая система «Яндекс»
пы). Магистральная логика обсуждений в блоге или в группе социальной сети нивелирует взгляды и убеждения личности, отклоняющиеся от принятой нормы, тем самым заключая его в изолированном коммуникативном социуме (The Echo Chamber Revisited, 2011).
Таким образом, в условиях цифровизации человек окружает себя в социальных сетях участниками интернет-сообществ, придерживающихся позиции, аналогичной его собственной. Под воздействием субъективного поиска, толкования и запоминания информации тренды массового поведения пользователей конкретной социальной сети или блога в определенной ситуации не только подкрепляют индивидуальную систему убеждений, но одновременно искажают целостную картину общественного мнения.
С учетом теоретического и практического изучения возможного воздействия описанных выше когнитивных искажений, некоторые из которых известны
длительное время, другие - обнаружены непосредственно в связи с цифровиза-цией социально-политической реальности, в Интернете все чаще применяются специально разработанные технологии информационно-психологического воздействия на индивидуальное и массовое сознание.
Точечный таргетинг на пространствах Интернета
В частности, в Интернете широко используется технология точечного тар-гетинга (targeting) - механизм информационно-психологического воздействия, позволяющий выделить из всей имеющейся аудитории только ту часть, которая удовлетворяет заданным критериям (целевую аудиторию), и оказать воздействие именно на нее, то есть персональное обращение к конкретным людям с учетом их индивидуальных характеристик (пол, возраст, профессия, увлечения и т. п.).
В настоящее время активно развиваются следующие виды таргетинга:
- Тематический таргетинг - показ рекламы на веб-сайтах, соответствующих определённой тематике.
- Таргетинг по интересам (контекстная реклама) - демонстрация рекламы в соответствии с интересами посетителей рекламной площадки.
- Географический таргетинг (геотаргетинг) - показ рекламы целевой аудитории, ограниченной некоторым географическим регионом, выбранным рекламодателем.
- Локальный таргетинг - рекламирование для целевой аудитории, находящейся в радиусе от 900 метров до 15 километров (с 2014 г. используется также понятие «гиперлокальный таргетинг», обозначающее нацеливание рекламы на все устройства, оказывающиеся в определённой зоне вокруг какой-либо точки на местности, при этом радиус такой зоны технически может быть сколь угодно малым).
- Временной таргетинг - позволяет ограничить показ конкретного контента в СМИ по временному фактору (утро или вечер, будни или выходные).
- Социально-демографический таргетинг - по возрасту, полу, доходу, должности и т. д.
- Поведенческий таргетинг - внедрение механизма сбора информации о действиях пользователя в Интернете с помощью cookie-файлов. Информация собирается в так называемых профилях и содержит данные о просмотренных сайтах, поисковых запросах, покупках в интернет-магазинах и т. д. Получив такой профиль, рекламная служба может четко представить себе портрет объекта, узнать его привычки и пристрастия, стать владельцем контактных данных.
- Геоповеденческий таргетинг - суть которого сводится к обладанию информацией о перемещениях субъекта (точное местоположение субъекта умеют определять современные геосоциальные сервисы, например, AlterGeo) и остановках («отметках» - check-ins) в некоторых точках. Постепенно можно достаточно четко выявить привычки и пристрастия объекта наблюдения (Pentland, 2014).
Все большее применение в Интернете находит такая технология воздействия на общественное сознание, как «троллинг» (trolling), способствующий созданию нового контента и распространению лживых сведений. В наиболее общем виде под этой деятельностью можно понимать процесс размещения
I 1 DiacouRBB-p Я ft
Шскурс ш
на виртуальных коммуникативных ресурсах провокационных сообщений с целью нагнетания конфликтной обстановки путем нарушения социальных и этических норм интернет-взаимодействия.
Использование троллинга дает субъектам управления такие преимущества, как усиление эффекта массовости, возможность повысить уровень доверия к источнику «разоблачительной» информации, а также расширить круг ее получателей. Как полагают ряд зарубежных специалистов, уже в обозримом будущем троллинг может превратиться в востребованную специализацию целого ряда профессий в таких сферах, как журналистика, международная экономика, мировая политика и пр. (Del Vicario et al., 2016).
В настоящее время все больше распространяется оплачиваемый троллинг. Под платным троллингом подразумеваются действия организованных групп интернет-пользователей, занимающихся за денежное вознаграждение формированием общественного мнения в Сети в определенном направлении. Так, например, в Соединенных Штатах широкая деятельность приписывается группе «Честный голос» (Operation Earnest Voice), находящейся непосредственно в подчинении Центрального командования вооруженных сил (CENTCOM). При этом в качестве основного соперника в информационно-коммуникационном пространстве американские специалисты называют Российскую Федерацию и Китай.
Условно эксперты выделяют следующие сферы осуществления троллинга:
1. Политический троллинг наиболее опасен в период предвыборных кампаний на всех уровнях властной иерархии. Так называемые политические тролли часто применяют в своей деятельности метод контент-анализа по поисковым словам (в зависимости от того, чьи политические интересы они представляют).
2. Провокаторы стремятся отслеживать реакцию публичных персон на конкретные инициированные события с целью получить в свое распоряжение некорректный, абсурдный комментарий. Они выбирают в качестве инструмента провокации актуальные проблемы религии, этнической принадлежности, отношения к нововведениям в законодательстве и пр.
3. Вымогатели считаются наиболее опасной разновидностью таких пользователей Интернета. Их целью является получение конкретной информации (места работы, социального статуса, семейного статуса, номера телефона и пр.) с манипулятивным умыслом.
Зарубежные эксперты указывают, что вне зависимости от тематики виртуальные дискуссии в интернет-сообществах с применением троллинга значительно повышают выраженность негативных эмоциональных состояний и меняют убеждения пользователей к радикальным, крайним оценкам (Parramore, 2010).
Астротурфинг как имитация «низовой инициативы»
Примечательной технологией воздействия на общественное сознание является «астротурфинг» (astroturfing), который применительно к интернет-пространству характеризуется как использование современного программного обеспечения, специально нанятых оплачиваемых пользователей для искусственного управления общественным мнением. Примечательно, что многие исследователи связывают явление астротурфинга исключительно с интернет-коммуникацией, поскольку характерная для Сети возможность сохранять ано-
нимность позволяет имитировать массовость, создавая трудно идентифицируемые боты и поддельные учетные записи.
Как указывают западные специалисты, основная особенность астротурфин-га, отличающая его от пропаганды, это имитация «низовой инициативы», которая призвана изобразить поддержку представителями общественности политических сил, якобы с ними не связанных, но в реальности их финансирующих. В ряде случаев астротурфинг оказывается более эффективным средством достижения результата, чем реклама или пропаганда, поскольку массовое высказывание мнения рядовыми пользователями значительно реже вызывает сомнения и подвергается критическому осмыслению (Webster, 2011).
Эффективность астротурфинга во многом объясняется эффектом группового социального подкрепления (communal reinforcement), благодаря которому прочное убеждение внутри какого-либо социального сообщества формируется посредством повторения некого утверждения (идеи, концепции и пр.) его членами. Ученые доказали, что этот процесс происходит естественно, вне зависимости от подтверждения создаваемого убеждения достаточными эмпирическими или научными данными. Таким образом, даже широкая распространенность в интернет-сообществе какого-либо убеждения не является однозначным свидетельством его истинности или ложности. В наши дни это скорее зависит от усилий субъектов управления сформировать данное убеждение.
В настоящее время технология астротурфинга используется для вытеснения мнения реальных людей на веб-форумах, либо для организации поддельных кампаний в Интернете, которые создают впечатление того, что большое количество людей требуют чего-то конкретного или выступают против чего-либо. В основном такая деятельность характеризуется:
- созданием подставных групп для размещения сообщений в чатах, форумах, новостях - для продвижения или, напротив, осмеивания (особенно посредством «троллинга») конкретных идей;
- распространением в социальных сетях, блогах, на форумах идей, которые будут поддержаны и ретранслированы большим числом мнимых пользователей (реже - реальных, но введенных в заблуждение пользователей);
- технической «накруткой» количества просмотров той или иной информации в Интернете для поднятия ее рейтинга и популярности.
В социальных сетях (где в основном предполагается минимизация анонимности и публикация пользователями большого количества личных данных) учетным записям, используемым в астротурфинге, придается видимость исходящих от реальной персоны: заполняется профиль, имитируется постоянная активность пользователя (часто генерируемая специальным программным обеспечением). Затем предварительно «состаренная» учетная запись используется непосредственно для астротурфинга. Также могут создаваться блоги, где публикуются записи, продвигающие чьи-либо интересы; при этом такие записи нивелируются большим количеством записей нейтрального содержания (Ratkiewicz et al., 2011).
По некоторым сведениям, технология астротурфинга активно применяется военными специалистами из США, ориентированными на проведение проамериканской пропаганды через социальные сети и различные блоги. С этой целью якобы регулярно создаются вымышленные виртуальные личности в соцсетях, которые по внешним признакам кажутся обычными пользователями из разных
I 1 OIBCOURBB-P Ift
Шскурс Ш
стран. Еще в марте 2011 г. на американском сайте госзакупок была опубликована информация, согласно которой 1Т-компания «Энтирепид» заключила с армией США контракт на сумму 2,76 млн. долларов на поставку национальным ВС программного обеспечения для ведения проамериканской пропаганды за пределами США (в основном в странах Ближнего Востока) путем создания учетных записей в социальных платформах, маскируемых под реальных людей и контролируемых анонимными операторами из числа американских военных (С^ et а1., 2011).
Таким образом, в настоящее время, когда беспрецедентная доступность информации сочетается со столь же беспрецедентным ее переизбытком, современные технологии информационно-психологического воздействия, сочетающие новейшие достижения нейробиологии и коммуникативистики в области генерирования специфических нарративов - новостных сообщений, видеоматериалов, высказываний и пр., способны направить человеческую мысль по заранее запрограммированному пути. При этом если данные практики подпитываются идеями, научными доктринами, мнениями, высказываниями и фразами, доносимыми до широкой общественности «трансляционными лидерами» (т. е. политиками, бизнесменами, научными и общественными авторитетами и пр.), то это способно оказывать серьезное влияние на формирование мировоззрения людей, их поведение и подходы к принятию конкретных решений, а зачастую и сами решения. (Миловидов, 2020). Это обусловливает развитие тенденции на качественно новую декомпозицию отношений между властью и обществом.
Список литературы
1. Виловатых, А. В. (2018). Использование информационно-коммуникационных технологий в военно-политических целях: социально-психологический аспект. Проблемы национальной стратегии, 2, 197-211.
2. Миловидов, В. Д. (2019). Симметрия заблуждений: факторы неопределенности финансового рынка в условиях технологической революции (предисловие М.Е. Фрадкова). М.: Магистр.
3. Миловидов, В. Д. (2020). Перформативная трампономика и финансовый рынок. Мировая экономика и международные отношения, 2, 24-33. doi.org/10.20542/0131-2227-2020-64-2-24-33
4. Рогачев, С.В. (2019). Цифровизация по критериям политического риска: Научный доклад. М.: Издательство «Проспект».
5. Facebook запускает гиперлокальную рекламу для тех, кто неподалёку. (2016). Apps4All. Взято с http://apps4all.ru/post/10-08-14-facebook-zapuskaet-giperlokalnuyu-reklamu-dlya-teh-kto-nepodaleku
6. Cho, C.H., Martens, M.L., Kim, H., & Rodrigue, M. (2011). Astroturfing Global Warming: It Isn't Always Greener on the Other Side of the Fence. Journal of Business Ethics, 104, 571-587.
7. Del Vicario, M., Bessi, A., Zollo, F., Petroni, F., Scala, A., Caldarelli, G., Stanley, H.E., & Quattrociocchi, W. (2016). The spreading of misinformation online. Proceedings of the National Academy of Sciences, 113(3), 554-559.
8. First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser. (2011). USA Today. Retrieved from https://usatoday30.
usatoday.com/money/companies/management/monday/2011-04-29-first-monday-business-media-in-may_n.htm
9. Goldberg, L.R. (1990). An alternative «description of personality»: The Big-Five factor structure. Journal of Personality and Social Psychology, 6, 1216-1229.
10. Harkins, S.G., & Petty, R.E. (1981). The multiple source effect in persuasion. Personality and Social Psychology Bulletin. Retrieved from http://journals.sagepub. com/doi/abs/10.1177/014616728174019
11. Kosinski, M., & Stillwell, D. (2015, January 27). Computer-based personality judgments are more accurate than those made by humans. PNAS. Retrieved from http://www.pnas.org/content/112/4Z1036.full
12. Pariser, Eli. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.
13. Parramore, Lynn. (2010, October). The Filter Bubble. The Atlantic. Retrieved from https://www.theatlantic.com/daily-dish/archive/2010/10/the-filter-bubble/181427/
14. Pentland, A. (2014). Social physics. How good ideas spread - the lessons from a new science. New York.
15. Ratkiewicz, J., Conover, M.D., Meiss, M., Gon^alves, B., Flammini, A., & Menczer, F. (2011). Detecting and Tracking Political Abuse in Social Media. Center for Complex Networks and Systems Research. Indiana University.
16. Szymanski, K. (1987). Social Loafing and Self-Evaluation with a social standard. Journal of Personality and social psychology. Retrieved from https://pdfs. semanticscholar.org/65c6/162ff35fc61ea7b59945858f1235e80cdbc3.pdf
17. Tapson, Mark. (2013, August 13). The Soft Totalitarianism of Nudging. FrontpageMag. Retrieved from https://archives.frontpagemag.com/fpm/soft-totalitarianism-nudging-mark-tapson/
18. The Echo Chamber Revisited. (2011, June 17). WNYC. Retrieved from https://www.wnyc.org/story/143347-echo-chamber-revisited/#transcript
19. Webster, S.C. (2011, February 22). Exclusive: Military's 'persona' software cost millions, used for 'classified social media activities'. Rawstory. Retrieved from https://www.rawstory.com/wpcontent/uploads/2011/03/personamanagementcontract. pdf
20. Weedon, J., Nuland, W., & Stamos, A. (2017, April 27). Information Operations and Facebook. Facebook. Retrieved from https://fbnewsroomus.files. wordpress.com/2017/04/facebook-and-information-operations-v1.pdf
21. Zhang, J., Carpenter, D., & Ko, M. (2013, August 15-17). Online astroturfing: A theoretical perspective. Proceedings of the Nineteenth Americas Conference on Information Systems. Chicago, Illinois. Retrieved from https://www. researchgate.net/profile/Darrell_Carpenter/publication/286729041
References
1. Cho, C.H., Martens, M.L., Kim, H., & Rodrigue, M. (2011). Astroturfing Global Warming: It Isn't Always Greener on the Other Side of the Fence. Journal of Business Ethics, 104, 571-587.
2. Del Vicario, M., Bessi, A., Zollo, F., Petroni, F., Scala, A., Caldarelli, G.,
I 1 OIBCOURBB-P Ift
Шскурс Ш
Stanley, H.E., & Quattrociocchi, W. (2016). The spreading of misinformation online. Proceedings of the National Academy of Sciences, 113(3), 554-559.
3. Facebook zapuskaet giperlokal'nuyu reklamu dlya tex, kto nepodalyoku [Facebook launches hyperlocal ads for those who are nearby]. (2016). Apps4All. Retrieved from http://apps4all.ru/post/10-08-14-facebook-zapuskaet-giperlokalnuyu-reklamu-dlya-teh-kto-nepodaleku
4. First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser. (2011). USA Today. Retrieved from https://usatoday30. usatoday.com/money/companies/management/monday/2011-04-29-first-monday-business-media-in-may_n.htm
5. Goldberg, L.R. (1990). An alternative «description of personality»: The Big-Five factor structure. Journal of Personality and Social Psychology, 6, 1216-1229.
6. Harkins, S.G., & Petty, R.E. (1981). The multiple source effect in persuasion. Personality and Social Psychology Bulletin. Retrieved from http://journals.sagepub. com/doi/abs/10.1177/014616728174019
7. Kosinski, M., & Stillwell, D. (2015, January 27). Computer-based personality judgments are more accurate than those made by humans. PNAS. Retrieved from http://www.pnas.org/content/112/4Z1036.full
8. Milovidov, V.D. (2019). Simmetriya zabluzhdeniy: factory neopredelennosti finansovogo rynka v usloviyakh tekhnologicheskoy revolyutsii [Symmetry of delusions. uncertainty factors of the global financial market under the technological revolution]. M.: Magistr.
9. Milovidov, V.D. (2020). Performativnaya tramponomika i finansovyj rynok [Performative trumponomics and financial market], Mirovaya ekonomika i mezhdunarodnye otnosheniya, 2, 24-33. doi.org/10.20542/0131-2227-2020-64-2-24-33
10. Pariser Eli. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.
11. Parramore Lynn. (2010, October). The Filter Bubble. The Atlantic. Retrieved from https://www.theatlantic.com/daily-dish/archive/2010/10/the-filter-bubble/181427/
12. Pentland, A. (2014). Social physics. How good ideas spread - the lessons from a new science. New York.
13. Ratkiewicz, J., Conover, M.D., Meiss, M., Gon^alves, B., Flammini, A., & Menczer, F. (2011). Detecting and Tracking Political Abuse in Social Media. Center for Complex Networks and Systems Research. Indiana University.
14. Rogachyov, S.V. (2019). Cifrovizaciyapo kriteriyampoliticheskogo riska: Nauchnyj doklad [Digitalization according to the criteria of political risk: Scientific report]. M.: Izdatel'stvo «Prospekt».
15. Szymanski, K. (1987). Social Loafing and Self-Evaluation with a social standard. Journal of Personality and social psychology. Retrieved from https://pdfs. semanticscholar.org/65c6/162ff35fc61ea7b59945858f1235e80cdbc3.pdf
16. Tapson, Mark. (2013, August 13). The Soft Totalitarianism of Nudging. FrontpageMag. Retrieved from https://archives.frontpagemag.com/fpm/soft-totalitarianism-nudging-mark-tapson/
17. The Echo Chamber Revisited. (2011, June 17). WNYC. Retrieved from https://www.wnyc.org/story/143347-echo-chamber-revisited/#transcript
18. Vilovatykh, A.V. (2018). Ispol'zovaniye informatsionno-kommunikatsionnykh tekhnologiy v voyenno-politicheskikh tselyakh: sotsial'no-psikhologicheskiy aspekt [Information & Communication Technologies on the Political-Military Service: the Social and Psychological Aspects]. Problemy natsional'noy strategii, 2, 197-211.
19. Webster, S.C. (2011, February 22). Exclusive: Military's 'persona' software cost millions, used for 'classified social media activities'. Rawstory. Retrieved from https://www.rawstory.com/wpcontent/uploads/2011/03/personamanagementcontract. pdf
20. Weedon, J., Nuland, W., & Stamos, A. (2017, April 27). Information Operations and Facebook. Facebook. Retrieved from https://fbnewsroomus.files. wordpress.com/2017/04/facebook-and-information-operations-v1.pdf
21. Zhang, J., Carpenter, D., & Ko, M. (2013, August 15-17). Online astroturfing: A theoretical perspective. Proceedings of the Nineteenth Americas Conference on Information Systems. Chicago, Illinois. Retrieved from https://www. researchgate.net/profile/Darrell_Carpenter/publication/286729041