Научная статья на тему 'ТЕНДЕНЦИИ И МЕТОДЫ ИСПОЛЬЗОВАНИЯ КОМПЬЮТЕРНЫХ ТЕХНОЛОГИЙ ДЛЯ ПОЛИТИЧЕСКОГО МАНИПУЛИРОВАНИЯ В СОВРЕМЕННОМ ОБЩЕСТВЕ'

ТЕНДЕНЦИИ И МЕТОДЫ ИСПОЛЬЗОВАНИЯ КОМПЬЮТЕРНЫХ ТЕХНОЛОГИЙ ДЛЯ ПОЛИТИЧЕСКОГО МАНИПУЛИРОВАНИЯ В СОВРЕМЕННОМ ОБЩЕСТВЕ Текст научной статьи по специальности «Политологические науки»

CC BY
4
3
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
дезинформация / политическое манипулирование / компьютерная пропаганда / масштабируемость / поддельные аккаунты / контент / медиаплатформы. / disinformation / political manipulation / computer propaganda / scalability / fake accounts / content / media platforms.

Аннотация научной статьи по политологическим наукам, автор научной работы — Урдашев, Азамат Бахтиярович, Усмонов, Фаррухбек Бахтиярович

В настоящей статье обзорному анализу подвергнута специфика политического манипулирования в социальных сетях, с использованием компьютерных технологий в современном мире. Особое внимание при этом уделено понятийному аппарату и методам воздействия на массовое сознание, организационной структуре и специфике информационного воздействия.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

TRENDS AND METHODS OF USING COMPUTER TECHNOLOGIES FOR POLITICAL MANIPULATION IN MODERN SOCIETY

This article provides a review analysis of the specifics of political manipulation in social networks using computer technology in the modern world. Particular attention is paid to the conceptual apparatus and methods of influencing mass consciousness, the organizational structure and the specifics of information impact.

Текст научной работы на тему «ТЕНДЕНЦИИ И МЕТОДЫ ИСПОЛЬЗОВАНИЯ КОМПЬЮТЕРНЫХ ТЕХНОЛОГИЙ ДЛЯ ПОЛИТИЧЕСКОГО МАНИПУЛИРОВАНИЯ В СОВРЕМЕННОМ ОБЩЕСТВЕ»

SJIF 2024 = 7.404 / ASI Factor = 1.7

ТЕНДЕНЦИИ И МЕТОДЫ ИСПОЛЬЗОВАНИЯ КОМПЬЮТЕРНЫХ ТЕХНОЛОГИЙ ДЛЯ ПОЛИТИЧЕСКОГО МАНИПУЛИРОВАНИЯ В

СОВРЕМЕННОМ ОБЩЕСТВЕ

Урдашев Азамат Бахтиярович

преподаватель кафедры общественных наук УзГУМЯ Email: aurdashev@gmail. com Усмонов Фаррухбек Бахтиярович

Студент университета УзГУМЯ направление политология

АННОТАЦИЯ

В настоящей статье обзорному анализу подвергнута специфика политического манипулирования в социальных сетях, с использованием компьютерных технологий в современном мире. Особое внимание при этом уделено понятийному аппарату и методам воздействия на массовое сознание, организационной структуре и специфике информационного воздействия.

Ключевые слова: дезинформация, политическое манипулирование, компьютерная пропаганда, масштабируемость, поддельные аккаунты, контент, медиаплатформы.

This article provides a review analysis of the specifics of political manipulation in social networks using computer technology in the modern world. Particular attention is paid to the conceptual apparatus and methods of influencing mass consciousness, the organizational structure and the specifics of information impact.

Keywords: disinformation, political manipulation, computer propaganda, scalability, fake accounts, content, media platforms.

ВВЕДЕНИЕ

Цифровые технологии, включая инструменты социальных сетей и иные ресурсы Интернета, открывают всесторонний доступ к данным и знаниям, с возможностью коллективного участия, играя при этом неотъемлемую роль в формировании и совершенствовании гражданских устоев в локальных социумах. Вместе с тем присутствуют препятствия на пути их творческого конструктивного применения1.

1 Howard, P. N. (2005). New Media Campaigns and the Managed Citizen. New York, NY: Cambridge University Press. Howard, P. N. (2011). Castells and the Media. New York, NY: Polity Press. Howard, P. N. (2015). Pax Technica: How the Internet of Things May Set Us Free. New Haven, CT: Yale University Press.

ABSTRACT

SJIF 2024 = 7.404 / ASI Factor = 1.7

Такие массовые социальные платформы, как Facebook и Twitter, с трудом справляются с попытками их использования для политического контроля и манипулирования. Алгоритмы социальных сетей могут создавать эхо-камеры, в которых общественные разговоры загрязняются и поляризуются. Возможности слежки превышают возможности гражданской защиты. Политические "боты" (программные агенты, используемые для создания простых сообщений и "разговоров" в социальных сетях) маскируются под настоящие низовые движения, чтобы манипулировать общественным мнением. Разжигание ненависти в Интернете становится все более популярным. Злоумышленники и цифровые маркетологи управляют фабриками нежелательных новостей, которые распространяют дезинформацию, чтобы навредить оппонентам или получить доход от рекламы за «клики». Не будет преувеличением сказать, что скоординированные усилия уже сейчас направлены на то, чтобы посеять хаос во многих политических системах мира. Некоторые военные и разведывательные службы используют социальные сети как каналы для подрыва государственных устоев. Правительства светских государств разрабатывают правовые и нормативные меры превентивного толка. Однако непредвиденные последствия чрезмерного регулирования, не основанного на системных исследованиях, могут оказаться столь же разрушительными для общественных систем, как и сами угрозы.

ОБСУЖДЕНИЕ И РЕЗУЛЬТАТЫ

Мы живем в эпоху необычайных политических потрясений и перемен, когда политические движения и партии быстро поднимаются и падают в рейтинге. В этой изменчивой политической среде цифровые технологии служат платформой для многих современных гражданских действий и политических акций. Действительно, большое количество исследований свидетельствует, что социальные сети играют важную роль в циркуляции идей и обсуждении государственной политики. Однако все чаще социальные медиа-платформы становятся также средством для проведения манипулятивных дезинформационных кампаний. Политические кампании, правительства и обычные граждане по всему миру используют комбинации людей и ботов -автоматизированного программного обеспечения, созданного для имитации реальных пользователей, - в попытке искусственно формировать общественную жизнь. Однако до сих пор остаются открытыми и трудноразрешимыми вопросы о конкретных механизмах влияния на конкретных избирателей и о том, как на них должны реагировать правительства, новостные организации и группы гражданского общества. Как новые формы гражданской активности влияют на

SJIF 2024 = 7.404 / ASI Factor = 1.7

политические результаты? В какой степени онлайновые эхо-камеры и избирательное воздействие информации способствуют развитию политического экстремизма? Как гражданские активисты могут эффективно реагировать на "троллинг" со стороны враждебных политических агентов?

Компьютерная пропаганда - это термин, который точно отражает это текущее явление и развивающуюся область исследований цифровой дезинформации и манипуляций. Как коммуникативная практика, она описывает использование алгоритмов, автоматизации и человеческого кураторства для целенаправленного управления и распространения недостоверной информации в социальных сетях. В рамках этого процесса кодеры и их автоматизированные программные продукты (в том числе боты) учатся у легитимных пользователей социальных сетей и подражают им, чтобы манипулировать общественным мнением на различных платформах и в различных сетях устройств. Эти боты строятся так, чтобы вести себя как реальные люди (например, автоматически генерировать и отвечать на разговоры в сети), а затем выпускаются на свободу в социальных сетях, чтобы усиливать или подавлять определенные политические сообщения. Эти "автоматизированные социальные актеры" могут использоваться для поддержки определенных политиков и политических позиций, активно и с энтузиазмом поддерживая их и одновременно заглушая любые несогласные голоса. Они могут управляться совместно с человеческими армиями троллей для "достижения консенсуса" или создания иллюзии всеобщей поддержки (возможно, спорной) идеи или политики с целью создания эффекта групповой поддержки. Компьютерная пропаганда выступает частью совокупности сомнительных политических практик, наряду с цифровым астротурфингом, спонсируемым государством троллингом и новыми формами онлайн-войны, известными как PsyOps или InfoOps, когда конечной целью является манипулирование информацией в сети для изменения мнений и, в конечном итоге, поведения людей.

Однако попытка понять вычислительную пропаганду только с технической точки зрения - как набор переменных, моделей, кодов и алгоритмов - играет на руку её создателям, обслуживающим её платформам и получающим от неё прибыль фирмам. Сам акт описания чего-либо как чисто "технического" или посредством механистических терминов может принуждать выглядеть беспристрастным и неизбежным. Занимать такую позицию, безусловно, опасно, и мы должны обратиться к развивающейся дисциплине "наука о социальных данных", чтобы помочь нам понять сложные социотехнические проблемы и влияние технологий (включая компьютерную пропаганду) на политику. В

SJIF 2024 = 7.404 / ASI Factor = 1.7

рамках этого процесса исследователи социальной науки о данных должны критически относиться к данным, которые они используют и анализируют, чтобы убедиться в предмете критики в ходе описания, предсказаний или рекомендаций, изменений в том, как технологии взаимодействуют с нашими политическими системами. Если академические исследования компьютерной пропаганды не будут в полной мере учитывать системы власти и знания, которые её производят (то есть человеческие акторы и мотивы, стоящие за ней), то исчезнет сама возможность улучшить роль социальных медиаплатформ в общественной жизни. Мы можем надеяться на понимание и адекватное реагирование на такую проблему, как влияние вычислительной пропаганды на наши политические системы, проводя наряду с качественными исследованиями и вычислительные, обращаясь как к вычислительной, так и к политической составляющей.

Таким образом, компьютерная пропаганда может включать в себя два важных компонента: технический и социальный. В статусе технического феномена мы можем определить её, как совокупность платформ социальных сетей, автономных агентов, алгоритмов и больших данных, которым поручено манипулировать общественным мнением. Безусловно "Компьютерная" пропаганда - это аналог той формы пропаганды, которая существовала в наших политических системах на протяжении тысячелетий. Это коммуникации, которые намеренно подрывают символы, апеллируя к нашим низменным эмоциям и предрассудкам и, минуя рациональное мышление, стремится к достижению конкретных целей вовлеченных пропагандистов; под компьютерной пропагандой понимается пропаганда, созданная или распространенная с помощью информационно-вычислительных средств. При этом автоматизация, масштабируемость и анонимность - её отличительные черты. Пагубное преимущество компьютерной пропаганды заключается в возможности быстрого распространения большого количества контента, иногда персонализированного, чтобы ввести в заблуждение пользователей, заставив их думать, что сообщения исходят от их расширенной сети семьи и друзей. Таким образом, она обычно включает в себя один или несколько следующих компонентов: боты, автоматизирующие доставку контента; поддельные аккаунты в социальных сетях, требующие некоторого (ограниченного) контроля со стороны человека; и нежелательные новости - то есть дезинформация о политике и общественной жизни. Политические боты, о которых мы уже упоминали как о неотъемлемой части распространения компьютерной пропаганды, - это программы или агенты, созданные для

SJIF 2024 = 7.404 / ASI Factor = 1.7

выполнения простых, повторяющихся, как правило, текстовых задач. В целом боты используются для того, чтобы вычислительным путем увеличить объем и скорость работы людей в Интернете. Эта работа может быть доброкачественной и чрезвычайно полезной: большинство внутренних ссылок, которые позволяют нам перемещаться по Википедии, созданы и поддерживаются ботами. Когда боты программируются с человеческими атрибутами или способностями - например, чтобы выдавать себя за настоящих пользователей социальных сетей, - их называют социальными ботами или чат-ботами. Они могут использоваться для выполнения рутинных задач, таких как сбор информации, но также могут взаимодействовать с людьми и системами. Это могут быть такие простые задачи, как доставка новостей и информации -например, автоматические обновления о погоде, спортивных новостях и стоимости акций. Они также могут использоваться для поддержки более вредоносных действий, таких как рассылка спама и преследование. Но независимо от того, какую задачу они выполняют - доброкачественную или вредоносную, они способны быстро рассылать сообщения, взаимодействовать с контентом других пользователей и даже влиять на алгоритмы трендов или манипулировать ими - и при этом выдавать себя за людей.

Политические боты - то есть социальные боты, используемые для политических манипуляций, - таким образом, представляют собой эффективный инструмент для ведения пропаганды и кампаний ненависти в Интернете. Один человек или небольшая группа людей может довольно легко создать и скоординировать армию политических ботов в Twitter, YouTube или Instagram, чтобы создать иллюзию масштабного консенсуса или интереса к определенному вопросу. Правительства и политические деятели по всему миру используют политических ботов, запрограммированных на то, чтобы выглядеть и вести себя как настоящие граждане, чтобы заглушать и преследовать оппозицию и продвигать свои собственные идеи. Политические кампании (и их гражданские сторонники) использовали политических ботов и вычислительную пропаганду во время выборов, чтобы раскачать голоса или опорочить и запугать оппозицию. Анонимные политические деятели распространяли ложные новости, координировали кампании по дезинформации и "тролль-мобы" для нападения на правозащитников, группы гражданского толка и журналистов. Компьютерная пропаганда - это чрезвычайно мощный новый инструмент коммуникации, который повсеместно используется против политических оппонентов и институтов гражданского общества по всему миру.

SJIF 2024 = 7.404 / ASI Factor = 1.7

Остановимся более подробно на автоматизации и алгоритмах, как инструментах политической коммуникации. Термин "компьютерная пропаганда" можно использовать для описания недавней серии цифровых атак на гражданское общество. "Вычислительная" часть уравнения очень важна. Технологии и инструменты, основанные на данных, такие как автоматизация (боты) и алгоритмы (код принятия решений), позволяют небольшим группам игроков передавать высокоспецифичную, а иногда и оскорбительную и ложную информацию в базисную онлайн-среду. При этом часто происходят быстрые циклы обмена, повторного использования и дальнейшего распространения. Например, во время президентских выборов в США в 2016 году ультраправые пользователи имиджборда 8chan распространили мем с изображением Хиллари Клинтон, Звезды Давида и денежного фона. Затем это изображение было распространено на таких сайтах, как Facebook, а затем им поделились и перепостили консерваторы из основной массы. Кандидат в президенты Дональд Трамп затем повторно опубликовал это изображение в Твиттере. Средства массовой информации подхватили массовое обсуждение в Интернете и начали писать статьи на эту тему. Эта тактика - использование ненависти и вирусного распространения дезинформации для подрыва оппозиции - не нова. Российские и украинские пропагандисты активно использовали ее в последние годы2. Однако скорость, с которой эта информация сейчас регулярно распространяется, и степень замешательства, вызванная ее быстрым ростом и распространением в сети, - это что-то новое. История компьютерной пропаганды, конечно, коротка по сравнению с гораздо более длительной историей традиционных форм политической пропаганды. Но за последние шесть лет государственные и негосударственные политические субъекты - от кандидатов на должность до хакерских коллективов - успешно влияли на мнение и поведение людей во время важнейших выборов, кризисов безопасности и других важных политических событий. Мощные (и часто анонимные) политические акторы использовали методы вычислительной пропаганды для совершения политических атак, распространения дезинформации, цензуры и атак на журналистов, а также создания фальшивых трендов.

Автоматизация и анонимность лежат в основе компьютерной пропаганды и того, что интересно и важно в ней как в новой области научных исследований.

2 Castle, S. (2015, February 13). A Russian TV Insider Describes a Modern Propaganda Machine. The New York

Times. Retrieved from https://www.nytimes.com/2015/02/14/world/europe/russian-tv-insider-says-putin-is-

running-the-show-in-ukraine.html.

Oriental Renaissance: Innovative, educational, natural and social sciences

SJIF 2024 = 7.404 / ASI Factor = 1.7

Слово "вычислительная" означает не только то, что эти акты убеждения происходят на компьютере или в Интернете. Скорее, это подчеркивает тот факт, что эти политические стратегии опираются на вычислительное усовершенствование. Автоматизация позволяет масштабировать пропагандистские атаки. Анонимность позволяет преступникам оставаться неизвестными. В 2015 году компания Incapsula, занимающаяся вопросами безопасности, опубликовала исследование, согласно которому боты генерируют почти половину всего веб-трафика, что является экстраординарной долей. В сфере социальных сетей более трети пользователей Twitter на самом деле являются ботами - автоматизированными программными аккаунтами, созданными для того, чтобы выдавать себя за реальных людей. По отдельным оценкам, в течение двух лет боты будут генерировать около 10% всей активности на популярных сайтах социальных сетей. Эти распространенные оценки активности ботов могут показаться довольно ужасающими (если мы ценим социальные сети как пространство подлинной, неопосредованной связи с другими людьми), но детали беспристрастны - многие боты сейчас поддерживают параллельное присутствие на нескольких сайтах социальных сетей одновременно, чтобы придать себе ауру человеческой достоверности. Они также имитируют человеческий образ жизни - придерживаются правдоподобного цикла сна-бодрствования, что делает их более сложными для идентификации на основе одних только моделей использования3. Социальные боты в таких приложениях для знакомств, как Tinder, запрограммированы на то, чтобы не отвечать сразу на ухаживания человека, а задерживать свой ответ, как это мог бы сделать человек. Действительно, в Twitter бот может делать почти все, что может делать человек, используя API Twitter, и они отмечают все возрастающую сложность различения скриптов, созданных людьми, ботами или киборгами (то есть бот, которому помогает человек). Многие боты запускаются через интерфейс прикладного программирования (API) платформы социальных сетей. Некоторые сайты, например Twitter, имеют более открытые API и менее строгую политику в отношении использования ботов. В Twitter боты могут быть напрямую подключены к одному из многих API. Они могут обрабатывать информацию и активность в Twitter в режиме реального времени и реагировать на любые комментарии и пользователей, которые соответствуют их сценарию (например, которые можно идентифицировать как продвигающие или следующие за определенным пользователем или мнением). Facebook

3 Zeifman, I. (2015, December 9). 2015 Bot Traffic Report: Humans Take Back the Web, Bad Bots Not Giving Any Ground. Retrieved June 23, 2016, from https://www.incapsula.com/blog/ bot-traffic-report-2015.html.

SJIF 2024 = 7.404 / ASI Factor = 1.7

проводит более строгую политику в отношении использования автоматизации и придерживается политики "реального имени", которая требует от каждого пользователя подтверждать свою (уникальную, человеческую) личность, но у нее все еще есть проблемы с манипулятивной или иным образом проблематичной автоматизацией. Так, в 2012 году Facebook публично объявил о намерении бороться с фальшивыми аккаунтами, присутствующими в социальной сети, которые составляли 8,7 % от общего числа аккаунтов. На первый взгляд этот процент может показаться небольшим, но он составлял 83 миллиона аккаунтов, что эквивалентно всему населению Германии. Facebook прямо заявила, что эти фальшивые аккаунты и их "мошеннические лайки" противоречат ее целям: Настоящая идентичность, как для пользователей, так и для брендов... важна не только для миссии Facebook - помогать миру делиться, но и для того, чтобы люди и клиенты могли аутентично связываться со страницами, которые им дороги... Facebook был построен на принципе реальной идентичности, и мы хотим, чтобы эта же аутентичность распространялась и на Страницы. Мы, несомненно, ожидаем, что это будет положительным изменением для всех, кто пользуется Facebook". ("Improvements To Our Site Integrity Systems", 2012) Однако Facebook - как и все самые популярные социальные медиаплатформы - продолжает бороться с проблемой ботов.

В 2014 году бот по имени "Юджин Густман" впервые прошел тест Тьюринга; это означает, что после пятиминутного разговора между ботом и судьями он обманул треть из них, идентифицировавших его как человека. Боты становятся все более похожими на людей по своей речи и поведению, а значит, их все труднее обнаружить. Их можно купить по дешевке: армии ботов, созданных для того, чтобы нравиться определенному контенту или отправлять сообщения - "бомбы", стоят менее 100 долларов США.

Наработанная база в рамках социальной науки данных о политической коммуникации подтверждает факт того, что алгоритмы и другие вычислительные инструменты сегодня играют важную политическую роль в таких областях, как потребление новостей, осведомленность о проблемах и понимание культуры, что подтверждается все более усиливающимся влиянием на всесторонние аспекты социального бытия. Различные проблемы, возникающие в результате такого пересечения, также исследуются в литературе по информатике и компьютерным наукам. В связке с исследованиями в области компьютерных наук (Mitter, Wagner, & Strohmaier, 2014; Ferrara et al., 2016), ориентированные на коммуникацию и медиа работы свидетельствуют, что

SJIF 2024 = 7.404 / ASI Factor = 1.7

политические акторы по всему миру используют ботов в социальных сетях в попытках как облегчить, так и контролировать коммуникацию. Боты использовались политическими кампаниями и кандидатами для манипулирования общественным мнением, срывая попытки активистов организоваться, а также для создания иллюзии популярности и консенсуса. Эта деятельность подчеркивает растущую изощренность современных социальных ботов, а также их потенциал в угрозе устоям гражданской жизни как в онлайне, так и в офлайне. Одной из особенно вредных форм вычислительной пропаганды являются ложные новостные сообщения, широко распространяемые ботами через социальные медиа-платформы, такие как Twitter, Facebook, Reddit и другие. За последние несколько лет эти социальные медиа-платформы подавали значительные объемы фальшивых, сенсационных и других видов "нежелательных новостей" в острые политические моменты. Однако большинство платформ мало что сообщают о количестве такого контента и его влиянии на пользователей.

Всемирный экономический форум назвал быстрое распространение дезинформации в сети одной из 10 главных опасностей для общества (World Economic Forum, 2014), что свидетельствует о том, насколько важной может быть эта проблема. Предыдущие исследования показали, что социальные сети отдают предпочтение сенсационному контенту, независимо от того, был ли он проверен на достоверность или получен из надежного источника. Когда распространение этих недоброкачественных новостей подкрепляется автоматизацией, либо с помощью политических ботов или собственных алгоритмов распространения оператором платформы, политические акторы получают мощный набор инструментов для вычислительной пропаганды. Как государственные, так и негосударственные политические акторы могут сознательно манипулировать нефактической информацией в сети и усиливать ее в своих целях. Создание и использование ботов также рассматривается как своего рода "агностический коммерциализм". Создатели ботов действуют как наемные убийцы, продавая их на фриланс-платформах вроде Fiverr, не заботясь о том, как и кем они будут использоваться. Использование ботов для распространения рекламы или нападения на оппонентов в сети имеет долгую историю, беря начало от проникновения в электронную почту и другие чаты, а затем распространившись на платформы социальных сетей, таких как Twitter и Facebook. Эти новые формы могут собирать информацию о пользователях, чтобы продвигать определенный аргумент или повестку дня, часто с помощью хэштегов. Эксперименты по проверке эффективности таких ботов показали, что

SJIF 2024 = 7.404 / ASI Factor = 1.7

они могут с большим успехом проникать в социальные сети на таких сайтах, как Facebook, и обходить системы безопасности, предназначенные для защиты пользователей от подобных атак. В интервью с программистами, которые создают и внедряют таких ботов, многие из них говорили, что их работа носит исключительно наемнический характер, что они аполитичны в своих взглядах и руководствуются исключительно желанием заработать деньги в Интернете. Конечно, манипулирование избирателями существовало задолго до того, как боты стали массовым явлением в социальных сетях. Более десяти лет назад Ховард (Howard, 2005) основал исследование политических движений "астротурф", определив его как процесс поиска вариантов победы на выборах или законодательного решения проблем путем помощи политическим акторам в поиске и мобилизации сочувствующей публики через Интернет. Эта стратегия кампании может быть использована для создания образа общественного консенсуса там, где его нет, или для создания ложного впечатления о популярности кандидата или идеи государственной политики. Почти сразу после того, как социальные сети стали, пожалуй, самым важным средством получения новостей и общения со сверстниками, автоматизация сетей стала использоваться для поддержки политической коммуникации аналогичным образом. Раткевич и др. (2011) изучили способы использования ботов в Twitter до и во время промежуточных кампаний в Конгресс США в 2010 году. Они изучили атаки социальных ботов на кандидатов в Палату представителей и Сенат и предположили, что эти технологические акторы были частью более масштабных политических усилий "астротурф". Социальные боты, или т.н. "носковые марионетки", использовались в данном контексте благодаря своей анонимности и повсеместному распространению. Несмотря на большое количество научных работ, посвященных изучению огромного демократического потенциала Интернета, недавние исследования также показали, как освободительный потенциал Интернета может быть скомпрометирован, когда правящая элита использует его в качестве инструмента социального контроля. Внутри- и межстрановые цифровые различия также могут влиять на то, как социальные медиа используются в общественной жизни. Существует классовый разрыв между производителями онлайн-контента и его потребителями. Другие утверждают, что широко распространенная политическая нормализация систем социальных медиа позволила политически влиятельным лицам использовать эти инструменты для принуждения и контроля. Действительно, государства, которые с самого начала

SJIF 2024 = 7.404 / ASI Factor = 1.7

осуществляли жесткий контроль над развитием своего Интернета, такие как Китай, Сингапур и Иран, добились успеха в онлайн-контроле.

В рассматриваемом исследовательском ракурсе представляет интерес т.н. «Смешанный метод» («Mix Method») для понимания вычислительной пропаганды. Ученые-медиевисты занимаются изучением пропаганды и ее влияния на общественное мнение, по крайней мере, со времен основополагающих работ Лазарсфельда (1941) и Лассвелла (1948). Текущее многолетнее исследование вычислительной пропаганды по всему миру развивает эту линию исследований для понимания того, как алгоритмы, автоматизация и социальные медиа используются для продвижения сообщений политических акторов в различных демократических и авторитарных режимах по всему миру. При этом опора делается на базовый набор исследовательских вопросов, разработанных для сопоставимости. Является ли компьютерная пропаганда частью современного политического ландшафта страны? Каковы ее формы, типы или стили? Каково ее влияние на общественную жизнь? В каждом конкретном исследовании также рассматривается влияние наблюдаемых явлений на политические институты страны. Как деятельность политических ботов может нарушить закон о выборах? Какие вычислительные пропагандистские кампании оказали значительное влияние и как их можно предотвратить в будущем? В соответствии с нашим предыдущим замечанием о важности рассмотрения как с технической, так и с социальной стороны, важна вариативность использования различных социальных методов и методов науки о данных. Такой смешанный (Mix) комплексный подход позволяет в тематических исследованиях затронуть проблемы, возникающие на стыке нескольких дисциплин, особенно тех, что посвящены социальным наукам, праву и информатике. Существенное содействие может оказать качественный и количественный контент-анализ новостных материалов о вычислительных алгоритмах, анализ, собственно, больших данных в крупных сетях пользователей Facebook, Twitter и Weibo. Исследователи используют различные методы для каталогизации конкретных примеров по странам, включая, в частности, интервью с жертвами атак, интервью с теми, кто работал над созданием политических ботов и пропагандой в социальных сетях, отслеживание процессов, наблюдение за участниками и анализ социальных сетей. Для каждого случая требуются свои подходы и инструменты. Исследователи должны быть экспертами конкретных политических культур, способными проводить интервью в стране на соответствующих языках и обладать навыками анализа больших массивов данных контента социальных

SJIF 2024 = 7.404 / ASI Factor = 1.7

сетей. Таким образом, непременным условием достижения максимального результата является сотрудничество представителей социальных, политических и компьютерных наук.

В научно-исследовательской практике по данной тематике используются, как правило, пять различных семейств методов исследования, в зависимости от контекста каждого случая. К ним относятся следующие:

• Вычислительные социальные науки. Предусмотрено применение наборов методов машинного обучения, включая регрессионный анализ, анализ к-ядер и методы обнаружения тем, для анализа публичных данных, собранных на сайтах социальных сетей, в ходе опросов и интервью. Целью этих методов обычно является составление карты социального влияния, выявление специфических для региона "горячих кнопок", которые поляризуют социальные группы, такие как раса, религия, иммиграция и пол, а также отслеживание использования кампаний по дезинформации в Интернете для влияния на избирателей.

• Качественная этнография. Наблюдение за участниками и полевая работа. Время, проведенное с разработчиками платформ социальных сетей или экспертами по политическим коммуникациям, позволяет многое понять о том, как возможности этих технических систем могут ограничивать выбор граждан для самовыражения. Систематические интервью с политическими консультантами, фирмами по добыче данных и гражданским обществом, пострадавшим от атак, раскрывает многое об экономических стимулах и рыночной структуре техник политического манипулирования. Современная социальная наука все чаще предполагает методологическое сотрудничество -вычислительный анализ данных может выявить глубинные модели информации и поведения, но только в сочетании с этнографией мы можем предпринять их теоретически значимую интерпретацию4.

В сочетании обоих методов можно рассмотреть, как широкие паттерны вычислительной пропаганды в нашей онлайновой информационной среде и глубинные политические, экономические и социокультурные силы, продвигают и используют ее.

Анализ социальных сетей направлен на интеграцию больших массивов данных с платформ социальных сетей с существующими данными опросов и анкетирования, чтобы понять, как структура социальных сетей ограничивает наши возможности для политического обучения, взаимодействия с

4 Bolsover, G., & Howard, P. (2017). Computational Propaganda and Political Big Data: Moving Toward a More Critical Research Agenda. Big Data, 5(4), 273-276. Retrieved from https:// doi.org/10.1089/big.2017.29024.cpr.

SJIF 2024 = 7.404 / ASI Factor = 1.7

политическими лидерами и сопереживания социальным проблемам. Составление карты рекламных сетей может показать, как далеко распространилась дезинформационная кампания, и что послужило причиной ее распространения, а составление карты социальных сетей может показать, как пользователи могут самоотбираться в "эхо-камеры".

Опросы и изучение общественного мнения используются для отслеживания влияния алгоритмических манипуляций на общественное мнение. Опросы могут быть полезны для обобщения мнения пользователей о политическом использовании социальных сетей. Открытые анкеты позволяют пользователям подробно рассказать об элементах цифрового политического манипулирования и преследования, которые исследователи могут изначально не брать в расчет. Шкальные вопросы позволяют исследователям выяснить, считают ли пользователи компьютерную пропаганду проблемой и в какой степени.

Методология правового исследования изучает, как правительства и другие юрисдикции, где это уместно, внедряют ключевые принципы и гарантии защиты частной жизни и данных, предусмотренные ведущими документами по защите частной жизни и данных. В большинстве случаев национальные правительства не имеют избирательных законов, которые помогли бы политическим деятелям принимать правильные решения в отношении сложного спектра предлагаемых в настоящее время технологий политической коммуникации. Там, где это возможно, обсуждаются правила, которые должны применяться в избирательных кампаниях - или, возможно, должны были применяться.

Компьютерная пропаганда все более принимает контуры глобальной проблемы и, как уже упоминалось со ссылкой на Всемирный экономический форум, быстрое распространение дезинформации в Интернете идентифицируется в числе 10 масштабных опасностей для общества. В этой связи важно понимание того, как заинтересованные акторы продуцируют, управляют и распространяют дезинформацию. И прецеденты наподобие сдерживания диспутов в национальных сегментах конкретных сетей с использованием высокоавтоматизированных аккаунтов должны подвергаться измерению посредством апробированных инструментов. И это в условиях, когда высокоавтоматизированные аккаунты перешли из периферийных социальных сетей к взаимодействию с основными группами людей.

Есть основание констатировать, что боты в социальных сетях и вычислительная пропаганда в целом используются для манипулирования

SJIF 2024 = 7.404 / ASI Factor = 1.7

дискуссиями в Интернете. Этому манипулированию способствует тот факт, что некоторые социальные медиаплатформы в конкретных политических контекстах либо полностью контролируются организованными дезинформационными кампаниями, либо доминируют в них. Для примера, почти половина активности российского сегмента в Twitter управляется высокоавтоматизированными аккаунтами. Значительная часть политических твитов в Польше создается всего несколькими альт-правыми аккаунтами. Компьютерная пропаганда также играет определенную роль в конкретных событиях, особенно во время выборов и кризисов безопасности. Она сыграла значительную роль во время трех недавних политических событий в Бразилии: президентских выборов 2014 года, импичмента бывшего президента Дилмы Руссефф и муниципальных выборов 2016 года в Рио-де-Жанейро. Анализ того, как украинский конфликт разворачивался в социальных сетях, представляет собой, возможно, наиболее подробный пример роли компьютерной пропаганды во время глобального кризиса безопасности и продолжающегося участия сторон в информационных войнах. Многочисленные кампании по дезинформации в Интернете были направлены против граждан в "ВКонтакте", Facebook и Twitter. Индустрия, которая способствует этим манипуляциям, активно работает в Украине с начала 2000-х годов.

Вычислительная пропаганда процветала и во время президентских выборов в США в 2016 году. В сети появилось множество примеров распространения дезинформации с целью ввести избирателей в заблуждение или просто получить прибыль. Многие СМИ исследовали, как "фальшивые новости" могли привести Дональда Дж. Трампа к победе. В Мичигане, одном из ключевых штатов, где развернулась борьба, в дни, предшествовавшие выборам, фальшивые новости распространялись так же широко, как и официальные. Многие люди, увидевшие фальшивые новости во время выборов, поверили этим заголовкам5.

Существует разница в использовании вычислительной пропаганды авторитарными и демократическими правительствами. Однако этот разрыв все больше сокращается. Тематические исследования показывают, что авторитарные правительства направляют вычислительную пропаганду, как на свое собственное население, так и на население других стран. Кампании, проводимые Китаем, были направлены на политических деятелей Тайваня, а кампании, проводимые Россией, - на политических деятелей Польши и

5 Silverman, C., & Singer-Vine, J. (2016, December 7). Most Americans Who See Fake News Believe It, New Survey Says. Retrieved March 3, 2017, from https://www.buzzfeed.com/ craigsilverman/fake-news-survey.

SJIF 2024 = 7.404 / ASI Factor = 1.7

Украины. Но и в демократических странах отдельные пользователи создают и управляют поддельными и высокоавтоматизированными аккаунтами в социальных сетях. Политические кандидаты, агитаторы и лоббисты арендуют крупные сети аккаунтов в социальных сетях для проведения целевых кампаний, а правительства выделяют государственные ресурсы на создание, эксперименты и использование таких аккаунтов. И это зависит не только от автоматизации и технологий искусственного интеллекта; когда речь идет об эффективном использовании компьютерной пропаганды, наиболее мощные формы будут включать в себя как алгоритмическое распространение, так и человеческое курирование - программные боты и человеческие тролли работают вместе. В частности пример Тайваня свидетельствует, что пропаганда материкового Китая в социальных сетях не полностью автоматизирована, а в значительной степени координируется людьми. Есть важные примеры положительного вклада алгоритмов и автоматизации в работу социальных сетей. В частности, в Соединенных Штатах ботостроители создали небольшие группы социальных ботов, которым поручено сделать информацию о политических процессах более открытой и понятной, создавать произведения искусства, направленные на критику конкретных политик или социальных проблем, а также связывать социальные или политические группы с аналогичными группами по интересам.

Мы проводим этот анализ вычислительной пропаганды, чтобы лучше понять глобальный охват политических ботов, цифровой дезинформации, нежелательных новостей и других подобных проблем. В конечном итоге одна из ключевых задач - это понять, кто стоит за кампаниями по дезинформации, а также объяснить, кто является жертвами, что они испытывают, и как противодействовать этой глобальной проблеме.

СПИСОК ЛИТЕРАТУРЫ (REFERENCES)

1. Abokhodair, N., Yoo, D., & McDonald, D. W. (2015). Dissecting a Social Botnet: Growth, Content and Influence in Twitter. In Proceedings of the 18th ACM Conference on Computer Supported Cooperative Work & Social Computing (pp. 839-851). New York, NY: ACM. Retrieved from https://doi.org/10.1145/2675133.2675208.

2. Bolsover, G., & Howard, P. (2017). Computational Propaganda and Political Big Data: Moving Toward a More Critical Research Agenda. Big Data, 5(4), 273276. Retrieved from https:// doi.org/10.1089/big.2017.29024.cpr.

3. Boshmaf, Y., Muslukhov, I., Beznosov, K., & Ripeanu, M. (2013). Design and Analysis of a Social Botnet. Computer Networks: The International Journal of

SJIF 2024 = 7.404 / ASI Factor = 1.7

Computing and Telecommunications Networking, 57(2), 556-578. Retrieved from https://www.sciencedirect.com/science/article/pii/S1389128612002150?via%3

4. Ferrara, E., Varol, O., Davis, C., Mencaer, F., & Flammini, A. (2016). The Rise of Socialbots. Communications of the ACM. Retrieved from https://cacm.acm.org/magazines/2016/77 204021-the-rise-of-social-bots/fulltext

5. Forelle, M., Howard, P., Monroy-Hernandez, A., & Savage, S. (2015). Political Bots and the Manipulation of Public Opinion in Venezuela. arXiv:1507.07109 [physics]. Retrieved from http://arxiv.org/abs/1507.07109. Freedom House. (n.d.). Freedom on the Net 2013: Saudi Arabia. New York, NY: Freedom House.

6. King, G., Pan, J., & Roberts, M. E. (2013). How Censorship in China Allows Government Criticism but Silences Collective Expression. American Political Science Review, 107(02), 326-343. Retrieved from https://doi.org/10.1017/S0003055413000014.

7. Kollanyi, B., Howard, P. N., & Woolley, S. C. (2016). Bots and Automation over Twitter during the U.S. Election (Data Memo No. 2016.4) (p. 5). Oxford, UK: Project on Computational Propaganda. Retrieved from http://www.politicalbots.org.

8. Wendling, M. (2016, March 16). Who's at the Controls of Iran's Bot Army? BBC News. Retrieved from http://www.bbc.co.uk/news/blogs-trending-35778645.

9. Woolley, S. C., & Howard, P. N. (2016a). Automation, Algorithms, and Politics| Political Communication, Computational Propaganda, and Autonomous Agents— Introduction. International Journal of Communication, 10(0), 9.

10. Zeifman, I. (2015, December 9). 2015 Bot Traffic Report: Humans Take Back the Web, Bad Bots Not Giving Any Ground. Retrieved June 23, 2016, from https://www.incapsula.com/blog/ bot-traffic-report-2015.html.

i Надоели баннеры? Вы всегда можете отключить рекламу.