2019
ВЕСТНИК САНКТ-ПЕТЕРБУРГСКОГО УНИВЕРСИТЕТА СОЦИОЛОГИЯ
Т. 12. Вып. 2
ЯЗЫК, КУЛЬТУРА, КОММУНИКАЦИЯ
УДК 316.774; 316.776
Коммуникативные стратегии социальных ботов: модели воздействия на аудиторию1
В. В. Василькова, Н. И. Легостаева, В. И. Радушевский
Санкт-Петербургский государственный университет,
Российская Федерация, 199034, Санкт-Петербург, Университетская наб., 7-9
Для цитирования: Василькова В. В., Легостаева Н. И., Радушевский В. И. Коммуникативные стратегии социальных ботов: модели воздействия на аудиторию // Вестник Санкт-Петербургского университета. Социология. 2019. Т. 12. Вып. 2. С. 153-163. https://doi.org/10.21638/spbu12.2019.203
Статья посвящена анализу такого активно обсуждаемого и неоднозначного феномена, как социальные боты, которые привлекают внимание исследователей как в силу огромных перспектив их использования в самых разных сферах, так и в силу растущих возможностей их манипулятивного воздействия. Авторы реализовали следующие цели и задачи: 1) были проанализированы наиболее распространенные подходы к типологии ботнетов; 2) обоснован новый подход к типологии ботов, связанный с особенностями их воздействия на потенциальную аудиторию в рамках определенной коммуникативной стратегии; 3) разработаны параметры, позволяющие описать различные модели воздействия на аудиторию; 4) верифицирована авторская гипотеза на примере анализа двух кейсов — ботнетов, функционирующих в социальной сети «ВКонтакте», которые были выявлены при помощи авторской методики детектирования ботов. В качестве параметров воздействия на потенциальную аудиторию предлагается рассматривать следующие: 1) количество технологических аккаунтов в бот-сети; 2) интенсивность публикационной активности. В зависимости от соотношения данных параметров можно говорить о наличии экстенсивной или интенсивной модели воздействия на потенциальную аудиторию и различиях в осуществлении аттрактивной функции. Один из рассматриваемых ботнетов демонстрирует наличие экстенсивной модели воздействия на аудиторию, другой — наличие интенсивной модели. Авторы предполагают, что выбор одной из двух моделей воздействия на аудиторию может быть обусловлен тематической направленностью ботнета, предполагающей различные типы потенциальной ау-
1 Статья подготовлена при финансовой поддержке Российского фонда фундаментальных исследований в рамках научного проекта «Структура бот-пространства онлайн социальных сетей: сетевой анализ» № 18-011-00988.
© Санкт-Петербургский государственный университет, 2019
дитории. В качестве перспектив исследования предлагается введение и анализ ряда дополнительных параметров при изучении коммуникативных стратегий ботнетов. Ключевые слова: боты, ботнеты, типология ботов, методика детектирования ботнетов, интенсивные и экстенсивные модели.
Введение
Сети социальных ботов (бот-сети, ботнеты) представляют собой автоматизированные программы, позволяющие распространять информацию с большой скоростью и эффективностью (в том числе за счет имитации поведения реальных пользователей социальных сетей). Боты и ботнеты привлекли особое внимание исследователей самых разных сфер знания не только в силу экспансивного развития их форм и способов применения, но и по причине неоднозначности самого этого феномена. С одной стороны, очевидны огромные перспективы их использования в самых разных сферах коммуникативного взаимодействия, где за счет алгоритмизированного взаимодействия становится возможным избавление человека от решения рутинных задач и стандартизации целого ряда функций (ответов на простые вопросы, сбора информации, взаимодействия фирм с клиентами, распространения рекламы и т. п.). С другой стороны, все очевиднее становится сила манипу-лятивного воздействия ботов, позволяющего оказывать существенное влияние на макромасштабные процессы (например, на формирование общественного мнения, ведение информационных войн, ведение политических дискуссий, итоги политических выборов) (см. подробнее: [1-3]).
Современные информационные технологии предоставляют все более широкие возможности для создания и функционирования бот-сетей. В настоящее время пользователь даже со средним уровнем информационной грамотности и базовыми знаниями в программировании может разработать и запустить бот [4], не говоря уже о специальных информационных подразделениях (например, «фабриках ботов»). Таким образом, быстро растет число реальных и потенциальных разработчиков ботов и, соответственно, их заказчиков, а также диверсифицируются формы как самих бот-программ, так и способов их использования. Все это побуждает исследователей и программистов к анализу различных форм и способов функционирования ботов прежде всего для того, чтобы разрабатывать все более эффективные методики выявления и идентификации ботов.
В связи с этим задачами данной статьи является анализ наиболее распространенных подходов к типологии ботов, существующих в современной англоязычной литературе, обоснование собственной типологии ботнетов, основанной на различных способах их воздействия на аудиторию в рамках определенной коммуникативной стратегии, а также верификация этого подхода на примере кейсов ботнетов, обнаруженных в социальной сети «ВКонтакте».
Обзор научной литературы по теме исследования
Сравнительный анализ современных видов ботов показывает, что существуют различные основания для их сравнения и типологии, позволяющие охарактеризовать специфику разных типов ботов и бот-сетей.
Прежде всего, боты классифицируются по сферам (практикам) их применения. На этом основании выделяют политические, торговые и маркетинговые, новостные, чат-боты, ИИ-боты, боты в образовании, боты в работе с «Википедией» С^къЬОз) [5-15].
Также существуют типологии, связанные с характеристиками субъектов — авторов и заказчиков ботов. Наиболее распространенным, по мнению самих исследователей, является разделение социальных ботов по намерениям субъектов на полезные (доброкачественные) и злонамеренные (вредоносные) боты [16]. Доброкачественные боты генерируют совокупный контент, автоматически реагируют на сообщения, выполняют полезные услуги (новостные боты, боты, распространяющие информацию о погоде, спортивные и трафик-боты и др.). Вредоносные боты разрабатываются для осуществления злонамеренных действий (спам, кража личных данных, распространение дезинформации и информационного шума во время политических дебатов, распространение вредоносного ПО и др.).
Другой распространенный способ классификации ботов — по степени имитации ими человеческого поведения [17]. Некоторые учетные записи бот-профилей в социальных сетях сложно отличить от профилей реальных пользователей, поскольку они имеют заполненные поля профиля и используют популярные модели коммуникативного поведения пользователей в социальных сетях: создают сообщения, которые очень схожи с содержанием, создаваемым реальными пользователями, способны вести дискуссию с аудиторией и т. п.
Также в литературе существует разделение ботов по степени управляемости человеком, типу активности и внешним/содержательным признакам. Учетные записи в социальных сетях могут быть созданы реальными пользователями, которые через свой профиль используют методы автоматизации, либо профили уже являются ботами, которыми управляют операторы и настраивают параметры активности учетных записей и содержание тиражируемого контента [16-21].
При этом важно понимать, что различные виды ботов используются и демонстрируют свою продуктивность в зависимости от целей их создания и функционирования, то есть от выбора необходимой коммуникативной стратегии. Однако, как было показано в нашем кратком обзоре, большинство типологий основываются на выявлении различий ботов, связанных с различными характеристиками субъектов — заказчиков и создателей ботов или способов поведения самих ботов. Мы в рамках данной статьи предлагаем новый подход к типологии ботов, связанной с особенностями конструирования потенциальной аудитории в рамках определенной коммуникативной стратегии. Введение такого измерения коммуникативной стратегии, как характеристики аудитории, позволяет, на наш взгляд, более полно охарактеризовать процесс воздействия ботов на потенциальных реципиентов, а следовательно — саму эффективность функционирования бот-сетей.
Авторы исходят из того, что параметрами воздействия на потенциальную аудиторию выступают: 1) количество технологических аккаунтов в бот-сети; 2) интенсивность публикационной активности. В зависимости от соотношения данных параметров можно говорить о наличии экстенсивной или интенсивной модели воздействия на потенциальную аудиторию. В рамках данных моделей по-разному осуществляется аттрактивная функция социальных ботов. Под аттрактивной функцией в коммуникативной теории понимается способ привлечения внима-
ния аудитории к тому или иному информационному сообщению (товарам, услугам, деятельности фирмы, позиции политического лидера и т. п.). Эффективность реализации аттрактивной функции при выборе определенной коммуникативной стратегии напрямую зависит от того, насколько релевантно осуществляется тарге-тирование целевой аудитории определенного сообщения.
Для демонстрации данного подхода используется сравнительный анализ по данным параметрам двух кейсов — ботнетов, функционирующих в социальной сети «ВКонтакте» в период с 1.02.2018 по 31.10.2018.
Обоснование методики
Анализируемые ботнеты были обнаружены в ходе проведения пилотажного исследования бот-пространства социальной сети «ВКонтакте», проводимого в рамках исследования гранта Российского фонда фундаментальных исследований по теме «Структура бот-пространства онлайн социальных сетей: сетевой анализ».
Для выявления бот-сетей в структуре коммуникативного пространства социальной сети «ВКонтакте» была разработана комплексная методика, объединяющая метод частотного анализа размещаемых сообщений, профайлинг бот-аккаунтов, включающий статичный и поведенческий анализ данных профиля пользователя, визуализацию графов соотношения «текст — автор», а также анализ структурной организации бот-сети.
Для оперативного выявления бот-сетей, состоящих из групп технологических аккаунтов, в качестве связующего звена между ними был использован параметр «тиражируемость контента» в социальной сети «ВКонтакте». На основании данного параметра были выявлены публикационные комплексы и построены топы тиражируемых текстов за определенный период времени, что является отличительной особенностью данной методики. Другой отличительной чертой данной методики является анализ структурной организации бот-сетей, который включает в себя изучение профилей технологических аккаунтов. Данные профили могут состоять из разных комбинаций: пользователи, события, группы, страницы, пользователи + группы + страницы, события + группы и т. п. Выбранная комбинация по структурной организации бот-сетей влияет на охват аудитории, на которую распространяется информация.
В ходе проведения исследования было использовано следующее программное обеспечение: Elastic Search, Kibana (Discovery, Visualize, Dashboard), Tableau и скрипты на PHP для скачивания информации с использованием VK API и ее обработки. Временные гистограммы включали в себя временной параметр распространения публикации, а также визуализацию пары «тираж контента — число авторов» (count — authors). В графе соотношения «текст — автор» узлы — авторы и публикации, ребра — количество публикаций.
Сам алгоритм обнаружения бот-сетей включает следующие этапы: 1) составление списка ключевых слов на основе параметра «частота упоминаемости» в текстах в социальной сети «ВКонтакте»; 2) определение периода исследования; 3) анализ целостности данных в Kibana/Discovery по каждому ключевому слову за выбранный период; 4) анализ топ-текстов (по тиражируемости); 5) анализ структуры взаимосвязей «текст — автор» на графе; 6) профайлинг авторов (групп), составляющих выявленные ботнеты.
В ходе анализа профилей технологических аккаунтов (groups), тиражирующих контент, рассматривались статичные и поведенческие признаки бот-профилей: однотипное оформление бот-профилей, одинаковый опубликованный контент на стенах технологических аккаунтов, единые контакты и ссылки на страницах профилей.
Два рассматриваемых в качестве кейсов ботнета попали в поле зрения авторов, поскольку они имели схожую структурную организацию, то есть оба ботнета состояли из групп — учетных записей в социальной сети «ВКонтакте», но сильно различались по количеству технологических аккаунтов в ботнете и интенсивностью сетевой публикационной активности.
Результаты
По итогам сбора, обработки и визуализации больших объемов данных (big data) с учетом задач исследования были выявлены различия в ботнете № 1 и ботне-те № 2 по количеству технологических аккаунтов, тиражируемому контенту, интенсивности публикационной активности, характеристикам целевых групп и сделаны выводы об особенностях реализации моделей воздействия на потенциальную аудиторию.
Первый ботнет состоит из 66 технологических аккаунтов, которые с 1 по 31 октября 2018 года распространили три текста (рис. 1). Эти тексты посвящены рекламе, ремонту и советам по уходу за продукцией компании Apple. Организатором ботнета выступала сеть сервисных центров по ремонту смартфонов, функционирующих в 90 городах России.
В ходе анализа сетевой публикационной активности учетных записей бот-нета было выявлено, что среднее количество публикаций за 10 месяцев, которое приходится на один технологический аккаунт ботнета № 1, — 69. Медианное значение охвата аудитории ботнета № 1 — 134 925 пользователей социальной сети «ВКонтакте»2.
В первом ботнете происходит таргетирование целевой аудитории по географическому принципу через названия групп с привязками к городам3. Данный ботнет использует отработанную логику подписки пользователей социальной сети «ВКонтакте» на группы с названием городов, где они родились и/или проживают. Аттрактивная функция (АФ1) данного ботнета состоит в том, чтобы привлечь внимание потенциальных пользователей к определенному поставщику товаров и услуг.
Второй ботнет состоит из 15 технологических аккаунтов, которые за период с 1 по 31 октября 2018 года распространили 19 текстов (рис. 2). Эти тексты были посвящены новостям и социальным проблемам жителей Кудрово, а именно — вводу в эксплуатацию объектов социального значения, проблеме наркомании в Кудрово, строительству «оранжевой» линии метро до станции «Кудрово», поиску пропавших людей, развитию транспортной системы и т. п.
2 Медианная аудитория ботнета (в случае технологических аккаунтов групп) — это сумма среднестатистических значений количества подписчиков каждого аккаунта группы этого ботнета.
3 Примеры названий технологических аккаунтов ботнета № 1: «Ремонт 1РЬспе, iPad Псков», «Ремонт смартфонов Мурманск», «Ремонт iPad Новосибирск» и др.
Рис. 1. Ботнет № 1. Узлами сети выступают авторы (слева) и публикации (справа), ребрами — взаимосвязи «текст — автор»
Рис. 2. Ботнет № 2. Узлами сети выступают авторы (слева) и публикации (справа), ребрами — взаимосвязи «текст — автор»
При гораздо меньшем количестве технологических аккаунтов ботнета № 2 его сетевая публикационная активность гораздо выше ботнета № 1, среднее количество публикаций за период с 1.02.2018 по 31.10.2018, которое приходится на один технологический аккаунт ботнета № 2 — 307. При этом медианное значение охвата аудитории ботнета № 2 тоже превышает аудиторию ботнета № 1 и составляет 212 390 пользователей социальной сети «ВКонтакте».
Аттрактивная функция (АФ2) второго ботнета заключается в формировании сообщества вокруг вопросов, связанных с улучшением социальной инфраструктуры и безопасности жизнедеятельности определенного населенного пункта4. Это достигается за счет большего количества текстов, затрагивающих актуальные проблемы жителей данной территории.
4 В данном случае речь идет о жителях города Кудрово, примеры названий технологических аккаунтов ботнета № 2: «Березовая роща — Кудрово», «ЖК Кудрово-Хаус — Кудрово», «7 Столиц — Кудрово — Новый Оккервиль» и др.
Выводы и обсуждение результатов
Результаты проведенного исследования показали следующее. Во-первых, разные ботнеты при схожей структурной организации, которая сводится к связанным группам — бот-профилям, имеют разное количество технологических аккаунтов в бот-сети. Первый ботнет насчитывает 66 технологических аккаунтов, второй — 15. Во-вторых, исследуемые ботнеты различаются по их сетевой публикационной активности. Первый ботнет за октябрь 2018 года растиражировал 3 текста, второй — 19. За исследуемый период с 1 февраля по 31 октября 2018 года среднее число публикаций одного технологического аккаунта первого ботнета составляет 69, второго — 307. Все это свидетельствует о том, что рассматриваемые нами ботнеты использовали разные коммуникативные стратегии по степени интенсивности взаимодействия с потенциальной аудиторией. В соответствии с нашей классификацией первый ботнет функционировал по параметрам экстенсивной модели, второй — по параметрам интенсивной модели.
Авторы высказывают гипотезу, что выбор одной из двух моделей может быть обусловлен тематической направленностью ботнета, предполагающей различные типы потенциальной аудитории. Первая экстенсивная модель коммуникативной стратегии предназначена для более диверсифицированной аудитории (потенциальные пользователи определенных поставщиков товаров и услуг), вторая интенсивная модель — для более гомогенной аудитории, локализованной по определенному тематическому интересу (социальные проблемы жителей города в Заневском городском поселении Всеволожского района Ленинградской области).
Оба ботнета выполняют функции социальных аттракторов внимания пользователей социальной сети. Для аттрактивной функции ботнета № 1 к определенному поставщику услуг, ориентированного на диверсифицированную аудиторию, выбрана экстенсивная модель коммуникативной стратегии:
АФ1(ДАУ) => ЭМ, где АФ1 — аттрактивная функция ботнета № 1;
ДАУ — диверсифицированная аудитория;
ЭМ — экстенсивная модель коммуникативной стратегии.
Для аттрактивной функции формирования сообщества вокруг вопросов, связанных с гомогенной аудиторией, локализованной по определенному тематическому интересу, в ботнете № 2 выбрана интенсивная модель коммуникативной стратегии:
АФ2(ГАУ) => ИМ,
где АФ2 — аттрактивная функция ботнета № 2;
ГАУ — гомогенная аудитория;
ИМ — интенсивная модель коммуникативной стратегии.
Модель воздействия, в свою очередь, влияет на структуру ботнета. Экстенсивная модель коммуникативного воздействия предполагает большое количество технологических аккаунтов при минимальном количестве публикуемых текстов. Интенсивной модели коммуникативного воздействия соответствует небольшое количество технологических аккаунтов при достаточно большом количестве публикуемых текстов.
Авторы отдают себе отчет в том, что предложенная типология моделей воздействия ботнетов на аудиторию при выборе коммуникативной стратегии требует своего развития, связанного с выявлением дополнительных параметров моделирования, а также дальнейшей верификации, в том числе путем сравнительного анализа различных видов ботнетов, функционирующих на платформе различных онлайн социальных сетей.
Что касается будущих исследований, то авторы планируют учитывать дополнительные параметры при изучении аттрактивных функций и коммуникативных стратегий ботнетов. Такие параметры, как «тематика ботнетов», «особенности целевых групп», «количество лайков», «количество репостов» приблизит к научной оценке эффективности воздействия ботнетов на аудиторию.
Признательность
Исследование проводилось с использованием программного обеспечения Ресурсного центра Научного парка Санкт-Петербургского государственного университета «Центр социологических и интернет-исследований».
Литература
1. Bessi A., Ferrara E. Social Bots Distort the 2016 US Presidential Election Online Discussion // First Monday. 2016. Vol. 21, is. 11. URL: https://ssrn.com/abstract=2982233 (дата обращения: 15.03.2019).
2. Forelle M. C., Howard P. N., Monroy-Hernandez A., Savage S. Political bots and the manipulation of public opinion in Venezuela // Project on Computational Propaganda. 2015. URL: https://arxiv.org/ftp/ arxiv/papers/1507/1507.07109.pdf (дата обращения: 15.03.2019).
3. Howard P. N., Bolsover G., Kollanyi B., Bradshaw S., Neudert L.-M. Junk news and bots during the U. S. Election: What were Michigan voters sharing over Twitter? // Working Papers & Data Memos, Oxford, UK, Project on Computational Propaganda. 2017. URL: http://comprop.oii.ox.ac.uk/research/working-pa-pers/junk-news-and-bots-during-the-u-s-election-what-were-michigan-voters-sharing-over-twitter/ (дата обращения: 15.03.2019).
4. Howard P. N., Woolley S., Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration // Journal of Information Technology & Politics. 2018. Vol. 15, is. 2. P. 81-93. doi: 10.1080/19331681.2018.1448735
5. F0lstad A., Brandtzwg P. B. Chatbots and the new world of HCI // Interactions. 2017. Vol. 24, is. 4. P. 38-42. doi: 10.1145/3085558
6. Murthy D., Powell A. B., Tinati R. [et al.]. Automation, algorithms, and politics. Bots and political influence: A sociotechnical investigation of social network capital // International Journal of Communication. 2016. Vol. 10. P. 4952-4971. URL: https://ijoc.org/index.php/ijoc/article/viewFile/6271/1806 (дата обращения: 15.03.2019).
7. Neff G., Nagy P. Automation, algorithms, and politics talking to bots: symbiotic agency and the case of tay // International Journal of Communication. 2016. Vol. 10. P. 4915-4931. URL: https://ijoc.org/index. php/ijoc/article/view/6277/1804 (дата обращения: 15.03.2019).
8. Schäfer F., Evert S., Heinrich P. Japan's 2014 General Election: Political Bots, Right-Wing Internet Activism, and Prime Minister Shinzö Abe's Hidden Nationalist Agenda // Big data. 2017. Vol. 5, is. 4. P. 294-309. doi: 10.1089/big.2017.0049
9. Shorey S., Howard P. N. Automation, Algorithms, and Politics. Automation: Big Data and Politics: A Research Review // International Journal of Communication. 2016. Vol. 10. P. 5032-5055. URL: http:// ijoc.org/index.php/ijoc/article/view/6233/1812 (дата обращения: 15.03.2019).
10. Tsvetkova M., García-Gavilanes R., Floridi L., Yasseri T. Even good bots fight: The case of Wikipedia // PLoS ONE. 2017. Vol. 12, is. 2, e0171774. doi: 10.1371/journal.pone.0171774
11. Waugh B., Abdinpanah M., Hashemi O., Rahman S. A., Cook D. M. The Influence and Deception of Twitter: The Authenticity of the Narrative and Slacktivism in the Australian Electoral Process // Proceedings of the 14th Australian Information Warfare Conference, Edith Cowan University, Perth, Western Australia. 2013. P. 27-38. doi: 10.4225/75/57a849a9befb7
12. Williams J. A., Miller D. M. Netizens Decide 2014? A Look at Party Campaigning Online // In Japan Decides. 2nd ed. London: Palgrave Macmillan, 2016. P. 144-152.
13. Woolley S. C. Automating power: Social bot interference in global politics // First Monday. 2016. Vol. 21, is. 4. URL: http://firstmonday.org/article/view/6161/5300 (дата обращения: 15.03.2019).
14. Woolley S. C., Howard P. N. Automation, algorithms, and politics| political communication, computational propaganda, and autonomous agent — Introduction // International Journal of Communication.
2016. Vol. 10. P. 4882-4890. URL: https://ijoc.org/index.php/ijoc/article/view/6298/1809 (дата обращения: 15.03.2019).
15. Василькова В. В., Легостаева Н. И. Социальные боты в политической коммуникации // Вестник РУДН. Серия «Социология». 2019. № 1. С. 121-133. URL: http://journals.rudn.ru/sociology/article/ view/20562 (дата обращения: 15.03.2019).
16. Ferrara E., Varol O., Davis C., Menczer F., Flammini A. The rise of social bots // Communications of the ACM. 2016. Vol. 59, is. 7. P. 96-104. URL: https://dl.acm.org/citation.cfm?id=2963119.2818717 (дата обращения: 15.03.2019).
17. Boshmaf Y., Muslukhov I., Beznosov K., Ripeanu M. The socialbot network: when bots socialize for fame and money // In Proceedings of the 27th Annual Computer Security Applications Conference, Orlando, Florida, USA. New York. 2011. P. 93-102. doi: 10.1145/2076732.2076746
18. Calo R. Robotics and the Lessons of Cyberlaw // California Law Review. 2015. Vol. 103, is. 3. URL: https://scholarship.law.berkeley.edu/cgi/viewcontent.cgi?article=4284&context=californialawreview (дата обращения: 15.03.2019).
19. Gorwa R., Guilbeault D. Unpacking the Social Media Bot: A Typology to Guide Research and Policy // Policy & Internet. 2018. URL: https://arxiv.org/pdf/1801.06863.pdf (дата обращения: 15.03.2019).
20. Nagaraja S., Houmansadr A., Piyawongwisal P., Singh V., Agarwal P., Borisov N. Stegobot: a covert social network botnet // In International Workshop on Information Hiding, Berlin, Heidelberg. 2011. P. 299-313.
21. Stieglitz S., Brachten F., Ross B., Jung A.-K. Do Social Bots Dream of Electric Sheep? A Categorisation of Social Media Bot Accounts // Australasian Conference on Information Systems, Hobart, Australia.
2017. URL: https://arxiv.org/ftp/arxiv/papers/1710/1710.04044.pdf (дата обращения: 15.03.2019).
Статья поступила в редакцию 5 февраля 2019 г.;
рекомендована в печать 5 марта 2019 г.
Контактная информация:
Василькова Валерия Валентиновна — д-р филос. наук, проф.; v.vasilkova@spbu.ru Легостаева Наталья Игоревна — канд. социол. наук; n.legostaeva@spbu.ru Радушевский Владимир Борисович — программист; v.radushevsky@spbu.ru
Communication strategies of social bots: models of influence on the audience5
V. V. Vasilkova, N. I. Legostaeva, V. I. Radushevsky St. Petersburg State University,
7-9, Universitetskaya nab., St. Petersburg, 199034, Russian Federation
For citation: Vasilkova V. V., Legostaeva N. I., Radushevsky V. I. Communication strategies of social bots: models of influence on the audience. Vestnik of Saint Petersburg University. Sociology, 2019, vol. 12, issue 2, pp. 153-163. https://doi.org/10.21638/spbu12.2019.203 (In Russian)
5 The reported study was funded by the Russian Foundation for Basic Research on the research project no. 18-011-00988 'Structure of botnet space of social networks: network analysis'.
The article analyzes a phenomenon of social bots that is actively discussed in the literature. Researchers study the use of social bots in different areas and their growing power of manipulative influence. The authors have accomplished the following goals: 1) analyzed the most common approaches to the typology of botnets, 2) designed new approach to the typology of bots, associated with the peculiarities of their impact on the potential audience within a specific communication strategy, 3) developed parameters to describe different models of influence on the audience, 4) verified hypothesis using an example of a case study that analyzed two botnets in the "VKontakte" social network detected with the help of the author's technique. The results of the study. The authors identify the following parameters of the impact of bots on a potential audience: 1) the number of technological accounts in a botnet, 2) intensity of publication activities. These two parameters combined help identify extensive and intensive models of influence on a potential audience. In addition, they help find differences in the implementation of an attraction function. One botnet illustrates an extensive model of influence; the other shows an intensive model. The authors suggest that the choice of an impact model may depend on a botnet's thematic focus and a type of a potential audience. In the future, to extend the examination of botnets' communication strategies, the authors plan to add and analyze other parameters yet to be determined.
Keywords: bots, botnets, typology of bots, methods of detecting botnets, intensive and extensive models.
References
1. Bessi A., Ferrara E. Social Bots Distort the 2016 US Presidential Election Online Discussion. First Monday, 2016, vol. 21, is. 11. URL: https://ssrn.com/abstract=2982233 (accessed on 15.03.2019).
2. Forelle M. C., Howard P. N., Monroy-Hernandez A., Savage S. Political bots and the manipulation of public opinion in Venezuela, Oxford, UK. Project on Computational Propaganda, 2015. URL: https:// arxiv.org/ftp/arxiv/papers/1507/1507.07109.pdf (accessed on 15.03.2019).
3. Howard P. N., Bolsover G., Kollanyi B., Bradshaw S., Neudert L.-M. Junk news and bots during the U. S. Election: What were Michigan voters sharing over Twitter? Working Papers & Data Memos, Oxford, UK, Project on Computational Propaganda, 2017. URL: http://comprop.oii.ox.ac.uk/research/working-pa-pers/junk-news-and-bots-during-the-u-s-election-what-were-michigan-voters-sharing-over-twitter/ (accessed on 15.03.2019).
4. Howard P. N., Woolley S., Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration. Journal of Information Technology & Politics, 2018, vol. 15, is. 2, pp. 81-93. doi: 10.1080/19331681.2018.1448735
5. Folstad A., Brandtzœg P. B. Chatbots and the new world of HCI. Interactions, 2017, vol. 24, is. 4, pp. 38-42. doi: 10.1145/3085558
6. Murthy D., Powell A. B., Tinati R., Anstead N., Carr L., Halford S. J., Weal M. Automation, algorithms, and politics. Bots and political influence: A sociotechnical investigation of social network capital. International Journal of Communication, 2016, vol. 10, pp. 4952-4971. URL: https://ijoc.org/index.php/ijoc/ article/viewFile/6271/1806 (accessed on 15.03.2019).
7. Neff G., Nagy P. Automation, algorithms, and politics talking to bots: symbiotic agency and the case of tay. International Journal of Communication, 2016, vol. 10, pp. 4915-4931. URL: https://ijoc.org/in-dex.php/ijoc/article/view/6277/1804 (accessed on 15.03.2019).
8. Schäfer F., Evert S., Heinrich P. Japan's 2014 General Election: Political Bots, Right-Wing Internet Activism, and Prime Minister Shinzö Abe's Hidden Nationalist Agenda. Big data, 2017, vol. 5, is. 4, pp. 294309. doi: 10.1089/big.2017.0049
9. Shorey S., Howard P. N. Automation, Algorithms, and Politics. Automation: Big Data and Politics: A Research Review. International Journal of Communication, 2016, vol. 10, pp. 5032-5055. URL: http://ijoc. org/index.php/ijoc/article/view/6233/1812 (accessed on 15.03.2019).
10. Tsvetkova M., Garcia-Gavilanes R., Floridi L., Yasseri T. Even good bots fight: The case of Wikipe-dia. PLoS ONE, 2017, vol. 12, is. 2, e0171774. doi: 10.1371/journal.pone.0171774
11. Waugh B., Abdinpanah M., Hashemi O., Rahman S. A., Cook D. M. The Influence and Deception of Twitter: The Authenticity of the Narrative and Slacktivism in the Australian Electoral Process. Proceedings of the 14th Australian Information Warfare Conference, Edith Cowan University, Perth, Western Australia, 2013, pp. 27-38. doi: 10.4225/75/57a849a9befb7
12. Williams J. A., Miller D. M. Netizens Decide 2014? A Look at Party Campaigning Online. In Japan Decides. 2nd ed. London, Palgrave Macmillan, 2016, pp. 144-152.
13. Woolley S. C. Automating power: Social bot interference in global politics. First Monday, 2016, vol. 21, is. 4. URL: http://firstmonday.org/article/view/6161/5300 (accessed on 15.03.2019).
14. Woolley S. C., Howard P. N. Automation, algorithms, and political communication, computational propaganda, and autonomous agent — Introduction. International Journal of Communication, 2016, vol. 10, pp. 4882-4890. URL: https://ijoc.org/index.php/ijoc/article/view/6298/1809 (accessed on 15.03.2019).
15. Vasil'kova V. V., Legostaeva N. I. Sotsial'nye boty v politicheskoi kommunikatsii [Social bots in political communication]. RUDN Journal of Sociology, 2019, vol. 1, pp. 121-133. doi: 10.22363/2313-22722019-19-1-121-133 (In Russian)
16. Ferrara E., Varol O., Davis C., Menczer F., Flammini A. The rise of social bots. Communications of the ACM, 2016, vol. 59, is. 7, pp. 96-104. URL: https://dl.acm.org/citation.cfm?id=2963119.2818717 (accessed on 15.03.2019).
17. Boshmaf Y., Muslukhov I., Beznosov K., Ripeanu M. The socialbot network: when bots socialize for fame and money, In Proceedings of the 27th Annual Computer Security Applications Conference, Orlando, Florida, USA. New York, 2011, pp. 93-102. doi: 10.1145/2076732.2076746
18. Calo R. Robotics and the Lessons of Cyberlaw. California Law Review, 2015, vol. 103, is. 3. URL: https://scholarship.law.berkeley.edu/cgi/viewcontent.cgi?article=4284&context=californialawreview (accessed on 15.03.2019).
19. Gorwa R., Guilbeault D. Unpacking the Social Media Bot: A Typology to Guide Research and Policy. Policy & Internet, 2018. URL: https://arxiv.org/pdf/1801.06863.pdf (accessed on 15.03.2019).
20. Nagaraja S., Houmansadr A., Piyawongwisal P., Singh V., Agarwal P., Borisov N. Stegobot: a covert social network botnet. In International Workshop on Information. Hiding, Berlin, Heidelberg, 2011, pp. 299-313.
21. Stieglitz S., Brachten F., Ross B., Jung A.-K. Do Social Bots Dream of Electric Sheep? A Categorisation of Social Media Bot Accounts. Australasian Conference on Information Systems, Hobart, Australia, 2017. URL: https://arxiv.org/ftp/arxiv/papers/1710/1710.04044.pdf (accessed on 15.03.2019).
Received: February 5, 2019 Accepted: March 5, 2019
Author's information:
Valeria V. Vasilkova — Dr. Sci. in Philosophy, Professor; v.vasilkova@spbu.ru
Natalya I. Legostaeva — PhD Sci. in Sociology; n.legostaeva@spbu.ru
Vladimir B. Radushevsky — programmer; v.radushevsky@spbu.ru