Научная статья на тему 'Селективная модерация в условиях виртуальной публичной сферы'

Селективная модерация в условиях виртуальной публичной сферы Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY-NC
132
24
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПУБЛИЧНАЯ СФЕРА / ЭХОКАМЕРА / ИДЕОЛОГИЧЕСКАЯ СЕГРЕГАЦИЯ / МОДЕРАЦИЯ / ВИРТУАЛЬНОЕ СООБЩЕСТВО / БЕЗОПАСНЫЕ МЕСТА / УПРАВЛЕНИЕ ИНТЕРНЕТОМ / СЕЛЕКТИВНАЯ МОДЕРАЦИЯ / ВКОНТАКТЕ / СОЦИАЛЬНЫЕ СЕТИ / INTERNET GOVERNANCE / SAFE PLACES / VIRTUAL COMMUNITY / MODERATION / IDEOLOGICAL SEGREGATION / ECHO CHAMBER / PUBLIC SPHERE / SELECTIVE MODERATION / VKONTAKTE / SOCIAL NETWORKS

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Мартьянов Денис Сергеевич, Мартьянова Наталья Александровна

В условиях снижения популярности традиционных медиа, заката телевизионной эры, всё более значимым становится влияние Интернета как фактора социально-политической коммуникации. Предметом данной статьи является селективная модерация в идеологизированных и институциональных виртуальных сообществах социальной сети «Вконтакте». Особое внимание в рамках данной темы уделяется тому, какому из двух идеальных типов «публичная сфера» или «эхо-камера» больше соответствует коммуникация в российских социальных сетях. В связи с этим объектом исследования является виртуальная публичная сфера. Авторы статьи подробно рассматривает такие аспекты как концептуализация публичной сферы, категории контрпубличных сфер, эхо-камер и «безопасных мест». Основным методом настоящего исследования выступил полевой эксперимент, проведенный в 115 виртуальных сообществах. Вспомогательными методами выступили метод наблюдения, дискурс-анализ и сетевой метод, позволившие произвести классификацию попавших в выборку ресурсов. Научная новизна исследования заключается в выявлении специфики модерации виртуальных сообществ по критериям преобладающего идеологического дискурса. Основным выводом исследования является то, что в целом коммуникативное пространство политизированных сообществ «Вконтакте», с одной стороны, модерируется, однако в большинстве случаев подобная модерация не выражается в тотальном исключении критически настроенных участников из коммуникации. В то же время очевидна и селективность модерации, поскольку блокировка критиков является более заметной, чем блокировка адептов сообществ.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SELECTIVE MODERATION IN THE CONDITIONS OF VIRTUAL PUBLIC SPHERE

A trend away from the traditional media and fall of the era of television augments power of the Internet as a factor of sociopolitical communication. The subject of this article is the selective moderation in the ideologized and institutional virtual communities of the social network “Vkontakte”. Special attention is given to the question of which of the two ideal types “public sphere” or “echo-chamber” communication in the Russian social networks suits the most. The object of this study is the virtual public sphere. The authors examine such aspects as the conceptualization of public sphere, categories of counter-public spheres, echo-chambers and “safe spots”. The field experiment carried out in 115 virtual communities became the main method for this research. Supplementary became the methods of observation, discourse analysis and network, which allowed conducting classification of the selected resources. The scientific novelty consists in the description of specificity of moderation of virtual communities in accordance with the criteria of prevalent ideological discourse. The conclusion is made that the communication platform of the politicized communities in the social network “Vkontakte” is being moderated; however, in majority of case, such moderation does not imply total exclusion of the critically-oriented users from the discussion. At the same time, the selectiveness of moderation is evident, since blocking of critics is more noticeable than blocking of adepts of the communities.

Текст научной работы на тему «Селективная модерация в условиях виртуальной публичной сферы»

Социодинамика

Правильная ссылка на статью:

Мартьянов Д.С., Мартьянова Н.А. — Селективная модерация в условиях виртуальной публичной сферы // Социодинамика. - 2019. - № 12. DOI: 10.25136/2409-7144.2019.12.31759 URL: https;//nbpublish.com'library_read_article.php?id=31759

Селективная модерация в условиях виртуальной публичной сферы

Мартьянов Денис Сергеевич

кандидат политических наук доцент, Санкт-Петербургский государственный университет 191124, Россия, г. Санкт-Петербург, ул. Смольного, 1/3

И [email protected]

Мартьянова Наталья Александровна

кандидат социологических наук

доцент, Кафедра истории и теории социологии, Российский государственный педагогический университет

им. А И. Герцена

191186, Россия, г. Санкт-Петербург, ул. Набережная Реки Мойки, 48

И [email protected]

Статья из рубрики "Политические коммуникации"

Аннотация.

В условиях снижения популярности традиционных медиа, заката телевизионной эры, всё более значимым становится влияние Интернета как фактора социально-политической коммуникации. Предметом данной статьи является селективная модерация в идеологизированных и институциональных виртуальных сообществах социальной сети «Вконтакте». Особое внимание в рамках данной темы уделяется тому, какому из двух идеальных типов - «публичная сфера» или «эхо-камера» - больше соответствует коммуникация в российских социальных сетях. В связи с этим объектом исследования является виртуальная публичная сфера. Авторы статьи подробно рассматривает такие аспекты как концептуализация публичной сферы, категории контрпубличных сфер, эхо-камер и «безопасных мест». Основным методом настоящего исследования выступил полевой эксперимент, проведенный в 115 виртуальных сообществах. Вспомогательными методами выступили метод наблюдения, дискурс-анализ и сетевой метод, позволившие произвести классификацию попавших в выборку ресурсов. Научная новизна исследования заключается в выявлении специфики модерации виртуальных сообществ по критериям преобладающего идеологического дискурса. Основным выводом исследования является то, что в целом коммуникативное пространство политизированных сообществ «Вконтакте», с одной стороны, модерируется, однако в большинстве случаев подобная модерация не выражается в тотальном исключении критически настроенных участников из коммуникации. В то же время очевидна и селективность модерации, поскольку блокировка критиков является более заметной, чем блокировка адептов сообществ.

Ключевые слова: публичная сфера, эхо-камера, идеологическая модерация, виртуальное сообщество, безопасные места, управление селективная модерация, Вконтакте, социальные сети

DOI:

10.25136/2409-7144.2019.12.31759

Дата направления в редакцию:

17-12-2019

Дата рецензирования:

21-12-2019

Дата публикации:

22-12-2019

Исследование выполнено при финансовой поддержке РФФИ и АНО ЭИСИ в рамках научного проекта № 19-011-31551 «Управляемость и дискурс виртуальных сообществ в условиях политики постправды»

Роль Интернета в современном мире неоспорима. В условиях снижения популярности традиционных медиа, заката телевизионной эры, всё более значимым становится влияние Интернета как фактора социально-политической коммуникации. Интернет играет важную роль в контексте политической пропаганды, работы средств массовой коммуникации, мобилизации групп, организации политических сетевых сообществ. Оборотной стороной политизации киберпространства является то, что и сам Интернет становится всё более регламентированным.

Регулирование публичной сферой современного Интернета осуществляется на нескольких уровнях. Хотя обычно, когда говорят об управлении Интернетом131 -141, речь идет об организации ICANN, государственных институтах, администрациях крупнейших сайтов, социальных сетей, не меньшее влияние на дискурс интернет-коммуникации оказывает администрирование относительно малых площадок коммуникации - модерация пабликов и сообществ ресурсов Веб 2.0, форумов, гостевых книг и других площадок, предназначенных для группового общения в сети.

Интернет как публичная сфера

Одной из самых заметных концепций, которая видятся вектором развития политической коммуникации в сети Интернет, является концепция публичной сферы Ю. Хабермаса. Хотя сама эта концепция на разных этапах творчества Хабермаса менялась I-21, концепт

публичной сферы так или иначе был связан с формированием общественного мнения В числе ряда других характеристик публичное включало в себя добровольность участия, наличие всеобщего доступа, рациональность аргументации, свободу высказывания мнений -121. Хотя понятие «сфера» является скорее смысловым искажением, появившемся при переводе слова «Öffentlichkeit», «метафорическое» определение

сегрегация, И нтернетом,

публичности как некоего пространства закрепилось в науке в виде пространственного

подхода к исследованию публичной сферы [2]. Публичная сфера охватывает огромное количество площадок, которые участвуют в критическом диалоге о публичных вопросах.

В более поздних работах Хабермас пришел к пониманию сетевой природы публичной

сферы Важным моментом является то, что публичная сфера может быть подвержена рефеодализации, означающей доминирование частного и государственного в публичных ме диа .

Развитие групповой коммуникации в Интернете происходит в социальных сетях и виртуальных сообществах. Если последние представляют собой требующий более детального изучения лиминальный феномен, находящийся как бы между публичным и приватным, то социальные сети зачастую воспринимаются именно как публичная сфера. В связи с этим возникает вопрос: кто и на каком основании должен регулировать коммуникацию в публичной сфере?

«Дилемма модератора»: приватное над публичным

Несмотря на то, что в последние годы в сети Интернет всё более заметным становится правовое регулирование [1], центральной фигурой, определяющей, что можно, а что нельзя говорить в сети, остаётся модератор. Именно модератор воспринимается как легитимный интернет-полицейский, имеющий право исключать из коммуникации участников, нарушающих правила ресурсов.

Такой статус модератора не является незыблемым. К. Лангвардт говорит о «дилемме модератора » как важном вопросе перспектив регулирования интернет-контента. Дилемма заключается в следующем. С одной стороны, модераторы, как правило, представляющие частные структуры (от коммерческих фирм, являющихся владельцами сайтов, до неформальных групп), регулируют свободу высказываний в пространствах, открытых для неограниченного числа пользователей, и по сути являющихся публичной сферой, не имея на это, казалось бы, никаких легальных оснований. С другой -обществу необходима система мер для регулирования контента (включающего как спам, «мусорные» сообщения, так и попросту нелегальные комментарии). Таким образом, модератор иллюстрирует неформальный институт, которые возник и был легитимирован в «вакууме» формальных институтов.

Неоспоримо то, что модерация играет крайне важную роль в современной интернет-коммуникации. Именно модератор пресекает на ранних стадиях недопустимое поведение пользователей до того, как ему начнет подражать большая часть участников коммуникации. Около половины пользователей так или иначе сталкивалось с «вредоносными» комментариями на различных интернет-ресурсах. [ 13:183]. Неуправляемость коммуникации на сайте является очень серьёзной проблемой. Многие ресурсы закрывают свой доступ к комментированию для пользователей, сталкиваясь с непреодолимыми трудностями при работе модераторов. Поскольку модерация лишь в редких случаях осуществляется оперативно, справляясь с потоком сообщений, публикуемых пользователями, на протяжении всего времени работы сайта, разрабатывается комплекс мер, который позволил бы облегчить работу модераторов: система премодерации, механизмы защиты от спама, автоматическая фильтрация нежелательных слов и, наконец, искусственный интеллект, определяющий наиболее вероятный контент, нарушающий правила коммуникации на ресурсе.

Сложность работы модератора в социальных сетях, где на принятие решения о

необходимости блокировки контента или его одобрении, приходится лишь несколько секунд, может приводить к тому, что часть контента будет удаляться (а пользователь может быть заблокирован) по достаточно нелепым причинам. В то же время значительная часть контента, требующая удаления, будет оставаться в сети. За последние несколько лет только на «Facebook» было замечено несколько резонансных случаев «странной» модерации: удаление фотографии статуи копенгагенской Русалочки в 2015 году из-за «сексуального подтекста», удаление аккаунта индийского пользователя за репост фотографии кота в деловом костюме. Но гораздо более важными представляются случаи политической модерации. В 2018 году «Facebook» активно закрывал учетные записи мусульманских групп рохинджа, сообщавших об этнических

чистках в Мьянме Модераторы ресурсов Веб 2.0 блокируют и официальные

государственные аккаунты. В декабре 2019 года «Twitter» заблокировал аккаунт Федерального агентства по делам Содружества Независимых Государств.

Нелегитимная модерация вызывает протесты пользователей. В 2005 году широкий резонанс в России получила акция «Убей натовца», которая стала причиной для обсуждения действий «конфликтной комиссии» «Живого журнала». В «Instagram» периодически проходят акции #freethenipple, которые инициируются активистками феминистского движения из-за постоянных блокировок пользовательниц, публикующих собственные фотографии с обнажённой грудью.

Проблема легитимности модерации в крупных социальных сетях усугубляется отсутствием прозрачности в политике модерации. Долгое время правила модерации контента на «Facebook» не раскрывалась под предлогом коммерческой тайны.

Уже сейчас вопросы о транспарентной политике модерации социальным сетями являются дискуссионными в американском обществе ^Ш. На наш взгляд, очевидно, что «суверенитет» медиакорпораций в сфере модерации контента будет пересматриваться как на законодательном уровне, так и в контексте актуализации общественного контроля. В то же время очевидно, что выработка модели правил в одной стране, может не соответствовать ценностным ориентирам и представлениям о требованиях, выдвинутых в других странах. Отдельным вопросом будет оставаться регулирование контента на международных площадках, где в коммуникации друг с другом участвуют представители разных стран. Создание универсальной глобальной системы критериев модерации контента в условиях политики постправды и усиления геополитического противостояния представляется неоправданной иллюзией.

Модерация в виртуальных сообществах

Если модерация в социальных сетях, даже если она касается блокировки персональных страниц пользователей, предполагает по сути макроуровневое явление, то модерация в виртуальных сообществах с несколькими сотнями или даже тысячами участников, осуществляется в условиях сравнительно автономной и более сплоченной группы, в которой помимо формальных и заявленных правил действуют и неформальные правила, основывающиеся на ценностях сообщества или доминирующих в нём групп, групповые поведенческих практиках, нормах и специфике дискурса.

П оскольку сообщества представляет собой группу внутри публичной сферы, его осмысление возможно через понимание таких феноменов как контрпубличные сферы, эхо-камеры и «безопасные пространства».

Являясь частью большого спектра критиков концепции публичной сферы Ю. Хабермаса,

О. Негт и А. Клюге, отвергли универсальность публичной сферы и предложили концепцию «контрпубличных сфер», примером которых стала пролетарская публичная

сфера, противопоставленная хабермасовской буржуазной сфере li^i. В числе других работ, говоривших о существовании множества публичных сфер в связи с тем, что публичная сфера «исключает» отдельные группы людей, эта концепция выявила неоднородность общества и конфликтность коммуникации в нём. В целом альтернативные публичные сферы воспринимались как ущемлённые и прогрессивные сообщества, способные благодаря собственному дискурсу влиять на «общую» публичную сферу.

Универсальность принципов рациональной дискуссии Хабермаса ставится под сомнение благодаря концепции «безопасных пространств». Понятие «безопасное пространство» обозначает гомогенные сообщества, которым менее свойственна рациональная дискуссия. «Безопасные пространства» становятся сообществами с общим опытом, как правило, предполагающим ситуации с дискриминацией или насилием. Для многих пользователей сети такие сообщества - возможность поделиться собственной болью с другими и почувствовать солидарность. «Безопасные пространства» также представляют собой намеренную сферу исключения «других», способных нанести вред своими словами участникам сообщества. В первую очередь такие сообщества являются сообществами поддержки и психологической помощи. Но в то же время такие места становятся полем деятельности «борцов за социальную справедливость» (social justice warrior ) - как уничижительно называют в Интернете наиболее агрессивных активистов подобных сообществ, выражающих свою точку зрения за пределами автономных сообществ.

Несмотря на указанный выше факт, связанный с ангажированностью некоторых активистов «безопасных пространств», обычно в научном дискурсе этот термин используется с положительными коннотациями, чего нельзя сказать об эхо-камерах -также автономных и гомогенных пространствах, в которых дискуссии не носят конфронтационного характера и направлены на поддержание характерных для сообщества представлений. Эхо-камеры также не являются образчиками рациональной аргументации, и коммуникация в них представляет собой примеры политики постправды или эмоправды - эффекта, достигаемого с помощью аффективного доверия (или постдоверия) i91.

Хотя и «безопасные пространства», и эхо-камеры обозначают достаточно схожие в коммуникативном смысле феномены, в плане политического дискурса они представляют собой чуть ли не полярные категории, поскольку первые используются для маркирования сообществ «реальных жертв», в то время как вторые - для доминирующего класса, которые «пытается себя выставить жертвой». Так или иначе, оба типа сообществ очевидно отличаются и от публичной сферы и даже контрпубличных сфер, которые также представляют собой открытые площадки, заинтересованные в перенесении собственного дискурса в другие сообщества.

Модерация в автономных сообществах может существенно разниться с модерацией в публичной сфере. Э. Гибсон на основании проведенного эмпирического исследования отмечает, что в «безопасных пространствах» отличается большей скоростью как удаление постов модераторами, так и самоудаление постов под групповым давлением

i61. В «безопасных пространствах» им также была выявлена тенденция к использованию менее грубой лексики, чем в пространствах «публичной сферы».

В научном сообществе декларируется и необходимость усиления модерации в связи с ростом «ненавистнических» и «опасных» сообществ, которые можно классифицировать

как эхо-камеры [10].

За рамками нашего исследования остаётся вопрос о макроуправлении такими сообществами, которое возможно либо законодательными мерами (и активно применяется в России для запрета экстремистских сообществ), либо технической блокировкой со стороны администрации социальных сетей в связи с нарушениями условий их политики модерации. Разумеется, и такие меры не являются панацеей, поскольку приводят лишь к перетеканию адептов подобных сообществ на другие ресурсы.

Также мы оставляем за скобками философский вопрос о том, должны ли в принципе соответствовать условиям публичной сферы как нормативному идеалу полупубличные пространства - такие, как идеологизированные сообщества в социальных сетях.

Селективная модерация

Критика идеала публичной сферы нашла отражения в исследованиях, посвященных модерации интернет-ресурсов. Международная группа исследователей, произведших

анализ практик модерирования блогосферы, [14] использовали термин «селективная модерация» для выявления «идеологически управляемой модерации». Модератор имеет возможность при помощи удаления комментариев и блокировки пользователей, которые систематически размещают информацию определённого типа, фильтровать пользовательский контент, в т.ч. по политико-идеологическим причинам.

Также широко известно исследование гонконгского профессора К.Фу, который исследовал удаление комментариев на примере цензуры в Китае, используя

сравнительный анализ баз данных комментариев в микроблогах. Методологические рамки исследования

Для выявления особенностей политической коммуникации в самой популярной российской социальной сети «Вконтакте» мы провели исследование особенностей модерации в политизированных сообществах различной идеологической направленности.

Для того, чтобы иметь возможность сравнить отдельные типы ресурсов по ряду критериев, нами была сформирована выборка виртуальных сообществ сети «Вконтакте».

Выборка включила две группы ресурсов: «идеологизированные» и «институциональные». Первая группа была сформирована из сообществ значимых идеологических течений (по 5 сообществ), которые освещают проблематику социал-демократической, консервативной, феминистской, анархистской, националистической, постматериалистской (энвайронменталистской или зелёной и «пиратской») идеологий. В связи с широкой распространенностью было увеличено до 10 сообществ либеральной и либертарианской (вместе), а также коммунистической идеологий. Ещё были добавлены распространённые в сети сообщества «патриотической» (10) и нейтральной (5) политической направленности. Всего - 65 сообществ.

Для включения в выборочную совокупность конкретных «идеологических» виртуальных сообществ в социальной сети «Вконтакте» мы обратились к автоматизированным методам сбора данных, в частности, к встроенному сервису поиска групп. Для выявления релевантных ключевых слов было произведено автоматическое реферирование контента нескольких типичных идеологизированных сообществ. В дополнение к этому были

отобраны слова, ассоциирующиеся с ключевыми идеологиями, с помощью использования облака ассоциаций. Затем полученный перечень был подвергнут отбраковке пятью экспертами-политологами и на основании 100 ключевых слов была произведена выгрузка сообществ, имевших в своих названиях данные ключевые слова. Из общего числа выявленных сообществ в дальнейшем были исключены страницы, не предоставлявшие возможность дискуссии, группы с численностью менее 4000 участников, и низким уровнем активности, а также случайно попавшие в выборку группы с очевидной неполитической тематикой.

Далее построение выборки по «институциональным» сообществам, мы воспользовались встроенным механизмом поиска групп в «Вконтакте» по следующим категориям: «СМИ», «хобби» (политика), «политические партии», «общественные организации» и добавили еще 50 сообществ из этих разделов. Сообщества были отобраны исходя из наибольшего числа подписчиков и политизированности данных сообществ. В общем в выборку вошло 115 виртуальных сообществ.

Исследование было проведено методами наблюдения и эксперимента. В ходе наблюдения были выявлены особенности дискурсивных практик, характера коммуникации в попавших в выборку сообществах и особенности модерации контента. На основании наблюдения были сделаны предварительные выводы о характере коммуникации.

Эксперимент является одним из немногочисленных инструментов для выявления реакции модераторов на сообщения пользователей. Эксперимент с использованием комментаторов для исследования специфики модерации был проведен, например, группой корейских исследователей, но выявлял влияние моделей политики модерации на поведение пользователей -Ш1.

В качестве успешного примера реализации эксперимента по выявлению специфики модерации мы использовали исследование 2013 года по селективной модерации в

блогосфере I14!. В связи с тем, что наше исследование было сконцентрировано на изучении виртуальных сообществ в социальных сетях, параметры проведения исследования были скорректированы.

Участники полевого эксперимента должны были вступать в дискуссии в 115 виртуальных сообществах и следуя инструкции общаться на политические темы с другими пользователями. На выполнение двух этапов уходила неделя (7 дней) в каждом из с о о б щ е с тв .

Все аккаунты должны были активно участвовать в интернет-дискуссиях в исследуемых виртуальных сообществах в двух основных ролях: «адепт» и «критик». Аккаунт-адепт должен активно поддерживать декларируемые сообществом ценности, тогда как аккаунт-критик - высказывать сомнения, а также скептические, критические замечания. В каждом сообществе было задействовано на два аккаунта-адепта и два аккаунта-критика разного пола.

Использование роли адепта было необходимо не только для повышения сравнимости полученных данных, но и как маркер реакции на нового участника дискуссии. Дело в том, что виртуальные сообщества даже в условиях динамичных и персонализированных социальных сетей могут представлять пространства, близкие тённисовскому «дете^с1па^» - сообществу, в котором люди знают друг друга в лицо. Таким образом, мы постарались учесть фактор реакции сообщества и его модераторов на аккаунт

критика как нового участника сообщества, сопоставив в аналогичными данными по аккаунту адепта. Разница в отношении к аккаунтам критика и адепта позволила бы охарактеризовать сообщество либо как плюралистическое, в котором допускается выражение любой политической позиции, а включение новых участников происходит легко, либо гомогенное, в котором представление определённых политических взглядов является затруднительным, а в отношении пользователей, выражающих критическую позицию, механизм включения в сообщества затруднён.

Различия в стратегии для аккаунта-критика выражались в следующем:

Этап 1. Критик выражал сомнения с позиции «критической объективности». Критик должен был активно дискутировать, побуждать других участников дискуссии к взаимодействию с ним, например, к пояснению их позиции.

Этап 2. «Рациональная критика». Критик осуществлял критику идеологической системы, поддерживаемой сообществом в рамках правил данного сообщества. Критика реализовывалась как в форме отдельных высказываний в ветке дискуссии, так и в комментировании самых популярных ответов лояльных сообществу комментаторов, «лидеров мнений».

Стратегия аккаунта-адепта выражалась в следующем:

Этап 1. Короткие конструктивные реплики, выражающие общее согласие с дискурсом с о о б щ е с тв а .

Этап 2. Развернутые рациональные сообщения в поддержку, с защитой доминирующего в сообществе дискурса по отношению к любому, высказывающемуся против принятой в с о о б щ е с тв е точке з ре ния .

Всего участниками эксперимента было сделано 1570 комментариев в 115 сообществах на первом этапе и 2036 комментариев на втором этапе. После завершения полевого этапа полученные данные подверглись кодировке и обработке.

Результаты

Как мы и предполагали, аккаунты адептов не были заблокированы. Исключение составил один аккаунт, который был внесён в черный список одного из СМИ, возможно, по технической причине. Ситуация с аккаунтами критиков выглядит обратной. Приведем эти данные.

Таблица 1. Таблица сопряженности. «Идеология» * «Блокировка в сообществе»

Идеологический Блокировки Блокировки Общее Общее

дискурс, аккаунтов нааккаунтов наколичество количество

обсуждаемый впервом этапепервом этапесообществ, сообществ в сообществе (количество (количество осуществившихвыборке

сообществ) сообществ) блокировки

анархистский 0 1 1 5

«зелёный» 1 1 2 5

коммунистический 2 1 3 10

консервативный 1 0 1 5

либеральный 1 1 2 8

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

либертарианский 0 0 0 2

националистический

0

2

2

5

нейтральный «патриотичный» социалистический феминистский

0 2 1 4

5 10 5 5

В основном блокировки аккаунтов-критиков не превышали 30% от числа сообществ, включенных в выборку по каждой из идеологических групп.

Была выявлена только одна «отклоняющаяся» группа идеологических виртуальных сообществ, в которых блокировки случались либо за выражение сомнений, либо за критические высказывания почти повсеместно - феминистские группы. Единственное сообщество, которое попало в выборку, т. к. осуществляло обсуждение феминистской проблематики в политическом ключе, но при этом не являлось настоящим феминистским сообществом - «Гордые лица русского феминизма» (антифеминистский ресурс), оказалось единственной группой в этом кластере, которая не осуществляла блокировку польз ов а те ле й.

Таблица 2. Таблица сопряженности «Категория институционального ресурса» *

«Блокировка в сообществе»

Тип ресурса Блокировки Блокировки Общее Общее

по ка те г о рия м аккаунтов на аккаунтов на количество количество

Вконтакте пе рв ом эта пе пе рв ом эта пе сообществ, сообществ в

(количество (количество осуществивших выборке

с о о б ще ств ) сообществ) блокировки

государство 0 1 1 5

общественная 0 1 1 5

организация

партии 1 1 2 8

сми 0 1 1 20

хобби

12

"I

0

1

1

В «институциональных» сообществах блокировки за «сомнения» встретились только в одном сообществе - сообществе партии «Яблоко». Рациональная критика также не является распространенной причиной блокировок в «институциональных» сообществах (единственной группой органов власти, которая блокировала пользователей, оказалось Министерство обороны РФ).

Дополнительно по результатам дискурс-анализа мы классифицировали попавшие в выборку сообщества на основании отношения сообщества к политическому режиму в России и разделили сообщества на три группы: лоялистские, антилоялистские и нейтральные (также одно сообщество не было классифицировано в связи с его закрытием).

Таблица 3. Таблица сопряженности «Лоялизм сообщества» * «Блокировка в

сообществе»

Тип сообщества Блокировки Блокировки Общее Общее

по отношению аккаунтов на аккаунтов на количество количество доминирующего первом этапе первом этапе сообществ, сообществ в дискурса к (количество (количество осуществивших выборке

политическому сообществ) сообществ) блокировки

режиму

лоялистские

антилоялистские

нейтральные

0 5 3

4 9 3

4 14 6

25 61 28

Было выявлено, что лоялистские ресурсы не только крайне редко блокируют пользователей за рациональную критику, но также и не блокируют их за выражение сомнений.

После этого цифры, полученные по результатам первого и второго этапа эксперимента, мы дополнили цифрами, полученными в результате проведённого наблюдения, и выявили сообщества, в которых производилась замеченная наблюдателем модерация, включавшая предупреждения и блокировки, а также сообщества, в которых таких мер модераторов замечено не было.

Таблица 4. Таблица сопряженности «Лоялизм сообщества» * «Наличие

модерации»

Тип сообщества по отношению доминирующего дискурса к

политическому режиму

Общее количество с о о б щ е с тв , осуществивших блокировки

Общее количество сообществ в выборке

лоялистские а нтило я лис тс кие не йтра льные

15 47 21

25 61 28

В отношении лоялистских и нелоялистских сообществ серьёзных расхождений выявлено не было. Большая часть сообществ независимо от отношения к политическому режиму модерируется.

Таблица 5. Таблица сопряженности. «Идеология» * «Наличие модерации»

Идеологический Общее количествоОбщее количество

дискурс, обсуждаемыйсообществ, сообществ в выборке

в сообществе осуществивших

блокировки

анархистский 4 5

«зелёный» 5 5

коммунистический 8 10

консервативный 4 5

либеральный 7 8

либертарианский 2 2

националистический 3 5

не йтра льный 4 5

«патриотичный» 8 10

социалистический 5 5

феминистский 4 5

Также нет существенных различий и в осуществлении модерации в разных по идеологическому дискурсу сообществах. Практически везде процент модерируемости я в ля е тс я оче нь в ысоким.

Таблица 6. Таблица сопряженности «Категория институционального ресурса» *

«Наличие модерации»

Тип ресурса по категориям Вконтакте

Общее количество с о о б щ е с тв , осуществивших блокировки

Общее количество сообществ в выборке

государство

общественная

организация

партии

сми

хобби

3

4

6 11 6

5 5

8 20 12

Среди «институциональных» сообществ процент заметной модерации хотя и выше 50% от общего числа сообществ в категории, но ниже, чем в идеологических сообществах. Особенно это касается СМИ, где лишь 55% модераторов заметны пользователям. Единственным исключением являются общественные организации, где процент заметных блокировок достаточно высок.

Выводы

Модерация играет очень значимую роль в политической коммуникации в российских социальных сетях и её осуществление заметно в большинстве исследованных сообществ. В то же время можно говорить, как о реализации модели «публичной сферы», предполагающей конфронтационную рациональную коммуникацию, так и о модели эхо-камер, которые имеют высокий процент исключения критически настроенных польз ов а те ле й.

Исследование не выявило существенных «перекосов» в сторону одной из моделей, что свидетельствовало бы либо о неуправляемости коммуникативным пространством, либо его подконтрольности.

Наиболее последовательно модель публичной сферы реализуется в институциональных сообществах, которые представляют органы власти, средства массовой информации и политические партии - т. е. институты, которые ориентируются на общественное мнение.

Наиболее показательным случаем эхо-камер (или «безопасных мест») в российских политизированных сообществах являются феминистские группы. Это подтверждает выводы Э. Гибсона о более интенсивной модерации в автономных группах.

Библиография

1. Балашов А. Н. . Правовое регулирование Интернет-отношений: основные проблемы и практика реализации в России // Среднерусский вестник общественных наук, 2016. № 11 (2). С. 113-118.

2. Бодрунова С.С. Концепция публичной сферы и медиакратическая теория: поиск точек соприкосновения // Журнал социологии и социальной антропологии. 2011. Т. XIV. № 1(54). С. 110-132.

3. Быков И. А. Управление Интернетом как одна из проблем современных международных отношений // Политическая экспертиза: ПОЛИТЭКС, Т. 4, № 2, 2008, С. 164-174.

4. Курбалийя Й. Управление Интернетом / Й. Курбалийя; Координационный центр

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

национального домена сети Интернет. М., 2010. 208 с.

5. Fu, K. (2013) Assessing Censorship on Microblogs in China: Discriminatory Keyword Analysis and the Real-Name Registration Policy. IEEE internet computing. Vol. 17. Issue 3. Pp. 42-50. D0I:10.1109/MIC.2013.28

6. Gibson, A. (2019). Free Speech and Safe Spaces: How Moderation Policies Shape Online Discussion Spaces. Social Media + Society. https://doi.org/10.1177/2056305119832588

7. Habermas J. Between Facts and Norms: Contributions to a Discourse Theory of Law and Democracy. Cambridge, 1996.

8. Habermas J. The Public Sphere: An Encyclopedic Article // New German Critique. 1974. Vol. 3. P. 49.

9. Harsin J. (2017). Trump l'Œil: Is Trump's Post-truth Communication Translatable? Contemporary French and Francophone Studies. 21(5). Pp. 512-522.

10. Hussam H., Maaz M, Fareed Z. Rishab N. (2019). To Act or React: Investigating Proactive Strategies For Online Community Moderation. // https://arxiv.org/abs/1906.11932

11. Langvardt, K. (2018) Regulating Online Content Moderation. Georgetown Law Journal, June 2018, Vol. 106, Issue 5. p. 1353

12. Negt O., Kluge A. (1993) Public sphere and experience : toward an analysis of the bourgeois and proletarian public sphere. Mineapolis. University of Minnesota Press.

13. Suh K.-S., Lee, S., Suh, E.-K., Lee, H., Lee, J. (2018) Online Comment Moderation Policies for Deliberative Discussion-Seed Comments and Identifiability, Journal of the Association for Information Systems: Vol. 19: Iss. 3, Article 2. P. 182-208. //

https ://aisel.aisnet.org/jais/vol 19/iss3/2

14. Yun G. W., Park S,-Y, Holody K., Yoon K. S., Xie S. (2013) Selective Moderation, Selective Responding, and Balkanization of the Blogosphere: A Field Experiment, Media Psychology, 16:3, 295-317, DOI: 10.1080/15213269.2012.75946

i Надоели баннеры? Вы всегда можете отключить рекламу.