УДК 316.772.5
СОЦИАЛЬНЫЕ СЕТИ КАК ИСТОЧНИК ГЛОБАЛЬНОГО РИСКА. КАК ЕГО НЕЙТРАЛИЗОВАТЬ
Богданова Диана Александровна,
старший научный сотрудник Института кибернетики и образовательной информатики Федерального исследовательского центра «Информатика и управление» Российской академии наук, кандидат педагогических наук
СОЦИАЛЬНЫЕ МЕДИА СТАЛИ НЕОТЪЕМЛЕМОЙ ЧАСТЬЮ ЖИЗНИ, ПРИВНОСЯ СОБСТВЕННЫЕ ЦЕННОСТИ И ФОРМИРУЯ ПОВЕДЕНИЕ. СОЦИАЛЬНЫЕ СЕТИ НЕСУТ И МНОЖЕСТВО РИСКОВ - ЭТО ПРЕКРАСНАЯ СРЕДА ДЛЯ РАСПРОСТРАНЕНИЯ НОВОСТЕЙ ПРИ ОГРОМНЫХ ВОЗМОЖНОСТЯХ ДЛЯ ОБЩЕНИЯ. В СРЕДСТВАХ МАССОВОЙ ИНФОРМАЦИИ ХХ ВЕКА КОНЦЕПЦИЯ ДЕЗИНФОРМАЦИИ НЕ БЫЛА НЕИЗВЕСТНА, НО СЕЙЧАС ИНТЕРНЕТ СТАНОВИТСЯ ИДЕАЛЬНОЙ ПЛАТФОРМОЙ ДЛЯ РАСПРОСТРАНЕНИЯ, УМНОЖЕНИЯ И НЕКРИТИЧЕСКОГО ПОТРЕБЛЕНИЯ НЕОБОСНОВАННЫХ «ФАКТОВ», ОРГАНИЗАЦИИ ЛИНЧ-МОБОВ. СОЦИАЛЬНЫЕ МЕДИА И ПЛАТФОРМЫ МИКРОБЛОГЕРОВ, ГРАЖДАНСКАЯ ЖУРНАЛИСТИКА ИЗМЕНИЛИ СПОСОБЫ ДОСТУПА К ИНФОРМАЦИИ И ФОРМИРОВАНИЮ МНЕНИЙ.
• эффект «<продолжительного влияния» • эффект «обратного действия» • феномен ложного баланса • эффект «<самоутверждения» • «охо-камера»
Общение в социальных сетях
Общение становится всё более персонализированным как в способе создания сообщений, так и их распределения между социальными сетями. Кроме того, согласно недавнему исследованию, примерно 70% пользователей получают новости из социальных сетей, и эти новости подвержены той же динамике популярности, что и другие формы контента [1]. Перед лицом этого массового свободного потока информации эмпирические доказательства легко теряются.
Пять лет назад Всемирный экономический форум заявил, что распространение дезинформации в социальных сетях — один из величайших глобальных рисков для будущего и процветания [2]. В то время будущая шкала угрозы была ещё не ясной даже для экспертов средств массовой информации. Опровержение дезинформации стало очень серьёзной проблемой, а борьба с фальшивыми новостями оказалась совсем не простой. В изучении механизмов этого феномена делаются первые шаг и. По мнению специалистов в области когни-
тивистики, первая и самая большая проблема с развенчанием дезинформации заключается в том, что она продолжает влиять на суждения и выводы даже после выхода опровержения. Распространённым заблуждением о развенчании мифов является убеждение, что нивелировать влияние на мир можно легко, просто предоставляя больше информации. Этот подход предполагает, что сложившиеся неправильные представления имеют место из-за недостатка знаний, и что эту проблему можно решить предоставлением большего количества информации. Этот подход известен как «модель дефицита информации». Но эта модель ошибочна: люди не обрабатывают информацию так же просто, как компьютер, считывающий данные с диска. Важно не только то, что люди думают, но и как они думают.
Исследователи из университета Мичиган (США) впервые исследовали этот феномен. Они провели исследовательский проект, в котором представляли историю о по жаре на складе. Эта история содержала дезинформацию. Исследователи манипулировали
нонет тодш, прошы
временем предоставления опровержения. В результате пришли к выводу, что человек не может просто стереть информацию из памяти на основании заявления, что это была ошибочная информация, даже если опровержение будет предоставлено сразу же после потребления дезинформации. Эта особенность получила название эффекта «продолжительного влияния» [3]. Исследования подобного рода способствовали открытию комплексного когнитивного механизма, составляющего этот эффект. Самый загадочный в этом механизме, по мнению учёных, эффект «обратного действия»: усиление восприятия дезинформации в результате ссылки на неё во время попытки опровержения. Трудно разоблачить что-либо, не упоминая исходную ошибку — и в этом состоит проблема: людям легче принять ложную информацию за истину, потому что она кажется знакомой. В этом случае перед искусством развенчания возникает более сложная задача. Исследования показывают, что такие попытки развенчания усиливают дезинформацию как «истину». По мнению исследователей, то, что уже знакомо, «берёт верх», потому что за-действуются более сложные, стратегические процессы памяти; они позволяют запоминать детали, например, где, когда и как человек узнал эту информацию. Поэтому, даже если упоминание дезинформации в процессе развенчания не всегда приводит к отрицательным результатам, лучше избегать её в целях предосторожности и сосредотачиваться на фактах [4]. Учёные полагают, что людей можно «вакцинировать» от дезинформации с помощью различных типов предваряющих предупреждений. Например, явление ложного баланса, снижающее принятие научных фактов (возникает в случае, когда средства массовой информации представляют проблему как более сбалансированную между противоположными точками зрения, чем это есть на самом деле), может быть нейтрализовано предварительным предупреждением об ошибочном содержании материала. По мнению исследователей, когда люди слышат дезинформацию, они создают ментальную модель с мифом, предоставляющим объяснение. Когда миф развенчан, в их ментальной модели возникает разрыв. Чтобы справиться с этой дилеммой, люди предпочитают неправильную модель неполной, то есть, в случае отсутствия объяснения, они выби-
рают неправильное. Поэтому в этом случае эффективный способ снижения эффекта дезинформации заключается в том, чтобы обеспечить альтернативное объяснение события, содержащегося в дезинформации. Существуют различные подходы, но самым эффективным специалисты считают комбинацию двух техник: предупреждения, которое должно быть сделано прежде, чем будет упомянут факт дезинформации: «Будьте осторожны! Вас могут ввести в заблуждение», и объяснения, почему дезинформатор использовал этот миф. Развенчание должно начинаться акцентом на реальные факты, а не на миф.
Специалисты также обнаружили, что во время попыток коррекции могут возникать различные эффекты «обратного действия». Это, например, эффект переполнения, который может проявиться, если используется слишком мног о аргументов. Принято считать, что чем больше контраргументов представляется, тем успешнее будет развенчан миф. Однако оказывается, что это не всегда работает именно таким образом. Когда дело доходит до опровержения дезинформации, иногда меньшее число контраргументов может оказаться эффективнее. Например, использование трёх аргументов может быть более эффективно, чем предложение двенадцати аргументов, которые могут в конечном итоге укрепить первоначальное ошибочное мнение. Простой миф может оказаться когнитивно более привлекательным, чем переусложнённая коррекция. Поэтому текст опровержения всегда должен быть сдержанным, содержательным, удобным для прочтения, свободным от уничижительных комментариев, так как это может оттолкнуть людей.
Также следует отметить, что развенчание в эпоху цифровых технологий может сопровождаться возникновением дополнительных «онлайн-ловушек», когда люди склонны к избирательному потреблению информации. Они восприни мают только информацию, подтверждающую уже существующие убеждения, и отвергая — противоречащую. Исследование показало, что даже когда людям представляется сбалансированный набор аргументов, они только укрепляют ранее существовавшие взгляды, тяготея к информации, с которой они уже были согласны. Обычно наибольшая поляризация имеет
место среди тех, кто непримиримо придерживается своих взглядов [5]. Группа итальянских учёных проанализировала несколько тысяч сообщений и пользовательских действий на общедоступных страницах Facebook в течение 6-летнего периода, с января 2010 года по декабрь 2015 года. Используя количественный анализ, они нашли доказательства того, что избирательное восприятие играет решающую роль в потреблении новостей в Ингернете [6]. Исследователи разделили содержание новостей на две категории: научное и конспирологическое. Они пришли к выводу, что пользователи, потребляющие новости на Facebook, ограничивают внимание лишь несколькими сайтами.
Поляризованные сообщества в Интернете
Результаты показали существование поляризованных сообществ пользователей, которые получили название «эхо-камеры». «Эхо-камеры» в основном выбирают и обмениваются контентом, связанным с конкретным повествованием и, как правило, игнорируют остальное. Таким образом, несмотря на большое количество доступных источников новостей, основная сегрегация и растущая поляризация являются преобладающими факторами онлайн-потребле-ния новостей. Исследователи также пришли к выводу, что настоящие научные новости быстро распространяются. Однако ситуации, когда человек склонен рассматривать только данные, подтверждающие его убеждения, и отвергать противоречащие, приводят к тому, что конспирологиче-ские слухи имеют гораздо более продолжительный срок жизни на Facebook. Он-лайн-дискуссии негативно влияют на эмоции и усиливают поляризацию, создавая «эхо-камеры», в которых убеждения пользователей получают подкрепление. Для тех пользователей сетей, чья цель состоит в получении максимального числа «лай-ков», информация часто предельно упрощается, считают учёные, подчёркивая, что именно упрощение и сегрегация обеспечивают идеальную среду, в которой может легко распространяться дезинформация. Такая поляризованная онлайн-среда также довольно устойчива к развенчанию дезинформации. Исследования показали, что после контакта с развенчанными постами
сторонники конспирологии сохраняют, а в отдельных случаях даже увеличивают участие в «эхо-камере».
Что произойдёт, если в сбалансированном ранее наборе аргументов оставить только те, что противоречат их мировоззрению? В этом случае на первый план выходит когнитивный процесс, который специалисты определяют как «необъективность неподтверждения», являющийся обратной стороной «необъективности подтверждения». В этой ситуации люди потратят значительно больше времени и мыслительной активности, приводя доводы против аргументов, которые противоречат их взглядам.
Если предложенные факты не смогли переубедить человека, а в отдельных случаях могли и ухудшить ситуацию, то что же можно сделать, чтобы снизить эффект дезинформации? По мнению исследователей, в этом случае можно использовать так называемый «эффект самоутверждения», с помощью которого постараться снизить обычное психологическое сопротивление. Этот интересный эффект подробно описан в работе Дж. и Д. Шерман [7]. Для его реализации следует попросить людей написать несколько предложений о том времени, когда они были довольны собой, действуя в ситуации, важной для них. После этого люди становятся более восприимчивыми к сообщениям, которые могли бы, по их мнению, угрожать их мировоззрению [8]. Интересно, что «эффект самоутверждения» проявляется ярче всего среди тех, у кого идеология доминирует в чувстве собственного достоинства. При этом «эффект самоутверждения» не означает манипулирование людьми. Но он даёт фактам возможность непредвзятого рассмотрения.
Учёные утверждают, что сложно полагаться на выводы, понимание которых требует знания таких понятий, как, например, корреляция или причинность, с которыми большинство людей может быть не знакомо. Человеку легко потеряться в повествовании, в котором отсутствуют необходимые ингредиенты для понимания их реальности.
Подтверждая важность открытия когнитивного механизма, лежащего в основе дезинформационного влияния, специалисты
Ноши, тодш, ппвеиты
отмечают, что изменяющаяся информационная культура становится также и эффективным политическим инструментом [9]. Исследования показывают, что единичные фальшивые новости не задерживаются в сознании человека. Однако основной познавательный эффект накапливаемых фальшивых новостей и дезинформации — это политическая поляризация и «эхо-камеры». И это может иметь серьёзные разрушительные последствия для возможности политических дискуссий.
Исходя из сказанного, сформулируем, как следует действовать для эффективного развенчания ложной информации (мифа):
• опираться на факты, не упоминая миф;
• использовать только основные аргументы, избегая переусложнения;
• перед любым упоминанием мифа текстовые или визуальные сигналы должны предупреждать, что ожидаемая информация неверна;
• обязательно предоставлять альтернативное объяснение, чтобы любые возникшие пробелы были заполнены. В качестве объяс нения того, почему миф ошибочен, может быть предложен анализ причин, почему дезинформаторы использовали именно этот миф;
• основные факты должны по возможности отображаться графически.
Следует отдельно отметить, что распространение фальшивых новостей и необоснованных слухов побудило крупные корпорации, такие как Google и Facebook, заняться поисками решения этой проблемы. В настоящее время в новостях Google решили отмечать информацию, проверенную фактами, и штрафовать поставщиков фальшивых новостей; также рассматривается возможность использования чёрных списков источников для автоматического ограничения их распространения. Однако всё же вероятно, что основная проблема, связанная с дезинформацией, — это поляризованные пользовательские группы в Интернете. □
Литература
1. Newman N., Levy D.A.L., Nielsen R.K. Reuters institute digital news report 2015 (Social Science Research Network). Режим доступа: https://ssrn.com/abstract =2619576 (дата обращения 28.01.2018).
2. Digital Wildfires in a Hyperconnected World. World Economic Forum. Global Risks. Reports, 2013). Режим доступа: http://reports.weforum.org/global-risks-2013/risk-case-1/digital-wildfires-in-a-hy-perconnected-world/?doing_wp_cron =15 17234516.7952280044555664062500 (дата обращения 28.01.2018).
3. Hollin M. Johnson , Colleen M. Seifert «Sources of the Continued Influence Effect: When Misinformation in Memory Affects Later Inferences». Режим доступа: https:// www.researchgate.net/publication/ 232501255_Sources_of_the_Continued_ Influence_Effect_When_Misinformation_ in_Memory_Affects_Later_Inferences (дата обращения 28.01.2018)
4. J. Cook S. Lewandowsky The debunking handbook. Режим доступа: https://skepti-calscience.com/docs/Debunking_ Hand-book.pdf (дата обращения 28.01.2018).
5. J. Cook S. Lewandowsky The debunking handbook. Режим доступа: https://skep-ticalscience.com/docs/ Debunking_Hand-book.pdf (дата обращения 28.01.2018).
6. Vicario M.D., Bessi A., Zollo F. et al The spreading of misinformation online. Режим доступа: http://www.pnas.org/content/ 113/3/554 (дата обращения 28.01.2018).
7. Geoffrey L. Cohen and David K. Sherman. The Psychology of Change: Self-Affirmation and Social Psychological Intervention. Режим доступа: https://ed.stanford.edu/ sites/ default/files/annurev-psych-psycholo-gy_of_change_final_e2.pdf (дата обращения 28.01.2018).
8. Cohen, G.L., Sherman, D.K., Bastardi, A., Hsu, L, & McGoey, M. (2007). Bridging the Partisan Divide: SelfAffirmation Reduces Ideological Closed-Mindedness and Inflexibility in Negotiation. Personality & Soc. Psych., 93, 415-430.
9. Pedersen D.B. The Political Epistemology of Science-Based Policy-Making / Society October 2014, Volume 51, Issue 5, pp 547551. Режим доступа: https://link.springer. com/article/10.1007/s12115-014-9820-z (дата обращения 28.01.2018).
References
1. Newman N., Levy D.A.L., Nielsen R.K. Reuters institute digital news report 2015 (Social Science Research Network). Re-zhim dostupa: https://ssrn.com/abstract =2619576 (дата обращения 28.01.2018).
2. Digital Wildfires in a Hyperconnected World. World Economic Forum. Global Risks. Reports, 2013). Rezhim dostupa: http://reports.weforum.org/global-risks-2013/risk-case-1/digital-wildfires-in-a-hy-perconnected-world/?doing_wp_cron =15 17234516.7952280044555664062500 (дата обращения 28.01.2018).
3. Hollin M. Johnson, Colleen M. Seifert «Sources of the Continued Influence Effect: When Misinformation in Memory Affects Later Inferences». Rezhim dostupa: https:// www.researchgate.net/publication/ 232501255_Sources_of_the_Continued_ Influence_Effect_When_Misinformation_ in_Memory_Affects_Later_Inferences (data obrashcheniya 28.01.2018)
4. J. Cook S. Lewandowsky The debunking handbook. Rezhim dostupa: https://skepti-calscience.com/docs/Debunking_ Hand-book.pdf (data obrashcheniya 28.01.2018).
5. J. Cook S. Lewandowsky The debunking handbook. Rezhim dostupa: https://skepti-calscience.com/docs/ Debunking_Hand-book.pdf (data obrashcheniya 28.01.2018).
6. Vicario M.D., Bessi A, Zollo F. et al The spreading of misinformation online. Re-zhim dostupa: http://www.pnas.org/con-tent/ 1 13/3/554 (data obrashcheniya 28.01.2018).
7. Geoffrey L. Cohen and David K. Sherman. The Psychology of Change: Self-Affirmation and Social Psychological Intervention. Rezhim dostupa: https://ed.stanford.edu/sites/ default/files/annurev-psych-psychology_of_ change_final_e2.pdf (data obrashcheniya 28.01.2018).
8. Cohen, G.L., Sherman, D.K., Bastardi, A, Hsu, L, & McGoey, M. (2007). Bridging the Partisan Divide: SelfAffirmation Reduces Ideological Closed-Mindedness and Inflexibility in Negotiation. Personality & Soc. Psych., 93, 415-430.
9. Pedersen D.B. The Political Epistemology of Science-Based Policy-Making / Society October 2014, Volume 51, Issue 5, pp 547551. Rezhim dostupa: https://link.springer. com/article/10.1007/s121 15-014-9820-z (data obrashcheniya 28.01.2018).