Научная статья на тему 'Стратегии и технические средства для предотвращения виктимного поведения пользователей в информационном пространстве'

Стратегии и технические средства для предотвращения виктимного поведения пользователей в информационном пространстве Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
396
55
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ВИКТИМНОЕ ПОВЕДЕНИЕ / ГЛОБАЛЬНЫЕ СЕТИ / ОБНАРУЖЕНИЕ ФЕЙК-АККАУНТОВ / СТИЛОМЕТРИЯ / МАСШТАБИРОВАНИЕ / БЫСТРОДЕЙСТВИЕ РАСПРЕДЕЛЕННЫХ СИСТЕМ / VICTIM BEHAVIOR / GLOBAL NETWORKS / DETECTION OF FAKE ACCOUNTS / STYLOMETRY / SCALING / SPEED OF DISTRIBUTED SYSTEMS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Мельник Эдуард Всеволодович, Клименко Анна Борисовна

Проводится обзор современных стратегий, методов и технических средств, препятствующих виктимному поведению индивида в информационном пространстве сети Интернет. Рассмотрены современные стратегии предотвращения виктимного поведения, включая средства родительского контроля и политики социальных сетей. Создание фейковых аккаунтов предлагается считать одним из маркеров виктимного поведения. Проведен аналитический обзор методов идентификации фейков и аккаунтов-двойников. Сформулирована постановка задачи предотвращения виктимного поведения пользователей в терминах технических методов и средств анализа интернет-контента.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

STRATEGIES AND TECHNICAL MEANS FOR PREVENTING VICTIM BEHAVIOR OF USERS IN THE INFORMATION SPACE

The current paper contains the comprehensive overview of the contemporary strtagies, methods and technical facilities, which prevent the victim behavior in the information space of the Internet. The up-to-date victim behavior prevention strategies are considered, including the parental control facilities and social network policies. The fake account creation is considered as the way to identify the victim behavior. Also, the analytical overview of the fake identification methods is provided. The problem of the victim behavior prevention is formulated in terms of technical methods and facilities of the Internet content analisys.

Текст научной работы на тему «Стратегии и технические средства для предотвращения виктимного поведения пользователей в информационном пространстве»

МА ТЕМА ТИЧЕСКОЕ И ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ ВЫЧИСЛИТЕЛЬНЫХ МАШИН, КОМПЛЕКСОВ И КОМПЬЮТЕРНЫХ СЕТЕЙ

УДК 004.773; 316.6

СТРАТЕГИИ И ТЕХНИЧЕСКИЕ СРЕДСТВА ДЛЯ ПРЕДОТВРАЩЕНИЯ ВИКТИМНОГО ПОВЕДЕНИЯ ПОЛЬЗОВАТЕЛЕЙ В ИНФОРМАЦИОННОМ ПРОСТРАНСТВЕ

Э.В. Мельник, А.Б. Клименко

Данная статья содержит обзор современных стратегий, методов и технических средств, препятствующих виктимному поведению индивида в информационном пространстве сети Интернет. Рассмотрены современные стратегии предотвращения виктимного поведения, включая средства родительского контроля и политики социальных сетей. Создание фейковых аккаунтов предлагается считать одним из маркеров виктимного поведения. В статье проведен аналитический обзор методов идентификации фейков и аккаунтов-двойников. Сформулирована постановка задачи предотвращения виктимного поведения пользователей в терминах технических методов и средств анализа интернет-контента.

Ключевые слова: виктимное поведение, глобальные сети, обнаружение фейк-аккаунтов, стилометрия, масштабирование, быстродействие распределенных систем.

Введение

Всемирная сеть Интернет дает людям практически ничем неограниченные возможности общения, при этом обладая такими особенностями, как анонимность и физическая не представленность индивида.

Перечисленное составляет основу информационной среды, дружественной к разного рода взаимодействиям злоумышленника и жертвы в самых разнообразных комбинациях, например: кража профиля (Identity theft), кибербуллинг (cyberbullying), различного рода мошенничества, шантаж и т. д.

При этом, даже исключая возможность общения злоумышленника и жертвы в реальной жизни, их общение в рамках информационной среды также причиняет существенный вред психическому здоровью, влияет на самооценку и в крайних случаях является причиной суицидального поведения.

Процесс и результат становления человека жертвой преступления получил название виктимизации. Поведение, ведущее к становлению человека жертвой, соответственно, является виктимным поведением.

306

Одним из первых сформулировал понятие виктимности Л.В. Франк. По его мнению, под виктимностью следует понимать повышенную способность человека в силу ряда его духовных и физических качеств при определенных объективных обстоятельствах становиться «мишенью» для преступных посягательств» [1].

В настоящее время выделяют типы виктимного поведения: активное и пассивное [2]. Пассивное подразумевает чрезмерную доверчивость, излишнюю беззаботность индивида в информационном пространстве, что привлекает злоумышленников. Активное виктимное поведение включает вызывающую манеру поведения, участие в разного рода сообществах ярко выраженной деструктивной направленности, когда человек сам ведет себя излишне агрессивно и, соответственно, может получить такой же ответ. Примечательно, что в рамках такого явления, как кибербуллинг, опасности подвержены не только жертвы, но и злоумышленники. Проводимые исследования показали у последних наличие суицидальных наклонностей.

Предотвращение виктимного поведения индивида в информационном пространстве Интернет является актуальной научно-технической задачей, и здесь следует отметить попытки ее воплощения в крупных социальных сетях: возможность пожаловаться администратору, возможность исключить сообщения оскорбительного характера из новостной ленты, различного рода приложения, позволяющие по анализу публикуемого контента выстраивать психологические профили индивида. Также следует отметить наличие автоматизированных средств родительского контроля (Circle with Disney, Router Limits Mini, Linksys AC 1750 и др.), однако, и эти средства в настоящий момент недостаточны: предоставляя возможность закрытия того или иного ресурса (что не всегда оправдано), во-первых, остается возможность обхода этих средств, во-вторых, всегда есть возможность выхода в Интернет через сторонние точки доступа (гаджеты и компьютеры друзей и знакомых). Кроме того, средства родительского контроля автоматически закрывают доступ к определенным ресурсам, в то время как иногда это нежелательно.

Процесс виктимизации индивида в информационном пространстве является относительно новым феноменом, на настоящий момент мало исследованным, однако существует достаточно широкий круг публикаций, соотносящих виктимизацию и разного рода фейки (ложную информацию), включая фейковые аккаунты и фейк-новости.

В рамках данной статьи будет составлен перечень основных стратегий противодействия фейк-контенту как способа предотвращения виктим-ного поведения индивида в информационном пространстве, а также сформировано основное направление дальнейшего развития средств, реализующих противодействие виктимному поведению в информационном пространстве.

1. Фейки и виктимное поведение индивида

Современные публикации по теме различают понятия фейковых новостей (fake news) и фейковых аккаунтов (fake accounts), хотя некоторые источники объединяют первое и второе как фейковые новости: фейками в

современной медиасреде могут называться поддельные тексты, фото-, видео- или аудиозаписи; блоги и страницы, которые выдаются от имени реально существующих или вымышленных личностей; поддельные страницы популярных сайтов; искусственно созданная популярная личность, произведение или проект; ложная или частично искаженная информация [3].

Есть и другие определения фейковых новостей: фейк-новости определяют как преднамеренно и верифицируемо ошибочные или ложные новости с целью получения денег и / или продвижения идеологий [4].

Фейковый аккаунт (fake account) - это аккаунт, в котором индивид делает вид, что является кем-то другим [5].

Также фейковый аккаунт может быть описан как аккаунт, содержащий ложную информацию о его владельце [6].

Отметим, что если фейк-новости - это намеренно распространяемая ложная информация, то фейк-аккаунт - это псевдоним, используемый далее для совершения, возможно, неблаговидных и незаконных действий, в том числе, и для распространения фейк-новостей.

Как показали исследования проблемы виктимного поведения индивида в сети, фейковые аккаунты играют значимую роль в таком феномене, как кибербуллинг (травля индивида в сети) и используются в большей степени злоумышленниками. Например, набирает популярность использование фейковых аккаунтов в сети Инстаграмм[7]:

«Finsta» - секретный или фейковый аккаунт в инстраграмм, где индивиды публикуют контент, отличный от их реального инстраграмм-аккаунта, носящий более спонтанный, интимный или откровенный характер.

Также известны прецеденты судебных дел, связанных с кибербул-лингом и фейковыми аккаунтами [8].

В то же время фейковые аккаунты используются и жертвами, как в попытке избавиться от преследования [9], так и в попытках получить доступ к закрытой информации, принимать участие вразного рода сообществах деструктивной направленности, а также и самим принимать участие в травле других пользователей сети. Описанные ситуации хорошо иллюстрируют оба типа виктимного поведения индивида - пассивного и активного. С одной стороны, обладатель фейк-аккаунта может проявлять пассивное виктимное поведение, пользуясь фейк-аккаунтами для общения в различных сообществах, с другой стороны, участвуя в травле, владелец фейк-аккаунта проявляет активное виктимное поведение.

2. Аналитический обзор стратегий и средств предотвращения виктимного поведения индивида в информационном пространстве

Проведенный обзор литературы позволяет сделать вывод, что в настоящее время используются следующие стратегии предотвращения виктимного поведения индивидов в информационном пространстве:

- применение автоматических и автоматизированных средств родительского контроля;

- политики социальных сетей, законодательные меры, направленные на блокировку нежелательного контента или пользователей, а также удаление фейк-аккаунтов;

- применение специализированных средств третьими лицами, направленных на решение комплекса задач: идентификации фейк-новостей, фейк-аккаунтов и деанонимизации. Следует отметить, что существующие технические решения этого класса функционируют в рамках учреждений и не всегда доступны обычным пользователям сети.

2.1. Средства родительского контроля

Средства родительского контроля используются с целью фильтрации и протоколирования посещаемых ребенком ресурсов Интернет. В настоящее время разработан широкий круг средств родительского контроля, и точно так же в открытом доступе представлены аналитические материалы, позволяющие выбрать наиболее подходящее средство. Например, в [10] проведен аналитический обзор таких приложений как Net Kids, Kindergate Родительский контроль, компонент Kaspersky Internet Security 2012, «Родительский контроль» от Мегафон, «Родительский контроль» от МТС.

В той или иной степени перечисленные средства осуществляют: блокировку опасных сайтов, настройку режима доступа в Интернет, отчеты посещений ресурсов, блокировку мошеннических сайтов, формирование локального черного списка с последующим попаданием ресурса в общую базу «Черный список», контроль мессенджеров и платного контента.

Основные принципы работы приложений родительского контроля следующие [11]: приложение работает с заранее подготовленной базой данных, содержащей разного рода ограничения и «черный список» ресурсов. В общий «черный список» могут вноситься изменения в соответствии с жалобами пользователей. Также приложение может работать с «белым списком» ресурсов, куда родители открывают доступ ребенку, либо осуществлять фильтрацию ресурсов по признаку наличия заданных ключевых слов.

Вполне очевидно, что средства родительского контроля не являются достаточными и в должной степени гибкими, поскольку, во-первых, их можно легко обойти (например, воспользовавшись другой точкой доступа в Интернет), во-вторых, они используют пополняемую центральную базу данных, которые, как правило, отстают от создаваемого негативного контента.

Кроме того, средства родительского контроля не рассчитаны на фильтрацию разного рода фейков: вполне уместна ситуация, когда фейко-вая новость может не описываться введенными ключевыми словами и, тем не менее, обладать ярко выраженным деструктивным характером.

2.2. Политики социальных сетей и законодательные меры для предотвращения виктимного поведения

В свете предотвращения виктимного поведения пользователей и тесной взаимосвязи его с фейками разного рода, крупные социальные сети включили в свою политику противодействие как контенту деструктивной направленности, так и фейкам.

Например, помимо ранее принятых мер [12] c 2019г. Facebook вводит определение авторитетности тех сайтов, ссылки на которые публикуются в сети. Новый сигнал, Click-Gap, полагается на веб-граф, концептуальную «карту» интернета, в которой домены с большим количеством входящих и исходящих ссылок находятся в центре графа, а домены с меньшим числом ссылок - на краях. Если у домена количество ссылок с Facebook не соответствует его месту в веб-графе, то это может быть признаком того, что этот домен на самом деле не является авторитетным и публикует низкокачественный контент.

Алгоритмы Facebook также будут анализировать, какие записи одобряют администраторы группы, чтобы понять, должна ли группа быть закрыта.

Если администраторы пропускают фейки, вводящий в заблуждение или нарушающий правила Facebook контент, то работа группы может быть прекращена.

Также инструментарий сети Facebook позволяет «пожаловаться» на потенциальный фейк-аккаунт, удаляет и блокирует контент, носящий откровенно негативный, экстремистский характер. Однако, как было замечено [13], массовое блокирование контента привело к оттоку молодежной аудитории в другие сети и к ослаблению политики блокирования Facebook, а количество фейковых аккаунтов по-прежнему оценивается миллионами.

Для сети ВК [14]запущен центр безопасности, акцентирующий внимание на безопасности детей. По статистике: заблокировано 7900000 единиц контента, 1800000 личных страниц, 11300 сообществ по теме самоубийств, 300000 единиц контента, 8600 страниц, 500 сообществ по теме насилия в школах.

2.3. Специализированные средства идентификации фейков и деанонимизации

Поскольку актуальность проблемы фейков неоспорима и приобрела общемировой масштаб, привлекла она и внимание научных сообществ. В настоящее время ведется интенсивная разработка сервисов идентификации разного рода фейков, в том числе, фейковых аккаунтов. Поскольку сама предметная область мало исследована, такие средства, как правило, находятся в стадии разработки, например проект [15]использует машинное обучение для обнаружения фейковых аккаунтов. Также в Интернет представлен функционирующий проект «Интернет-розыск», который включает следующие продукты: Интернет-Розыск онлайн, ТелПоиск, IP-розыск, Те-леграмм-деанонимайзер. [16]. Проект предполагает использование перечисленных продуктов с целью проверки бизнес-партнеров, а также для обеспечения информационной безопасности корпораций. Также существует достаточно широкий круг сервисов, позволяющих произвести поиск и деанонимизацию пользователей в сети: pipl.com, Wink, Zabasearch, http://vk.city4me.com, http://findface.ru и др. [17].

310

3. Определение и классификация основных методов обнаружения фейков в социальных сетях

Проведенный анализ проблемы поиска и идентификации фейков в информационном пространстве Интернет позволил выделить следующие основные направления исследований и разработок пилотных проектов:

- идентификацию фейковых новостей;

- идентификацию фейковых аккаунтов;

- деанонимизацию, которая в качестве подзадачи зачастую включает идентификацию псевдонимов пользователей (linkability).

Эти три выделенные нами задачи близки по смыслу и отличаются следующим:

- задача идентификации фейковых новостей сводится к определению, является ли новость ложной;

- задача идентификации фейковых аккаунтов сводится к ответу на вопрос, является ли данный аккаунт поддельным;

- в аспекте обнаружения фейковых аккаунтов задача ставится как обнаружение «двойников» какого-то конкретного аккаунта, в том числе, и на других интернет-ресурсах.

3.1. Методы идентификации фейковых новостей

В настоящее время фейковые новости классифицированы следующим образом [18]:

- визуальные (visual-based) - используют графическое представление информации, например, редактированные изображения или видео;

- пользовательские (user-based) - создаются фейк-аккаунты, откуда в дальнейшем информация распространяется, направленные на определенную аудиторию, например, соответствующего возраста, пола, культуры и т.д.;

- на основе сообщений (post-based) - ориентированы на использование в социальных сетях и имеют вид постов;

- сетевые (network-based) - ориентированные на определенные сообщества в сетях;

- на основе знаний (knowledge-based) - содержат некоторые объяснения необъясненным феноменам;

- на основе стиля (style-based) - ориентированы на специфические стилевые особенности и на способ представления ложной информации;

- на основе позиции (stance-based) - является ответвлением фейков на основе стиля, концентрируясь на том, как именно выстроены предложения. Такие фейки написаны таким образом, чтобы в условиях явной недостаточности информации у пользователей могли возникать различные толкования прочитанного.

Методы обнаружения фейковых новостей также подразделят на обширные классы:

- методы на основе лингвистических характеристик (linguistic features methods), которые включают следующее: N-граммы, анализ пунктуации, анализ психолингвистических характеристик, общую читабельность, синтаксический анализ [19 - 26];

- методы на основе обнаружения обмана (deception Modeling based methods). Это семейство методов опирается на дисциплину «Теория риторики» (Rhetorical Structure Theory) и моделирование пространства векто-ров[27-29];

- методы на основе кластеризации (Clustering based Methods). Образцы новостей разбиваются на кластеры «правдивых» и «ложных» историй. Принадлежность новости к одному из кластеров определяется на основе вычислений евклидовых расстояний. Заявлено, что применение разбиения на кластеры позволяет определить фейк с точностью до 63% [30] В совокупности с этим методом метод на основе регрессионных рядов позволяют поднять точность определения фейков до 70%.

3.2. Методы идентификации фейковых аккаунтов

Методы идентификации фейковых аккаунтов в социальных сетях в настоящее время разделены на два больших класса[31]:

1. на основе анализа профилей аккаунтов;

2. на основе анализа поведения групп аккаунтов.

Рассмотрим сначала методы, которые позволяют отличать фейко-вые аккаунты от настоящих, анализируя содержимое профилей. Как правило, при этом из профилей выделяются некоторые характеристики, на основе которых далее работают алгоритмы машинного обучения.

В работе [32] описана идентификация фейков в сетиЬтк^1п. Авторы на основе эксперимента демонстрируют вероятность распознавания фейка с вероятностью до 84% точности, используя в качестве входных данных данные анализируемого профиля. При этом применяются классификаторы на основе нейронных сетей, и среди прочих, опорными являются такие характеристики профиля, как количество языков, известных владельцу аккаунта, образование, профессиональные навыки и т.д. Для обучения используются характеристики аккаунтов, которые заведомо признаны фейками и которые публикуются на специальных сайтах.

В работе [33] акцент сделан на выявлений фейков в Твиттере. Работа интересна тем, что здесь использован классификатор на основе би-грамм, использующий пары слов как характеристики текстов. В совокупности с другими характеристиками, такими, как регулярность сообщений, описание профиля и др. описываемая система достаточно легко различает аккаунты человеческие и фейки, принадлежащие ботам.

Другой подход к идентификации фейковых аккаунтов в социальных сетях - это методы, опирающиеся на анализ графов связей между группами аккаунтов.

В работе [34] описан эксперимент по идентификации фейков в се-тяхFacebook и Twitter. Авторами было создано 900 аккаунтов, для которых был произведен сбор статистики контактировавших с ними аккаунтов на протяжении года. После этого был произведен анализ графа профилей и выявлено более 16 тысяч спам-аккаунтов. В дальнейшем полученные данные были использованы для обучения классификаторов.

312

В работе [35] выдвинуто предположение о том, что фейковые профили чаще объединяются с другими фейковыми профилями, что позволяет разделить граф связей на подграфы, содержащие фейки и легитимные ак-каунты. Однако, в работе [36] данная гипотеза подвергнута сомнению, и предложен новый метод определения фейков на базе анализа профилей жертв, т.е. тех аккаунтов, с которыми контактируют фейки.

Еще одним этапом в идентификации фейковых профилей стала работа [37], где вместо попыток характеризовать профили фейковых аккаун-тов, было предложено опираться на аномалии поведения таких аккаунтов путем мониторинга времени пребывания в сети, происхождения сообщений, тематик сообщений. На основе этих характеристик был создан классификатор на основе метода опорных векторов. Обучающая выборка была помечена в ручном режиме.

3.3. Методы деанонимизации и идентификация фейковых аккаунтов- «двойников»

Деанонимизация также является актуальной задачей современных социальных сетей [38] и может быть рассмотрена как в ракурсе противозаконного раскрытия анонимности, таки с целью выявления пользователей, склонных к виктимному поведению, либо пользователей-злоумышленников. Проблемная область весьма широка, и покрывает проблематику идентификации злоумышленников с DeepWeb, деанонимиза-цию пользователей таких систем, как TOR, и кроме того, задачу поиска фейковых аккаунтов одного и того же индивида в сети.

Множественные фейковые аккаунты пользователя тесно связаны с проблемами виктимности и анонимности. Например, пользователь может иметь низкий рейтинг в сообществе и завести новый аккаунт для того, чтобы войти в сообщество с чистой репутацией [39]. Также фейковые аккаун-ты используют для участия в дебатах разного рода, в сообществах, для распространения продукции и т.д.

Название задачи - деанонимизация - говорит само за себя: поскольку предполагается, что пользователь в сети анонимен, деанонимиза-ция снимает его анонимность.

Однако, в некоторых работах [40] деанонимизация включает и задачу поиска двойников, т.е. фейковых аккаунтов, созданных одним и тем же человеком. В контексте данной работы акцентируем внимание на известных методах идентификации фейков, принадлежащих одному автору в пределах более чем одной социальной сети как подзадаче деанонимизации.

Обзор публикаций в данной области показал, что к настоящему времени сложились следующие основные направления обнаружения «двойников»:

- методы на основании схожести псевдонимов (String-basedmatching);

- методы на основе стилометрии (Stylometric matching);

- методы на основе анализа временного профиля (Time profile-based matching);

- методы на основе анализа социального взаимодействия (Social network-based matching).

3.3.1. Методы на основе схожести псевдонимов

Пользовательские псевдонимы как правило являются некой текстовой строкой. Зачастую пользователи создают похожие псевдонимы в различных сетях, по крайней мере, этот случай работает тогда, когда пользователь не пытается скрываться или вести противозаконную деятельность [41]. Предложено несколько вариантов проверки схожести псевдонимов, например, [42]. Однако, эта стратегия не будет работать, когда пользователь умышленно скрывается под другим псевдонимом.

3.3.2. Методы на основе стилометрии

Под стилометрией понимают статистический анализ текста [43]. К настоящему времени существует достаточно широкий круг работ, посвященный идентификации авторства путем анализа текста, например, [4446]. Следует отметить, что большинство работ в данной области посвящены проблеме идентификации автора малой размерности (когда количество кандидатов в авторы относительно невелико), и гораздо меньшее количество работ посвящено идентификации авторов в больших киберпростран-ствах, либо, наоборот, с использованием малого количества материала для создания вектора характеристик текстов. Однако, также следует отметить, что методы на основе стилометрии считаются достаточно надежными и перспективными: например, в [47] авторы утверждают, что методы на основе стилометрии достаточны для деанонимизации в сети Интернет. Кроме того, достаточное количество работ посвящено развитию и совершенствованию данного направления [48, 49].

В работе [50] определены основные характеристики текстов, необходимые для успешной идентификации авторства и включают лексические, синтаксические, структурные, идиоматические признаки.

3.3.3. Методы на основе анализа временного профиля

Методы данной группы опираются на допущение о том, что не может один и тот же индивид публиковать пост в одно и то же время. На основе этой гипотезы составляются временные профили пользователей, причем могут включать не только публикацию постов, но и прочие действия. Примерами формирования временных профилей являются работы [51,52].

3.3.4 Методы на основе социального взаимодействия

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Эта группа методов опирается на гипотезу о том, что псевдонимы одного и того же индивида в сети с высокой вероятностью взаимодействуют с одними и теми же аккаунтами. Тема затрагивается в работе [53]. Однако проблемой является и то, что не всегда доступны списки друзей пользователя в интернете, и по этой причине возможны варианты построения сети связей: на основе сообщений, на основе бесед и т.п.

4. Неформальная постановка задачи построения средств противодействия виктимному поведению индивида в информационном пространстве

Проведенное исследование и анализ открытых источников позволяют сделать следующие выводы.

1. В настоящее время виктимное поведение индивида тесно связано с таким понятием, как фейковый аккаунт. При этом достаточно велико число вариантов взаимодействия индивида с фейками, начиная с собственных фейков и заканчивая вынужденным взаимодействием с ними.

2. Современные средства (родительский контроль, административные меры) не являются достаточными для эффективного предотвращения виктимного поведения индивида.

3. Область идентификации фейков, а также идентификации двойников является достаточно проработанной как в смысле количества методов, так и с точки зрения эффективности. Авторам данной статьи представляется эффективным и перспективным обнаружение двойников на основе сти-лометрии, неоднократно апробированный и используемый. На текущий момент недостатком использования этих методов является недостаточная проработка принципов их функционирования в масштабах глобальной сети, что делает актуальной задачу разработки соответствующих методов и средств.

Также очевиден недостаток гибких, ориентированных на пользователя технических средств, отличных от средств родительского контроля но, тем не менее, предоставляющих функции интеллектуального противодействия атакам фейков, либо идентифицирующих потенциально виктимное поведение индивида по наличию фейковых аккаунтов у него самого.

Перечисленное выше позволяет сформулировать проблему противоборства виктимному поведению индивида в информационном пространстве следующим образом: учитывая тесную связь виктимного поведения и фейковых аккаунтов, потенциально виктимное поведение индивида может быть частично идентифицировано посредством обнаружения либо принадлежащих ему множественных аккаунтов, либо фейковых аккаунтов в его непосредственном окружении. Методы обнаружения таких аккаунтов на основе стилометрии апробированы неоднократно и успешно, однако, имеют некоторые проблемы масштабирования и быстродействия.

С другой стороны, анализ существующих стратегий противоборства фейкам демонстрирует недостаточность административных мер и существующих средств родительского контроля, и в то же время отсутствие гибких и способных к адаптации индивидуальных средств, предотвращающих виктимное поведение пользователя в информационном пространстве.

Основные связи, определяющие взаимодействие элементов рассматриваемой предметной области показаны на рисунке.

На схеме показано, что задача построения средств противодействия виктимному поведению индивида в информационном пространстве в настоящее время может быть сведена к следующему:

- разработать методы повышения быстродействия и масштабируемости существующих методов обнаружения фейков-двойников в масштабах глобальных сетей;

- средство, предотвращающее виктимное поведение индивида в информационном пространстве, должно быть индивидуальным, адаптивным и интеллектуальным.

Схема взаимодействия элементов предметной области и формулировка задачи

Выводы

В данной статье проведен анализ проблемной области предотвращения виктимного поведения индивида в информационном пространстве Интернет. По результатам сформирована задача построения средств противодействия виктимному поведению, включающая две основные подзадачи: повышения быстродействия и масштабируемости существующих методов идентификации акккаунтов-двойников и переход от автоматических средств контроля к адаптивным, интеллектуальным, индивидуальным средствам.

Исследование выполнено при поддержке проекта РФФИ 18-2922093 .

Список литературы

1. Франк Л.В. Виктимология и виктимность, Душанбе, 1972. 49с.

2. Ильина Л.В. Уголовно-правовое значение виктимности // Правоведение, 1975. №3. 119 с.

3. Суходолов А.П., Бычкова А.М. «Фейковые новости» как феномен современного медиапространства: понятия, виды, назначения, меры противодействия // Вопросы теории и практики журналистики, 2017. Т. 6, No 2. C.155-156.

4. Allcott H., Gentzkow M. Social media and fake news in the 2016 election // Journal of Economic Perspectives, 2017. Vol. 31(2). P. 211-236.

5. Справочный центр компании facebook [Электронный ресурс] URL: https://www.facebook.com/help/306643639690823?helpref=uf permalink (дата обращения: 02.08.2019).

6. What is a fake account? [Электронный ресурс]. URL: https://www.quora.com/What-is-a-fake-account (дата обращения: 02.08.2019).

316

7. The disturbing new cyber-bullying trend gaining popularity with students [Электронный ресурс]. URL: https://www.news.com.au /technology/online/social/the-disturbing-new-cyberbullying-trend-gaining-pop ularity-with-students/news-story/b03a9e27ef8ef00d4d9195867fc2adfd (дата обращения: 02.08.2019).

8. Students Create Fake Online Profiles to Bully Peers [Электронный ресурс]. URL: https://www.edweek.org/ew/articles/2012/04/04/27facebook.h31 .html (дата обращения: 02.08.2019).

9. The 10 forms of cyberbullying [Электронный ресурс] URL: https://cyberforpeople.com/the-10-forms-of-cyberbullying/ (дата обращения: 02.08.2019).

10. Блог security lab [Электронный ресурс]. URL: https://www.securitylab.ru/blog/personal/4trust/31449.php (дата обращения: 02.08.2019).

11. Утилиты для родительского контроля за посещаемыми детьми сайтами [Электронный ресурс]. URL: https://www.ixbt.com/soft/ parentalcon-trol.shtml (дата обращения: 02.08.2019).

12. Facebook вводит новые меры для борьбы с проблемным контентом [Электронный ресурс]. URL: https://www.searchengines.ru/fb-measures.html (дата обращения: 02.08.2019).

13. Главные проблемы Facebook [Электронный ресурс]. URL: https://texterra.ru/ blog/ glavnye-problemy- facebook-seks- nenavist- feyki.html (дата обращения: 02.08.2019).

14. ВКонтакте заблокировала более 8 миллионов единиц опасного для детей контента за 2018 год [Электронный ресурс]. URL: https://vk.com/press/press-safety (дата обращения: 02.08.2019).

15. Detect fake profiles in online social networks using Support Vector Machine, Neural Network and Random Forest [Электронный ресурс] URL: https://github.com/harshitkgupta/Fake-Profile-Detection-using-ML (дата обращения: 02.08.2019).

16. Официальный сайт портала Интернет-розыск [Электронный ресурс]. URL: httpsV/интернет-розыск.рф (дата обращения: 02.08.2019).

17. 9 Best People Search Engines for Finding Anyone [Электронный ресурс]. URL: https://www.lifewire.com/search-engines-that-top-the-web-3482269 (дата обращения: 02.08.2019).

18. Rubin V.L., Chen Y., Conroy N.J. Deception detection for news: three types of fakes // Proceedings of the Association for Information Science and Technology, 2015. Vol. 52, No. 1. P. 1-4.

19. Rubin V.L., Conroy N.J., Chen Y. Towards news verification: Deception detection methods for news discourse // in Hawaii International Conference on System Sciences, 2015.

20. Chen Y., Conroy N.J., Rubin V.L. Misleading online content: Recognizing clickbait as false news // in Proceedings of the 2015 ACM on Workshop on Multimodal Deception Detection, 2015. P. 15-19.

21. Markines B., Cattuto C., Menczer F. Social spamdetection // inPro-ceedings of the 5th International Workshopon Adversarial Information Retrieval on the Web.ACM, 2009. P. 41-48.

22. Conroy N.J., Rubin V.L., Chen Y. Automatic deception detection: Methods for finding fake news // Proceedings of the Association for Information Science and Technology, 2015. Vol. 52. No. 1. P. 1-4.

24. Vivek D.S.K.R. Singh, Rupanjal Dasgupta, Ghosh I. Automated fake news detection using linguistic analysis and machine learning // in International Conference on Social Computing, Behavioral-Cultural Modeling, & Prediction and Behavior Representation in Modeling and Simulation (SBP-BRiMS), 2017. P. 1-3.

25. Shu K., Sliva A., Wang S., Tang J., Liu H. Fake news detection on social media: A data mining perspective // ACMSIGKDD Explorations Newsletter, 2017. Vol. 19. No. 1. P. 22-36.

26. Perez-Rosas V., Kleinberg B., Lefevre A., Mihal-cea R. Automatic detection of fake news // arXiv preprintarXiv:1708.07104, 2017.

27. Mann W.C., Thompson S.A. Rhetorical structure theory: Toward a functional theory of text organization // Text-Interdisciplinary Journal for the Study of Discourse, 1988. Vol. 8. No. 3. P. 243-281.

28. Baeza-Yates R., Ribeiro-Netoetal B. Modern information retrieval. ACM press. New York, 1999. Vol. 463.

29. Rubin V.L., Lukoianova T. Truth and deception at the rhetorical structure level // Journal of the Association for Information Science and Technology, 2015. Vol. 66. No. 5. P. 905-917.

30. Rubin V.L., Conroy N.J., Chen Y. Towards news verification: Deception detection methods for news discourse // in Hawaii International Conference on System Sciences, 2015.

31. Song, J., Lee, S., Kim, J., 2015. Crowd Target: Target-based Detection of Crowdturfing in Online Social Networks, in: Proceedings of the 22Nd ACM SIGSAC Conference on Computer and Communications Security, CCS '15. ACM, NewYork, NY, USA. P. 793-804. DOI: 10.1145/2810103.2813661.

32. Adikari S., Dutta K. Identifying Fake Profiles in Linkedin, in: PACIS 2014 Proceedings. Presented at the Pacific Asia Conference on Information Systems.

33. Chu Z., Gianvecchio S., Wang H., Jajodia S. Who is Tweeting on Twitter: Human, Bot, or Cyborg? // Proceedings of the 26th Annual Computer Security Applications Conference, ACSAC '10. ACM, NewYork, NY, USA, 2010. P. 21-30. D0I:10.1145/ 1920261.1920265.

34. Stringhini G., Kruegel C., Vigna G. Detecting Spammers on Social Networks // Proceedings of the 26th Annual Computer Security Applications Conference, ACSAC '10. ACM, New York, NY, USA, 2010. P. 1-9. D0I:10.1145/1920261.1920263.

35. Cao Y., Li W., Zhang J. Real-time traffic information collecting and monitoring system based on the internet of things, in: 2011 6th International Conference on Pervasive Computing and Applications. Presented at the 2011 6th International Conference on Pervasive Computing and Applications, 2011. P. 45-49. D0I:10.1109/ ICPCA.2011.6106477.

36. Boshmaf Y., Logothetis D., Síganos G., Lería J., Lorenzo J., Ripeanu M., Beznosov K., Halawa H. Íntegro: Leveraging victim prediction for robust fake account detection in large scale OSNs. Comput. Secur., 2016. 61. P. 142— 168. D01:10.1016/j.cose.2016.05.005.

37. Egele M., Stringhini G., Kruegel C., Vigna G. Towards Detecting Compromised Accounts on Social Networks. IEEE Trans. Dependable Secure Comput.PP, 1-1, 2015. D0I:10.1109/TDSC.2015.2479616.

38. Avdoshin S., Lazarenko A. Deep Web Users Deanonimization System. Proceedings of the Institute for System Programming of the RAS, 2016. 28. P. 21-34. DOI: 10.15514/ISPRAS-2016-28(3)-2.

39. Bing Liu. Sentiment Analysis and Opinion Mining, Morgan & Clay-pool publishers, 2012.

40. Le Hoi, Safavi-Naini, Reihaneh On De-anonymization of Single Tweet Messages. 8-14, 2018. DOI: 10.1145/3180445.3180451.

41. Shaikh M., Memon N., Wiil U. Extended approximate string matching algorithms to detect name aliases // in Proceedings of the 2011IEEE International Conference on Intelligence and Security Informatics, 2011. P. 216 -219.

42. Levenshtein V. Binary Codes Capable of Correcting Deletions, Insertions and Reversals // Soviet Physics Doklady, 1966. Vol. 10.

43. Zheng R., Li J., Chen H., Huang Z. A framework for authorship identification of online messages: Writing-style features and classification techniques // J. Am. Soc. Inf. Sci. Technol., 2006. Vol. 57. No. 3. P. 378-393.

44. Stamatatos E. A survey of modern authorship attribution methods // Journal of the American Society for Information Science and Technology, 2009. Vol. 60. No. 3. P. 538-556.

45. Abbasi A., Chen H. Writeprints: A stylometric approach toidentity-level identification and similarity detection in cyberspace // ACMTrans. Inf. Syst., 2008. Vol. 26. No. 2. P. 7:1-7:29.

46. Juola P. Authorship attribution // Found. Trends Inf. Retr., 2006. Vol. 1. No. 3, P. 233-334.

47. Arvind Narayanan : 2012 Security Session [Электронный ресурс]. URL: https://forum.stanford.edu/events/2012/2012arvindnarayananinfo.php (дата обращения: 02.08.2019).

48. Hi Doppelgänger: Towards Detecting Manipulation in News Comments [Электронный ресурс]. URL: https://www.comsys.rwth-aachen.de/fileadmin/papers/2019/2019-pennekamp-doppelganger.pdf (дата обращения: 02.08.2019).

49. Bhargava Mudit, Mehndiratta Pulkit, Asawa Krishna Stylometric Analysis for Authorship Attribution on Twitter, 2013. 8302. P. 37-47. DOI: 10.1007/978-3-319-03689-2_3.

50. Ahmed Abbasi, Hsinchun Chen. Writeprints: A Stylometric Ap-proachto Identity-level Identification and Similarity Detection in Cyber-space.ACMTOIS26, 2008. 2.

51. Johansson F., Kaati L., Shrestha A. Secur Inform (2015) 4: 7. [электронный ресурс] URL: https://doi.org/10.1186/s13388-015-0022-z (дата обращения: 02.08.2019).

52. Activity Profiles in Online Social Media [Электронный ресурс]. URL: https://www.academia.edu/8161114/Activity Profiles in Online Social Media(дата обращения: 02.08.2019).

53. Cataldi M., Di L. Caro, Schifanella C. Emerging topic detection on twitter based on temporal and social terms evaluation // in Proceedings of the Tenth International Workshop on Multimedia Data Mining, 2010.

Мельник Эдуард Всеволодович, д-р техн. наук, главный научный сотрудник, anna_klimenko@,mail.ru, Россия, Ростов-на-Дону, Южный научный центр Российской академии наук,

Клименко Анна Борисовна, канд. техн. наук, старший научный сотрудник, anna_klimenko@,mail.ru, Россия, Таганрог, Научно-исследовательский институт многопроцессорных вычислительных систем им. акад. А. В. Каляева ЮФУ

STRATEGIES AND TECHNICAL MEANS FOR PREVENTING VICTIM BEHAVIOR OF USERS IN THE INFORMATION SPACE

E. V. Melnik. A.B. Klimenko

The current paper contains the comprehensive overview of the contemporary strtagies, methods and technical facilities, which prevent the victim behavior in the information space of the Internet. The up-to-date victim behavior prevention strategies are considered, including the parental control facilities and social network policies. The fake account creation is considered as the way to identify the victim behavior. Also, the analytical overview of the fake identification methods is provided. The problem of the victim behavior prevention is formulated in terms of technical methods and facilities of the Internet content analisys.

Key words: victim behavior, global networks, fake account identification, stylometry, scalability, distributed systems performance.

Melnik Eduard Vsevolodovich, doctor of technical sciences, chief researcher, an-na_klimenko@,mail. ru, Russia, Rostov-on-Don, Southern Scientific Center of the Russian Academy of Sciences,

Klimenko Anna Borisovna, candidate of technical sciences, senior researcher, an-na_klimenko@,mail. ru, Russia, Taganrog, Research Institute of Multiprocessor Computing Systems named after Acad. A. V. Kalyaev SFU

i Надоели баннеры? Вы всегда можете отключить рекламу.