Научная статья на тему 'Модели информационного влияния и информационного управления в социальных сетях'

Модели информационного влияния и информационного управления в социальных сетях Текст научной статьи по специальности «Математика»

CC BY
2404
407
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Проблемы управления
ВАК
Область наук
Ключевые слова
СОЦИАЛЬНАЯ СЕТЬ / ИНФОРМАЦИОННОЕ ВЛИЯНИЕ / ИНФОРМАЦИОННОЕ УПРАВЛЕНИЕ / ИНФОРМАЦИОННОЕ ПРОТИВОБОРСТВО / SOCIAL NETWORK / INFORMATIONAL INFLUENCE / INFORMATION CONTROL / INFORMATIONAL CONFRONTATION

Аннотация научной статьи по математике, автор научной работы — Губанов Дмитрий Алексеевич, Новиков Дмитрий Александрович, Чхартишвили Александр Гедеванович

Формирование и динамика мнений в социальной сети смоделированы при помощи цепей Маркова. Сформулированы и решены для ряда частных случаев задачи управления мнениями агентов, образующих социальную сеть, а также теоретико-игровые задачи информационного противоборства.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Губанов Дмитрий Алексеевич, Новиков Дмитрий Александрович, Чхартишвили Александр Гедеванович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Formation and dynamics of agents' opinions in the social network are modeled by Markov chain. Problems of agents' opinions control, as well as the game-theoretical models of informational confrontation, are formulated and solved for particular cases.

Текст научной работы на тему «Модели информационного влияния и информационного управления в социальных сетях»

УДК 519.83,517.977

МОДЕЛИ ИНФОРМАЦИОННОГО влияния Н ИНФОРМАЦИОННОГО УПРАВЛЕНИЯ В СОЦИАЛЬНЫХ СЕТЯХ

Д.А. Губанов, Д.А. Новиков, А.Г. Чхартишвили

Формирование и динамика мнений в социальной сети смоделированы при помощи цепей Маркова. Сформулированы и решены для ряда частных случаев задачи управления мнениями агентов, образующих социальную сеть, а также теоретико-игровые задачи информационного противоборства.

Ключевые слова: социальная сеть, информационное влияние, информационное управление, информационное противоборство.

ВВЕДЕНИЕ

С появлением Web 2.0 [1] возрастает важность ресурсов нового типа — онлайновых социальных сетей — как средств распространения мнений, влияющих на действия пользователей сети. Например, в последней президентской избирательной компании США для данных целей Барак Обама и его сторонники широко использовали онлайновые социальные сети, что, по утверждению аналитиков, в немалой степени способствовало его победе [2].

Социальную сеть можно представить графом, вершинами которого являются индивидуумы (агенты), а ребрами — различные отношения между ними. Из социальной психологии [3, 4] известно, что мнение индивидуума в социальной сети в значительной мере определяется мнением влиятельных для него соседей. Зная это, некто за пределами сети или внутри нее для достижения своих целей может попытаться изменить мнения небольшого множества ключевых пользователей в популярных онлайновых социальных сетях (таких как Livejoumal (www.livejournal.ru), НаЬгаИаЬг (habrahabr.ru)), посредством которых произойдет распространение мнений по всей сети.

В социальной сети агенты часто не имеют достаточно информации или не могут обработать ее, решения агентов могут основываться на наблюдаемых ими решениях других агентов. Следует отметить, что несущественные изменения в решениях могут привести к крупным информационным кас-

кадным изменениям в зависимости от структуры сети (того, кто кому доверяет) [5]. Существуют модели, связанные с диффузией информации и такими информационными каскадами, в основе которых лежит некая фиксированная сеть и локальные правила взаимодействия ее членов. В том числе, известны две базовые модели: модель с линейным порогом (Linear Threshold Model) и модель независимых каскадов (Independent Cascade Model). В этих моделях узел сети может быть в двух состояниях: активном и неактивном, причем узел может перейти из активного состояния в неактивное. Если в первой модели [6] узел и испытывает влияние своих соседей w так, что £ w m 1,

^ u,v ’ v активным узел—сосед u u,v ’

и становится активным в зависимости от выбранного им порога tu е [0, 1] (в некоторых моделях значение фиксируется для всех одинаковым [7], в других моделях выбирается случайно, согласно некоторому вероятностному распределению [8] £ w > t , то во второй модели

v активным узел—соседu u,v u’ ^ «

[8, 9], когда узел и становится активным в некоторый момент времени, то он получает единственный шанс активировать на следующем шаге каждого из своих соседей v с вероятностью wuv (причем соседи могут пытаться независимо активировать и другие узлы). В статье [7] предлагается обобщение каждой из перечисленных моделей и показывается их эквивалентность. В работе [10] предлагается расширение модели на основе введения нелинейных пороговых функций; в работе [8] изучаются каскадные эффекты в аспекте топологии сети.

В настоящей работе изучается формирование и динамика мнений в социальной сети, моделируемое при помощи цепей Маркова: динамика влияний описывается марковским процессом, а мнения рассчитываются при помощи графа влияний. Выводы, полученные в рамках модели, согласуются с эвристикой: например, в группе «тесно связанных» вершин устанавливается одинаковое мнение. Формулируются и решаются для ряда частных случаев как задачи управления мнениями агентов, образующих социальную сеть, так и теоретико-игровые задачи информационного противоборства.

1. ПРЯМОЕ И КОСВЕННОЕ ИНФОРМАЦИОННОЕ ВЛИЯНИЕ

Будем описывать агентов, входящих в социальную сеть, множеством N = {1, 2, ..., n}. Агенты в сети влияют друг на друга, и степень влияния задается матрицей прямого влияния t размерности n х n, где t.. 1 0 (от англ. trust) обозначает степень доверия i-го агента j-му агенту. Здесь и далее мы будем говорить как о влиянии, так и о доверии, и считать, что эти два понятия являются противоположными в следующем смысле: выражение «степень доверия i-го агента j-му равна t..» тождественно по смыслу выражению «степень влияния j-го агента на i-го равна t..».

Доверие в социальной сети можно наглядно изображать в виде стрелок с весами, соединяющих вершины. Например, стрелка от i-го агента к j-му с весом t.. (рис. 1) означает соответствующую сте-

i.

пень доверия.

Будем считать, что агент i достоверно знает только «свою» (i-ю) строчку матрицы t = ||t..|| — ко-

i.

му и насколько он доверяет.

Будем считать выполненным условие норми-

П

ровки: Vi е N у t.. = 1, т. е. предположим, что i.

} = 1

Рис. 1. Прямое (непосредственное) доверие

Рис. 2. Косвенное доверие (влияние)

«суммарное доверие» агента равно единице. Это условие означает, что матрица t является стохастической [11]. Отметим, что 1-й агент может доверять и самому себе, чему соответствует tii > 0.

Если 1-й агент доверяет j-му, а j-й доверяет к-му (рис. 2), то это означает следующее: к-й агент косвенно влияет на /-го (хотя последний может даже не знать о его существовании).

Это соображение побуждает к поиску ответа на вопрос о том, кто в итоге формирует мнение в социальной сети.

2. ФОРМИРОВАНИЕ И ДИНАМИКА МНЕНИЙ АГЕНТОВ

Пусть у каждого агента в некий начальный момент времени имеется мнение по некоторому вопросу, мнение i-го агента отражает вещественное число b.. Мнение всех агентов сети отражает вектор-столбец мнений b (от англ. belief) размерности п.

Агенты в социальной сети взаимодействуют, обмениваясь мнениями. Этот обмен приводит к тому, что мнение каждого агента меняется в соответствии с мнениями агентов, которым данный агент доверяет. Будем считать это изменение линейным, т. е. мнение агента в следующий момент времени представляет собой взвешенную сумму мнений агентов, которым он доверяет (весами служат степени доверия t..): j

b(k) = у t b(k -1} bl у lij bj ,

где индекс к означает момент времени.

Нетрудно убедиться, что в векторной записи первое измененное мнение агентов равно произведению матрицы непосредственного доверия на

вектор начальных мнений: b(1) = tb. Если обмен мнениями продолжается и далее, то вектор мне-

(2) 2 (3) 3

ний агентов становится равным b = t b, b = t b

и т. д.

Если взаимодействие агентов продолжается достаточно долго, то их мнения стабилизируются — сходятся к результирующему мнению B = lim b(n)

П ^ ю

(об условиях существования предела см. далее).

Будем называть матрицей результирующего влияния предел T = lim tn (об условиях существования

П ^ ю

предела см. далее). Тогда можно записать соотношение B = Tb, где b — вектор начальных мнений, T — матрица результирующего влияния, B — вектор итоговых мнений.

Структуру косвенного доверия (влияния) также удобно изображать в виде ориентированного графа

Рис. 3. Преобразование прямых доверий (а) в результирующее (б)

(агенты — вершины), где стрелками обозначено доверие агентов (стрелка идет от агента к тем агентам, кому он доверяет; если степень доверия равна нулю, то стрелка не проводится).

Пример 1. Пример преобразования прямых доверий (влияний) в результирующие приведен на рис. 3.

На рис. 3, б видно, что все доверие агентов сети сосредоточено на двух агентах с номерами 3 и 6. Именно эти два агента, по сути, определяют мнение в данной социальной сети. ♦

Чтобы описать структуру результирующего доверия (влияния) в общем случае нам понадобятся некоторые понятия, определению которых посвящен следующий параграф данной статьи.

3. ГРУППЫ И СООБЩЕСТВА

Назовем сообществом множество агентов, которые не подвергаются влиянию агентов вне него. Формально, сообщество — это подмножество Б с N такое, что V/ е Б V] е N\Б (t.. = 0). Обозначим через

ц

X множество таких подмножеств.

Назовем группой сообщество агентов, которые взаимодействуют таким образом, что каждый агент влияет или подвергается влиянию каждого другого агента группы прямым или косвенным образом. Формально, группа — это «минимальное» сообщество, т. е. такое, внутри которого нельзя выделить никакое другое сообщество, т. е. множество

О е Xтакое, что е X (Б с О).

Спутник — агент, подвергающийся влиянию агентов тех или иных групп, однако не оказывающий влияния ни на одну из них (ни на одного из агентов ни одной из групп). Это агент, не входящий ни в одну из групп.

Таким образом, каждый агент либо принадлежит ровно одной группе, либо является спутни-

ком. В то же время, агент может принадлежать нескольким «вложенным» друг в друга сообществам.

На рис. 4 выделены группа, сообщество и спутники в социальной сети примера 1. Здесь имеется единственная группа, включающая в себя агентов 3 и 6; остальные агенты являются спутниками.

4. СТРУКТУРА РЕЗУЛЬТИРУЮЩИХ ВЛИЯНИЙ

Для описания структуры результирующих влияний мы используем известные результаты, полученные при исследовании конечных цепей Маркова (см., например, работы [12, 14 (гл. VIII)]). Для этого установим соответствие между введенными нами понятиями и понятиями теории марковских цепей следующим образом:

агент — состояние марковской цепи; степень доверия — вероятность перехода из одного состояния в другое;

матрица прямых доверий — матрица переходных вероятностей;

косвенное доверие — достижимость;

Рис. 4. Сообщество, группа и спутник социальной сети примера 1

Группы

Спутники

Рис. 5. Структура графа результирующих влияний

группа — неразложимый класс существенных состояний;

спутник — несущественное состояние.

Далее, будем считать выполненным следующее условие 1: в каждой группе существует хотя бы один агент i е N, для которого tu > 0. Иными словами, в каждой группе хотя бы один агент хоть сколько-нибудь доверяет своему мнению.

В этом случае каждой группе соответствует (в теории марковских цепей) неразложимый апериодический класс. Поэтому справедливы следующие утверждения, являющиеся следствием известных фактов в теории цепей Маркова (подчеркнем, что условие 1 здесь и далее будем считать выполненным).

Утверждение 1. Существует матрица результирующих влияний — предел T = lim tn.

П ^ ю

Утверждение 2. Мнения агентов стабилизируются, т. е. существует предел B = lim b(n).

П ^ ю

Утверждение 3. Результирующее влияние любого спутника на любого агента равно нулю. Это, в частности, означает, что начальные мнения спутников не оказывают никакого влияния на итоговые мнения каких-либо агентов.

Утверждение 4. В матрице результирующих влияний строки, соответствующие членам одной группы, совпадают. Это, в свою очередь, означает, что совпадают итоговые мнения агентов, т. е. каждая группа имеет общее мнение (которое можно считать мнением группы). ♦

Отметим, что утверждение 4 соответствует наблюдениям социальных психологов: в группе ее участники, испытывая информационное влияние, приходят к консенсусу [3].

Таким образом, структура результирующих влияний в социальной сети выглядит следующим

образом (рис. 5). Имеется некоторое число групп, в каждой из которых итоговые мнения агентов совпадают. Остальные агенты являются спутниками, их итоговые мнения полностью определяются мнением одной или нескольких групп.

В заключение данного параграфа обсудим вопрос информированности самих агентов о создавшейся ситуации. Знает ли агент, является ли он членом одной из групп либо спутником?

Логично считать, что каждый агент в каждый момент времени знает свое мнение, мнение тех агентов, кому он доверяет, а также степень своего доверия каждому их них (здесь идет речь о прямом доверии). Если агент знает, что его итоговое мнение не совпадает с мнением тех, кому он доверяет, то он является спутником и знает это. В то же время, если итоговые мнения агента и тех, кому он доверяет, совпадают, то агент может быть как членом группы, так и спутником.

5. ПРИМЕРЫ ФОРМИРОВАНИЯ И ДИНАМИКИ МНЕНИЙ АГЕНТОВ

В данном параграфе мы рассмотрим несколько модельных примеров, иллюстрирующих формирование мнений агентов.

Начнем с «предельных» случаев.

Пример 2. Пусть имеется агент г е Л, который доверяет только самому себе: V/ ф №.. = 0, ^ = 1. Мнения

такого агента меняться во времени не будут: Ь® = Ь, к = 0, 1, ... ♦

Пример 3. Пусть имеется агент, который доверяет в некоторой (отличной от нуля) степени всем остальным агентам, которые все имеют одно и то же мнение и никому, кроме себя, не доверяют. Тогда мнение этого агента со временем будет стремиться ко мнению других агентов, которое меняться не будет. ♦

Пример 4. Пусть имеются два агента, каждый из которых полностью доверяет оппоненту У12 = = 1).

Тогда введенное выше условие 1 не имеет места, и будут наблюдаться колебания мнений агентов с периодом 2. ♦

Пример 5. Пусть имеются два агента и ситуация симметрична: гп = г22 < 1. Начальные мнения агентов —

0 и 1. Результирующее мнение будет единым и равным 0,5, причем максимальная «скорость сходимости» будет иметь место при ^ + 121 = 1. ♦

Пример 6. Пусть социальная сеть — связный граф, а степени доверия всех агентов друг другу одинаковы. Тогда результирующее мнение будет единым для всех агентов и равным среднему арифметическому их начальных мнений. ♦

Содержательные интерпретации рассмотренных «предельных» случаев прозрачны.

Пример 7. Пусть имеются три агента, каждый из которых в некоторой степени доверяет себе и другим. Начальные мнения агентов различны. Тогда мнения агентов будут сходиться, и результирующее мнение будет единым для всех агентов. ♦

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Иллюстрацией данного вывода служит эксперимент Шерифа. Приведем его описание согласно работе [4]. «Вы сидите в темной комнате, и в 4,5 метрах от вас появляется светящаяся точка. Затем она передвигается в течение нескольких секунд, после чего исчезает. А вам нужно ответить на вопрос, на какое расстояние она сместилась. И вы начинаете гадать: «Может быть, сантиметров на 15». Все ваши последующие ответы колеблются вокруг цифры «20». На следующий день, вернувшись в лабораторию, вы оказываетесь в обществе ещё двух испытуемых, которые накануне, как и вы, наблюдали за светящейся точкой поодиночке. Когда заканчивается первая процедура, ваши товарищи предлагают свои ответы, исходя из уже имеющегося у них опыта. «2,5 сантиметра», — говорит первый. «5 сантиметров», — говорит второй. Несколько растерявшись, вы, тем не менее, говорите: «15 сантиметров». Если процедура будет повторяться в том же составе и в течение этого дня, и в течение двух последующих дней, изменится ли ваш ответ? Ответы участников эксперимента Шерифа... изменились весьма существенно... оценки сближались ...обычно складывалась некая групповая норма. Она не соответствовала действительности. Почему? Потому что световая точка вообще не двигалась».

Пример 8. Пусть имеются шесть агентов, пятеро из которых доверяют только себе, а шестой доверяет себе и в некоторой степени всем остальным. Начальные мнения пяти агентов — 0, шестого — 1. Тогда мнение шестого агента со временем будет стремиться к мнению других агентов — 0, которое меняться не будет. ♦

Иллюстрацией данного вывода служит эксперимент Аша. Приведем его описание [4]. «Вы сидите шестым в ряду, в котором всего семь человек. Сначала экспериментатор объясняет вам, что все вы принимаете участие в исследовании процесса восприятия и связанных с ним суждений, а затем просит ответить на вопрос: какой из трех отрезков прямой равен по длине стандартному отрезку? Вам с первого взгляда понятно, что стандартному отрезку равен отрезок № 2. Поэтому нет ничего удивительного в том, что все пять человек, которые ответили до вас, сказали: «Отрезок № 2». Следующее сравнение проходит столь же легко ... Однако третий раунд очень удивляет вас. Хотя правильный ответ кажется таким же бесспорным, как и в первых двух случаях, первый отвечающий дает неверный ответ. А когда и второй говорит то же самое... Четвертый и пятый соглашаются с первыми тремя. И вот взгляд экспериментатора устремлен на вас. Вы испытываете то, что называется «эпистемологической дилеммой»: «Как мне узнать, кто прав? Мои товарищи или мои глаза?» В ходе экспериментов Аша в подобной ситуации оказывались десятки студентов. В целом 37 % ответов оказались

«конформными» (или следует сказать, что в 37 % случаев испытуемые «полагались на других»?).

Таким образом, выводы примеров 7 и 8 соответствуют практическому опыту и наблюдениям социальных психологов.

6. ЗАДАЧА ИНФОРМАЦИОННОГО УПРАВЛЕНИЯ

Имея «основное уравнение»

В = ТЬ, (1)

связывающее начальные и итоговые мнения агентов, можно ставить и решать задачу управления — воздействия на агентов социальной сети с целью формирования требуемых их мнений. Для сохранения аддитивности модели будем считать, что управляющему органу (центру) известна матрица влияния (доверия), а управляющее (информационное) воздействие заключается в изменении центром начальных мнений агентов путем «добавления» вектора управлений и е Шп. Содержательно, управление заключается в изменении мнения /-го агента с Ь} на Ь} + и., / е N.

Предположим, что и1 е и1, / е N (подобное ограничение имеет прозрачные содержательные интерпретации). Обозначим и = П и.

i е N

Тогда итоговые мнения будут определяться следующим уравнением:

Ви = Т(Ь + и) (2)

или в покоординатном виде: В . = V Т..(Ь. + и) =

и 4 3 }

3 е N

= V Т..Ь. + V Т..и, / е N т. е. результирующее

У 3 У 3

3 е N } е N

мнение агента, сложившееся в результате информационного управления, является суммой его «невозмущенного» результирующего мнения V ТцЬ}

} е N

и изменений V Т..и, вызванных управляющими

и 3

} е N

воздействиями.

Обратим внимание, что в силу уравнения (2) «стабильное» состояние социальной сети линейно по управлению! Отметим также, что в соответствии с уравнениями (1) и (2) «стабилизация» или «нестабилизация» мнений зависит только от матрицы доверия и не зависит от начальных мнений агентов (и, следовательно, от управлений).

Пусть целевая функция центра Ф(Ви, и) — критерий эффективности управления — зависит от итоговых мнений агентов и вектора управлений. Тогда задача управления будет заключаться в вы-

боре допустимого вектора управлений, максимизирующего критерий эффективности:

Ф(Т(Ь + u), u) ^ max.

и є U

(3)

В соответствии с утверждением 3 воздействовать на мнения спутников не имеет смысла, поэтому можно априори (имея только матрицу доверия) сказать, на каких агентов должно быть нацелено информационное воздействие.

В целевой функции центра можно, следуя традиции теории управления организационными системами [15], выделить две аддитивные компоненты: Ф(ВЦ, u) = H(Bu) — c(u), где #(•) — «доход»

центра, зависящий от итоговых мнений агентов1, c(^) — затраты на осуществление управляющих воздействий (может быть, целесообразно в некоторых моделях считать, что c = c(b, u)).

Пример 9. Если условно считать, что мнения агентов отражают степень их «убежденности» в том, в чем их хотел бы убедить центр (поддержать того или иного кандидата на выборах, приобрести определенный товар, принять определенное решение и т. д.), то примерами функции дохода центра H( •) могут служить:

- У B — «среднее мнение» коллектива агентов;

n i е N

У A,;Bui — «взвешенное» (X / 1 0, У X. = 1) мнение

i е N i е N

коллектива агентов;

na = \{i е N: Bui 1 а}| — число агентов (в случае пороговых голосований может использоваться их доля), мнение которых превышает пороговое значение а е [0; 1]; minB . — «наихудшее» из мнений агентов и т. д. —

i е N u i

в зависимости от содержательной постановки задачи. ♦

Пример 10. Пусть H(Bu) = - У Bui , а затраты цент-

u n i е n

ра однородны и линейны по управляющим воздействиям: c(u) = ß У u. (содержательно, ß — стоимость

i е N

единичного изменения мнения любого агента), причем ресурсы центра ограничены величиной R 1 0:

ß У и. < R.

i e N

(4)

Задача управления (3) примет вид следующей задачи линейного программирования:

1 ((У УТА + УУ тл) - ß У Щ ^

n ^ i e N j e N i e N j e N

^ max . {Щ > 0},(4)

i e N

(5)

1 В рамках теории рефлексивных игр [16] считается, что действия субъектов определяются их информированностью. Поэтому, считая эту зависимость известной, можно от предпочтений центра, зависящих от действий агентов (что представляется естественным), перейти к его предпочтениям, зависящим от информированности (т. е. мнений) агентов.

Обозначая F . = - У T.., je N, запишем выраже-

1 n i е N 1

ние (5) в виде:

У (F - ß)u. ^ max .

j e N J J {Ui> 0},(4)

(6)

Решение задачи (6) очевидно — следует весь ресурс вкладывать в изменение мнения агента, для которого величина Ж максимальна. Содержательно это решение интерпретируется следующим образом. Величина Ж. отражает среднюю степень доверия всех агентов /-му агенту. Назовем эту характеристику влиятельностью агента. Весь ресурс следует расходовать на воздействие на того агента, которому больше всего доверяют другие агенты.

Полученное свойство решения задачи (5) обусловлено тем, что в ней, как в задаче линейного программирования, всего одно ограничение (4). Можно усложнить ситуацию, предположив, что и( = [0; Л;]. При достаточно малых величинах {Л;} (например, не превышающих пороги обнаружения внешних воздействий агентами или некоторой системой защиты) данную модель можно интерпретировать как отражающую так называемое скрытое управление (см. его содержательные примеры в работах [17, 18]). Тогда решение соответствующего аналога задачи (6) будет следующим — выделять агентам, упорядоченным по убыванию величин Ж, «ресурс» в максимальном количестве до тех пор, пока не станет существенным ограничение (4). При этом последний из агентов, среди получивших ресурс, может получить его в объеме, меньшем максимально для него возможного. ♦

В заключение настоящего параграфа перечислим ряд перспективных направлений дальнейших исследований задачи управления мнениями агентов, входящих в социальную сеть.

• Задачу, рассмотренную в примере 11, можно обобщать в различных направлениях, содержательно соответствующих тем или иным постановкам задач медиапланирования (в том числе — выбора оптимального набора информационных мероприятий) и распределения информационных ресурсов в рекламе, маркетинге, информационных войнах, обеспечении информационной безопасности и т. д. [16, 19, 20].

• Целесообразно рассмотрение более сложных, нежели (1) и (2), в том числе — нелинейных, зависимостей, отражающих изменение мнений агентов под влиянием других агентов и центра (см. классификацию «сетей» в статье [21]).

• Для агентов по матрице Т можно вычислять их «индексы влияния» и другими способами, отличными от определенной выше «влиятельности» [22—24], и по этим индексам в рамках тех или иных эвристик или точных решений судить, на кого из агентов надо, в первую очередь, воздействовать.

• Представляет интерес решение задачи управляемости — определения множества состояний

и Ви, в которое может быть переведена система

и е и и

при заданных ограничениях на управление.

• В силу «аддитивности» (2) по управлению, можно ставить и решать динамические задачи выработки оптимальной последовательности информационных воздействий.

• Прозрачные содержательные интерпретации имеет обратная задача — определения множества управляющих воздействий (или «минимальных» ограничений на них), обеспечивающих достижение системой заданного состояния (или их множества), т. е. формирование требуемых мнений агентов. Если цель состоит в формировании вектора В * результирующих мнений, то из уравнения (2) следует, что соответствующее управление должно удовлетворять соотношению

u(B*) = T-lBn, - b.

(7)

При решении задачи (7) могут возникнуть трудности, вызванные вырожденностью матрицы Т [11], для преодоления которых возможно применять методы регуляризации [25].

И, наконец, в рамках предложенной модели можно ставить и решать задачи определения оптимальных вариантов защиты от информационных воздействий на агентов, образующих социальную сеть.

7. ТЕОРЕТИКО-ИГРОВАЯ МОДЕЛЬ ИНФОРМАЦИОННОГО ПРОТИВОБОРСТВА

Пусть существует множество игроков, имеющих возможность влиять на начальные мнения агентов и заинтересованных в формировании определенных их итоговых мнений. Опишем возникающую между ними игру.

Обозначим: М = {1, 2, ..., т} — множество игроков, и.. е и3 = [—г,.,.; Л,-] — действие у-го игрока по и у и и

изменению мнения /-го агента, г.., Я--1 0, и = ||и..||,

I] I] II

и, = (Ui

if i ¿—i if

i e N j e M

u.„ u =

= (u,, u2, ..., un) — вектор «воздействий», g(B):

12 п J

Жп ^ — целевая функция j-го игрока, i е N, j e M.

Будем считать, что воздействия игроков на мнение каждого из агентов аддитивны. Тогда из уравнения (2) следует, что итоговое мнение

в,(и) = 2 т, ь, + 2 и,,

i, ,

j e N L 7 k e M

= 2 Ti,b, + 2 Ti, 2 u,

j e N j e N k e M

j

i e N.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Отметим, что каждый из игроков в общем случае имеет возможность влиять на начальные мнения всех агентов (в случае отсутствия такой воз-

можности следует положить нижнюю и верхнюю границы соответствующего множества и., допустимых действий равными нулю).

Обозначая в(и) = ^(В^и), В2(и), ..., Вп(и)),у е М, и считая, что игроки выбирают свои действия однократно, одновременно и независимо, получим игру Г = (М, {Ц^-еМ, {^(О^м) в нормальной форме, определяемую заданием соответственно множества игроков, их множеств допустимых действий и целевых функций [13]. Имея игру в нормальной форме, можно исследовать ее равновесия, определять «на ней» кооперативные, повторяющиеся и другие виды игр [13] (см. классификацию в статье [21]).

Пример 11. Пусть целевые функции игроков линейны: Е.(В) = I «А /• е М. Подставляя в целевые функ-

7 г е N

ции выражение (2), получим:

Щи) = I I 7 + I ай I Т. I и I е М.

г е N ] е М 11 г е N ] е N к е М 7

От выбранных игроками действий зависит только второе слагаемое. Обозначим у.. = I ай77, I е М. В си-

7 г е N 7

лу линейности целевых функций игроков по их действиям, в рассматриваемой игре существует равновесие в доминантных стратегиях ий [13], когда 1-й игрок будет выбирать независимо от других игроков действие,

максимизирующее величину I у.и;7, т. е.:

] Е М 11

d Г-rjb если у,.-< 0

Uß = Г / j . j е N, l е M. (8)

1 R., если yij > 0

Содержательно выражение (8) означает, что каждый игрок осуществляет на каждого агента максимально возможное воздействие, знак которого зависит от того, к каким итоговым изменениям мнения этого агента приведет данное воздействие («ценности» этих изменений для игроков определяются величинами {у.}). ♦

Пример 12. Пусть имеются два игрока, преследующих несовпадающие цели. Перенумеруем агентов таким образом, что первый игрок имеет возможность влиять на начальное мнение первого агента, а второй игрок — второго агента. Обозначим эти аддитивные воздействия и1 е и1 и и2 е и2 соответственно.

Тогда, в соответствии с уравнением (2), результирующие мнения агентов имеют следующий вид:

В-Ц, и2) = I Т.Ъ. + ГцЩ + Гаи2, I е N. (9)

] Е N

Обозначим В(и1, и2) — вектор мнений агентов с

компонентами (9). Равновесие Нэша (и\, и\) имеет вид:

Уи1 е и^(В(и\, и*2)) > Е1(В(и1, и*2)),

Уи2 е и^2(В( и\, и2)) > g2(B( и\, и2)).

В силу достаточно простой аддитивной зависимости (9) результирующих мнений агентов от управлений

u

(действий игроков), можно рассматривать на базе данной модели игры с фиксированной последовательностью ходов (иерархические игры) [13], содержательно интерпретируемые как игры «нападение-защита».

Рассмотренная в настоящем примере модель легко обобщается на случай, когда каждый из игроков может воздействовать на начальные мнения любого множества агентов. ♦

Пример 13. Пусть имеются два игрока, каждый из которых имеет возможность влиять на начальное мнение одного из агентов из множеств N с N и И2 с N соответственно, причем N1 п N2 = 0. Тогда действия игроков будут заключаться в выборе, на кого из «управляемых» ими агентов воздействовать. Так как множества возможных действий в этом случае конечны, то, рассчитав соответствующие выигрыши, получим стандартную биматричную игру [13], в которой можно аналитически искать равновесие в чистых и (или) смешанных стратегиях. ♦

ЗАКЛЮЧЕНИЕ

В настоящей работе, носящей во многом постановочный характер, рассмотрено информационное влияние агентов на формирование мнений друг друга в социальных сетях. Введены понятия сообществ, групп и спутников. С помощью результирующей структуры влияний (в которой спутники испытывают влияние только со стороны групп и в любой группе которой агенты сходятся в оценке степени авторитетности любого из агентов группы) доказано, что мнения спутников определяются мнением групп, а в группах мнения стабилизируются и равны. Приведены постановки задач информационного управления в социальных сетях и задач теоретико-игрового описания информационного противоборства.

Перспективным представляется исследование вопроса, как распространение информации сказывается на структуре влияний и мнений, а также дальнейшее развитие моделей информационного управления и противоборства.

ЛИТЕРАТУРА

1. O’Reilly, T. What Is Web 2.0. — URL: http://www.oreillynet. com/pub/a/oreilly/ tim/news/2005/09/30/what-is-web-20.html (дата обращения 30. 09. 2005).

2. The Internet and the 2008 Election. — URL: http:// pewinternet.org/pdfs/ PIP_2008_election.pdf (дата обращения декабрь 2008).

3. Кричевский Р., Дубовская Е. Психология малой группы: теоретический и прикладной аспекты. — М.: Изд-во МГУ, 1991.

4. Майерс Д. Социальная психология. — СПб.: Питер, 2002.

5. Watts D., Dodds P. Influentials, Networks, and Public Opinion Formation // Journal of Consumer Research. — December, 2007. — P. 123—134.

6. Granovetter M. Threshold Models of Collective Behavior // The American Journal of Sociology. — 1978. — Vol. 83, N 6. — P. 1420—1443.

7. Kempe D., Kleinberg J., Tardos E. Maximizing the Spread of Influence through a Social Network / Proc. of the 9-th ACM SIGKDD Intern. Conf. on Knowledge Discovery and Data Mining, Washington, DC, 2003. — P. 137—146.

8. Morris S. Contagion // The Review of Economic Studies. — 2000. — Vol. 67, N 1. — P. 57—78.

9. Goldenberg J., Libai B., Muller E. Talk of the network: A complex systems look at the underlying process of word-of-mouth // Marketing Letters. — 2001. — N 2. — P. 11—34.

10. Rolfe M. Social networks and threshold models of collective behavior / Preprint. — Chicago: University of Chicago, 2004.

11. Гантмахер Ф.Р. Теория матриц. — М.: Наука, 1966.

12. Кемени Дж., Снелл Дж. Конечные цепи Маркова. — М.: Наука, 1970.

13. Губко М.В., Новиков Д.А. Теория игр в управлении организационными системами. — М.: СИНТЕГ, 2003.

14. Ширяев А.Н. Вероятность / В 2-х кн. — М.: МЦНМО, 2004.

15. Новиков Д.А. Теория управления организационными системами. — М.: Физматлит, 2007.

16. Новиков Д.А., Чхартишвили А.Г. Прикладные модели информационного управления. — М.: ИПУ РАН, 2004.

17. Доценко Е.Л. Психология манипуляции: феномены, механизмы и защита. — М.: ЧеРо, 2000.

18. Почепцов Г.Г. Информационно-психологическая война. — М.: СИНТЕГ, 2000.

19. Информационная безопасность систем организационного управления / Н.А. Кузнецов, В.В. Кульба, Е.А. Микрин и др. — М.: Наука, 2006.

20. Новиков Д.А., Чхартишвили А.Г. Рефлексивные игры. — М.: СИНТЕГ, 2003.

21. Новиков Д.А. «Когнитивные игры»: линейная импульсная модель // Проблемы управления. — 2008. — № 3. — С. 14—22.

22. Влияние и структурная устойчивость в Российском парламенте (1905 — 1917 и 1993 — 2005 гг.) / Ф.Т. Алескеров, Н.Ю. Благовещенский, Г.А. Сатаров и др. — М.: Физмат-лит, 2007.

23. Felsenthal D., Machover M. The measurement of voting power: Theory and practice, problems and paradoxes. — London: Edward Elgar, 1998.

24. Shapley L.S., Shubik M. A method for Evaluating the Distribution of Power in a Committee System // American Political Science Review. — 1954. — Vol. 48(3). — P. 787—792.

25. Тихонов А.Н., Арсенин В.Я. Методы решения некорректных задач. — М.: Наука, 1986.

Статья представлена к публикации членом редколлегии В.В. Кульбой.

Губанов Дмитрий Алексеевич — аспирант, ®(495) 334-90-51,

И [email protected],

Новиков Дмитрий Александрович — чл.-корр. РАН, д-р техн. наук, зам. директора, ®(495) 334-75-69,

И [email protected],

Чхартишвили Александр Гедеванович — д-р физ.-мат. наук, вед. науч. сотрудник ®(495) 334-90-51, И [email protected],

Институт проблем управления им. В.А. Трапезникова РАН, г. Москва.

i Надоели баннеры? Вы всегда можете отключить рекламу.