Научная статья на тему 'Модель анализа устойчивого управления информационной безопасностью распределённой информационной системы'

Модель анализа устойчивого управления информационной безопасностью распределённой информационной системы Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
348
56
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АНАЛИЗ / УСТОЙЧИВОСТЬ СИСТЕМЫ / МОДЕЛЬ СИСТЕМЫ / ИНФОРМАЦИОННАЯ БЕЗОПАСНОСТЬ / РАСПРЕДЕЛЁННАЯ СИСТЕМА / ANALYSIS / SYSTEM STABILITY / SYSTEM MODEL / INFORMATION SECURITY / DISTRIBUTED SYSTEM

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Тутубалин П.И., Кирпичников А.П.

В статье приводится модель анализа устойчивости распределённой информационной системы в смысле устойчивого обеспечения её информационной безопасности некоторыми средствами защиты. Предполагается, что рассматриваемая информационная система работает в режиме реального времени. На основе предложенной модели строится область функциональной безопасности распределённой информационной системы, находящейся под воздействием информационных атак противника, при этом данная задача решается из условия заданных допустимых интервалов: вероятности обеспечения информационной безопасности рассматриваемой системы, а также критерия ухудшения значения основного показателя её эффективности от вмешательства противника в процесс её функционирования. В виде строгой последовательности действий сформулирован алгоритм по реализации предлагаемой модели на практике при условии устойчивого управления информационной безопасностью распределённой информационной системы.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Модель анализа устойчивого управления информационной безопасностью распределённой информационной системы»

УДК 681.326+519.87

П. И. Тутубалин, А. П. Кирпичников МОДЕЛЬ АНАЛИЗА УСТОЙЧИВОГО УПРАВЛЕНИЯ ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТЬЮ РАСПРЕДЕЛЁННОЙ ИНФОРМАЦИОННОЙ СИСТЕМЫ

Ключевые слова: анализ, устойчивость системы, модель системы, информационная безопасность, распределённая система.

В статье приводится модель анализа устойчивости распределённой информационной системы в смысле устойчивого обеспечения её информационной безопасности некоторыми средствами защиты. Предполагается, что рассматриваемая информационная система работает в режиме реального времени. На основе предложенной модели строится область функциональной безопасности распределённой информационной системы, находящейся под воздействием информационных атак противника, при этом данная задача решается из условия заданных допустимых интервалов: вероятности обеспечения информационной безопасности рассматриваемой системы, а также критерия ухудшения значения основного показателя её эффективности от вмешательства противника в процесс её функционирования. В виде строгой последовательности действий сформулирован алгоритм по реализации предлагаемой модели на практике при условии устойчивого управления информационной безопасностью распределённой информационной системы.

Key words: analysis, system stability, system model, information security, distributed system.

The article presents a model of stability analysis of a distributed information system in the sense of sustainable provision of its information security with some means of protection. It is assumed that the information system in question is operating in real time. On the basis of the proposed model, the area offunctional security of a distributed information system under the influence of information attacks of the enemy is constructed, while this task is solved from the condition of specified allowed intervals: the probability of ensuring the information security of the system under consideration, as well as the criterion of deterioration of the main indicator of its effectiveness from enemy interference in process of its functioning. In the form of a strict sequence of actions, an algorithm is formulated to implement the proposed model in practice, provided that the information security of a distributed information system is managed reliably.

Введение

Среди открытых работ, в которых, так или иначе, затрагиваются вопросы обеспечения

информационной безопасности либо защиты информации, практически нет работ, в которых рассматриваются вопросы, связанные с устойчивым управлением требуемым уровнем информационной безопасности, то есть основная масса открытых работ не проводит апробацию уровня информационной безопасности тех или иных систем с точки зрения его устойчивого положения.

При этом наблюдается рост потребности в работах связанных с разрешением вопросов защиты информации и обеспечения информационной безопасности. Об этом можно судить по непрерывному росту работ направленных на освещение вопросов разработки, проектирования и эксплуатации тех или иных информационных систем.

Отметим некоторые из этих работ. Во-первых, можно выделить большой кластер работ посвящённых обработке графической и видео информации [1-3,14], в которых отмечается тот факт, что всё большие и большие объёмы информации необходимо хранить и обрабатывать. При этом особое место в проектировании, разработке и эксплуатации таких систем занимает предварительное практически состоятельное моделирование процессов в них протекающих [413,15,16]. Рассматриваемые в этих работах сложные системы естественно нуждаются в надёжной защите от вмешательства сторонних участников в процесс

их функционирования, а также и устойчивого обеспечения этого процесса защиты.

Естественно отметить, что во всех системах, использующих отмеченные в работах [1-16] модели и методы, необходимо применять достаточно надёжные подходы, модели и методы для обеспечения безопасности той информации, которая циркулирует и обрабатывается в этих системах. В связи с этим мы рекомендуем обратить внимание на ряд следующих работ [17-30], в которых достаточно основательно излагаются основные принципы, подходы и методы, позволяющие как существенно повысить уровень информационной безопасности той или иной системы, так и обеспечить необходимый уровень информационной

безопасности указанной системы.

В дополнение к работам [17-30] далее предложим подход к устойчивому обеспечению информационной безопасности данных в произвольных распределённых информационных системах преимущественно функционирующих в режиме реального времени.

1. Об устойчивости в классическом и управленчески значимом смысле

В классическое понимание устойчивости обычно вкладывается следующий смысл: способность возврата с течением времени системы после снятия некоторого возмущающего воздействия в состояние, в котором система пребывала до приложения означенного воздействия на неё.

Возможна ситуация, когда некоторая система Л будучи под воздействием внешних возмущений

либо же ещё и внутренних в принципе не является устойчивой в указанном смысле. Но если удаётся построить некоторую систему её управления B, которая упреждающе, и обладая достаточно высокой степенью быстродействия, оказывает такие воздействия, которые гасят возбуждающие систему Л внутренние и внешние воздействия, выводящие её из равновесия в классическом смысле слова положения, то такую систему Л \ уже вновь образовавшуюся, можно назвать устойчивой. При этом принципиально возможным такое положение дел становится в том случае, когда управление системой Л по выбранной схеме управления обеспечивается в режиме предсказания возможного её поведения в определённой мере (например, будущих состояний системы Л) под воздействием внешних управлений (среды), внутренних изменений и собственных управляющих воздействий проистекающих от построенной подсистемы управления В.

В ходе анализа и обеспечения устойчивого управления информационной безопасностью распределённой информационной системы следует придерживаться именно такого понимания устойчивости, которое приводится в предыдущем абзаце, далее, исходя из этого, строятся все рассуждения о построении модели для анализа устойчивости обеспечения информационной безопасности распределённых информационных систем.

2. Модель анализа устойчивости обеспечения информационной безопасности

Перейдём к рассмотрению модели, позволяющей анализировать и формировать устойчивое управление информационной безопасностью некоторой распределённой информационной системой.

Будем считать, что рассматриваемая система может быть подвержена атакам противника, при этом администратор информационной безопасности этой системы способен спрогнозировать характер и интенсивность этих атак.

Учитывая сказанное, перейдём к определению так называемую область функциональной безопасности данной системы.

Введём следующие обозначения: q - вероятность обеспечения информационной безопасности рассматриваемой системы, ЛЕ - возможное снижение показателя функциональной

эффективности рассматриваемой системы от вредоносных действий противника в процесс работы системы.

Выражение ЛЕ(ц) будет иметь максимальное значение ЛЕтах в том случае, когда q=0 и соответственно самое минимальное ЛЕтш при q=1. Нужно сказать, что значение величины Етш не связано напрямую с уровнем информационной безопасности системы, так как система может не выполнять свою функциональную нагрузку и по причинам далёким от информационной безопасности системы, но это влияние необходимо

учитывать и чётко определять в практических задачах. Общий вид зависимости ЛЕ(ц) приведен на рис.1.

АЕ = АЕ(ц)

0 q® q(2) 1

Рис. 1

Будем считать, что rp и ra соответственно

длительности цикла при осуществлении ручного и автоматизированного управления некоторой рассматриваемой системой. Тогда можно принять, что AEmax = Гр - га, а AEmin = е, где величина

е > Га.

Пусть для рассматриваемой системы определен интервал [AEj, AE^], смысл которого состоит в том,

что значения его составляющие соответствуют режиму нормального функционирования, допустимому уровню информационной

безопасности.

Введем в рассмотрение выражение Zc (q), характеризующее затраты ресурсов, которые должны быть сделаны для создания системы обеспечения информационной безопасности некоторой распределённой информационной системы с заданным для неё значением вероятности q.

Для того, чтобы найти оптимальное значение показателя q предлагается решить задачу следующего вида:

(AE, Z c) ^ min 0 < q <1

Множество оптимальных решений данной задачи будем строить с помощью проведения минимизации следующей линейной свертки:

L(q, d) = aAE(q) + (1 - a)Zc(q) ^ min , а e (0,1).

0<q<1

Если функции AE (q) и Zc(q) являются непрерывными и дифференцируемыми, то для указанной линейной свёртки можно записать параметрическое решение в указанном виде: 0

ц = ц(а),а е (0,1). Тогда, значения а1 и а2 можно вычислить как: а1 = ц(а) = ц(1) | и

а2 = а^{?(а) = Ц(2)}.

Соответственно сформируем интервал

[ц0(«1), ц0(«2)], из него выбирается значение

*

вероятности ц . Означенный выбор должно сделать лицо, принимающие решения, из состава персонала рассматриваемой системы и разработчиков системы

обеспечения информационной безопасности.

*

Помимо выбора компромиссного значения д выбирают значение величины +Ад, которая ограничивает гарантированный интервал

[д* -Ад,д* +Лд] с [д(1),д(2)] изменения вероятности обеспечения

информационной безопасности системы.

Уровень информационной безопасности

системы, диктуемый границами интервала **

[д -Ад,д +Лд], следует обеспечивать с помощью правильного выбора и внедрения в практику ее работы соответствующих методов и средств программной и аппаратной защиты информации.

Следует отметить, что с целью обеспечения заданного уровня информационной безопасности все выбираемые средства защиты нужно подвергать процедуре автоматизированных испытаний по методике, которая предлагается и описывается в работах [24,27,29].

Приступим к формированию модели системы, которая может находиться под непосредственным вредоносным воздействием информационных атак потенциального противника.

В ходе проведённого обзора открытых публикация было выявлено практически полное отсутствие аналогичных моделей.

На первом шаге построения такой модели ограничимся рассмотрением упрощённой функциональной модели такой системы. При этом в основу этой модели положим формализм марковских процессов, у которых множество состояний является дискретным, а также считается, что время течёт непрерывно.

Будем считать, что рассматриваемая система может находиться в следующих двух состояниях: So - система функционирует нормально, уровень её информационной безопасности оценивается как удовлетворительный; ^ - система терпит урон, находясь под воздействием некоторых информационных атак потенциального противника.

Будем считать, что поток атак можно считать приближённо пуассоновским и его можно характеризовать интенсивностью X.

В том случае, если происходит обнаружение атаки на систему, то проводятся регламентированные действия по отслеживанию ее воздействия на систему. Будем считать, что в виду того, что существует неопределенность в направлении и возможных последствиях от воздействия атаки регламентные действия будут требовать затрат времени, подчиняемых случайному закону. Для простоты первоначального описания модели будем считать, что этот закон является показательным с его характеристическим параметром д, который следует трактовать как интенсивность восстановления заданного уровня информационной безопасности системы (рис.2).

Рис. 2

Примем следующее обозначения: Р\ ^) -вероятность нахождения системы в момент времени t в состоянии Б^, 1 = (0,1). Перечисленные вероятности могут быть определены из следующей математической модели, которая строится на основе графа, который приведён на рисунке 2:

po • Ро+д • л;

pP1 = ^ • Р0 - д • Р1, t > to;

(1) (2)

P0(t) + Pl(t) = 1, t > to; (3)

P0(t0) = P00, Pl(t0) = P10 • (4)

Следующим шагом определим положение

* * *

равновесия системы p = (Po, Pi) • Для этого могут быть использованы достаточно известные подходы, в результате применения которых мы получим следующие выражения:

po(t) =

д

(

I + д

■ +

Pl(t) =

I + д

Р00'

PIO"

д

Л

I + д

I + д

• -(А.+д)а-to).

,-(А.+Д)(t-to)

(5)

Из формул (5) следует вывод о том, что точка * *

равновесия (^q,pi) системы (1)-(4) является в своём роде асимптотически устойчивой по Ляпунову, при этом она независима от значений параметров to, pqq , 1 и д.

Таким образом, можно утверждать, что система, которая описывается моделью (1)-(4) и функционирует на достаточно длинном интервале времени, не требует стабилизирующего управления устойчивостью в том смысле, который приводится в данной работе.

Непосредственно сам параметр д, который входит в модель (1)-(4), будем применять для решения задач обеспечения требуемого уровня информационной безопасности системы, который не должен выходить за границы задаваемые интервалом [q * ±Aq]. Итак, известно, что

po = .poK^ pi = лМ, Потребуем, чтобы выполнялись неравенства

следующего вида:

* * *

q -Aq < ^о(д) < q +Aq . (6)

Для выполнения неравенств (6) необходимо и достаточно, чтобы:

* * (q -Дq)l < д < (q +Дд)Х

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1 - q + Дq

1 - q - Дq

Введем следующие обозначения:

I

I

* * *

q -Aq q +Aq X • q l1 =-*-; l2 =-*-; Iх н =-

1 - q + Aq

1 - q - Aq

1 - q

(8)

Иначе неравенства (8) можно записать в относительно укороченной форме, так: /1 < (ц/Х) < /2 , на их основе удобно получается множество допустимых значений для управляющего уровнем информационной безопасности параметра ц. Это множество представлено на рисунке 3 и из него вытекает следующее: рост интенсивности X информационных атак потенциального противника на некоторую рассматриваемую распределённою информационную систему должен отражаться в росте соответствующей ей интенсивности контроля и восстановления средств информационной безопасности системы ц.

Рис. 3

Обобщим сказанное в виде последовательного алгоритма по управлению информационной безопасностью системы и в который включим следующие этапы:

1) систематические сбор, накопление и обработку данных об информационных атаках на систему, нахождение значения Хф , которое должно

характеризовать фактическую интенсивность атак на систему, при этом нахождение значения Хф должно происходить за период времени

функционирования системы;

2) определение значений щ и Ц2 интенсивности ц контроля и восстановления средств информационной безопасности системы, соответствующих граничным условиям решения поставленной задачи по формулам (7) и (8);

3) осуществление главным администратором информационной безопасности (ЛПР - лицо принимающее решение) последовательного выбора значения Цф е (щ,Ц2), при этом ЛПР должен

руководствоваться возможностями персонала системы и доступных средств обеспечения информационной безопасности;

4) нахождение последовательности 01,02,03,... временных точек контроля на предмет несанкционированного доступа в систему, а также

сопутствующего этому процесса восстановления возможного ущерба, с помощью формулы:

0Г =—— г, г = 1,2,3..., Цф

здесь ^ г - равномерно распределенное в интервале (0,1) случайное число.

На заключительном этапе предлагаемой методики предлагается для защиты информации придерживаться принципа, который основывается на некоторой стохастике [20,22,24,26,30]. Используем для этих целей функцию распределения случайной длительности временного интервала Т между двумя соседними проверками и последующим возможным восстановлением средств защиты информации системы:

F ^) = Р {Т < t} = 1 - е - цt а также будем использовать следующее условие:

F (0 г) = ^ г, г = 1,2,... для формирования набора значений 01,02,..., которые за счет этого будут распределены по показательному закону с заданным параметром распределения ц.

На наш взгляд, случайная стратегия контроля и восстановления фактического уровня

информационной безопасности системы является более эффективной по сравнению с такими детерминированными стратегиями, как

периодическая диагностика и восстановление средств информационной безопасности; контроль и восстановление средств информационной безопасности чередующими друг друга сменами администраторов информационной безопасности системы; проведение комплексной диагностики при каждой смене администраторов информационной безопасности.

Самый очевидный их недостаток в том, что потенциальный противник, зная их временные параметры, может организовать информационные атаки в тех интервалах времени в которых будет проводиться полная либо частичная проверка информационной безопасности системы.

Отметим, что для упрощения работы ЛПР на этапе 3) при выборе значения Цф е (щ,Ц2)

возможно использование результатов решения следующей оптимизационной задачи:

* хф Р*(|) - ф

min

хф +1 Ie(|1,|2) (9)

С= с| ^ min .

Ie(l1,l2)

В задаче (9) первый критерий призван для обеспечения сохранения положения равновесия рассматриваемой системы при информационных атаках потенциального противника.

*

Физический смысл величина Р1 может быть истрактован следующим образом, а именно: величина Р1* определяет среднюю долю атак, пропущенных средствами защиты информации

системы из потенциально проведенных противником.

Отметим, что в смысл параметра с, который используется во втором критерии данной задачи (9), вкладывается средняя стоимость проверки и восстановления системы при однократном нарушении состояния информационной безопасности системы. В этом случае функцию С(ц) следует трактовать как характеристику удельной стоимости проведения проверок и регламентных мероприятий по восстановлению системы, в случае заданной интенсивности атак на неё.

3. Пример подхода к обеспечению процесса

управления информационной безопасностью информационной системы

В качестве примера рассмотрим некоторый процесс управления информационной

безопасностью мобильной распределённой АСУ. К характерным особенностям данных систем относится то, что время их функционирования обычно ограничено конечным интервалом времени [% tk ], а также некоторой областью их функционирования [17,20,28]. Также они подвергаются систематическим информационным атакам, характер которых можно описать с помощью модели (1)-(4), где t е [¿0, ¿к ].

Исследуем характер функции р0 (¿), формула (5), на интервале времени [¿0, ¿к ] при следующих начальных условиях: ^0 (¿0) = Р00 и допустимость

колебания уровня информационной безопасности

*

системы в интервале [ц + Дц].

Из соотношения (5) следует, что: Ц

^00 <

1 + д

Р0(0 возрастает на интервале [¿0, tk ]. Пусть в системе сделан ориентир на номинальное управляющее воздействие, которое задаётся следующим выражением:

Дн =-

1q

1 - q

Тогда

1 + Дн В итоге получаем:

= q ; 1+Дн =-

я

Po(t) = q +

(poo - q*)

1 - q l(t-to)

q* )e 1-q , t £ [to, tk]. (10)

Отметим, что при q < poo < q + Aq функция

* *

(io) убывает. Если неравенство q -Aq < poo < q будет выполняться, то функция po(t) будет

возрастать при приращении своего аргумента. В том

**

случае, когда poo = q получим, что po (t) = q .

Поведение функции po(t) на интервале [to,tk]

*

при различных значениях poo e[q ±Aq] наглядно представлено на рисунке 4.

Итак, если нормы || x(to)|| и ||x(t)|| определять

следующим

образом:

1 poo- q |^Aq

I Р0 ^) - 4 1< А? , то вполне определённая система (1)-(4) будет технически устойчивой в описанном смысле на интервале времени [¿0, tk ].

Непосредственно значение функции в

момент времени t = tk определяются с помощью формулы (10) как выражение вида:

- X-¿0) * ^ *

Р0^к) = ц + (^00 -ц )е 1-ц

po

*

q + Aq

poo

poo = q

poo

*

q - Aq

V777ZZ777777777Z'

"Г4-- •

t > > ф

to

Рис. 4

tk

Теперь рассмотрим случай, при котором

*

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Р00 ^ ц - Ац . Здесь будет существовать некоторый интервал времени [¿0, ¿1], на котором показатель уровня информационной безопасности системы

Р0^) не будет удовлетворять заданному для него

*

уровню [ц + Ац] (рисунок 5).

q* + Aq

q - Aq

У77~Л7~77777У777~/^

to ti Рис. 5

Тогда, в этом случае, управление информационной безопасностью системы будет состоять в отыскании значения ц, которое бы обеспечило минимальную длину интервала [¿0,¿\],

1oo

и

*

t

то есть приближало бы уровень информационной

*

безопасности к величине (д +Ад) наискорейшим

образом. Но при этом также требуется, чтобы средняя стоимость мероприятий по обеспечению информационной безопасности системы была бы возможно близкой минимальной, что может быть достигнуто с привлечением следующего интегрального критерия: *к

^ (д )= |

(q + Aq) - po(t)

to

dt ^ min .

(11)

Физический смысл критерия (11) соответствует площади заштрихованной области, которая приводится на рисунке 5.

Критерий оптимизации затрат при выборе фактического значения д запишем в следующем вида:

^(д) = c(tk -^)д ^ mm . (12)

Критерий (12) достаточно адекватно отражает среднюю стоимость затрат на диагностику и восстановление информационной безопасности системы на интервале времени её функционирования [tg, tk ]. Отметим, что критерий (12) возрастает с ростом значения аргумента д.

Задача оптимизации (11),(12) может быть решена с применением формализма основанного на использовании простой линейной свертки вида:

Ь(д, а) = aWi (д) + (1 - a)W2 (д) ^ min ,

Де(ДьД2)

где а е (0,1).

Так как зависимости pg (t) и W1 (и) не отвечают условиям линейности, то задача (11),(12) должна решаться с привлечением соответствующих специальных численных методов.

Среди сложностей решения поставленной задачи можно отметить процедуру определения границ интервала (а1,а2), который используется для перебора значений параметра свертки а и, при котором искомый параметр д е (д1,д2).

Допустим, что ЛПР выбрал значение

д е(и(«1), ¿(«2)). На его основе определяется контрольная точка t1 (см. рисунок 5), до перехода которой система, от момента времени tg, заданный уровень информационной безопасности системы не достигнут.

* *

t1 = arg{po(tДф,д ) = q -Aq}. (13)

Для нахождения вероятности P(tg, t\) того, что в течение времени [tg, t1] на распределённую систему осуществятся информационные атаки, рассмотрим граф связи состояний системы, который представлен на рисунке 6.

Графу на рисунке 6 соответствует следующая модель:

pQ =-1фPQ, po(tQ) = poo . Решая задачу Коши, соответствующую этой модели, получаем следующее решение:

P0(t) = P00e

рОо, ti) = poo e

"4(t1 -t 0).

(14)

Рис. 6

где контрольная точка ti определяется из выражения (13).

В качестве рекомендации можно отметить, что показатели (13), (14) могут быть использованы для выбора дополнительных регламентных работ по обеспечению информационной безопасности на интервале времени [to, t1 ].

Выводы

1. В данной статье был представлена на наш взгляд заслуживающая внимания модель анализа устойчивости распределённой информационной системы в смысле устойчивого обеспечения её информационной безопасности некоторыми средствами защиты информации.

2. Данная модель анализа является наиболее применимой для систем, которые распределены в пространстве, содержат различные элементы и модули, как программные, так и аппаратные, способные изменять свое положение в пространстве.

3. Предложенный метод построения и анализа области функциональной безопасности распределённой информационной системы, находящейся под воздействием информационных атак противника, имеет широкую направленность его приложения на практике эксплуатации различных информационных систем. Данный метод формализован в виде алгоритма.

Литература

1. Мокшин В.В., Сайфудинов И.Р., Кирпичников А.П., Шарнин Л.М. Распознавание транспортных средств на основе эвристических данных и машинного обучения // Вестник технол. ун-та. 2Q16. Т. 19. № 5. С. 13Q-137.

2. Мокшин В.В., Кирпичников А.П., Якимов И.М., Сайфудинов И.Р. Определение транспортных средств на участках дорог классификатором Хаара и орератором LPB с применением Adaboost и отсечением по дорожной разметке / Вестник технол. ун-та. 2Q16. Т. 19. № 18. С. 148-155.

3. Мокшин В.В., Кирпичников А.П., Шарнин Л.М. Отслеживание объектов в видеопотоке по значимым признакам на основе фильтрации частиц / Вестник технол. ун-та. 2Q13. Т. 16. № 18. С. 297-3Q3.

4. Мокшин В.В., Якимов И.М. Метод формирования модели анализа сложной системы / Информационные технологии. 2Q11. № 5. С. 46-51.

5. Мокшин В.В. Параллельный генетический алгоритм отбора значимых факторов, влияющих на эволюцию сложной системы / Вестник Казан. гос. технич. ун-та им. А.Н. Туполева. 2QQ9. № 3. С. 89-93.

6. Мокшин В.В., Якимов И.М., Юльметьев Р.М., Мокшин А.В. Рекурсивно-регрессионная самоорганизация моделей анализа и контроля сложных систем / Нелинейный мир. 2QQ9. Т. 7. № 1. С. 66-76.

7. Якимов И.М., Кирпичников А.П., Мокшин В.В., Мухутдинов Т.А. Обучение имитационному моделированию в пакете Simulink системы MatLAb / Вестник технол. ун-та. 2015. Т. 18. № 5. С. 184-188.

8. Якимов И.М., Кирпичников А.П., Мокшин В.В., Аляутдинова Г.Р., Пайгина Л.Р. Имитационное моделирование бизнес-процессов в системе Bigazi Modeler / Вестник технол. ун-та. 2015. Т. 18. № 9. С. 236-239.

9. Якимов И.М., Абзалова Л.Р., Кирпичников А.П., Мокшин В.В. Краткий обзор графических редакторов структурных моделей сложных систем / Вестник Казан. технол. ун-та.2014. Т. 17. № 17. С. 213-221.

10. Якимов И.М., Кирпичников А.П., Мокшин В.В., Махмутов М.Т., Пейсахова М.Л., Валиева АХ., Низамиев БА. Структурное моделирование бизнес процессов в системах BPMN Editor, Elma,RUNAWFE / Вестник Казан. технол. ун-та.2014. Т. 17. № 10. С. 249-256.

11. Якимов И.М., Кирпичников А.П., Мокшин В.В., Костюхина Г.В., Шигаева ТА. Комплексный подход к моделированию сложных систем в среде BPWN-Arena / Вестник Казан. технол. ун-та.2014. Т. 17. № 6. С. 287-292.

12. Якимов И.М., Кирпичников А.П., Мокшин В.В. Моделирование сложных систем в среде имитационного моделирования GPSS W с расширенным редактором / Вестник Казан. технол. ун-та.2014. Т. 17. № 4. С. 298-303.

13. Якимов И.М., Кирпичников А.П., Матвеева С.В., Мокшин В.В., Фролова К.А. Имитационное моделирование сложных систем средствами ARIS TOOLSET 6 / Вестник Казан. технол. ун-та. 2014. Т. 17. № 15. С. 338-343.

14. Сайфудинов И.Р., Мокшин В.В., Кирпичников А.П. Многоклассовое обнаружение и отслеживание транспортных средств в видеопоследовательности / Вестник Казан. технол. ун-та.2014. Т. 17. № 19. С. 348-355.

15. Якимов И.М., Кирпичников А.П., Мокшин В.В. Моделирование сложных систем в имитационной среде AnyLogic / Вестник Казан. технол. ун-та. 2014. Т. 17. № 13. С. 352-357.

16. Степанова М.А., Сытник С.А., Кирпичников А.П., Мокшин В.В. Оптимизация процесса ремонта грузоподъемных машин по математической модели / Вестник Казан. технол. ун-та. 2013. Т. 16. № 20. С. 309-314.

17. Моисеев, В.С. Вероятностная динамическая модель функционирования программных средств активной защиты мобильных распределенных АСУ / В.С. Моисеев, П.И. Тутубалин // Информационные технологии. - 2013. - № 6. - С. 37-42.

18. Тутубалин, П.И. Применение компьютерных технологий в профессиональном обучении / П.И. Тутубалин, А.И. Шевченко // Образовательные технологии и общество. - 2012. - Т. 15. - № 2. - С. 433448.

19. Медведева, С.Н. Информационные технологии контроля и оценки знаний в системе дистанционного обучения Moodle / С.Н. Медведева, П.И. Тутубалин // Образовательные технологии и общество. - 2012. - Т. 15. - № 1. - С. 555-566.

20. Тутубалин, П.И. Оптимизация выборочного контроля целостности информационных систем / П.И. Тутубалин

// Информация и безопасность. - 2012. - Т. 15. - № 2. - С. 257-260.

21. Моисеев, В.С. Общая модель крупномасштабной мобильной распределенной АСУ / В.С. Моисеев, П.И. Тутубалин // Нелинейный мир. - 2011. - Т. 9. - № 8.

- С. 497-499.

22. Тутубалин, П.И. Применение моделей и методов стохастических матричных игр для обеспечения информационной безопасности в мобильных распределенных автоматизированных системах управления / П.И. Тутубалин // Нелинейный мир. - 2011.

- Т. 9. - № 8. - С. 535-538.

23. Моисеев, В.С. Основные принципы построения и задачи разработки защищенных прикладных информационных технологий / В.С. Моисеев, П.И. Тутубалин, А.Н. Козар, Г.Е. Борзов // Вестник Казан. гос. технич. ун-та им. А.Н. Туполева. - 2008. - № 4. - С. 112-116.

24. Моисеев, В.С. К задаче определения вероятностных характеристик информационной безопасности разрабатываемых автоматизированных систем управления / В.С. Моисеев, П.И. Тутубалин // Депонированная рукопись ВИНИТИ № 26-В2007 11.01.2007.

25. Моисеев, В.С. Об одном подходе к обеспечению активной защиты информационных систем / В.С. Моисеев, П.И. Тутубалин // Вестник Казан. гос. технич. ун-та им.

A.Н. Туполева. - 2011. - № 2. - С. 129-135.

26. Моисеев, В.С. К задаче маскировки конфиденциальных данных автоматизированных систем / В.С. Моисеев, В.В. Дятчин, П.И. Тутубалин // Вестник Казан. гос. технич. ун-та им. А.Н. Туполева. - 2007. - № 2. - С. 55-58.

27. Тутубалин, П.И. Основные задачи прикладной теории информационной безопасности АСУ / П.И. Тутубалин // Научно-технический вестник информационных технологий, механики и оптики. - 2007. - № 39. - С. 63-72.

28. Моисеев, В.С. Оптимизация состава вычислительного кластера мобильной распределенной интегрированной информационной системы / В.С. Моисеев, П.И. Тутубалин, Р.Р. Шафигуллин // Вестник Казан. гос. технич. ун-та им. А.Н. Туполева. - 2012. - № 1. - С. 120128.

29. Моисеев, В.С. Оценка требуемых вероятностей обеспечения информационной безопасности /

B.С. Моисеев, В.В. Дятчин, П.И. Тутубалин // Вестник Казан. гос. технич. ун-та им. А.Н. Туполева. - 2005. - № 4. - С. 36-39.

30. Моисеев, В.С. Двухкритериальная теоретико-игровая модель с заданным упорядочиванием смешанных стратегий / В.С. Моисеев, А.Н. Козар, П.И. Тутубалин, К.В. Бормотов // Вестник Казан. гос. технич. ун-та им. А.Н. Туполева. - 2005. - № 1. - С. 40-45.

31. Гремяченский, С.С., Николаев, В.И. Введение в теоретико-игровой анализ радиоэлектронного конфликта систем радиосвязи со средствами радиоподавления и некоторые оценки результатов конфликта. Воронеж: ВНИИС. 1995. - 46с.

©П. И. Тутубалин - канд. техн. наук, доцент кафедры прикладной математики и информатики КНИТУ-КАИ им А.Н.Туполева, ptyt@ya.ru; А. П. Кирпичников - д-р физ.-мат. наук, зав. каф. интеллектуальных систем и управления информационными ресурсами КНИТУ, kirpichnikov@kstu.ru.

© P. 1 Tutubalin - PhD, Associate Professor of the Department of Applied Mathematics & Informatics, KNRTU named after A.N. Tupolev, e-mail: ptyt@ya.ru; А. P. Kirpichnikov - Dr. Sci, Head of the Department of Intelligent Systems & Information Systems Control, KNRTU, e-mail: kirpichnikov@kstu.ru.

i Надоели баннеры? Вы всегда можете отключить рекламу.