Научная статья на тему 'Как определить количество информации для простейшей структуры системы'

Как определить количество информации для простейшей структуры системы Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
53
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
КОЛИЧЕСТВО ИНФОРМАЦИИ / AMOUNT OF INFORMATION / МЕРА НЕОПРЕДЕЛЁННОСТИ ИНФОРМАЦИИ / MEASURE OF UNCERTAINTY OF INFORMATION / ИНФОРМАЦИОННАЯ ЭНТРОПИЯ / INFORMATION ENTROPY / СТРУКТУРНАЯ НАДЁЖНОСТЬ СИСТЕМ / STRUCTURAL RELIABILITY OF SYSTEMS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Дулесов Александр Сергеевич, Карандеев Денис Юрьевич, Кондрат Нина Николаевна

Представлен метод определения количества информации, содержащегося в простейшей структуре технической системы. Метод применим для систем, в которых вероятностные состояния элементов рассматриваются как независимые и противоположные. Дан пример расчёта и анализ полученных результатов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Дулесов Александр Сергеевич, Карандеев Денис Юрьевич, Кондрат Нина Николаевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

How to define amount of Information for the Simplest Structure of System

The method of definition of the amount of information contained in the simplest structure of technical system is presented. The method is applicable to systems in which probabilistic conditions of elements are considered as independent and opposite. The example of calculation and the analysis of the received results is given.

Текст научной работы на тему «Как определить количество информации для простейшей структуры системы»

2. Дулесов, А. С. Мера неопределённости информации и её свойства применительно к оценке случайного поведения технического объекта / А. С. Дулесов, Н. Н. Кондрат // Научное обозрение. - 2014. - № 7. - С. 258-264.

3. Дулесов, А. С. Количество информации при наложении и пересечении элементарных событий / А. С. Дулесов, Н. Н. Кондрат // Научное обозрение. - 2014. - № 12. - С. 146-150.

4. Дулесов, А. С., Эквивалентирование количества информационной энтропии в структуре технической системы / А. С. Дулесов, Н. Н. Кондрат // Фундаментальные исследования. - 2015. - № 6 (ч. 1). - С. 14-19.

5. Дулесов, А. С. Определение количества информационной энтропии в структуре технической системы методом перебора состояний / А. С. Дулесов, Н. Н. Кондрат // Фундаментальные исследования. - 2015. - № 7 (ч. 4). - С. 745-748.

6. Вяткин, В. Б. Синергетическая теория информации. Синергетический подход к определению количества информации / В. Б. Вяткин // Научный журнал КубГАУ. - 2008. - № 44 (10) (Часть 1). - С. 1-24.

7. Колмогоров, А. Н. Три подхода к определению понятия «количество информации» / А. Н. Колмогоров // Проблемы передачи информации. - 1965. - Т. 1. №1 - С. 3-11.

8. Дулесов, А. С. «Дерево информации» и его построение на основе последовательности случайных событий / А. С. Дулесов, Н. Н. Кондрат, М. А. Прутовых // Вестник Хакасского государственного университета им. Н. Ф. Катанова. - 2013. - № 4. - С. 8-11.

© Дулесов А. С., Карандеев Д. Ю., Кондрат Н. Н., 2016

УДК 621.390

КАК ОПРЕДЕЛИТЬ КОЛИЧЕСТВО ИНФОРМАЦИИ ДЛЯ ПРОСТЕЙШЕЙ СТРУКТУРЫ СИСТЕМЫ1

А. С. Дулесов, Д. Ю. Карандеев, Н. Н. Кондрат

Хакасский государственный университет им. Н. Ф. Катанова

Представлен метод определения количества информации, содержащегося в простейшей структуре технической системы. Метод применим для систем, в которых вероятностные состояния элементов рассматриваются как независимые и противоположные. Дан пример расчёта и анализ полученных результатов.

Ключевые слова: количество информации, мера неопределённости информации, информационная энтропия, структурная надёжность систем.

Введение. В теории информации рассматривается информационная энтропия как мера неопределённости или непредсказуемости информации в случае появления какого-либо события. Если рассматривать систему, например, техническую, то в процессе её эксплуатации она меняет своё содержание, её структура изменяется, свидетельствуя об изменении информации. Количество этой информации можно определить через её меру, для этого нужна хотя бы структура системы. Сложность самой структуры, обусловленная количеством её элементов и топологией, накладывает свой отпечаток на определение искомых показателей. Если обратиться к вопросам обеспечения надёжного функционирования системы, то структура здесь играет немаловажную роль. Если произойдёт с некоторой долей вероятности разрыв связей в структуре, он окажет влияние на надёжность снабжения ресурсами самой системы и тех объектов, которые она снабжает. Поскольку появление разрывов в структуре относят к случайным процессам, то мы имеем дело с неопределённостью информации. Что даёт нам неопределённость как величина, которую можно рассчитать? Она может быть выражена в количественной форме как мера информации, с помощью которой можно решать задачи выбора наиболее информативной структуры из рассматриваемых альтернатив. Задачу выбора или «запомненного выбора» нельзя считать простейшей, поскольку речь здесь идёт о применимости вероятностно-статистической методологии учёта факторов неопределённости при наблюдении поведения системы. Здесь факторы рассматриваются как случайные, порождающие неопределённость и учитываются через вероятностные показатели. Поэтому приходится опираться на статистические характеристики.

Рассматривая структурное содержание системы на основе меры неопределённости информации, приходится, опираясь на теорию вероятностей, строить (например, согласно [1, 2]) статистический ансамбль. Если ансамбль данных готов, то далее, используя ряд математических выражений и опираясь на заданный алгоритм, можно определить количество информации, присущее рассматриваемой структуре системы. Полученные значения (в битах) позволяют судить о том, насколько информативна система, можно ли считать тот или иной вариант структуры надёжным с позиции сложности / простоты, резервирования элементов и т. п.

Методы определения количества информации. В основе вычислений лежит подход К. Шеннона, который дал определение: информация - результат выбора из возможных альтернатив. Он также предложил формулу для её определения. Последующее развитие теории информации позволило трактовать применение формулы Шеннона как возможность определения энтропии неопределённости информации.

Далее предложим метод эквивалентных преобразований структуры системы с целью определения количества информации. Разработке данного метода предшествовал ряд работ, среди которых следует выделить [3-7].

Суть метода заключается в следующем. Необходимо оценить уровень связности элементов системы, то есть насколько жёстко связаны элементы в её структуре. Пусть имеется, например, структура технической системы (участок трубопроводной, электрической, компьютерной сети). К задачам, в решении которых связность элементов имеет существенное значение, можно отнести те, которые обусловлены наличием свойств структурной надёжности системы. Следовательно, предстоит решить задачу оценки структурной надёжности системы через полученное количество информации в битах.

1 Работа выполнена при финансовой поддержке РФФИ в рамках научного проекта № 15-08-01473а

7

Опыт эксплуатации технической системы включает в себя фиксацию частоты отказов и времени восстановления каждого из элементов системы. На основе этих двух показателей (обратившись к теории надёжности) можно для каждого из элементов вычислить вероятность отказа элемента q и вероятность безотказной работы р

= 1 - q.

Составим структуру технической системы. Пусть она будет иметь вид, представленный на рис. 1, в котором каждому элементу в виде квадрата приписаны номер элемента, его вероятность работоспособного и неработоспособного состояний.

Рис. 1. Структура технической системы

Чтобы определить количество информации в системе, применим метод эквивалентирования параллельно и последовательно соединённых элементов из [7], представив тем самым всю структуру в виде одного эквивалентного элемента. При этом разделим количество информации на две качественно противоположные составляющие: информационная энтропия работоспособного и информационная энтропия неработоспособного состояний.

Представим далее пример расчёта энтропий и проанализируем результаты. Пусть известны все pi = 0.5 и qi =

0.5.

Определим величины энтропий для каждого из элементов системы:

- энтропия работоспособного состояния i-го элемента:

Н(р,) = Рг 1оЕ2 Рг = 0.51оЕ2 0.5 = 0.5; (1)

- энтропия неработоспособного состояния г-го элемента:

Щд,) = д, log2 д, = 0.5^2 0.5 = 0.5. (2)

- суммарная энтропия системы:

п п

НЕ = £ Р, Рг + £ дг 1^2 дг = г=1 г=1

4 4

= £ 0.5log20.5 + £ 0.5log20.5 = 4.0. г=1 г=1 (3)

Эквивалент энтропий одного и двух элементов, соединённых параллельно:

- энтропия неработоспособного состояния:

Н(д12) = д1Н(д2) + д2Н(д1) = 0.5*0.5 + 0.5*0.5 = 0.5; (4)

- энтропия работоспособного состояния:

Н(р12) = Н(р1) + Н(р2) + Р1Н(д2) + Р2Н(д1) = = 0.5 + 0.5 + 0.5*0.5 + 0.5*0.5 = 1.5; Эквивалент энтропий трёх и четырёх элементов, соединённых последовательно:

- энтропия неработоспособного состояния:

Н( д34) = Н(д3) + Н(д4) + д4Н( р3) + д3Н( Р4) = = 0.5 + 0.5 + 0.5*0.5 + 0.5*0.5 = 1.5;

- энтропия работоспособного состояния:

Н(р34) = р3Н(р4) + р4Н(р3) = 0.5*0.5 + 0.5*0.5 = 0.5; (7)

Полный эквивалент энтропий, соединённых последовательно:

- суммарная энтропия неработоспособного состояния:

Н( дже)=Н(дп)+Н(д34)+дй2Н( Р34) + (д3 + д4- д3д4)Н( Р12) = (8)

= 0.5 +1.5 + 0.5*0.5*0.5 + (0.5 + 0.5 -0.5*0.5)* 1.5 = 3.25;

- суммарная энтропия работоспособного состояния:

Н(Рэке ) = Р3Р4Н(Р12) + (Р1 + Р2 - Р1Р2)Н(Р34 ) = (9)

= 0.5*0.5*1.5 + (0.5 + 0.5 - 0.5*0.5)* 0.5 = 0.75.

Проверка расчётов:

НЕ = Н( рЖе) + Н(дЖе) = 0.75 + 3.25 = 4.0. Результаты также подтверждены методом перебора состояний согласно [8].

Проанализируем полученные значения. Из выражений (8) и (9) следует: структура на рис. 1 обладает более высокой информативностью в отношении её неработоспособного состояния. С точки зрения структурной надёжности, такого вида структура не обладает высоким уровнем надёжности в обеспечении потребителей энер-

горесурсами. Если рассмотреть более правдоподобные статистические данные реальных технических систем с вероятностями, например pi = 0.99 и = 1 - 0.99 = 0,01, то, выполнив аналогичный расчёт, получим: И(рэкв) = 0.186; H(qэкв) = 0.138; И^ = 0.324. Даже для реальных структур систем данного вида соотношение информаций между двумя состояниями приблизительно равно, что вновь свидетельствует о невысоком уровне структурной надёжности.

Таким образом, представленный метод расчёта посредством параллельных и последовательных эквивалентных преобразований позволяет определять количество информаций (информационных энтропий), содержащихся в простейшей структуре системы, и сопоставить структуры между собой для выбора наиболее информативной.

Библиографический список

1. Дулесов, А. С. Мера неопределённости информации и её свойства применительно к оценке случайного поведения технического объекта / А. С. Дулесов, Н. Н. Кондрат // Научное обозрение. - 2014. - № 7. - С. 258-264.

2. Дулесов, А. С. Количество информации при наложении и пересечении элементарных событий / А. С. Дулесов, Н. Н. Кондрат // Научное обозрение. - 2014. - № 12. - С. 146-150.

3. Дулесов, А. С. Информационно-энтропийный анализ наполняемости платежных терминалов / А. С. Дулесов, А. В. Лобачёва // Вестник Хакасского государственного университета им. Н. Ф. Катанова. - 2012. - № 2. - С. 84-67.

4. Дулесов, А. С. «Дерево информации» и его построение на основе последовательности случайных событий / А. С. Дулесов, Н. Н. Кондрат, М. А. Прутовых // Вестник Хакасского государственного университета им. Н. Ф. Катанова. - 2013. - № 4. - С. 8-11.

5. Дулесов, А. С. Мера неопределённости информации и её свойства применительно к оценке случайного поведения технического объекта / А. С. Дулесов, Н. Н. Кондрат // Научное обозрение. - 2014. - № 7. - С. 258-264.

6. Дулесов, А. С. Количество информации при наложении и пересечении элементарных событий / А. С. Дулесов, Н. Н. Кондрат // Научное обозрение. - 2014. - № 12. - С. 146-150.

7. Дулесов, А. С. Эквивалентирование количества информационной энтропии в структуре технической системы / А. С. Дулесов, Н.Н. Кондрат // Фундаментальные исследования. - 2015. - № 6 (ч. 1). - С. 14-19.

8. Дулесов, А. С. Определение количества информационной энтропии в структуре технической системы методом перебора состояний / А. С. Дулесов, Н. Н. Кондрат // Фундаментальные исследования. - 2015. - № 7 (ч. 4). - С. 745-748.

© Дулесов А. С., Карандеев Д. Ю., Кондрат Н. Н., 2016

i Надоели баннеры? Вы всегда можете отключить рекламу.