УДК 004.045
ОЦЕНКА ВОЗМОЖНОСТЕЙ ИЗМЕРЕНИЯ КОЛИЧЕСТВА ЭНТРОПИИ В АНАЛИЗЕ НАДЕЖНОСТИ ТЕХНИЧЕСКИХ СИСТЕМ
Дулесов Александр Сергеевич,
профессор кафедры информационных технологий и систем
Федоренко Николай Сергеевич,
аспирант кафедры информационных технологий и систем
Байшев Анатолий Викторович,
аспирант кафедры информационных технологий и систем Хакасский государственный университет им. Н. Ф. Катанова (г. Абакан)
В статье рассматриваются возможности применения энтропии в анализе надежности технических систем. Дано обоснование необходимости в применении энтропии, используя различные области научных знаний. В частности, предлагаются к использованию модели Хартли, Шеннона и Хинчина. Их значимость связана с возможностями выполнения предварительной обработки статистических данных о состоянии надежности. Анализ структурной целостности системы и её надежности предлагается выполнить на основе свойств и разнообразий энтропии. Конечный результат анализа надежности направлен на снятие неопределенности информации в системе.
Ключевые слова: анализ надежности, мера неопределенности информации, мера вероятности, энтропия, структурная надежность, обработка информации.
ESTIMATION OF THE POSSIBILITIES OF MEASURING THE AMOUNT OF ENTROPY IN THE ANALYSIS OF THE RELIABILITY OF TECHNICAL SYSTEMS
Dulesov Aleksandr Sergeevich,
D. S., Professor, Information Technologies and Systems Department
Fedorenko Nikolay Sergeevich,
postgraduate student, Information Technologies and Systems Department
Baishev Anatoly Viktorovich,
postgraduate student, Information Technologies and Systems Department
Katanov Khakass State University (Abakan).
The possibilities of using entropy in the analysis of the reliability of technical systems are considered. The substantiation of the need for the application of entropy is given, using various areas of scientific knowledge. In particular, the models of Hartley, Shannon and Khinchin are proposed for use. Their significance is associated with the possibilities ofperforming preliminary processing of statistical data on the state of reliability. It is proposed to analyze the structural integrity of the system and its reliability based on the properties and varieties of entropy. The result of the reliability analysis is aimed at removing the uncertainty of information in the system.
Key words: reliability analysis, a measure of the uncertainty of information, measure ofprobability, entropy, structural reliability, data processing.
Введение. Четвертая промышленная революция, включающая в себя конкуренцию в области развития технологий искусственного интеллекта, предъявляет высокие требования к повышению надёжности функционирования сложных технических систем. Такая задача существовала всегда, тем не менее повышение уровня сложности объектов и требований к автоматизации процессов
не исключает внимания к воздействию нежелательных факторов природного и субъективного характера. Итог их влияния - существенные экономический и иные ущербы.
Повышение уровня надежности технических систем непосредственно связано с выполнением исследований при их проектировании и эксплуатации, обусловленных выполнением задач выбора эффективных
решений. При этом востребованы современные методы и средства анализа функционирования систем, оценки их состояния, выбора структур на стадии проектирования, которые являются сложными и ключевыми (например, применительно к электроэнергетике).
Тенденция к интеллектуализации управления объектом для обеспечения требуемого уровня надежности и снижения потерь энергии требует разработки новых решений в области системного анализа текущего состояния и выработки решений, направленных на своевременное устранение последствий нежелательного характера. Поскольку анализ надежности связан с наличием вероятностно-стохастических характеристик элементов системы, возникает вопрос о необходимости и возможностях применения измерительных систем. К их числу можно отнести меру неопределенности информации, количественная характеристика которой выражается через величину информационной энтропии.
Модели и методы, базирующиеся на возможностях применения энтропии, нашли отражение в задачах передачи данных по сетям и зарекомендовали себя с положительной стороны (о чем свидетельствует теория информации). Однако данная мера не нашла своего отражения в анализе надежности, что подтверждается предлагаемым к применению стандартом ГОСТ Р 51901.5-2005. То же самое можно сказать и о метрологии ГОСТ 1.1-2002, в котором энтропию не рассматривают в качестве меры информации. В настоящее время в зарубежных научных изданиях закладываются возможности представления метрологии в терминах эволюции, производства и флук-туаций энтропии для анализа электрических и теплофизических процессов [1]. Следова-
тельно, значимость информационной энтропии в метрологии еще предстоит подтвердить.
Системный анализ и моделирование сложных технических объектов актуален в прикладных областях, когда имеется неопределенность в описании проблемных ситуаций. Дополнительная информация, количественно характеризующая степень неопределенности, имеет большое значение в анализе надежности, который востребован при выборе высоконадежных структур системы среди возможных альтернатив, поиске слабых звеньев в структурах, выявлении факторов, оказывающих влияние на надежность объектов.
Оценка возможностей и инструментов анализа. Развитие технологий, направленных на проектирование и эксплуатацию сложных технических систем, является приоритетной задачей формирования и поддержания её жизненного цикла, где одним из факторов рассматривается надежность. Недостаточное внимание к ней ведет систему к старению, возможным отказам оборудования и авариям. Их последствия весьма ощутимы с экономической точки зрения. Например, критически низкие температуры в штате Техас в феврале 2021 года вызвали аварийное отключение огромного количества потребителей от электроэнергии. Значительные финансовые средства на восстановление системы потребовали с самих потребителей. Становится очевидным: необходимы выверенные решения по предупреждению аварий, имеющих тяжелые последствия. По существу, такого рода проблема обширна, неоднозначна, достаточно четко не определена и требует для реализации значительных ресурсов. Вполне очевидно, что данный проект - лишь малая часть затрат на решение
данной проблемы. Тем не менее включение в задачу анализа надежности выверенных решений повысит качество получаемых результатов.
Существует ряд стандартов, которые определяют ответы на вопросы, характерные для менеджмента риска, например, методы анализа, анализ видов отказов и их последствий, структурная схема надёжности, система сбора, обработки и анализа информации о надежности и др. Несмотря на, казалось бы, достаточное количество стандартов, практически все они утверждены и переутверждены до 2010 г., то есть более 10 лет назад. За этот период положено начало Четвертой промышленной революции, предъявляющей к техническим системам еще более жесткие требования к надежности. В этих обстоятельствах актуальность выработки эффективных решений обусловлена востребованностью инструментов анализа надежности, к которым можно отнести способы, методики и методы сбора, обработки и анализа информации, исследование видов отказов и их последствий, оценки состояния, выбора структуры схемы системы.
Разработка и применение инструментов анализа надежности лежит в русле развития теории кибернетики, синергетики и совершенствования теории самоорганизации систем. Несмотря на обширность этих теорий, открытым остается вопрос о роли непознанных закономерностей и процессов, протекающих на стыках взаимосвязи человека с природой. В данном направлении с позиции системного анализа и синтеза поведения систем в условиях неопределенности заметен существенный вклад ряда ученых: И. М. Гуревич - законы информатики как основа познания сложных систем; Н. А. Кузнецов - информационное взаимо-
действие в технических системах; А. Д. Урсул - природа информации; Б. Б. Кадомцев - информация физических процессов; С. М. Коротаев и Э. Х. Лийв - философские понятия об информации и энтропии; Д. С. Чернавский - информация в биологических и физических процессах; М. А. Ба-син - синергетика и энтропийные процессы в живых системах; В. Гагин - системный синтез; И. М. Гуревич - законы информатики в познании систем; Б. Б. Кадомцев - динамика и информация; А. М. Панченков -парадигма энтропии; У. Р. Эшби - принцип разнообразия систем; А. М. Хазен - мера информации; И. В. Прангишвили - энтропийные системные закономерности; А. Ю. Попков - энтропийные модели в экономике и социологии и другие. Работы упомянутых ученых можно считать основополагающими в дальнейших исследованиях, касающихся отношения субъекта управления к влиянию природы на жизненный цикл системы. В качестве неотъемлемой части упомянутых исследований, мера информации (энтропия) - неотъемлемая составляющая в процессе выполнения системного анализа.
Основополагающие исследования об энтропии получили начало в термодинамике, далее продолжили развиваться в статистической и квантовой физике. Информационная энтропия обоснована в работах Р. Хартли, К. Шеннона и является фактором её широкого применения. В свою очередь А. Хинчин предложил в теорию вероятности включить меру информации, что, на наш взгляд, является научно обоснованным и основополагающим фактором совместного применения двух мер: вероятности и энтропии.
Анализ надежности и ожидаемые положительные решения, связанные с по-
вышением качества надежности сложных технических систем, предполагают выполнение исследований в области построения математических моделей, методик и программных решений в получении достоверных результатов путем измерений. Результаты анализа могут быть получены за счет применения: меры вероятности и меры неопределенности информации; стохастических и когнитивных моделей оценки свойств и закономерностей распределения параметров объекта исследования; моделей описания состояния системы, структура которой изменяется под влиянием неблагоприятных факторов; методов решения задач о снятии неопределённости с целью сохранения высокого уровня надежности системы в процессе эксплуатации и т. д.
Энтропийный подход к измерению информации в анализе надежности. Может быть применен для закрытых систем, в которых проявление внешних и внутренних факторов характеризуется величиной информации и возможностями её обмена с окружающей внешней средой, но не веществом. Величина энтропии будет вычисляться из наличия статистики случайных величин (характеристики рассматриваемых объектов) и необходима для оценки состояния объекта, являясь как частным, так и средним уровнем информации или неопределенности, присущей результатам переменных. В основу определения энтропии может быть положены модели Р. Хартли [2] и К. Шеннона [3], а также А. Я. Хинчина [4]. С целью получения качественных значений энтропии рассматривается сигнальная система, в которой сигналы - это изменяющиеся во времени физические величины (в частности, наработка на отказ, время восстановления и планового ремонта и др.),
описываемые функцией времени. Преобразование сигналов в статистические данные предполагает:
1. Анализ показателей, с выделение аддитивного, мультипликативного или обобщенного процесса роста/падения их значений, определяющих состояние системы. Здесь применимы когнитивные модели [5], модели Реньи [6] и Тсаллеса [7], а их возможности применения видятся в универсальности обобщения данных и учете пересекающихся событий.
2. Классификацию как группировку наблюдаемых показателей в соответствии с признаками, присущими надежности. Применимы следующие методы классификации объектов: иерархический, фасет-ный и дескрипторный. Классификация предполагает вычисление дифференциальной энтропии (разделение состояния и элементов системы на работоспособное и неработоспособное).
3. Кластеризацию как группировку множества параметров на подмножества, чтобы параметры соответствовали классам по критерию надежности. Решение задачи кластеризации принципиально неоднозначно, однако имеется ряд методов, среди которых применим k-средних [8]. Уточнение полученного с его помощью результата предполагается за счет вычисления дивергенции Кульбака-Лейблера [9], что соответствует расчету относительной энтропии.
4. Выявление закономерностей распределения случайных величин. Выделение зависимости между изменениями частот и значений признаков. Применима агрегация при построении гистограммных временных рядов [10] (технология Data Mining [11]).
Структурная целостность системы, характеризуемая параметрами надежности и
значениями энтропии, математические выражения для её вычисления строятся на основе создания моделей вычисления:
- условной энтропии. Её величина представляет собой количество информации, принадлежащей объекту, состояние (исход) которого зависит от исхода другого объекта, непосредственно связанного с первым потоковым процессом, отраженным в структуре. Данная энтропия позволит оценить воздействие отказов элементов на другие элементы и систему в целом;
- совместной энтропии. Необходима для измерения неопределенности, связана с набором переменных и позволяет оценить совместные состояния элементов (последовательно и параллельно соединенных) в структуре системы;
- взаимной информации. Характеризует количество информации для двух состояний элементов, то есть является мерой взаимной зависимости между двумя переменными. Является оценкой взаимного выполнения предъявляемых к ним функций;
- условно взаимной информации. Её вычисление является мерой информации для всего спектра элементов, их возможных состояний, характеризующей состояние надежности рассматриваемых структурных связей в системе.
Полученные модели, как средства анализа надежности, должны предусматривать последующее выполнение задач о снятии неопределённости в системе. Снятие неопределенности предполагает выполнение ряда работ:
- формулировку задачи о снятии неопределенности посредством выполнения мероприятий, направленных на своевременное включение ресурсов в процесс эксплуатации для поддержания высокого уровня надежности системы;
- разработку методов решения задач о снятии неопределенности. Методы должны быть ориентированы на расчет величины энтропии и информации. В качестве исходных данных принимаются показатели надежности и энтропия, а также структура системы (распределенная, замкнутая). Рассмотрению и оценке подлежат как неремонтопригодные, так и ремонтопригодные элементы системы. Вычисляется условная энтропия по каждому объекту, когда за счет ресурсных вложений достигается значение наработки на отказ, отвечающая требованиям надежности. Рассчитывается энтропия связей в структуре, полученные значения сопоставляются с требованиями бесперебойного снабжения потребителей энергией.
Заключение. Предлагаемые к разработке и дальнейшему использованию инструменты открывают возможности и пути реализации задач, в которых применение системы измерения информации обогатит анализ надежности сложных технических объектов. Полученные (по сравнению с применяемой мерой вероятности) результаты можно считать эффективными, поскольку они позволят в полной мере учесть неблагоприятные факторы (характеризующиеся различными показателями), выявлять «слабые» элементы и связи в системе, осуществлять правильный выбор эффективных структур из имеющихся альтернатив, формировать качественные планы выполнения планово-предупредительных ремонтов (как фактор снятия неопределенности информации). По существу, применение данных инструментов не ограничивается лишь анализом надежности, поскольку при некоторой незначительной корректировке методов они могут быть адаптированы к задачам экономической и социальной сферы деятельности.
Библиографический список
1. Entropy an Open Access Journal by MDPI: Nature of Entropy and Its Direct Metrology. - Prof. Dr. Armin Feldhoff Institute of Physical Chemistry and Electrochemistry, Leibniz University Hannover, Callinstr. 3A, 30167 Hannover, Germany armin.feldhoff@ pci.unihannover.de Deadline for manuscript submissions: 28 February 2022. URL: https://www.mdpi.com/journal/entropy/special_issues/nature_entropy (дата обращения: 04.02.2021).
2. Hartley R. V. L., «Transmission of Information» // Technical Journal. July 1928. Р. 535-563.
3. Shannon C. E. A Mathematical Theory of Communication. Bell Systems Technical Journal. July and Oct. 1948 // Claude Elwood Shannon. Collected Papers. N. Y., 1993. P. 8-111.
4. Хинчин А. Я. Понятие энтропии в теории вероятностей // Успехи математических наук. 1953. Том 8. Выпуск 3 (55). С. 3-20.
5. Конт-Спонвиль Андре. Философский словарь / пер. с фр. Е. В. Головиной. М., 2012. С. 256.
6. Bromiley P. A.; Thacker N. A.; Bouhova-Thacker E. (2004), Shannon Entropy, Renyi Entropy, and Information, CiteSeerX 10.1.1.330.9856
7. Tsallis C. (1988). «Possible generalization of Boltzmann-Gibbs statistics» // Journal of Statistical Physics. № 52 (1-2): С. 479-487.
8. Steinhaus H. (1956). Sur la division des corps materiels en parties // Bull. Acad. Polon. Sci., C1. III. 1956. Vol IV. Р. 801-804.
9. Kullback S., Leibler R. A. On information and sufficiency // The Annals of Mathematical Statistics. 1951. V. 22. № 1. P. 79-86.
10. Добронец Б. С., Попова О. А. Численный вероятностный анализ неопределенных данных: монография. Красноярск: Сиб. федер. ун-т, 2014. 168 с.
11. Степанов Р. Г. Технология Data Mining: Интеллектуальный Анализ Данных. Казань, 2008, 58 с.
© Дулесов А. С., Федоренко Н. С., Байшев А. В., 2021
УДК 004.738
СРАВНИТЕЛЬНЫЙ АНАЛИЗ СЕРВИСОВ ДЛЯ ПРОВЕДЕНИЯ ВЕБ-КОНФЕРЕНЦИЙ
Карандеев Денис Юрьевич,
старший преподаватель кафедры информационных технологий и систем
Карандеева Ирина Юрьевна,
студент
Хакасский государственный университет им. Н. Ф. Катанова (г. Абакан)
В статье определяется потребность, вызванная сложной эпидемиологической ситуацией в мире, в использовании специальных сервисов для проведения научных мероприятий различного рода, в частности конференций. Проводится сравнительный анализ известных сервисов для проведения веб-конференций с учетом их достоинств и недостатков. В итоге выявляется сервис с наиболее предпочтительным для проведения веб-конференций функционалом.
Ключевые слова: веб-конференция, коронавирусная инфекция COV1D-19, дистанционное проведение научных мероприятий, BigBlueButton, ZOOM, Microsoft Teams
COMPARATIVE ANALYSIS OF WEB CONFERENCING SERVICES Karandeev Denis Jurevich,
senior lecturer, Information Technologies and Systems Department
Karandeeva Irina Yuryevna,
student
Katanov Khakass State University (Abakan)
The article defines the need caused by the complex epidemiological situation in the world to use special services for scientific events of various kinds, in particular conferences. A comparative analysis of well-known ser-