Научная статья на тему 'Кодирование диагностической информации в автоматизированной системе диагностирования'

Кодирование диагностической информации в автоматизированной системе диагностирования Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
83
13
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Кодирование диагностической информации в автоматизированной системе диагностирования»

УДК 621. 316. 925

И.С. Кричман

КОДИРОВАНИЕ ДИАГНОСТИЧЕСКОЙ ИНФОРМАЦИИ В АВТОМАТИЗИРОВАННОЙ СИСТЕМЕ ДИАГНОСТИРОВАНИЯ

Для компактной записи результатов моделирования устройств РЗА в ТФН методы кодирования и сжатия информации играют большую роль. Особенно возрастает она для схем высокой размерности при учете временных параметров. При значительном сжатии информации возможно снижение глубины диагностирования за счет совпадения кодов различных неисправностей.

В [1], [3] кодирование определяется как процесс преобразования сообщения в комбинацию различных символов. Последовательность символов присваиваемая каждому из сообщений, полученных в процессе кодирования называется кодовым словом или просто кодом. Коды бывают равномерными и неравномерными. При сжатии информации данному коду ставится в соответствие более короткий код.

Мера количества информации, предложенная Р.Хартли, является логарифмической [1]:

I = log N = n log ш, (1)

где N -число сообщений;

m - число символов алфавита; п - число элементов в сообщении.

Энтропия - это удельная неопределенность на один символ первичного алфавита. Информация - это разность априорной и апостериорной энтропий

[1J: '

1(А,В) = Н(А)-Н(В). (2)

С учетом вероятностного характера информации энтропию неравновероятного алфавита К.Шенон определил как математическоё ожидание М величины - log p(a¡) [1]:

v Ю

Н(А) = М [-log p{a¡)] = - Z p(a¡) log p(ai). (3)

i=l

При равновероятных символах p(a¡)=l/m, следовательно формула Шенона переходаг в формулу Хартли:

m m

Н(А) = - k S p¡ log p¡ = - k Z 1/m log 1/m = к log m. (4)

i— 1 i=l

Условная энтропия это неопределенность на один символ при известной вероятности предыдущего события. Общая условная энтропия определяется двойным суммированием всеК частных условных энтропий [1]:

Н(В/А) = - 1/m S S P(b/a¡) log p(bj/a¡).

j i (5)

Энтропия сложного сообщения для двух источников определяется в [1] как *

H(X,Y) = - Е Z р(ВД]) log p(xityj).

i=lj=l (6) В [1], [2] рассмотрены метода информационной оценки

автоматизированных систем контроля и управления.

Для сжатия без восстановления текстовой информации в [3] рассмотрены некоторые методы сжатия:

- отбрасывание гласных;

-отбрасывание слов, длина которых не превышает некоторую величину; - деление слова на части и двоичное сложение частей;

- деление слова на части и сложение частей по модулю 2;

- сложение по модулю 2 двоичных эквивалентов букв с по буквенным сдвигом в каждом разряде.

В [3] рассмотрены также метода сжатия цифровой и произвольной информмцци:

- замена повторяющихся элементов условными знаками;

- ликвидация пустых мест;

- хранения "сжатых" чисел (метод Г.В.Лавинского);

- зонное сжатие информации;

- сжатие без привязки к конкретному виду информации;

- замена комбинаций букв (например, биграмм) двоичными кодами (метод Е.И.Гершгорина).

Выбор тоге или иного метода сжатая информации существенно зависит от характера информации и может быть выбран в зависимости от конкретных результатов диагностического эксперимента.

Для хранения ТФН наиболее подходит метод замены повторяющихся элементов условными знаками. ТФН является массивом кодов. Поскольку в этом массиве наблюдается значительная повторяемость элементов по сравнению с кодом исправного состояния, то повторяющиеся участки можно заменить символами. Поставим в соответствие числу символов номер буквы латинского алфавита (В-2, С-3, D-4, Е-5, F-6, G-7, Н-8). Например, для девяти режимов и восьми временных интервалов в табл.1, получаем сжатие более чем в 2 раза.

- Таблица 1

г Приме1 р сжатия кодов

N Код неисправности Сжатый код

0 822446688 822446688

1 , 822226688 С220

2 844446688 844И

3 822444488 Е44В

4 822448888 Е88В

5 222446688 2Н

Различные варианты кодирования и сжатия диагностической информации рассмотрим на примере таблицы параметров схемы из табл.2, составленной

Табшща2.

Выход Режимы

1 2 3 4. 5 6 7 8 9 10 11

1 1 1 2 0 9 4 2 3 0 7 8

2 0 1 7 9 5 0 3 0 7 1 0 2

3 2 0 0 0 4 5 9 0 0 0 1

4 1 3 4 8 0 9 0 1 1 2 3

5 4 4 2 . 0 8 9 1 3 0 0 8

6 5 2 0 3 0 4 3 2 1 1 0

7'. 9 0 7 9 4 0 9 0 0 0 9

8 0 0 8 0 9 5 3 0 2 8 1

для 11 режимов и 8 точек и соответствующ<й какой либо одной неисправности либо исправному состоянию схемы.

Для применения в системе синтеза диагностических тестов РЗА автором предлагаются следующие способы кодирования.

Битовая матрица характеризует только наличие сигналов на выходах. Ее размерность определяется количеством выходных сигналов и числом режимов. Каждой неисправности схемы соответствует матрица типа:

А =

1 0 1 1 1 1 0 1

1 1 0 1 0 1 1 0

0 0 1 1 1 0 0 0

1 1 0 1 0 1 1 1

1 0 1 1 1 1. 0 0

1 1 0 1 1 1 1 1 0

0 1 1 0 1 0 0 0 1

0 0 1 1 1 0 1 1 1

(7)

Если столбцы рассмотреть как коэффициенты двоичных полиномов, то получим битовую матрицу сжатую полиномом (состояние схемы записывается числом числом переведенным из двоичной системы счисления в десятичную или иную, например шестнадцатеричную): А -1 [ 125 59 219 106 213 191 245 59 170 169 223 М. (8)

Частотное кодирование - это подсчет суммарного количества сигналов на всех выходах, т.е. частоты появления сигналов на выходе схемы. Код состоит из 11 чисел: В = | |б 5 6 4 5 7 6 5 4 4 7 | |. (9)

Неисправность может также характеризоваться одним десятичным числом, например, суммарной частотой - 59.

Временная матрица характеризует не только наличие сигналов на выходах, но и интервал времени срабатывания или иную дискретизированную величину. Ее размерность определяется количеством выходных сигналов и числом режимов. Каждой неисправности схемы соответствует матрица типа:

С =

1 А 2 0 9 4 2 3 0 7 со

0 . 7 9 5 0 3 0 7 1 0 2

2 0 0 0 4 5 9 0 0 0 1

1 3 4 8 0 9 0 1 1 2 3

4 4 2 0 8 9 1 : 3 0 0 8

5 2 0 3 0 4 3 2 1 1 0

9 0 7 9 4 0 9 0 0 0 9

0 0 8 0 9 5 3 0 2 8 1

(10)

Временной частотный код состоит из 11 чисел - сумм , временных интервалов появления сигнала на всех выходах (контрольных сумм). D = | | 22 17 32 25 34 39 27 16 5 18 32 | | (И)

Суммарная временная частота получается - 267.

В системе синтеза тестов предусмотрено использование битового кода (тип А), сжатого битового кода (тип А1) или кода из временных интервала (гаш Е). Последний получается с учетом функциональных особенностей устройств РЗ с канальной структурой и возрастающей величиной выдержки времени, для которых существенным является первое срабатывание (с минимальным временем). Поэтому для выбранного примера можно определить временной код:

Е= | | 2 2 2 4 2 2 2 2 4 2 2 | |, (12)

где номер первого из восьми каналов на котором появился сигнал умножен на два для соответствия системе разбиения временной шкалы.

В случае многократного совпадения кодов для различных неисправностей при использовании только частотного или только временного

частотного кода можно использовать составной частотный код состоящий из них. Для выбранного примера из матриц-строк В и D получаем матрицу F

42467 42 46 8

4 1 4 6 8. - (14)

Также можно использовать и другие способы кодирования диагностической информаций, включая сигнатурное сжатие. В сигнатурных анализаторах длинные входные и выходные последовательности принято сжимать в 16-разрядные слова-сигнатуры. Это обусловлено использованием 16-ричной системы счисления при программировании на аппаратном уровне. Однако в программах моделирования с таким же успехом можно использовать и 256-значные слова-сигнатуры, так как символы кодируются от 0 до 255. Это будет способствовать повышению степени сжатия информации и экономии памяти.

Перечень ссылок

1. Кузьмин И.В., Кедрус В.А. Основы теории информации и кодирования. - Киев: Вища

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

шк., 1977. - 280 с.

2. Солодов A.B. Теория информации и ее применение к задачам автоматического

управления и контроля. -М.:Наука, 1967. - 315 с, . 3. Цымбал В.П. Теория информации и кодирования. - Киев: Вища шк., 1992. - 263 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.