Научная статья на тему 'Математическая сущность системной теории информации (сти) (системное обобщение формулы Больцмана-Найквиста-Хартли, синтез семантической теории информации Харкевича и теории информации Шеннона)'

Математическая сущность системной теории информации (сти) (системное обобщение формулы Больцмана-Найквиста-Хартли, синтез семантической теории информации Харкевича и теории информации Шеннона) Текст научной статьи по специальности «Математика»

CC BY
848
396
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СИСТЕМНАЯ ТЕОРИЯ ИНФОРМАЦИИ / МАТЕМАТИЧЕСКАЯ МОДЕЛЬ СИСТЕМНО-КОГНИТИВНЫЙ АНАЛИЗ / СК-АНАЛИЗ / ПРОГРАММНЫЙ ИНСТРУМЕНТАРИЙ / УНИВЕРСАЛЬНАЯ КОГНИТИВНАЯ АНАЛИТИЧЕСКАЯ СИСТЕМА "ЭЙДОС" / UNIVERSAL COGNITIVE NALYTICAL SYSTEM " AIDOS" / SYSTEMIC THEORY OF INFORMATION / MATHEMATIC-COGNITIVE ANALYSIS / SC-ANALYSIS / PROGRAMMING INSTRUMENTS

Аннотация научной статьи по математике, автор научной работы — Луценко Евгений Вениаминович

В статье кратко описана математическая сущность предложенной автором системной теории информации (СТИ), являющейся математической моделью системно-когнитивного анализа (СК-анализ) реализуемой в его программном инструментарии универсальной когнитивной аналитической системе "Эйдос"

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Луценко Евгений Вениаминович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

MATHEMATICAL ESSENCE OF SYSTEMIC THEORY OF INFORMATION(STI) ( Systemic substantiation of Boltsman-Naikequest-Hartly formula, synthesis of semantic information theory of Kharkevich and information theory of Shennon)

The mathematical essence of systemic information theory(STI) offered by the author is the mathematic model of systemic-cognitive analysis ( SC-analysis) realized in its programming instruments universal cognitive analytical system AIDOS

Текст научной работы на тему «Математическая сущность системной теории информации (сти) (системное обобщение формулы Больцмана-Найквиста-Хартли, синтез семантической теории информации Харкевича и теории информации Шеннона)»

УДК 303.732.4

МАТЕМАТИЧЕСКАЯ СУЩНОСТЬ СИСТЕМНОЙ ТЕОРИИ ИНФОРМАЦИИ

(СТИ) (Системное обобщение формулы Больц-мана-Найквиста-Хартли, синтез семантической теории информации Харкевича и теории информации Шеннона)

Луценко Евгений Вениаминович д.э.н., к.т.н., профессор

Кубанский государственный аграрный университет, Краснодар, Россия

В статье кратко описана математическая сущность предложенной автором системной теории информации (СТИ), являющейся математической моделью системно-когнитивного анализа (СК-анализ) реализуемой в его программном инструментарии -универсальной когнитивной аналитической системе "Эйдос"

Ключевые слова: СИСТЕМНАЯ ТЕОРИЯ ИНФОРМАЦИИ, МАТЕМАТИЧЕСКАЯ МОДЕЛЬ СИСТЕМНО-КОГНИТИВНЫЙ АНАЛИЗ, СК-АНАЛИЗ, ПРОГРАММНЫЙ ИНСТРУМЕНТАРИЙ, УНИВЕРСАЛЬНАЯ КОГНИТИВНАЯ АНАЛИТИЧЕСКАЯ СИСТЕМА "ЭЙДОС".

В работах [2, 4, 5, 12, 13, 14] предложена и развита программная идея системного обобщения математики путем тотальной замены понятия множества на более общее и содержательное понятие системы и тщательное прослеживания всех последствий этого во всех понятиях математики, основанных на понятии множества. Частично эта идея была реализована при разработке автоматизированного системно-когнитивного анализа (АСК-анализа) [2], математическая модель которого основана на системном обобщении формул для количества информации Найквиста-Хартли и Харкевича, в результате чего удалось объединить семантическую теорию информации Харкевича с теорией информации Шеннона. Полученная в результате этого обобщенная теория названа системной теорией информации (СТИ). Системное обобщение понятия функциональной зависимости рассматривается в работах [7 19], в них же вводятся новые научные понятия и соответствующие термины: "когнитивные функции" и "когнитивные числа". Различные аспекты СТИ рассмотрены в работах [121]. Таким образом существует много работ, в том числе монографий и учебных пособий, в которых изложена системная теория информации. Однако, как раз то, что этих работ много и они довольно объемны не вдохновляет потенциальных читателей.

Поэтому в данной статье ставится цель описать математическую суть системной теории информации на столько кратко, на сколько это

UDC 303.732.4

MATHEMATICAL ESSENCE OF SYSTEMIC THEORY OF INFORMATION(STI) ( Systemic substantiation of Boltsman-Naikequest-Hartly formula, synthesis of semantic information theory of Kharkevich and information theory of Shennon)

Lutsenko Evgeny Veniaminovich Dr. Sci.Econ., Cand. Tech.Sci., professor

Kuban State Agrarian University, Krasnodar, Russia

The mathematical essence of systemic information theory(STI) offered by the author is the mathematic model of systemic-cognitive analysis ( SC-analysis) realized in its programming instruments - universal cognitive analytical system “AIDOS”.

Key words: SYSTEMIC THEORY OF INFORMATION, MATHEMATIC-COGNITIVE ANALYSIS, SC-ANALYSIS, PROGRAMMING INSTRUMENTS, UNIVERSAL COGNITIVE NALYTICAL SYSTEM “ AIDOS”.

вообще возможно. Своеобразной "ценой" за это является то, что пришлось пожертвовать подробной смысловой интерпретацией полученных математических выражений, за которой мы отсылаем к уже упомянутым работам.

Итак, классическая формула Хартли имеет вид:

I = Log 2W ( i )

Будем искать ее системное обобщение в виде:

I = Log 2W j ( 2 )

где:

W - количество элементов в множестве.

j - коэффициент эмерджентности, названный автором в честь Хартли коэффициентом эмерджентности Хартли.

Примем, что системное обобщение формулы Хартли имеет вид:

1V1

1 = L0g2 Z C

m W

m=1

( 3 )

где:

Ст.

Ж - количество подсистем и т элементов;

т - сложность подсистем;

М- максимальная сложность подсистем.

Так как СЖ = Ж , то при М=1 система переходит в множество и выражение (3) приобретает вид (1), т.е. для него выполняется принцип соответствия, являющийся обязательным для более общей теории.

Учитывая, что при М= Ж:

М

£ СЖ = 2Ж -1 ( 4 )

т=1

в этом случае получаем:

I = ^2(2Ж -1) ( 5 )

Выражение (5) дает приближенную оценку максимального количества информации в элементе системы. Из выражения (5) видно, что при увеличении числа элементов Ж количество информации I быстро стремится к Ж (6) и уже при Ж>4 погрешность выражения (5) не превышает 1%:

при Ж

( 6 )

I ® Ж К ;

Приравняв правые части выражений (2) и (3):

м

I = Ьсе 2^ * = ^ 2 X С,

т

Ж

( 7 )

т=1

получим выражение для коэффициента эмерджентности Хартли:

м

Ьь 2 X СЖ

т=1

( 8 )

Смысл этого коэффициента раскрыт в работах [2, 4, 5, 9, 12, 13, 14]. Здесь отметим лишь, что при М——1 когда система асимптотически переходит в множество *—1 и (2) — (1), как и должно быть согласно принципу соответствия.

С учетом (8) выражение (2) примет вид:

м

^ х ст

т =1

I (Ж, М) = ^2Ж

ЬвЕ2Ж

( 9 )

или при М=Ж и больших Ж, учитывая (4 и 5):

Ж

I (Ж, М) = ^ 2Ж1ое 2Ж = Ж

( 10 )

Выражение (9) и представляет собой искомое системное обобщение классической формулы Хартли, а выражение (10) - его достаточно хорошее приближение при большом количестве элементов в системе Ж. Классическая формула А.Харкевича имеет вид:

ч

( 11 )

где: - Ру - условная вероятность перехода объекта в Ч-е состояние при условии действия на него 1-го значения фактора;

- Рч- - безусловная вероятность перехода объекта в Ч-е состояние (вероятность самопроизвольного перехода или вероятность перехода, посчитанная по всей выборке, т.е. при действии любого значения фактора).

Придадим выражению (11) следующий эквивалентный вид, который и будем использовать ниже:

1ч (Ж, М) =

Р

V

Р

( 12 )

где: - индекс I обозначает признак (значение фактора): 1£I £М;

- индексЧ обозначает состояние объекта или класс: 1£Ч £ Ж;

- Рц - условная вероятность наблюдения 1-го значения фактора у объектов в Ч-го класса;

- Рг - безусловная вероятность наблюдения 1-го значения фактора по всей выборке.

Из (12) видно, что формула Харкевича для семантической меры информации по сути является логарифмом от формулы Байеса для апостериорной вероятности (отношение условной вероятности к безусловной). Вопрос об эквивалентности выражений (11) и (12) рассмотрим позднее.

Известно, что классическая формула Шеннона для количества информации для неравновероятных событий преобразуется в формулу Хартли при условии, что события равновероятны, т.е. удовлетворяет фундаментальному принципу соответствия. Поэтому теория информации Шеннона справедливо считается обобщением теории Хартли для неравновероятных событий. Однако, выражения (11) и (12) при подстановке в них реальных численных значений вероятностей РгЧ, РЧ и Рг не дает количества информации в битах, т.е. для этого выражения не выполняется принцип соответствия, обязательный для более общих теорий. Возможно, в этом состоит причина довольно сдержанного, а иногда и скептического отношения специалистов по теории информации Шеннона к семантической теории информации Харкевича.

Причину этого мы видим в том, что в выражениях (11) и (12) отсутствуют глобальные параметры конкретной модели Ж и М, т.е. в том, что А.Харкевич в своем выражении для количества информации не ввел зависимости от мощности пространства будущих состояний объекта Ж и количества значений факторов М, обуславливающих переход объекта в эти состояния.

Поставим задачу получить такое обобщение формулы Харкевича, которое бы удовлетворяло тому же самому принципу соответствия, что и формула Шеннона, т.е. преобразовывалось в формулу Хартли в предельном детерминистском равновероятном случае, когда каждому классу (состоянию объекта) соответствует один признак (значение фактора), и каждому признаку - один класс, и эти классы (а, значит и признаки), равновероятны, и при этом каждый фактор однозначно, т.е. детерминистским образом определяет переход объекта в определенное состояние, соответствующее классу.

Будем искать это обобщение (12) в виде:

Найдем такое выражение для коэффициента ¥, названого нами в честь А.Харкевича "коэффициентом эмерджентности Харкевича", которое обеспечивает выполнение для выражения (13) принципа соответствия с

( 13 )

классической формулой Хартли (1) и ее системным обобщением (2 и 3) в равновероятном детерминистском случае.

Для этого нам потребуется выразить вероятности Р-, Р- и Р, через частоты наблюдения признаков по классам (см. таблица 1). В таблице 1 рамкой обведена область значений, переменные определены ранее.

Таблица 1 - МАТРИЦА ЧАСТОТ

Классы Сумма

1 ... І ... ¥

Значения факторов 1

...

і N,1 Чж Ж N =1N І=1

...

м NM1 N 1У мж

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Суммарное количество признаков м N = 1N і=1 Ж м ъ=И N ,=і і=і

Суммарное количество объектов обучающей выборки N N

Алгоритм формирования матрицы абсолютных частот.

Объекты обучающей выборки описываются векторами (массивами)

Ь = {Ц } имеющихся у них признаков:

Ь {Ь } еСЛи у °бъекта естъ 1-й признак;

1 [0, если у объекта нет г-г° признака.

Первоначально в матрице абсолютных частот все значения равны нулю. Затем организуется цикл по объектам обучающей выборки. Если предъявленного объекта относящегося к}-му классу есть 1-й признак, то:

N.. = N. +1; N. = N. +1; N. = N. +1; N = N +1

У Ч II J }

Здесь можно провести очень интересную и важную аналогию между способом формирования матрицы абсолютных частот и работой многоканальной системы выделения полезного сигнала из шума. Представим себе, что все объекты, предъявляемые для формирования обобщенного образа некоторого класса в действительности являются различными реализациями одного объекта - "Эйдоса" (в смысле Платона), по-разному зашумлен-

ного различными случайными обстоятельствами. И наша задача состоит в том, чтобы подавить этот шум и выделить из него то общее и существенное, что отличает объекты данного класса от объектов других классов. Учитывая, что шум чаще всего является "белым" и имеет свойство при суммировании с самим собой стремиться к нулю, а сигнал при этом наоборот возрастает пропорционально количеству слагаемых, то увеличение объема обучающей выборки приводит ко все лучшему отношению сигнал/шум в матрице абсолютных частот, т.е. к выделению полезной информации из шума. Примерно так мы начинаем постепенно понимать смысл фразы, которую мы сразу не расслышали по телефону и несколько раз переспрашивали. При этом в повторах шум не позволяет понять то одну, то другую часть фразы, но в конце-концов за счет использования памяти и интеллектуальной обработки информации мы понимаем ее всю. Так и объекты, описанные признаками, можно рассматривать как зашумленные фразы, несущие нам информацию об обобщенных образах классов: ”Эйдо-сах” [12, 13, 14, 15], к которым они относятся. И эту информацию мы выделяем из шума при синтезе модели.

Для выражения (11):

Р N

Р - —- ( 14 )

" N

Для выражений (12) и (13):

Р - ^

Р N ( 15 )

Для выражений (11), (12) и (13):

Р-N • Р - N.•

Р N ’Р N ’

Ж М

N-I N.. N-I N^r ( 16 )

.-1 г-1

М Ж Ж М

К -IN -IN -II N

г-1 .-1 г-1 .-1

В (16) использованы обозначения:

N. - суммарное количество наблюдений в исследуемой выборке факта: "действовало г-е значение фактора и объект перешел в .-е состояние".

N. - суммарное количество встреч различных факторов у объектов, перешедших в.-е состояние.

N - суммарное количество встреч 1-го фактора у всех объектов исследуемой выборки;

N - суммарное количество встреч различных факторов у всех объектов исследуемой выборки.

Формирование матрицы условных и безусловных вероятностей .

На основе анализа матрицы частот (таблица 1) классы можно сравнивать по наблюдаемым частотам признаков только в том случае, если количество объектов по всем классам одинаково, как и суммарное количество признаков по классам. Если же они отличаются, то корректно сравнивать классы можно только по условным и безусловным вероятностям наблюдения признаков, посчитанных на основе матрицы частот (таблица 1) в соответствии с выражениями (14) и (15), в результате чего получается матрица условных и безусловных процентных распределений (таблица 2).

При расчете матрицы условных и безусловных вероятностей N. из таблицы 1 могут браться либо из предпоследней, либо из последней строки. В 1-м случае N. представляет собой "Суммарное количество признаков у всех объектов, использованных для формирования обобщенного образа .го класса", а во 2-м случае, это "Суммарное количество объектов обучающей выборки, использованных для формирования обобщенного образа .-го класса", соответственно получаем различные, хотя и очень сходные семантические информационные модели, которые мы называем СИМ-1 и СИМ-2. Оба этих вида моделей поддерживаются системой "Эйдос".

Таблица 2 - МАТРИЦА УСЛОВНЫХ И БЕЗУСЛОВНЫХ ВЕРОЯТНОСТЕЙ

Классы Безусловная вероятность признака

1 ... 3 ... ¥

Значения факторов 1 Рп Р . Р 1 ш

...

± Р1 Р. Р 1 \ш Р

...

М РМ1 Рм. Р 1 мш

Безусловная вероятность класса Р.

Эквивалентность выражений (11) и (12) устанавливается, если подставить в них выражения вероятности Р., Р. и Р{ через частоты наблюде-

ния признаков по классам из (14), (15) и (16). В обоих случаях из выражений (11) и (12) получается одно и тоже выражение (17):

N,,N

Iij = Log 2ТТ^ ( 17 )

NNj

А из (13) выражение (18), с которым мы и будем далее работать.

Iv _ Log

( n,n л

и

,nn

\ J J

( І8 )

При взаимно-однозначном соответствии классов и признаков в равновероятном детерминистском случае имеем (таблица 3):

Таблица 3 - МАТРИЦА ЧАСТОТ В РАВНОВЕРОЯТНОМ ДЕТЕРМИНИСТСКОМ СЛУЧАЕ

Классы Сумма

1 ... І ... W

Значения факторов 1 І І

... І І

i І І

... І І

M І І

Сумма І І І І І N

В этом случае к каждому классу относится один объект, имеющий единственный признак. Откуда получаем для всех I и. (19):

",: Nj = N = N, = 1

- . - . - (19 )

Таким образом, обобщенная формула А.Харкевича (18) с учетом (19) в этом случае приобретает вид:

I, = Log 2 NY = Log 2W

j

iJ

( 2G )

откуда:

Y_

_ Log2Wj Log2 N

( 21 )

или, учитывая выражение для коэффициента эмерджентности Хартли (8):

м

Lаg2 X Ст

т=1

2 N

Подставив коэффициент эмерджентности А.Харкевича (21) в выражение (18), получим:

Lаg2W9

Lаg 2т 9 ^ 2 N

NN. Ґ

Г

'' 1

\

Lаg

V

NN N,N1,

V ]

\

Lаg2 N

+ Lаg2 N

У

' N.. л

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

]

NN1

Lаg2W 9 Lаg2 N

+ Lаg 2т 9

или окончательно:

( 23 )

Отметим, что 1-я задача получения системного обобщения формул Хартли и Харкевича и 2-я задача получения такого обобщения формулы Харкевича, которая удовлетворяет принципу соответствия с формулой Хартли - это две разные задачи. 1-я задача является более общей и при ее решении, которое приведено выше, автоматически решается и 2-я задача, которая является, таким образом, частным случаем 1-й.

Однако, представляет самостоятельный интерес и частный случай, в результате которого получается формула Харкевича удовлетворяющая в равновероятном детерминистском случае принципу соответствия с классической формулой Хартли (1), а не с ее системным обобщением (2) и (3). Ясно, что эта формула получается из (23) при 9=1.

^2Ж ( N Л N

а

( 24 )

Из выражений (21) и (22) видно, что в этом частном случае, т.е. когда система эквивалентна множеству (М=1), коэффициент эмерджентности А.Харкевича приобретает вид:

На практике для численных расчетов на удобнее пользоваться не

выражениями (23) или (24), а формулой (26), которая получается непосредственно из (18) после подстановки в него выражения (25):

В классическом анализе Шеннона идет речь лишь о передаче символов по одному информационному каналу от одного источника к одному приемнику. Его интересует прежде всего передача самого сообщения.

В данной статье ставится другая задача: идентифицировать или распознать информационный источник по сообщению от него. Поэтому метод Шеннона был обобщен путем учета в математической модели возможности существования многих источников информации, о которых к приемнику по зашумленному каналу связи приходят не отдельные символы-признаки, а сообщения, состоящие из последовательностей символов (признаков) любой длины.

Следовательно, ставится задача идентификации информационного источника по сообщению от него, полученному приемником по зашумленному каналу. Метод, являющийся обобщением метода К.Шеннона, позволяет применить классическую теорию информации для построения моделей систем распознавания образов и принятия решений, ориентированных на применение для синтеза адаптивных АСУ сложными объектами.

Для решения поставленной задачи необходимо вычислять не средние информационные характеристики, как в теории Шеннона, а количество информации, содержащееся в конкретном 1-м признаке (символе) о том, что он пришел от данного ]-го источника информации. Это позволит определить и суммарное количество информации в сообщении о каждом информационном источнике, что дает интегральный критерий для идентификации или прогнозирования состояния объекта.

( 25 )

( 26 )

Логично предположить, что среднее количество информации, содержащейся в системе признаков о системе классов

Ж М р

I (У, х) = х£ р,}^ 2 А, ( 27 )

7=17=1 РгРа

является ничем иным, как усреднением (с учетом условной вероятности наблюдения) "индивидуальных количеств информации", которые содержатся в конкретных признаках о конкретных классах (источниках), т.е.:

г(Х7, У,) = 2 -р!-. ( 28 )

Р,Р}

Это выражение определяет так называемую "плотность информации", т.е. количество информации, которое содержится в одном отдельно взятом факте наблюдения ,-го символа (признака) на приемнике о том, что этот символ (признак) послан 7-м источником.

Если в сообщении содержится М символов, то суммарное количество информации о принадлежности данного сообщения 7-му информационному источнику (классу) составляет:

М ^ р

г(ха) = У Ьоя 2——. ( 29 )

,=1 Р,Ра

Необходимо отметить, что применение сложения в выражении (29) является вполне корректным и оправданным, так как информация с самого начала вводилась как аддитивная величина, для которой операция сложения является корректной.

Преобразуем выражение (29) к виду, более удобному для применения на практике для численных расчетов. Для этого традиционным для теории информации Шеннона способом выразим вероятности встреч признаков через частоты их наблюдения:

= N; р; р=Т, ■ ' ” 1

и г ]

Подставив (30) в (29), получим:

М

,() = Х ^ 2

г=1

Га

( 31 )

Если ранжировать классы в порядке убывания суммарного количества информации о принадлежности к ним, содержащейся в данном сообщении (т.е. описании объекта), и выбирать первый из них, т.е. тот, о котором в сообщении содержится наибольшее количество информации, то мы

получим обоснованную статистическую процедуру, основанную на классической теории информации, оптимальность которой доказывается в фундаментальной лемме Неймана-Пирсона [22].

Подставим значения вероятностей из (30) в (28) и получим выражением для плотности информации Шеннона, выраженное не через вероятности, а через частоты наблюдения символов, которые рассматриваются как признаки объектов, т.е. количество информации, содержащееся в отдельном г-м признаке о том, что другом конце канала связи находится ]-й объект (32):

Сравнивая выражения (23) и (32) видим, что в системном обобщении формулы Харкевича 1-е слагаемое практически тождественно выражению Шеннона для плотности информации, а 2-е слагаемое представляющем собой плотность информации по Хартли.

Различия состоят в том, что в выражении (23) это слагаемое возведено в степень, имеющую смысл коэффициента эмерджентности Харкеви-ча. Поэтому вполне оправданным называть это слагаемое не коэффициентом эмерджентности Харкевича, а коэффициентом эмерджентности Шен-нона-Харкевича. Необходимо отметить также, что значения частот в этих формулах связаны с вероятностями несколько различным образом (выражения 14-16 и 30).

Из этого следует также, что полученное выражение (23) представляет собой нелинейную суперпозицию выражений для плотности информации Шеннона и Хартли, и, таким образом, является обобщающим выражением для плотности информации, которое при различных условиях асимптотически переходит в классические выражения Хартли и Харкевича, а от выражения Шеннона отличается лишь константой, т.е. 2-м слагаемым, характеризующим мощность множества состояний объекта в модели.

Это позволяет нам обоснованно высказать гипотезу о том, что системная теория информации (СТИ), базирующаяся на выражении (23) для плотности информации, является более общей, чем теории Хартли, Шеннона и Харкевича и асимптотически связана с ними через принцип соответствия (рисунок 1).

Ж,

( 32 )

7

Системное обобщение формулы Шеннона

Ьо^Ж

I. (Ж, М) = Ьо^

Классическая формула Шеннона для плотности информации

I,, = Ьо^2

*4

NN.

\

Системное обобщение формулы Харкевича (СТИ)

Log.IV р

I.. (Ж,М) = ^2

Ьо^И

+ ^2Ж р

Системное обобщение формулы Харкевича

I. (Ж, М) = Ьо&

'NN)

NN.

Классическая формула Харкевича

1и = Ьо&

V NN.

V У

Системное обобщение формулы Хартли

I(Ж, М=ЬоЖ

Классическая формула Хартли

I (Ж) = Ьо&Ж

Коэффициент эмерджент^ 9

ности Харкевича ^ ^ 2Ж

(характеризует детерми- _ Тпа N

нированность системы): ° 2

Коэффициент М

эмерджентности Ьоё 2 X СЖ

Хартли (характеризует р = т=1

"эффект системы"):

ОБОЗНАЧЕНИЯ:

W - количество классов (мощность множества будущих состояний объекта управления)

М - максимальный уровень сложности смешанных состояний объекта управления

Иу - суммарное количество встреч ьго фактора у объектов, перешедших в ^е состояние

N - суммарное количество встреч различных факторов у объектов, перешедших в у-е состояние

N - суммарное количество встреч ьго фактора у всех объектов

N - суммарное количество встреч различных факторов у всех объектов

С ^ - количество сочетаний из W по т

Рисунок 1. Генезис системной (эмерджентной) теории информации

Взаимосвязь системной меры целесообразности информации со статистикой с2 и новая мера уровня системности предметной области

Статистика %2 представляет собой сумму вероятностей совместного наблюдения признаков и объектов по всей корреляционной матрице или определенным ее подматрицам (т.е. сумму относительных отклонений частот совместного наблюдения признаков и объектов от среднего):

2 (N. - г)2

X = Ц—^—, ( 33 )

.=1 ,=1 г

где

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

N. - фактическое количество встреч ,-го признака у объектов .-го класса;

г - ожидаемое количество встреч ,-го признака у объектов .-го класса (34).

г =

N

2

( 34 )

Отметим, что статистика с математически связана с количеством информации в системе признаков о классе распознавания в соответствии с системным обобщением формулы Харкевича для плотности информации (18):

NN.

V } у

( 35 )

а именно, из (34) и (35) получаем:

4 = ь^7

N.

г

( 36 )

Из (36) очевидно:

Iij = ¥(Ьо§2N - Ьо§2г) . ( 37 )

Сравнивая выражения (33) и (37), видим, что числитель в выражении (33) под знаком суммы отличается от выражения (37) только тем, что в выражении (37) вместо значений N. и г взяты их логарифмы. Так как логарифм является монотонно возрастающей функцией аргумента, то введение логарифма не меняет общего характера поведения функции. Фактически это означает, что:

если N.. < г то X. > 0, I. < 0

если N. = г то X. = 0, I. = 0 ( 38 )

если N.. > г то X. > 0, I. > 0

Из изложенного следует интерпретация системной меры информации (35) с учетом статистики с2 (33): если фактическая вероятность наблюдения ,-го признака при предъявлении объекта .-го класса равна ожидаемой (средней), то наблюдение этого признака не несет никакой информации о принадлежности объекта к данному классу. Если она выше средней, то это свидетельствует в пользу того, что предъявлен объект данного класса, если ниже - то другого.

Поэтому наличие статистической связи (информации) между признаками и классами распознавания, т.е. отличие вероятностей их совместных наблюдений от предсказываемого в соответствии со случайным нор-

мальным распределением, приводит к увеличению фактической статисти-

2

ки с по сравнению с теоретической величиной.

Из этого следует возможность использования в качестве количественной меры степени выраженности закономерностей в предметной области не матрицы абсолютных частот и меры %2, а новой меры Н, основанной на матрице информативностей и системном обобщении формулы Харке-вича для количества информации:

Н = 2

(Ж • М -1) .=11~1

где

1 Ж М

I =---------УУI,

ТТ7 л ^ 4—1 4—1 1

- средняя информативность признаков по матрице Ж • М .=1 '1=1 У информативностей.

Меру Н в выражении (39) предлагается назвать обобщенным критерием степени сформированности модели Харкевича.

Значение данной меры показывает среднее отличие количества информации в факторах о будущих состояниях активного объекта управления от среднего количества информации в факторе (которое при больших выборках близко к 0). По своей математической форме эта мера сходна с мерами для значимости (интегральной информативности) факторов и степени сформированности образов классов и коррелирует с объемом неор-тонормированного семантического информационного пространства классов и семантического информационного пространства атрибутов.

Вышеописанная математическая модель обеспечивает инвариантность результатов ее синтеза относительно следующих параметров обучающей выборки: суммарное количество и порядок ввода анкет обучающей выборки; количество анкет обучающей выборки по каждому классу распознавания; суммарное количество признаков во всех анкетах обучающей выборки; суммарное количество признаков по классам распознавания; количество признаков и их порядок в отдельных анкетах обучающей выборки. Это обеспечивает высокую степень качества решения задач распознавания на неполных и разнородных (в вышеперечисленных аспектах) данных как обучающей, так и распознаваемой выборки, т.е. при таких статистических характеристиках потоков этих данных, которые чаще всего и встречается на практике и которыми невозможно или очень сложно управлять.

Получение матрицы знаний (информативностей).

На основе анализа матрицы условных и безусловных вероятностей (таблица 3) наблюдений признаков по классам и всей выборке можно сравнивать признаки друг с другом по их роли для сравнения классов друг

с другом и конкретных объектов с обобщенными классами. При этом существует 3 основных группы признаков:

Группа 1-я. Которые в одном классе встречаются, а в других нет. Это детерминистские признаки, обнаружение такого признака у объекта однозначно определяет его принадлежность к соответствующему классу.

Группа 2-я. Которые в одном классе встречаются чаще, чем в других. Это статистические признаки, обнаружение такого признака у объекта несет некоторую информацию о его принадлежности к соответствующему классу.

Группа 3-я. Которые в разных классах встречаются одной и той же вероятностью. Это признаки, обнаружение которых у объекта не несет никакой информации о его принадлежности к тем или иным классам.

Таким образом мы видим, что если используя таблицу 3 анализировать условные вероятности (или процентные распределения) признаков по классам, то можно вынести правдоподобные суждения о принадлежности объектов, обладающих этими признакам к тем или иным классам.

Однако в таком методе сравнения есть по крайней мере два существенных недостатка:

1. Для того, чтобы отнести признак к одной из вышеперечисленных групп необходимо сравнивать вероятности его наблюдения по классам, т.е. каждый раз при таком сравнении выполнять соответствующую необходимую для этого работу.

2. При отнесении признака ко 2-й группе этого самого по себе еще недостаточно для его использования с целью идентификации объекта, а необходимо еще оценить количество информации, которое содержится в факте обнаружения у объекта этого признака о принадлежности этого объекта к каждому из классов, а для этого необходим соответствующий математический и численный метод.

Что касается 1-го недостатка, то о нем можно сказать, что для реальных задач большой размерности выполнение этого сравнения вручную практически невозможно, а значит тем более невозможно и использование результатов этого сравнения для решения задач идентификации, прогнозирования и поддержки принятия решений, а тем более для исследования предметной области путем исследования ее модели. Все это обусловлено тем, что результат сравнения вероятностей встречи признака по классам не представляется при ручной обработке в количественной форме некоторого одного числа: частного критерия, величина и знак которого отражали бы результат такого сравнения.

2-й недостаток преодолевается методом, который предложен А.Харкевичем в выражениях (11) и (12) и уточнен нами в системном обобщении этих выражений (18). В этом методе предложено сравнивать не условные вероятности наблюдения признаков по различным классам

друг с другом, а условную вероятность наблюдения признака по классу с безусловной вероятностью его наблюдения по всей выборке.

Это предложение по своей сути полностью соответствует известному статистическому методу отклонений от средних и нормативному подходу, когда в качестве базы сравнения выбирается норма, т.е. среднее по всей группе. На основе этого подхода формируются и критерии сравнения, т.е. можно сказать, что критериальный подход изначально основан на нормативном.

Если такое сравнение провести по всем признакам и классам, то получится матрица, снимающая оба указанных недостатка: используя выражение (18) и данные таблицы 1 непосредственно прямым счетом получаем матрицу знаний (таблица 4):

Таблица 4 - МАТРИЦА ЗНАНИЙ (ИНФОРМАТИВНОСТЕЙ)

Классы Значимость фактора

1 ... і ... ¥

Значения факторов 1 І11 І1] І1Ш С1 = \ 1 У ( Л

Ш -1 у'1] 1’

...

і 1,1 Іі І,Ш с1 = 2 1 ш \2 1 У( І)

ш -1 і)

...

М ІМ1 ІМ] ІМШ См = 1 Ш / \2 1 І )

ш -1

Степень редукции класса Сі С Сш і Ш М . ,2 Я = 2 1 У і)

2| (ш • м -1)У У ( )

Здесь - I это среднее количество знаний в 1-м значении фактора:

1 ш

I = — Уі

1 Ш л 4

ГГ ] =1

При расчете матрицы знаний N. из таблицы 1 могут браться либо из предпоследней, либо из последней строки. В 1-м случае N. представляет собой "Суммарное количество признаков у всех объектов, использованных для формирования обобщенного образа .-го класса", а во 2-м случае, это "Суммарное количество объектов обучающей выборки, использованных для формирования обобщенного образа .-го класса", соответственно получаем различные, хотя и очень сходные семантические информационные

модели, которые мы называем СИМ-1 и СИМ-2. Оба этих вида моделей поддерживаются системой "Эйдос".

Количественные значения коэффициентов Ц таблицы 4 являются знаниями о том, что "объект перейдет в ]-е состояние" если "на объект действует і-е значение фактора".

Принципиально важно, что эти весовые коэффициенты не определяются экспертами на основе опыта интуитивным неформализуемым способом, а рассчитываются непосредственно на основе эмпирических данных на основе теоретически обоснованной модели, хорошо зарекомендовавшей себя на практике при решении широкого круга задач в различных предметных областях.

Когда количество информации 1у>0 - і-й фактор способствует переходу объекта управления в ]-е состояние, когда 1у<0 - препятствует этому переходу, когда же 1у=0 - никак не влияет на это. В векторе і-го фактора (строка матрицы информативностей) отображается, какое количество информации о переходе объекта управления в каждое из будущих состояний содержится в том факте, что данный фактор действует. В векторе ]-го состояния класса (столбец матрицы информативностей) отображается, какое количество информации о переходе объекта управления в соответствующее состояние содержится в каждом из факторов.

Таким образом, матрица информативностей (таблица 4) является обобщенной таблицей решений, в которой входы (факторы) и выходы (будущие состояния объекта управления) связаны друг с другом не с помощью классических (Аристотелевских) импликаций, принимающих только значения: ".Истина" и 'Ложь”, а различными значениями истинности, выраженными в битах и принимающими значения от положительного теоретически-максимально-возможного ("Максимальная степень истинности"), до теоретически неограниченного отрицательного ("Степень ложности").

Фактически предложенная модель позволяет осуществить синтез обобщенных таблиц решений для различных предметных областей непосредственно на основе эмпирических исходных данных и продуцировать на их основе прямые и обратные правдоподобные (нечеткие) логические рассуждения по неклассическим схемам с различными расчетными значениями истинности, являющимся обобщением классических импликаций.

Таким образом данная модель позволяет рассчитать какое количество информации содержится в любом факте о наступлении любого события в любой предметной области, причем для этого не требуется повторности этих фактов и событий. Если же эти повторности осуществляются и при этом наблюдается некоторая вариабельность значений факторов, обуславливающих наступление тех или иных событий, то модель

обеспечивает многопараметрическую типизацию, т е. синтез обобщенных образов классов или категорий наступающих событий с количественной оценкой степени и знака влияния на их наступление различных значений факторов. Причем эти значения факторов могут быть как количественными, так и качественными и измеряться в любых единицах измерения, в любом случае в модели оценивается количество информации которое в них содержится о наступлении событий, переходе объекта управления в определенные состояния или просто о его принадлежности к тем или иным классам.

Данная модель позволяет прогнозировать поведение объекта управления при воздействии на него не только одного, но и целой системы факторов:

1] = I (1]). ( 40 )

В теории принятия решений скалярная функция І] векторного аргумента называется интегральным критерием. Основная проблема состоит в выборе такого аналитического вида функции интегрального критерия, который обеспечил бы эффективное решение сформулированной выше задачи АСУ.

Учитывая, что частные критерии (18) имеют смысл количества информации, а информация по определению является аддитивной функцией, предлагается ввести интегральный критерий, как аддитивную функцию от частных критериев в виде:

І] = (І], Ц ). ( 41 )

В выражении (41) круглыми скобками обозначено скалярное произведение, т.е. свертка. В координатной форме это выражение имеет вид:

М

І =У І Ц , ( 42 )

] 1] ,9, і=1

где:

1,= (І,} - вектор]-го класса-состояния объекта управления;

Ц = (Ц,} - вектор состояния предметной области, включающий все виды факторов, характеризующих объект управления, возможные управляющие воздействия и окружающую среду (массив-локатор), т.е.:

1, если і - й фактор действует;

Ц, = ^ аі, где : 0 < а, < 1, если і - й фактор действует с истинностью а,

0, если , - й фактор не действует.

В реализованной модели значения координат вектора состояния предмет-

ной области принимались равными либо 1 (фактор действует), либо 0 (фактор не действует).

Таким образом, интегральный критерий представляет собой суммарное количество информации, содержащееся в системе значений факторов различной природы (т.е. факторах, характеризующих объект управления, управляющее воздействие и окружающую среду) о переходе объекта управления в то или иное будущее состояние.

В многокритериальной постановке задача прогнозирования состояния объекта управления, при оказании на него заданного многофакторного управляющего воздействия I), сводится к максимизации интегрального критерия:

т.е. к выбору такого состояния объекта управления, для которого интегральный критерий максимален.

Задача принятия решения о выборе наиболее эффективного управляющего воздействия является обратной задачей по отношению к задаче максимизации интегрального критерия (идентификации и прогнозирования), т.е. вместо того, чтобы по набору факторов прогнозировать будущее состояние объекта, наоборот, по заданному (целевому) состоянию объекта определяется такой набор факторов, который с наибольшей эффективностью перевел бы объект управления в это состояние.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Предлагается еще одно обобщение фундаментальной леммы Неймана-Пирсона, основанное на косвенном учете корреляций между информативностями в векторе состояний при использовании средних по векторам. Соответственно, вместо простой суммы количеств информации предлагается использовать корреляцию между векторами состояния и объекта управления, которая количественно измеряет степень сходства этих векторов:

где:

І, - средняя информативность по вектору класса;

Ц - среднее по вектору идентифицируемой ситуации (объекта).

& . - среднеквадратичное отклонение информативностей вектора

класса;

&і - среднеквадратичное отклонение по вектору распознаваемого

объекта.

• •

( 43 )

]

( 44 )

Выражение (44) получается непосредственно из (42) после замены координат перемножаемых векторов их стандартизированными значениями:

Необходимо отметить, что выражение для интегрального критерия сходства (42) по своей математической форме является корреляцией двух векторов. Это означает, что если эти вектора являются суммой двух сигналов: полезного и белого шума, то при расчете интегрального критерия белый шум практически не будет играть никакой роли, т.е. его корреляция с самими собой равна нулю по определению. Поэтому интегральный критерий сходства объекта со случным набором признаков с любыми образами классов, или реального объекта с образами классов, сформированными случайным образом, будет равен нулю. Это означает, что выбранный интегральный критерий сходства является высокоэффективным средством подавления белого шума и выделения полезной информации из шума, который неизбежно присутствует в эмпирических данных.

Важно также отметить неметрическую природу предложенного интегрального критерия сходства, благодаря чему его применение является корректным и при неортонормированном семантическом информационном пространстве, каким оно в подавляющем количестве случае и является, т.е. в общем случае.

Результат прогнозирования поведения объекта управления, описанного данной системой факторов, представляет собой список его возможных будущих состояний, в котором они расположены в порядке убывания суммарного количества информации о переходе объекта управления в каждое из них.

Сравнение, идентификация и прогнозирование как разложение векторов объектов в ряд по векторам классов (объектный анализ)

Выше были введены неметрические интегральные критерии сходства объекта, описанного массивом-локатором Ь с обобщенными образами классов 11. (выражения 40-42).

Для непрерывного случая выражение (42) принимает вид:

Таким образом, выражение (45) представляет собой обобщение интегрального критерия сходства конкретного объекта и обобщенного класса (42) для непрерывного случая в координатной форме.

м

( 45 )

Отметим, что коэффициенты ряда Фурье (24) по своей математической форме и смыслу сходны с ненормированными коэффициентами корреляции, т.е. по сути скалярными произведениями для непрерывных функций в координатной форме: выражением (45) между разлагаемой в ряд кривой f(x) и функциями Sin и Cos различных частот и амплитуд [1].

a

f (x ) = —+

2

где :

I

n=1

an cos

+ bn sin

L

1

aG = — J f (x )d

L - L 1 L

L J f (x)c

L - L 1 L

L J f (x)si

( 46 )

an = L

b = —

n L

npx

L

- L

L

dx

dx

где «={1, 2, 3,...} - натуральное число.

Из сравнения выражений (45) и (46) следует вывод о том, что процесс идентификации и прогнозирования (распознавания), реализованный в предложенной математической модели, может рассматриваться как разложение вектора-локатора распознаваемого объекта в ряд по векторам информативностей классов распознавания (которые представляют собой произвольные функции, сформированные при синтезе модели путем многопараметрической типизации на основе эмпирических данных).

Например, результаты идентификации представим на рисунке 2:

|4 13 aJ

Универсальная когнитивная аналитическая система

11:57 (с) нпп *эйдос*

№ анкеты:

Наим.физ.источника:

у Код

38

4S

79

159

157

249

10

49

57

185

182

201

204

198

26

179

Наименование класса

ПРОФЕССИОНАЛЬНО-ВАЖНЫЕ ЛИЧНОСТН УСТОЙЧИВОСТЬ И НАДЕЖНОСТЬ Б ЭКС УСПЕВАЕМОСТЬ ПО ДИСЦ. ГСЭ.02 (И УСПЕВАЕМОСТЬ ПО ДИСЦ. ДН.15 (Ри УСПЕВАЕМОСТЬ ПО ДИСЦ. ДН.15 (Ри УСПЕВАЕМОСТЬ ПО ДИСЦ. СД.25 (ВВ поступление в вуз: поступил

УСТОЙЧИВОСТЬ И НАДЕЖНОСТЬ В ЭКС

УСПЕВАЕМОСТЬ ПО ЦИКЛУ ДН.00 (пр УСПЕВАЕМОСТЬ ПО ДИСЦ. СД.04 (СП УСПЕВАЕМОСТЬ ПО ДИСЦ. СД.03 (Ад УСПЕВАЕМОСТЬ ПО ДИСЦ. СД.09 (Су УСПЕВАЕМОСТЬ ПО ДИСЦ. СД.10 (ДО УСПЕВАЕМОСТЬ ПО ДИСЦ. СД.08 (Бу СЛУЖЕБНО-ПРОФЕССИОНАЛЬНАЯ ПАПРА УСПЕВАЕМОСТЬ ПО ДИСЦ. СД.02 (ОР

31

20

20

16

16

16

13

12

-22

-23

-24

-24

-25

-27

-29

-35

Гистограмма сходств/различий

I

F1 стр. Т F2CTp. 1 РЗпечать карточки РЧпечать всех карточек Р5печать сводной формь*

Рисунок 2. Пример разложения профиля курсанта усл.№69 в ряд по обобщенным образам классов

Продолжая развивать аналогию с разложением в ряд, данный результат идентификации можно представить в векторной аналитической форме:

Кусл№ = 0,31 • I (38) ■+ 0,20 • I (48) + 0,20 • I (79) + 0,16 • I (159) +

• • • •

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

+ 0,16 • I (157) + 0,16 • I (249) +... - 0,35 • I (179) - 0,29 • I (26) -• • • •

- 0,27 • I (198) - 0,25 • I (204) - 0,24 • I (201) - 0,24 • I (182) -... или в координатной форме, более удобной для численных расчетов:

( 47 )

Предполагается, что Ц = {Ь,}» К(,). Таким образом массив-локатор, характеризующий распознаваемый объект, рассматривается как сумма произведений профилей классов на интегральный критерий сходства массива-локатора с этими профилями (т.е. взвешенная суперпозиция или разложение в ряд по профилям классов).

В выражении (47):

1(]) - интегральный критерий сходства массива-локатора, описывающего состояние объекта и .-го класса, рассчитываемый, согласно выражений (42) или (44):

1 М / _ \ / _ч

- Ь ) ( 48 )

I

а j а ,М

i=1

I(i,j) - вектор обобщенного образа j-го класса, координаты которого рассчитываются в соответствии с системным обобщением формулы Хар-кевича (18):

Log 2W j

ґ

4 = Log

\

NNj v J

Log 2 N

( 49 )

Примечание: обозначения 1(1,]) и Т], и т.п. эквивалентны. Смысл всех переменных, входящих в выражения (48) и (49) раскрыт выше.

При дальнейшем развитии данной аналогии естественно возникают вопросы: о полноте, избыточности и ортонормированности системы векторов классов как функций, по которым проводится разложение вектора объекта; о сходимости, т.е. вообще возможности и корректности такого разложения.

В общем случае вектор объекта совершенно не обязательно должен разлагаться в ряд по векторам классов таким образом, что сумма ряда во всех точках точно совпадала со значениями исходной функции. Это означает, что система векторов классов может быть неполна по отношению к профилю распознаваемого объекта, и, тем более, всех возможных объектов.

Предлагается считать не разлагаемые в ряд, т.е. плохо распознаваемые объекты, суперпозицией хорошо распознаваемых объектов (”похожих” на те, которые использовались для формирования обобщенных образов классов), и объектов, которые и не должны распознаваться, так как объекты этого типа не встречались в обучающей выборке и не использовались для формирования обобщенных образов классов, а также не относятся к представляемой обучающей выборкой генеральной совокупности.

Нераспознаваемую компоненту можно рассматривать либо как шум, либо считать ее полезным сигналом, несущим ценную информацию о неисследованных объектах интересующей нас предметной области (в зависимости от целей и тезауруса исследователей). Первый вариант не приводит к осложнениям, так как примененный в математической модели алгоритм сравнения векторов объектов и классов, основанный на вычислении нормированной корреляции Пирсона (сумма произведений), является весьма устойчивым к наличию белого шума в идентифицируемом сигнале. Во втором варианте необходимо дообучить систему распознаванию объектов, несущих такую компоненту (в этой возможности и заключается адаптивность модели). Технически этот вопрос решается просто копированием описаний плохо распознавшихся объектов из распознаваемой выборки в обучающую, их идентификацией экспертами и дообучением системы. Кроме того, может быть целесообразным расширить справочник классов распознавания новыми классами, соответствующими этим объектам, и осуществить пересинтез модели.

Однако на практике гораздо чаще наблюдается противоположная ситуация (можно даже сказать, что она типична), когда система векторов избыточна, т.е. в системе классов распознавания есть очень похожие классы (между которыми имеет место высокая корреляция, наблюдаемая в режиме: "кластерно-конструктивный анализ"). Практически это означает, что в системе сформировано несколько практически одинаковых образов с разными наименованиями. Для исследователя это само по себе является очень ценной информацией. Однако если исходить только из потребности разложения распознаваемого объекта в ряд по векторам классов (чтобы определить суперпозицией каких образов он является, т.е. "разложить его на компоненты"), то наличие сильно коррелирующих друг с другом векторов представляется неоправданным, так как просто увеличивает размерности данных, внося в них мало нового по существу. Поэтому возникает задача исключения избыточности системы классов распознавания, т.е. выбора из всей системы классов распознавания такого минимального их набора, в котором профили классов минимально коррелируют друг с другом, т.е. ортогональны в фазовом пространстве признаков. Это условие в теории рядов называется "ортонормируемостью" системы базовых функций, а в факторном анализе связано с идеей выделения "главных компонент".

В предлагаемой математической модели реализованы два варианта выхода из данной ситуации:

1) исключение неформирующихся, расплывчатых классов;

2) объединение почти идентичных по содержанию (дублирующих друг друга) классов.

Однако выбрать нужный вариант и реализовать его, используя соответствующие режимы, пользователь технологии АСК-анализа должен сам. Вся необходимая и достаточная информация для принятия соответствующих решений предоставляется пользователю инструментария АСК-анализа.

Если считать, что функции образов составляют формальнологическую систему, к которой применима теорема Геделя, то можно сформулировать эту теорему для данного случая следующим образом: "Для любой системы базисных функций в принципе всегда может существовать по крайней мере одна такая функция, что она не может быть разложена в ряд по данной системе базисных функций, т.е. функция, которая является ортонормированной ко всей системе базисных функций в целом ”. Поэтому для адекватного отражения подобных функций в модели необходимо повышение размерности семантического информационного пространства.

Очевидно, не взаимосвязанными друг с другом могут быть только четко оформленные, детерминистские образы, т.е. образы с высокой степенью редукции ("степень сформированности конструкта"). Поэтому в процессе выявления взаимно-ортогональных базисных образов, в первую очередь, будут выброшены аморфные "расплывчатые" образы, которые связаны практически со всеми остальными образами.

В некоторых случаях результат такого процесса представляет интерес, и это делает оправданным его реализацию. Однако можно предположить, что наличие расплывчатых образов в системе является оправданным, так как в этом случае система образов не будет формальной и подчиняющейся теореме Геделя. Следовательно, система распознавания будет более полна в том смысле, что увеличится вероятность идентификации любого объекта, предъявленного ей на распознавание. Конечно, уровень сходства с аморфным образом не может быть столь высоким, как с четко оформленным. Поэтому в этом случае более уместно применить термин "ассоциация" или нечеткая, расплывчатая идентификация, чем "однозначная идентификация".

Итак, можно сделать следующий вывод: допустимость в математической модели СК-анализа не только четко оформленных (детерминистских) образов, но и образов аморфных, нечетких, расплывчатых является важным достоинством данной модели. Это обусловлено тем, что данная модель обеспечивает корректные результаты анализа, идентификации и прогнозирования даже в тех случаях, когда модели идентификации и ин-

формационно-поисковые системы детерминистского типа традиционных АСУ практически неработоспособны. В этих условиях данная модель СК-анализа работает как система ассоциативной (нечеткой) идентификации.

Таким образом, в предложенной семантической информационной модели при идентификации и прогнозировании, по сути, осуществляется разложение векторов идентифицируемых объектов по векторам классов распознавания, т.е. осуществляется "объектный анализ" (по аналогии с спектральным, гармоническим или Фурье-анализом), что позволяет рассматривать идентифицируемые объекты как суперпозицию обобщенных образов классов различного типа с различными амплитудами (25). При этом вектора обобщенных образов классов, с математической точки зрения, представляют собой произвольные функции и не обязательно образуют полную и не избыточную (ортонормированную) систему функций.

Для любого объекта всегда существует такая система базисных функций, что вектор объекта может быть представлен в форме линейной суперпозиции (суммы) этих базисных функций с различными амплитудами. Это утверждение, по-видимому, является одним из следствий фундаментальной теоремы А.Н. Колмогорова, доказанной им в 1957 году (О представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения // Докл. АН СССР, Т. 114, С. 953-956, 1957).

Теорема Колмогорова: Любая непрерывная функция от п переменных Р(х], х2, ..., хп) может быть представлена в виде:

2 п+1^ п . .Л

р(х,_,х2,...,хп) = I (х))

'= V ''=1 0

где gj и И. - непрерывные функции, причем И] не зависят от функции Р.

Эта теорема означает, что для реализации функций многих переменных достаточно операций суммирования и композиции функций одной переменной. Удивительно, что в этом представлении лишь функции gj зависят от представляемой функции Р, а функции И] универсальны. Необходимо отметить, что теорема Колмогорова является обобщением теоремы В.И. Арнольда (1957), которая дает решение 13-й проблемы Гильберта.

К сожалению, определение вида функций И] и gj для данной функции Р представляет собой математическую проблему, для которой пока не найдено общего строгого решения.

В данной работе предлагается рассматривать предлагаемую семантическую информационную модель как один из вариантов решения этой проблемы. В этом контексте функция Г интерпретируется как образ идентифицируемого объекта, функция Ну - образ 1-го класса, а функция 2] - мера сходства образа объекта с образом класса.

Таким образом В статье кратко описана математическая сущность предложенной автором системной теории информации СТИ), являющейся математической моделью системно-когнитивного анализа (СК-анализ) и реализуемой в его программном инструментарии - универсальной аналитической системе "Эйдос" [20, 21].

Литература1

1. Lutsenko E.V. Conceptual principles of the system (emergent) information theory & its ap-

plication for the cognitive modelling of the active objects (entities). 2002 IEEE International Conference on Artificial Intelligence System (ICAIS 2002). -Computer society, IEEE, Los Alamos, California, Washington-Brussels-Tokyo, p. 268-269.

http://csdl2.computer.org/comp/proceedings/icais/2002/1733/00/17330268.pd.

2. Луценко Е. В. Автоматизированный системно-когнитивный анализ в управлении активными объектами (системная теория информации и ее применение в исследовании экономических, социально-психологических, технологических и организационно -технических систем): Монография (научное издание). - Краснодар: КубГАУ. 2002. -605 с.

3. Луценко Е.В. Автоматизированная система распознавания образов, математическая модель и опыт применения // В.И. Вернадский и современность (к 130-летию со дня рождения): Тезисы научно-практической конференции. - Краснодар: КНА, 1993. - С. 37-42.

4. Луценко Е.В. Интеллектуальные информационные системы: Учебное пособие для студентов специальности: 351400 "Прикладная информатика (по отраслям)". - Краснодар: КубГАУ. 2004. - 633 с.

5. Луценко Е.В. Интеллектуальные информационные системы: Учебное пособие с грифами Министерства сельского хозяйства РФ и УМО для студентов специальности "Прикладная информатика (по областям)" и другим экономическим специальностям. 2-е изд., перераб. и доп.- Краснодар: КубГАУ, 2006. - 615 с.

6. Луценко Е.В. Теоретические основы и технология адаптивного семантического анализа в поддержке принятия решений (на примере универсальной автоматизированной системы распознавания образов "ЭЙДОС-5.1"). Монография (научное издание). - Краснодар: КЮИ МВД РФ, 1996. - 280с.

7. Луценко Е.В. АСК-анализ как метод выявления когнитивных функциональных зависимостей в многомерных зашумленных фрагментированных данных / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2005. - №03(11). - Режим доступа: http://ej.kubagro.ru/2005/03/pdf/19.pdf

8. Луценко Е.В. Виртуализация общества как основной информационный аспект глобализации / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2005. - №01(9). - Режим доступа: http://ej.kubagro.ru/2005/01/pdf/02.pdf

9. Луценко Е.В. Количественные меры возрастания эмерджентности в процессе эволюции

систем (в рамках системной теории информации) / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2006. - №05(21). - Шифр Ин-формрегистра: 0420600012\0089. - Режим доступа:

http://ej.kubagro.ru/2006/05/pdf/31.pdf

10. Луценко Е.В. Критерии реальности и принцип эквивалентности виртуальной и "истинной " реальности / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. -

1 Для обеспечения доступа читателей к этим и другим работам они размещены в Мег^ по адресам: Кйр://1с.киЬацго.ru/aidos/ http://ei.kubagro.ru/a/viewaut.asp?id=11

Краснодар: КубГАУ, 2004. - №06(8). - Режим доступа:

http://ei.kubagro.ru/2004/06/pdf/10.pdf

11. Луценко Е.В. Математический метод СК-анализа в свете идей интервальной бутстреп-ной робастной статистики объектов нечисловой природы / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2004. - №01(3). - Режим доступа: http://ei.kubagro.ru/2004/01/pdf/13.pd

12. Луценко Е.В. Программная идея системного обобщения математики и ее применение для создания системной теории информации / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2008. - №02(36). - Шифр Информ-регистра: 0420800012\0016. - Режим доступа: http://ei.kubagro.ru/2008/02/pdf/11.pd

13. Луценко Е.В. Неформальная постановка и обсуждение задач, возникающих при системном обобщении теории множеств на основе системной теории информации (Часть

1-я: задачи 1-3) / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. -Краснодар: КубГАУ, 2008. - №03(37). - Шифр Информрегистра: 0420800012\0031. -Режим доступа: http://ei.kubagro.ru/2008/03/pdf/12.pd

14. Луценко Е.В. Неформальная постановка и обсуждение задач, возникающих при системном обобщении теории множеств на основе системной теории информации (Часть

2-я: задачи 4-9) / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. -Краснодар: КубГАУ, 2008. - №04(38). - Шифр Информрегистра: 0420800012\0049. -Режим доступа: http://ei.kubagro.ru/2008/04/pdf/03.pd

15. Луценко Е.В. Семантическая информационная модель СК-анализа / Е.В. Луценко //

Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2008. -№02(36). - Шифр Информрегистра: 0420800012\0015. - Режим доступа:

http://ei.kubagro.ru/2008/02/pdf/12.pdf

16. Луценко Е.В. Системная теория информации и нелокальные интерпретируемые ней-

ронные сети прямого счета / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2003. - №01(1). - Режим доступа:

http ://ei. kubagro.ru/2003/01/pdf/11.pdf

17. Луценко Е.В. Системно-когнитивный анализ как развитие концепции смысла Шенка -Абельсона / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2004. - №03(5). - Режим доступа: http://ei.kubagro.ru/2004/03/pdf/04.pd

18. Луценко Е.В. Универсальный информационный вариационный принцип развития систем / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2008. - №07(41). - Режим доступа: http://ei.kubagro.ru/2008/07/pdf/10.pd

19. Луценко Е.В. Численный расчет эластичности объектов информационной безопасности на основе системной теории информации / Е.В. Луценко // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2003. - №01(1). - Режим доступа: http://ei.kubagro.ru/2003/01/pdf/05.pdf

20. Пат. № 2003610986 РФ. Универсальная когнитивная аналитическая система "ЭЙДОС" / Е.В.Луценко (Россия); Заяв. № 2003610510 РФ. Опубл. от 22.04.2003. - 50с.

21. Пат. № 940217. РФ. Универсальная автоматизированная система распознавания образов "ЭЙДОС". /Е.В.Луценко (Россия); Заяв. № 940103. Опубл. 11.05.94. - 50с.

22. Перегудов Ф.И., Тарасенко Ф.П. Введение в системный анализ: Учебное пособие. - М.: Высшая школа, 1997. - 389с.

i Надоели баннеры? Вы всегда можете отключить рекламу.