Научная статья на тему 'Программная идея системного обобщения математики и ее применение для создания системной теории информации'

Программная идея системного обобщения математики и ее применение для создания системной теории информации Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
281
164
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МНОЖЕСТВО / СИСТЕМА / МАТЕМАТИКА / ТЕОРИЯ ИНФОРМАЦИИ / ОБОБЩЕНИЕ / УРОВЕНЬ СИСТЕМНОСТИ / КОЭФФИЦИЕНТЫ ЭМЕРДЖЕНТНОСТИ / SET / SYSTEM / MATHEMATICS / INFORMATION THEORY / GENERALIZATIONS / EMERGENTNESS COEFFICIENTS / LEVEL OF SYSTEMIC CHARACTERS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Луценко Евгений Вениаминович

В статье формулируется и обосновывается программная идея системного обобщения математики, суть которой состоит в тотальной замене понятия "множество" на более общее понятие "система" и прослеживании всех последствий этого. При этом обеспечивается соблюдение принципа соответствия, обязательного для более общей теории, т.к. система с нулевым уровнем системности есть множество. Приводится развернутый пример реализации этой программной идеи, в качестве которого выступает предложенная автором системная теория информации, являющаяся системным обобщением теории информации Найквиста Больцмана Хартли Шеннона и семантической теории информации Харкевича.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Луценко Евгений Вениаминович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Программная идея системного обобщения математики и ее применение для создания системной теории информации»

УДК 303.732.4

ПРОГРАММНАЯ ИДЕЯ СИСТЕМНОГО ОБОБЩЕНИЯ МАТЕМАТИКИ И ЕЕ ПРИМЕНЕНИЕ ДЛЯ СОЗДАНИЯ СИСТЕМНОЙ ТЕОРИИ ИНФОРМАЦИИ

Луценко Евгений Вениаминович д. э. н., к. т. н., профессор

Кубанский государственный аграрный университет, Краснодар, Россия

В статье формулируется и обосновывается программная идея системного обобщения математики, суть которой состоит в тотальной замене понятия "множество" на более общее понятие "система" и прослеживании всех последствий этого. При этом обеспечивается соблюдение принципа соответствия, обязательного для более общей теории, т.к. система с нулевым уровнем системности есть множество. Приводится развернутый пример реализации этой программной идеи, в качестве которого выступает предложенная автором системная теория информации, являющаяся системным обобщением теории информации Найквиста -Больцмана - Хартли - Шеннона и семантической теории информации Харкевича.

Ключевые слова: МНОЖЕСТВО, СИСТЕМА, МАТЕМАТИКА, ТЕОРИЯ ИНФОРМАЦИИ, ОБОБЩЕНИЕ, УРОВЕНЬ СИСТЕМНОСТИ, КОЭФФИЦИЕНТЫ ЭМЕРДЖЕНТНОСТИ.

UDC 303.732.4

PROGRAMMING IDEA OF SYSTEMIC GENERALIZATION OF MATHEMATICS AND ITS APPLICATION FOR CREATION OF SYSTEMIC INFORMATION THEORY

Lutsenko Evgeny Veniaminovich

Dr. Sci. Econ., Cand. Tech. Sci., professor

Kuban State Agrarian University, Krasnodar, Russia

Programming idea of systemic generalization of mathematics, essence of which consists of total change of meaning "set" on more common meaning "system" and tracing of all consequences of it is formulated and generalized in the article. Observance of adequacy principle, which is mandatory for more common theory is provided under it, because a system with zero level of systemic character is set. Expanded example of realization of this programming idea as a systemic information theory, which is systemic generalization of information theory of Nikewest-Boltzman-Hartley-Shannon and semantic information theory of Kharkevich , which was offered by the author, is brought.

Key words: SET, SYSTEM, MATHEMATICS, INFORMATION THEORY, GENERALIZATION, LEVEL OF SYSTEMIC CHARACTER, EMERGENTNESS COEFFICIENTS.

Фундаментом, находящимся в самом основании грандиозного здания современной математики, являются понятие множества и теория множеств. Теория множеств лежит в основе самого глубокого в настоящее время обоснования таких базовых математических понятий, как "число" и "функция". Определенное время этот фундамент казался незыблемым. Однако вскоре в работах выдающихся ученых XX века, прежде всего, Давида Гильберта, Бертрана Рассела и Курта Геделя, со всей очевидностью было обнажены фундаментальные логические и лингвистические проблемы, в частности, проявляющиеся в форме парадоксов теории множеств. Это, в свою очередь, привело к появлению ряда развернутых предложений по пересмотру самых глубоких оснований математики. В задачи данной статьи не входит рассмотрение этой интереснейшей проблематики, а также истории возникновения и развития понятий числа и функции.

Однако очевиден тот факт, что Вселенная состоит из систем различных уровней иерархии.

Система представляет собой множество элементов, объединенных в целое за счет взаимодействия элементов друг с другом, т.е. за счет отношений между ними, и обеспечивает преимущества в достижении целей.

Преимущества в достижении целей обеспечиваются за счет системного эффекта.

Системный эффект состоит в том, что свойства системы не сводятся к сумме свойств ее элементов, т.е. система, как целое, обладает рядом новых, т.е. эмерджентных свойств, которых не было у ее элементов, взятых по отдельности [17].

Уровень системности тем выше, чем выше интенсивность взаимодействия элементов системы и сильнее отличаются свойства системы от свойств входящих в нее элементов, т.е. чем выше системный эффект, чем значительнее отличается система от множества [16].

Таким образом, система обеспечивает тем большие преимущества в достижении целей, чем выше ее уровень системности [16].

В частности, система с нулевым уровнем системности вообще ничем не отличается от множества образующих ее элементов, т.е. тождественна этому множеству и никаких преимуществ в достижении целей не обеспечивает. Этим самым достигается выполнение принципа соответствия между понятиями системы и множества, обязательного для более общей теории. Из соблюдения этого принципа для понятий множества и системы следует его соблюдение для математических понятий, в частности, понятий системной теории информации [1, 19], основанных на теории множеств и их системных обобщений.

Поэтому проблема, решаемая в данной статье, состоит в явном несоответствии между системным характером объекта познания и несистемным характером современной математики, как средства познания. Он заключается в том, что, с одной стороны, мир, как объект познания, представляет собой совокупность систем различных уровней иерархии, а с другой - математика, как наиболее мощное средство познания и моделирования этого мира, основана не на теории систем, а на теории множеств.

Общеизвестна эффективность математики, которая тем более удивительна, если учесть, что она достигается уже фактически в нулевом приближении, т.е. при рассмотрении систем как множеств. Так, как может возрасти адекватность математики и ее мощь, как средства познания и универсального языка моделирования реальности, если удастся получить ее системное обобщение! Поэтому, на взгляд автора, актуальность разработки системного обобщения математики совершенно очевидна.

Предлагается следующая программная идея системного обобщения математики: обобщить все понятия математики, базирующиеся на теории множеств, путем тотальной замены понятия множества

на понятие системы и тщательного отслеживания всех последствий этой замены.

Реализация данной программной идеи потребует, прежде всего, системное обобщение самой теории множеств и преобразование ее в "Математическую теорию систем", которая, согласно принципу соответствия, будет плавно переходить в современную классическую теорию множеств при уровне системности, стремящемся к нулю. При этом необходимо заметить, что существующая в настоящее время наука под названием "Теория систем" (а также: системный анализ, системный подход, информационная теория систем и т.п.) ни в коей мере не является обобщением математической теории множеств, и ее не следует путать с предлагаемой "Математической теорией систем". На наш взгляд, существуют некоторые возможности обобщения ряда понятий математики и без разработки математической теории систем. К таким понятиям относятся, прежде всего, "информация" и "функция".

Системному обобщению понятия информации посвящены работы [1-20] и др. На основе предложенной системной теории информации (СТИ) были разработаны математическая модель и методика численных расчетов (структуры данных и алгоритмы), а также специальный программный инструментарий (система "Эйдос") автоматизированного системно-когнитивного анализа (АСК-анализ), который представляет собой системный анализ, автоматизированный путем его рассмотрения как метода познания и структурирования по базовым когнитивным операциям.

В АСК-анализе теоретически обоснована и реализована на практике в форме конкретной информационной методики и технологии процедура установления новой универсальной, сопоставимой в пространстве и времени, ранее не используемой количественной, т.е. выражаемой числами, меры соответствия между событиями или явлениями любого рода, получившей название "системная мера целесообразности информации", которая, по сути, является количественной мерой знаний [18]. Это является достаточным основанием для того, чтобы назвать эти числа "когнитивными" от английского слова "cognition" - "познание".

В настоящее время под функцией понимается соответствие друг другу нескольких множеств чисел. Поэтому виды функций можно классифицировать, по крайней мере, в зависимости от:

- природы этих чисел (натуральные, целые, дробные, действительные, комплексные и т.п.);

- количества и вида множеств чисел, связанных друг с другом в функции (функции одного, нескольких, многих, счетного или континуального количества аргументов, однозначные и многозначные функции, дискретные или континуальные функции);

- степени жесткости и меры силы связи между множествами чисел (детерминистские функции, функции, в которых в качестве меры связи используется вероятность, корреляция и другие меры);

- степени расплывчатости чисел в множествах и самой формы функции (четкие и нечеткие функции, использование различных видов шкал, в частности, интервальных оценок).

Так как функции, выявляемые модели предметной области методом АСК-анализа, связывают друг с другом множества когнитивных чисел, то предлагается называть их "когнитивными функциями" [20]. Учитывая перечисленные возможности классификации когнитивных функций, можно считать недетерминистскими многозначными функциями многие аргументы, в которых в качестве меры силы связи между множествами используется количественная мера знаний, т.е. системная мера целесообразности информации, основанными на интервальных оценках, номинальных и порядковых шкалах и шкалах отношений [20]. Отметим, что детерминистские однозначные функции нескольких аргументов могут рассматриваться как частный случай когнитивных функций, к которому они сводятся при анализе жестко детерминированной предметной области, скажем макроскопических механических явлений, описываемых классической физикой [15].

Автором предлагается программная идея системного обобщения понятий математики, в частности теории информации, основанных на теории множеств, путем замены понятия множества на более содержательное понятие системы. Частично эта идея была реализована автором при разработке автоматизированного системно-когнитивного анализа (АСК-анализа), математическая модель которого основана на системном обобщении формул для количества информации Хартли и Харкевича. Реализация следующего шага - системное обобщение понятия функциональной зависимости рассматривается в работе [20], в ней же вводятся новые научные понятия и соответствующие термины "когнитивные функции" и "когнитивные числа". На численных примерах показано, что АСК-анализ обеспечивает выявление когнитивных функциональных зависимостей в многомерных зашумленных фрагментированных данных. В качестве примера применения программной идеи системного обобщения математики кратко рассмотрим ниже системное обобщение классической и семантической теории информации.

Теоретические основы системной теории информации

Получим системное обобщение формулы Хартли для количества информации. Классическая формула Хартли имеет вид:

I = Log2W. (1)

Будем искать ее системное обобщение в виде:

I = Log 2W j, (2)

где W - количество чистых (классических) состояний системы; j - коэффициент эмерджентности Хартли (уровень системной организации объекта, имеющего W чистых состояний), названный автором так в честь этого выдающегося ученого, являющегося одним из основателей теории классической информации.

Учитывая, что возможны смешанные состояния, являющиеся нелинейной суперпозицией или одновременной реализацией чистых (классических) состояний "из W по m", всего возможно cm состояний системы, являющихся сочетаниями классических состояний. Таким образом, на основании этих рассуждений примем за аксиому, что системное обобщение формулы Хартли имеет вид:

м

i=Log2 £ cm, (3)

m=1

где W - количество элементов в системе альтернативных будущих состояний АОУ (количество чистых состояний); m - сложность смешанных состояний АОУ; M - максимальная сложность смешанных состояний АОУ.

Выражение (1) дает количество информации в активной системе, в которой чистые и смешанные состояния равновероятны. Смешанные состояния активных систем, возникающие под действием системы нелинейно-взаимодействующих факторов, считаются такими же измеримыми, как и чистые альтернативные состояния, возникающие под действием детерминистских факторов. Так как cW = W, то при M=1 выражение (3) приобретает вид (1), т.е. выполняется принцип соответствия, являющийся обязательным для более общей теории.

Рассмотрим подробнее смысл выражения (3), представив сумму в виде ряда слагаемых:

I = Log 2(CW + CW +... + CM). (4)

Первое слагаемое в (4) дает количество информации по классической формуле Хартли, а остальные слагаемые - дополнительное количество информации, получаемое за счет системного эффекта, т.е. за счет наличия у системы иерархической структуры или смешанных состояний. По сути, эта дополнительная информация об иерархической структуре системы, как состоящей из ряда подсистем различных уровней сложности.

Учитывая, что приM=W, как известно из статистики:

м

£ cm=2W -1, (5)

m=1

в этом случае получаем

I = Log2(2w -1). (6)

Выражение (5) дает оценку максимальному количеству информации, которое может содержаться в элементе системы с учетом его вхождения в различные подсистемы ее иерархической структуры.

Однако реально в любой системе осуществляются не все формально возможные сочетания элементов 1-го уровня иерархии, т.к. существуют различные правила запрета для разных систем. Это означает, что возможно множество различных систем, состоящих из одинакового количества тождественных элементов и отличающихся своей структурой, т.е. строением подсистем различных иерархических уровней. Эти различия систем возникают благодаря различию действующих для них правил запрета. По этой причине систему правил запрета предлагается назвать информационным проектом системы. Различные системы, состоящие из равного количества одинаковых элементов (например, дома, состоящие из 20000 кирпичей), отличаются друг от друга именно по причине различия своих информационных проектов.

Из выражения (5) очевидно, что I быстро стремится к Ш:

при Ш ® ¥

/ ® Ш . (7)

В действительности, при Ш>4 погрешность выражения (5) не превышает 1 %.

Приравняв правые части выражений (2) и (3):

M

I = Log2Wj = Log2 X cm , (8)

m=1

получим выражение для 1-го коэффициента эмерджентности, впервые полученное автором в 1981 году и названное в честь одного из основателей научной теории информации "коэффициент эмерджентности Хартли" (терм. авт.):

(9)

По виду выражения непосредственно для коэффициента эмерджентности Хартли (9) ясно, что он представляет собой относительное превышение количества информации о системе при учете системных эффектов (смешанных состояний, иерархической структуры ее подсистем и т.п.) над количеством информации без учета системности, т.е. этот коэффициент отражает уровень системности объекта.

С учетом выражения (9) выражение (2) примет вид:

M

Log2 X CW

-m=L (10)

I(W, M) = Log2W LogW

или при M=W и больших W, учитывая (4-6), http://ej .kubagro.ru/2008/02/pdf/11 .pdf

I(Ш, М) = = Ш . (11)

Выражение (10) представляет собой искомое системное обобщение классической формулы Хартли, а выражение (11) - его достаточно хорошее приближение при большом количестве элементов или состояний системы (Ш).

Коэффициент эмерджентности Хартли представляет собой относительное превышение количества информации о системе при учете системных эффектов (смешанных состояний, иерархической структуры ее подсистем и т.п.) над количеством информации без учета системности, т.е. этот коэффициент является аналитическим выражением для уровня системности объекта. Таким образом, коэффициент эмерджентности Хартли отражает уровень системности объекта и изменяется от 1 (системность минимальна, т.е. отсутствует) до WLog2W (системность максимальна). Очевидно, для каждого количества элементов системы существует свой максимальный уровень системности, который никогда реально не достигается из-за действия правил запрета на реализацию в системе ряда подсистем различных уровней иерархии.

Анализ выражения (9) показывает, что при М=1 оно преобразуется в (1), т.е. выполняется принцип соответствия. При М>1 количество информации в соответствии с системной теорией информации (СТИ) (9) будет превосходить количество информации, рассчитанное по классической теории информации (КТИ) (1). Непосредственно из выражения (2) получаем:

I (Ш, М) = Ьо%2Ш + Ьо%2Ш . (12)

Первое слагаемое в выражении (12) отражает количество информации, согласно КТИ, а второе - СТИ, т.е. доля системной информации.

Представляет несомненный научный и практический интерес исследование закономерностей изменения доли системной информации в поведении элемента системы в зависимости от количества классов Ш и сложности смешанных состояний М.

Рост количества информации в СТИ, по сравнению с КТИ, обусловлен системным эффектом (эмерджентностью), который связан с учетом смешанных состояний, возникающих путем одновременной реализации (суперпозиции) нескольких чистых (классических) состояний под действием системы нелинейно-взаимодействующих недетерминистских факторов. Выражение (9) дает максимально возможную оценку количества информации, т.к. могут существовать различные правила запрета на реализацию тех или иных смешанных состояний.

Фактически это означает, что в СТИ множество возможных состояний объекта рассматривается не как совокупность несвязанных друг с другом состояний, как в КТИ, а как система, уровень системности которой

как раз и определяется коэффициентом эмерджентности Хартли j (9), являющегося монотонно возрастающей функцией сложности смешанных состояний M. Следовательно, дополнительная информация, которую мы получаем из поведения объекта в СТИ, по сути, является информацией о системе всех возможных состояний объекта, элементом которой является объект в некотором данном состоянии.

Гипотеза о законе возрастания эмерджентности и следствия из него

Численные расчеты и аналитические выкладки, в соответствии с СТИ, показывают, что при возрастании количества элементов в системе доля системной информации в поведении ее элементов возрастает. Это обнаруженное нами новое фундаментальное свойство систем предлагается назвать законом возрастания эмерджентности.

Закон возрастания эмерджентности: "Чем больше элементов в системе, тем большую долю содержащейся в ней информации составляет информация, содержащаяся во взаимосвязях ее элементов".

Более детальный анализ гипотезы о законе возрастания эмерджент-ности с использованием конечных разностей первого и второго порядка показывает, что при увеличении количества элементов в системе доля системной информации в ней возрастает с ускорением, которое постепенно уменьшается. Это утверждение будем называть леммой 1.

Продолжим анализ закона возрастания эмерджентности, учитывая,

что

W!

C™_

W m!(W - m)!'

Выражение (3) принимает вид:

M W!

1 _ L°g2 -Т7, (13)

m_1 m!(W - m)!

где 1<=М<=Ш.

т т M W!

1 _ L°g2Х"

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

M 1

W !^-Т771

m_1 m!(W - m)!

f M

_Log2 .

^ m!(W - m)!,

m i

_ Log 2 (W!)+ Log 2 Х—--_

m_i m!(W - m)!

W M 1

_ Х Log 2 n + Log 2 Х-

52 52m_1 m!(W - m)!

и учитывая, что Log21=0, выражение (13) приобретает вид:

W

M

I = £ Log2 n + Log2 £

1

n

n=2 "2 m!(W - m)!

= I (W) +1 (W, M) где введены обозначения:

W

(14)

I(W) = £ Log2n

n=2

M

I (W, M) = Log 2 £

1

(15)

^ т!(Ш - т)!

С учетом (14) выражение (9) для коэффициента эмерджентности Хартли приобретает вид:

Ш М 1

12!!!!! + ^2 £

Заменим в (13) факториал на гамма-функцию, получаем обобщение выражения (3) на непрерывный случай:

О(Ш)

M

I =Log2 J

= I G(m) ■ G(W - m)

dm =

= Log 2

M

G(W) ■ J

dm

= G(m) ■ G(W - m)

M

= Log2G(W) + Log2 J

dm

или окончательно

M

I = LogG(W) + Log2 J

= G(m) ■ G(W - m) dm

¿1 G(m) ■ G(W - m) . I (W) +1 (W, M)

Для непрерывного случая обозначения (15) принимают вид: I (W) = Log 2G (W)

(16)

M

I (W,M) = Log2 J

dm

_ (17)

¿1О(т) ■ 0(Ш - т)

С учетом выражения (9) и (16), получим выражение для коэффициента эмерджентности Хартли для непрерывного случая:

. йш

Ьо% 2 ) + ^ 2 |

_ ш=10(ш) • 0(Ж - ш) _

^ 2Ж "

М 1

г аш

_ ^20(Ж) + 02 ш_10(ш) • 0(Ж - ш)

и окончательно для непрерывного случая:

м 1 г аш I -

20(Ж) + 62 ш_10(ш) • в(Ж - ш) (18)

В ходе анализа выражений (14) и (16) видим, что количество информации, получаемое при выборке из системы некоторого ее элемента, состоит из двух слагаемых:

1) 1(Ж), зависящее только от количества элементов в системе Ж (первое слагаемое);

2) 1(Ж, М), зависящее как от количества элементов в системе Ж, так и от максимальной сложности, т.е. связности элементов подсистем М между собой (второе слагаемое).

Этот результат позволяет высказать гипотезы "О природе сложности системы" и "О видах системной информации":

- сложность системы определяется количеством содержащейся в ней информации;

- системная информация включает две составляющие: зависящее от количества элементов системы и зависящее также от характера взаимосвязей элементов.

Рассмотрим, какой относительный вклад вносит каждое слагаемое в общее количество информации системы в зависимости от числа элементов в системе Ж и сложности подсистем М. Результаты численных расчетов показывают, что чем выше уровень системности, тем большая доля информации системы содержится во взаимосвязях ее элементов, и чем меньше элементов в системе, тем быстрее возрастает доля информации, содержащейся во взаимосвязях элементов при возрастании уровня системности. Эти утверждения будем рассматривать как леммы 2 и 3. Таким образом, полная формулировка гипотезы о законе возрастания эмерджент-ности с гипотезой о видах информации в системе и тремя леммами приобретает вид:

ГИПОТЕЗА О ЗАКОНЕ ВОЗРАСТАНИЯ ЭМЕРДЖЕНОСТИ: "Чем больше элементов в системе, тем большую долю содержащейся в ней информации составляет информация, содержащаяся во взаимосвязях ее элементов" (рисунок 1).

Гипотеза 1: "О природе сложности системы": сложность системы определяется количеством содержащейся в ней информации.

Гипотеза 2: "О видах системной информации": системная информация включает две составляющие:

- зависящую от количества элементов системы;

- зависящую как от количества элементов системы, так и от сложности взаимосвязей между ними.

Лемма-1: при увеличении количества элементов в системе доля системной информации в ней возрастает с ускорением, которое постепенно уменьшается.

Лемма-2: чем выше уровень системности, тем большая доля информации системы содержится во взаимосвязях ее элементов.

Лемма-3: чем меньше элементов в системе, тем быстрее возрастает доля информации, содержащейся во взаимосвязях элементов при возрастании уровня системности.

Рисунок 1 - Закон возрастания эмерджентности

Системное обобщение классической формулы Харкевича как количественная мера знаний

Это обобщение представляет большой интерес в связи с тем, что А. Харкевич впервые ввел в теорию информации понятие цели. Он считал, что количество информации, сообщенное объекту, можно измерять по изменению вероятности достижения цели этим объектом за счет использования им этой информации.

Рассмотрим таблицу, в которой столбцы соответствуют будущим состояниям объекта управления (целевым и нежелательным), а строки - факторам, характеризующим объект сам управления, в т.ч. его прошлые состояния, управляющую систему (технологические факторы) и окружающую среду.

Классическая формула А. Харкевича имеет вид: http://ej .kubagro.ru/2008/02/pdf/11 .pdf

Ij (W, M) = Log2 P , (19)

где W - количество классов (мощность множества будущих состояний объекта управления);

M - максимальный уровень сложности смешанных состояний объекта управления;

индекс i обозначает фактор: 1£ i £ M;

индекс j обозначает класс: 1£ j £ W;

Pij - вероятность достижения объектом управления j-й цели при условии сообщения ему i-й информации;

Pj - вероятность самопроизвольного достижения объектом управления j-й цели.

Далее глобальные параметры модели W и M в выражениях для I опускаются, т.к. они являются константами для конкретной математической модели.

Однако А. Харкевич в своем выражении для количества информации не ввел зависимости количества информации от мощности пространства будущих состояний объекта управления, в т.ч. от количества его целевых состояний. Один из возможных вариантов учета количества будущих состояний объекта управления обеспечивается классической и системной формулами Хартли (1) и (9). Выражение (19) при подстановке в него реальных численных значений вероятностей Pij и Pj не дает количества информации в битах. Для выражения (19) не выполняется принцип соответствия, считающийся обязательным для обобщающих теорий. Возможно, в этом состоит одна из причин слабого взаимодействия классической теории информации Шеннона и семантической теории информации.

Поставим задачу - математическим путем получить такое обобщение классической формулы Харкевича, которое удовлетворяло бы принципу соответствия. Для этого приближенно выразим вероятности Pij, Pi и Pj через частоты:

P = NjL . P = N. P = NL .

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

l N ' i N' l N '

i (20)

W M W M , v '

N=X NL ; NL = X NL ;N=XX N

j=1 i=1 i=1 j=1

где

Nj - суммарное количество наблюдений факта: "действовал i-й фактор и объект перешел в j-е состояние";

Nj - суммарное количество встреч различных факторов у объектов, перешедших в j-е состояние;

N - суммарное количество встреч i-го фактора у всех объектов;

N - суммарное количество встреч различных факторов у всех объектов.

Подставим в выражение (19) значения для Pj и Pj из (20):

NN

Ij = L°g2 j . (21)

Введем некий коэффициент Y в модифицированную формулу А. Харкевича, и найдем такое выражение для этого коэффициента, которое обеспечит выполнение поставленных выше условий:

Ij = Log 2

Г Л^

(22)

Выражение для коэффициента ¥ впервые получено автором в 1981 году [6]. Этот коэффициент был назван автором "коэффициент эмерд-жентности Харкевича" в честь выдающегося отечественного ученого, который впервые ввел понятия цели и смысла в теорию информации, предложил количественную меру знаний и заложил основы семантической теории информации. Как будет показано выше, коэффициент эмерджентно-сти Харкевича определяет степень детерминированности объекта с уровнем системной организации ф, имеющем Ж чистых состояний, на переходы в которые оказывают влияние М факторов, о чем в модели накоплено N фактов.

Известно, что классическая формула Шеннона для количества информации для неравновероятных событий преобразуется в формулу Хартли при условии, что события равновероятны, т.е. удовлетворяют фундаментальному принципу соответствия.

Обобщенная формула Харкевича также удовлетворяет аналогичному принципу соответствия, т.е. преобразуется в формулу Хартли в предельном случае, когда каждому классу (состоянию объекта) соответствует один признак (фактор) и каждому признаку - один класс, а эти классы (а значит, и признаки) равновероятны. Факторов столько, сколько и будущих состояний объекта управления, все факторы детерминистские, а состояния объекта управления - альтернативные, т.е. каждый фактор однозначно определяет переход объекта управления в определенное состояние.

В этом предельном случае отпадает необходимость двухвекторного описания объектов, при котором 1-й вектор (классификационный) содержит интегральное описание объекта, как принадлежащего к определенным классам, а 2-й вектор (описательный) - дискретное его описание, как имеющего определенные атрибуты. Соответственно, двухвекторная модель, предложенная в данной работе, преобразуется в "вырожденный" частный случай - стандартную статистическую модель. В этом случае количество информации, содержащейся в признаке о принадлежности объекта

к классу, является максимальным и равным количеству информации, вычисляемому по системной формуле Хартли (9).

Таким образом. при взаимно-однозначном соответствии классов и признаков:

У^ = N = = 1 (23)

формула А. Харкевича (13) приобретает вид:

I- = ^2 N * = ЬС82Ж 9 (24)

откуда

LogWj

Log2 N

(25)

или, учитывая выражение для коэффициента эмерджентности Хартли (8):

Y = Log2W Log2W (26)

Log 2 N

Смысл коэффициента эмерджентности Харкевича (25) проясняется, если учесть, что при количестве состояний системы W, равном количеству фактов N о действии на эту систему различных факторов, он равен 1. В этом случае факторы однозначно определяют состояния объекта управления, т.е. являются детерминистскими. Если количество фактов N о действии на эту систему различных факторов превосходит количество ее состояний W, что является гораздо более типичным случаем, то этот коэффициент меньше 1. По-видимому, это означает, что в этом случае факторы, как правило, не однозначно (и не так жестко как детерминистские) определяют поведение объекта управления, т.е. являются статистическими.

Таким образом, коэффициент эмерджентности Харкевича Y изменяется от 0 до 1 и определяет степень детерминированности системы:

Y=1 - соответствует полностью детерминированной системе, поведение которой однозначно определяется действием минимального количества факторов, которых столько, сколько состояний системы;

Y=0 - соответствует полностью случайной системе, поведение которой никак не зависит действия факторов независимо от их количества;

0<Y<1 - соответствуют большинству реальных систем, поведение которых зависит от многих факторов, число которых превосходит количество состояний системы, причем ни одно из состояний не определяется однозначно никакими сочетаниями действующих факторов (рисунок 2).

M

Log2 z cm

m=1

Рисунок 2 - Интерпретация коэффициентов эмерджентности СТИ

Из выражения (25) видно, что в частном случае, когда реализуются только чистые состояния объекта управления, т.е. М=1, коэффициент эмерджентности А. Харкевича приобретает вид:

(27)

Подставив коэффициент эмерджентности А. Харкевича (25) в выражение (22), получим:

4 = Ь°ё 2

С NN ^

к NiN^

V 1 1 J

= ^ 2

NN Л

к N1N1 V 11J

^ 2Ж *

2 N

^ 2

С N Л

V

к N1N1 V 11J

+ N

О2ш*

С N Л

у

V 11J

+ ^ 2Ж *

или окончательно

(28)

Из вида выражения (25) для очевидно, что увеличение уровня системности влияет на семантическую информационную модель (28) аналогично повышению уровня детерминированности системы: понижение уровня системности, так же как и степени детерминированности системы приводит к ослаблению влияния факторов на поведение системы, т.е. приводит к понижению управляемости системы за счет своего рода "инфляции факторов".

С помощью выражения (28) непосредственно из матрицы абсолютных частот рассчитывается матрица информативностей, содержащая связи между факторами и будущими состояниями АОУ, имеющая много различных интерпретаций и играющая основополагающую роль в данном исследовании.

Из анализа основополагающего выражения (28) видно, что:

1. При выполнении условий взаимно-однозначного соответствия классов и признаков (23) первое слагаемое в выражении (28) обращается в ноль, и при всех реальных значениях входящих в него переменных оно отрицательно.

2. Выражение (28) является нелинейной суперпозицией двух выражений: системного общения формулы Хартли (второе слагаемое) и первого слагаемого, которое имеет вид формулы Шеннона для плотности информации и отличается от него тем, что выражение под логарифмом находится в степени, которая совпадает с коэффициентом эмерджентности Харкевича, а также способом взаимосвязи входящих в него абсолютных частот с вероятностями.

Это дает основание предположить, что первое слагаемое в выражении (28) является одной из форм системного обобщения выражения Шеннона для плотности информации:

Поэтому вполне оправданным будет назвать степень в (29) коэффициентом эмерджентности Шеннона - Харкевича.

Вывод. В статье формулируется и обосновывается программная идея системного обобщения математики, суть которой состоит в тотальной замене понятия "множество" на более общее понятие "система" и прослеживание всех последствий этого. При этом обеспечивается соблюдение принципа соответствия, обязательного для более общей теории, т.к. система с нулевым уровнем системности есть множество. Приводится развернутый пример реализации этой программной идеи, в качестве которого выступает предложенная автором системная теория информации, являющаяся системным обобщением теории информации Найквиста - Больцмана -Хартли - Шеннона и семантической теории информации Харкевича.

Необходимо отметить, что сходные идеи независимо развиваются В.Б. Вяткиным в работах [21], посвященных созданию синергетической теории информации (считаю это название очень удачным). Видимо, подобные идеи буквально "витают в воздухе".

( N.. \LogN

(29)

Список литературы

1. Луценко Е. В. Автоматизированный системно-когнитивный анализ в управлении активными объектами (системная теория информации и ее применение в исследовании экономических, социально-психологических, технологических и организационно-технических систем): Монография (научное издание). - Краснодар: КубГАУ, 2002.

- 605 с.

2. Луценко Е.В. Интеллектуальные информационные системы: Учебное пособие для студентов специальности "Прикладная информатика (по областям)" и другим экономическим специальностям. 2-е изд., перераб. и доп.- Краснодар: КубГАУ, 2006. -615 с.

3. Луценко Е.В. Теоретические основы и технология адаптивного семантического анализа в поддержке принятия решений (на примере универсальной автоматизированной системы распознавания образов "ЭЙДОС-5.1"). - Краснодар: КЮИ МВД РФ, 1996. - 280 с.

4. Симанков В.С., Луценко Е.В. Адаптивное управление сложными системами на основе теории распознавания образов. Монография (научное издание). - Краснодар: ТУ КубГТУ, 1999. - 318 с.

5. Симанков, В.С. Системный анализ в адаптивном управлении: Монография (научное издание) / В.С. Симанков, Е.В. Луценко, В.Н. Лаптев; Под науч. ред. В.С. Си-манкова. - Краснодар: ИСТЭК КубГТУ, 2001. - 258 с.

6. Луценко Е.В. Автоматизированная система распознавания образов, математическая модель и опыт применения // В.И. Вернадский и современность (к 130-летию со дня рождения)": Сборник. Тезисы научно-практической конференции. - Краснодар, КНА, 1993. - С. 37-42.

7. Луценко Е.В. Системно-когнитивный анализ детерминистско-бифуркационной динамики активных систем // Проблемы совершенствования систем защиты информации, образовательного процесса и электроснабжения военных объектов // Межвузовский сборник научных работ. - 2002. - № 3. - С. 50-53.

8. Луценко Е.В. Интерференция последствий выбора в результате одновременного осуществления альтернатив и необходимость разработки системной (эмерджент-ной) теории информации // Проблемы совершенствования систем защиты информации, образовательного процесса и электроснабжения военных объектов: Межвузовский сборник научных работ. - 2002. - № 3. - С. 72-74.

9. Луценко Е.В. Теоретические основы системной (эмерджентной) теории информации // Проблемы совершенствования систем защиты информации, образовательного процесса и электроснабжения военных объектов: Межвузовский сборник научных работ. - 2002. - № 3. - С. 84-93.

10. Lutsenko E.V. Conceptual principles of the system (emergent) information theory & its application for the cognitive modelling of the active objects (entities). 2002 IEEE International Conference on Artificial Intelligence System (ICAIS 2002). -Computer society, IEEE, Los Alamos, California, Washington-Brussels-Tokyo, p. 268-269. http://csdl2.computer.org/comp/proceedings/icais/2002/1733/00/17330268.pdf

11. Луценко Е.В. Расчет эластичности объектов информационной безопасности на основе системной теории информации // Безопасность информационных технологий.

- М.: МИФИ, 2003. - № 2. - С. 82-90.

12. Луценко Е.В. Концептуальные основы системной (эмерджентной) теории информации и ее применение для когнитивного моделирования активных объектов // Перспективные информационные технологии и интеллектуальные системы. - 2003. -№ 1. - С. 23-27.

13. Луценко Е.В. Нелокальные интерпретируемые нейронные сети прямого счета, как инструмент системно-когнитивного анализа // Изв. вузов. Северо-Кавказский регион. Технические науки. Приложение № 3. - 2003. - С. 3-12.

14. Луценко Е.В. Системная теория информации и нелокальные интерпретируемые нейронные сети прямого счета // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2003. - №01(1). - Режим доступа: http://ei.kubagro.ru/2003/01/11/p11.asp.

15. Луценко Е.В. Взаимосвязь эластичности и системной меры целесообразности информации // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2003. - №01(1). - Режим доступа: http://ei.kubagro.ru/2003/01/05/p05.asp.

16. Луценко Е.В. Количественные меры возрастания эмерджентности в процессе эволюции систем (в рамках системной теории информации) // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2006. - №05(21). - Режим доступа: http://ei .kubagro.ru/2006/05/pdf/31 .pdf.

17. Луценко Е.В. Существование, несуществование и изменение как эмерджент-ные свойства систем // КМ. Т. 5. Вып. 1. С. 1215-1239, 2008. [Электронный ресурс]. -Режим доступа: http://quantmagic.narod.ru/volumes/VOL512008/p 1215. html.

18. Луценко Е.В. Системно-когнитивный анализ как развитие концепции смысла Шенка - Абельсона // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2004. - №03(5). - Режим доступа: http://ei.kubagro.ru/2004/03/04/p04.asp.

19. Луценко Е.В. Математический метод СК-анализа в свете идей интервальной бутстрепной робастной статистики объектов нечисловой природы // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2004. - №01(3). - Режим доступа: http://ei.kubagro.ru/2004/01/13/p13.asp.

20. Луценко Е.В. АСК-анализ как метод выявления когнитивных функциональных зависимостей в многомерных зашумленных фрагментированных данных // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2005. - №03(11). -Режим доступа: http://ei.kubagro.ru/2005/03/19/p19.asp.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

21. Вяткин В.Б. Синергетическая теория информации. [Электронный ресурс]. -Екатеринбург, 2003: - Режим доступа: http ://vbvvbv. narod. ru/ sti_ppt/index. htm.

Примечание:

Для обеспечения доступа читателей к некоторым из этих и другим работам авторов они размещены в Internet по адресам: http://lc.kubagro.ru/aidos/eidos.htm http://ei .kubagro.ru/a/viewaut.asp?id=11.

i Надоели баннеры? Вы всегда можете отключить рекламу.