Научная статья на тему 'Синергетическая теория информации часть 1. Синергетический подход к определению количества информации'

Синергетическая теория информации часть 1. Синергетический подход к определению количества информации Текст научной статьи по специальности «Математика»

CC BY
561
139
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕГЭНТРОПИЯ / КОЛИЧЕСТВО ИНФОРМАЦИИ / ОТРАЖЕНИЕ / КОНЕЧНОЕ МНОЖЕСТВО / ЭЛЕМЕНТ / ПРИЗНАК / ИНТЕГРАТИВНЫЙ КОД / NEGENTROPY / QUANTITY OF INFORMATION / REFLECTION / FINITE SET / ELEMENT / SIGN / INTEGRATIVE CODE

Аннотация научной статьи по математике, автор научной работы — Вяткин Виктор Борисович

Излагается новый подход к определению количества информации, в котором за информацию принимаются сведения о конечном множестве как едином целом, а мерой информации является средняя длина интегративного кода элементов. Приводятся примеры использования этого подхода.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SYNERGETIC INFORMATION THEORY Part 1. Synergetic approach to definition of quantity of information

A new approach to definition of quantity of information is stated. According to the approach an information can be defined as data about finite set which is considered like integration and information measure is average length of integrative code of elements. Examples of use of this approach are given.

Текст научной работы на тему «Синергетическая теория информации часть 1. Синергетический подход к определению количества информации»

УДК 519.7

СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ

Часть 1. Синергетический подход к определению количества информации

Вяткин Виктор Борисович к. т. н.

Екатеринбург, Россия

Излагается новый подход к определению количества информации, в котором за информацию принимаются сведения о конечном множестве как едином целом, а мерой информации является средняя длина интегративного кода элементов. Приводятся примеры использования этого подхода.

Ключевые слова: НЕГЭНТРОПИЯ, КОЛИЧЕСТВО ИНФОРМАЦИИ, ОТРАЖЕНИЕ, КОНЕЧНОЕ МНОЖЕСТВО, ЭЛЕМЕНТ, ПРИЗНАК,

ИНТЕГРАТИВНЫЙ КОД.

«Практически нас интересует чаще всего количество информации в индивидуальном объекте х относительно индивидуального объекта у»

Колмогоров А.Н.

Введение

Исследуя ту или иную дискретную систему, мы, как правило, по отличительным признакам выделяем в её составе совокупность частей, представляющих собой конечные множества элементов. В том случае, когда какие-либо части системы, выделенные в плоскостях различных признаков, имеют непосредственную взаимосвязь друг с другом, наблюдается пересечение соответствующих множеств элементов. При этом является очевидным, что любые два пересекающихся множества отражают (воспроизводят) друг о друге, как о целостном образовании, определённую информацию, количественная оценка которой представляет практический интерес. С гносеологической точки зрения процесс получения этой информации познающим субъектом (аналитической системой) состоит из трёх эта-

UDC 519.7

SYNERGETIC INFORMATION THEORY Part 1. Synergetic approach to definition of quantity of information

Vyatkin Victor Borisovich.

Cand. Tech.Sci.

Ekaterinburg, Russia

A new approach to definition of quantity of information is stated. According to the approach an information can be defined as data about finite set which is considered like integration and information measure is average length of integrative code of elements. Examples of use of this approach are given.

Keywords: NEGENTROPY, QUANTITY OF INFORMATION, REFLECTION, FINITE SET, ELEMENT, SIGN, INTEGRATIVE CODE.

пов, и на примере произвольной системы D и отличительных признаков PA и Pв выглядит следующим образом.

На первом этапе система D рассматривается в плоскости ^ (PA) признака PA (рисунок 1а) и те элементы d є D, у которых наблюдается признак PA, выделяются в виде множества А. На втором этапе идет рассмотрение системы в плоскости ^ (Pв) признака Pв (рисунок 1б) и аналогично первому этапу выделяется множество В.

Рисунок 1. Система О и множества А, В, К в плоскостях признаков РА и РВ

После завершения операций первых двух этапов познающий субъект находится в состоянии неопределенности относительно существования непосредственной взаимосвязи между множествами А и В. Эта неопределенность снимается на третьем этапе после рассмотрения выделенных множеств А и В в совмещённой плоскости ^ (PA, Pв) признаков PA и Pв (рисунок 1в). Если при этом выявляется третье (связующее) множество К, такое, что K = A • Б, К Ф0, то познающий субъект снимает (ликвидирует) свою неопределённость относительно непосредственной взаимосвязи

множеств А и В и получает информацию (Iаб), которую эти множества отражают друг о друге. В противном случае, когда К = 0, отмеченная не-определённость также снимается, но при этом делается вывод, что между множествами А и В существует только косвенная взаимосвязь, заключающаяся в том, что как А, так и В принадлежат одной и той же системе В.

В настоящее время синонимом неопределённости чего-либо, а также отсутствия или недостатка знаний (информации) о чём-либо принято считать энтропию [1,2,3]. Поэтому информацию I аб , для её отличия от других видов информации, будем называть негэнтропией отражения (принимая при этом во внимание также негэнтропийный принцип Бриллюэна, согласно которому «информация представляет собой отрицательный вклад в энтропию» [4, с.34] )1. То есть, негэнтропия отражения представляет собой информацию Iаб , которую отражают друг о друге два пересекающихся конечных множества А и В. Желая определить, чему равна негэнтропия отражения I аб , поставим задачу по её количественному определению следующим образом.

Пусть в составе некоторой системы В = {й} (рисунок 2) по отличительным признакам Ра и Рб выделены три конечных множества А = {а | Ра (а)} = {й | Ра (й)}, Б = {Ь | Рб (Ь)} = {й | Рб (й)} и К = А • Б, К Ф0. Количество элементов в составе каждого из множеств равно Ма , Мб , Мк, соответственно. Требуется определить чему равна негэнтропия отражения I аб , то есть количество информации, которую отражают друг о друге конечные множества А и В.

1 Общая интерпретация термина негэнтропия дана в приложении 1 к настоящей статье. http://ei.kubagro.ru/2008/10/pdf/12.pdf

а (о сф К = 0 б С Са~(К) в ) ) К Ф 0 л К Ф А,В

в в К = в с а г (с® @0) К = а с в д (СВК)) А = В = К

а - модель отсутствия взаимосвязи; б, в, г - модель частичной (статистической) взаимосвязи; д - модель полной (взаимно-однозначной) взаимосвязи.

Рисунок 2. Модели взаимосвязи множеств А и В в составе системы В

Актуальность количественной оценки негэнтропии отражения во многих предметных областях не вызывает сомнений (например, при решении задач, связанных с оценкой информативности признаков). Вместе с тем установлено [5], что известные подходы к определению количества информации [6] не позволяют решить поставленную задачу. Более того, широко известная информационно-энтропийная мера Шеннона [7] при наиболее полной взаимосвязи конечных множеств А и В (см. рисунок 2д), когда они должны отражать друг о друге максимальное количество информации, приводит к нонсенсу, показывая, что Iав = 0. Это объясняется тем, что математические основы теории информации, начиная с работ Хартли [8], традиционно разрабатывались под эгидой того, что информация неразрывно связана с управлением и представляет собой снимаемую неопределённость выбора одной из множества возможностей. Другой же вид информации, объективно существующий в природе независимо от управления и не связанный с выбором [9], при этом остался в тени. К этому виду информации, по всей видимости, относится и негэнтропия отра-

жения, для количественной оценки которой автором статьи разработан новый - синергетический - подход к определению количества информации. Ниже даётся изложение этого подхода.

Самоотражение конечных множеств

Анализируя модели взаимосвязи конечных множеств А и В (см. рисунок 2), можно утверждать, что при постоянстве Ма и М® негэнтропия отражения Iав увеличивается по мере роста Мк и является максимальной, когда А = В = К. В этом случае отражение множеств А и В друг через друга не отличается от их самоотражения, то есть отражения через самих себя. Соответственно, негэнтропия Iав при А = В = К равна самоотра-жаемой информации, которую каждое из множеств отражает о самом себе как едином целом. Это говорит о том, что негэнтропия отражения и информация, самоотражаемая конечными множествами, имеют одну и ту же природу. Поэтому, прежде чем непосредственно решать поставленную задачу по оценке негэнтропии отражения, рассмотрим информационные аспекты самоотражения конечных множеств.

Будем исходить из общеупотребительного и наиболее простого определения информации, как сведений о чём-либо и примем в наших исследованиях за информацию сведения о конечном множестве, как едином целом. При этом, используя словосочетание «единое целое», мы имеем в виду, что, во-первых, конечное множество в контексте его отражения является неделимым, а во-вторых, - элементы множества в своей совокупности представляют не механическое собрание предметов, существующих независимо друг от друга, а целостное образование, в составе которого элементы обладают интегративными характеристиками, не присущими им в их разобщенном виде. Короче говоря, показателем конечного множества, как единого целого, являются интегративные характеристики его элементов.

Соответственно, наличие у этих характеристик какого-либо числового параметра, зависящего от общего числа элементов, может служить основой для определения количества информации, самоотражаемой конечным множеством. Определим это количество информации, для чего примем следующий аксиоматический базис:

1). Информация представляет собой сведения о конечном множестве элементов, как едином целом.

2). Количество информации 1а , самоотражаемой конечным множеством А, является монотонно возрастающей функцией от общего числа его элементов Ма и, соответственно, для любых двух конечных множеств А и В с числом элементов Ма и М® = Ма +1 имеет место неравенство

1В >1А (1)

3). Показателем конечного множества А, как единого целого, является интегративный код его элементов, представляющий собой индивидуальную для каждого элемента последовательность символов какого-либо алфавита, число которых Ьа (длина кода) является функцией от общего количества элементов Ма в составе множества.

Рассмотрим процесс увеличения числа элементов М а , представив его в виде роста ориентированного дерева, совокупность висячих вершин которого взаимно-однозначно соответствует множеству элементов а е А, а максимальное число дуг, выходящих из одной вершины, равно числу символов (п) алфавита, выбранного для составления интегративных кодов. При этом каждой из смежных дуг в алфавитном порядке ставится в соответствие свой символ и, как следствие, в качестве индивидуального интегративного кода какого-либо элемента выступает последовательность символов, находящихся на пути движения из начальной вершины дерева в соответствующую данному элементу висячую вершину. Модель такого дерева, которое будем называть деревом кодов, при п = 2 и использовании в

качестве алфавита упорядоченной пары символов < 0,1 > приведена на рисунке 3.

x

II

Рисунок 3. Модель дерева кодов при n = 2 и Ma = б

Из приведённой модели дерева кодов видно, что в общем случае множество А по длине интегративных кодов его элементов разбивается на два подмножества A' и A", таких, что Ьд = x и Ьд" = x +1, где x = [lognMa] - целочисленная часть lognMa • То есть Ьд не является однозначной функцией от Ma • Поэтому будем рассматривать среднюю длину (La ) интегративных кодов

— xM а' + (x +1) M а"

La =------------------------

A M а

(2)

и начнем с алфавита с минимальным числом символов (п = 2).

Из анализа рисунка 3 следует, что при п = 2 возрастание МА на единицу обуславливает уменьшение на единицу числа элементов с длиной кода х и увеличение числа элементов с длиной кода х +1 на два элемента, то есть:

Ма +1 п=2 ^ (Ма -1) а (МА» + 2) (3)

Учитывая (3), для определения Ма и Ма" составим систему урав-

нений

М а + М а* = М а

2М а + Мл" = 2

х+1 ’

решая которую, получаем:

МА = 2 х+1 - МА

(4)

[Ма = 2(Ма - 2 х)

Подставляя значения (4) в выражение (2), и проводя несложные преобразования, приходим к следующей формуле средней длины интегративных кодов при п = 2:

х+1

LMn=2 = х + 2 -

2

Ма

(5)

Полученное выражение (5) удовлетворяет принятым аксиомам и, соответственно, может служить мерой количества информации 1а , самоот-ражаемой конечным множеством А.

Рассмотрим теперь деревья кодов при п > 2. На рисунке 4 представлены такие деревья, когда п = 3 и Ма = 2, 3, 8, 9.

а

б

МА = 2

в

г

Рисунок 4. Модели дерева кодов при п = 3

Из рисунка видно, что при наполнении выходящими дугами начальной вершины дерева (см. рисунок 4а,б) и последней из висячих вершин (см. рисунок 4в,г) средняя длина кодов Ьа не изменяется, то есть

Ьа

Ьа

МЛ =2 Ьл

Мл = 3

=1

МЛ =8

■ь.

МЛ = 9

2

ь.

ь.

мл = з у

У

мл = 3 у -1 где у = 1,2,...

Увеличивая п, приходим к общему выражению случаев постоянства значений Ьа при наполнении выходящими дугами последних из висячих вершин:

Мл = пу -п+2

= Ьа

Мл = пу -п+3

= ... = Ьа

Мл = пу

= у (6)

Из выражения (6) следует, что Ьа при п > 2 и Ма ^ пу не менее чем в (п - 2)у случаев противоречит аксиоме (1) монотонного возрастания информации 1а . Это позволяет сделать принципиально важный вывод: средняя длина интегративного кода элементов может выступать в качестве меры количества информации только тогда, когда интегративные коды составлены с помощью двоичного алфавита.

Таким образом, мы пришли к тому, что

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1А = ЬА \п=2 (7)

и, соответственно, всё излагаемое ниже будет относиться к п = 2.

Проводя анализ формулы (5), нетрудно видеть, что если М а = 2х, то

-- V V* 1

Ьа = ^2 Ма . В тех же случаях, когда 2 < Ма < 2 , наблюдается неко-

торое превышение Ьа над ^2 Ма , что можно видеть на рисунке 5.

LA, log2 MA

Рисунок 5. Графики функций La и log2 Mа

Определим максимальную величину этого превышения (Y), как точную верхнюю грань отклонения La от log 2 Mа ■

y= sup ( La - log2 MA)

M а є [1, ¥ )

Применяя необходимое условие экстремума функции и, полагая, что

у у. I 1

Mа є (2 ,2 ), х = const, в соответствии с выражением (5) приходим к

уравнению

х + 2 —

2

х+1

/

M

- log2 Mа

= 0.

0м а

которое, после дифференцирования по M а , приобретает вид

>х +1

2

1

mA

M л ln2

= 0

и после несложных преобразований имеет своим решением:

M л = 2 х+1 ln 2

(8)

Подставляя значение Мд из (8) в разность (Ьд - ^2 Мд), и представляя при этом Ьд в развернутом виде, имеем:

2 х+1

ЬД - 1°§2 МД = х + 2 -^+,----1о§22Х+1 - 1о§2(1п2) =

2 х+11п2

= х + 2-7^ - х -1 - 1оё 2 (1п 2) =1 -7^ - 1оё2(1п 2)

1п 2 1п 2

Так как в соответствии со свойствами логарифмов 1og2(1n2) = 1п(1п 2), то

1п 2

из последнего выражения окончательно получаем, что отклонение значений Ьд от ^2 Мд ограничено постоянной величиной

у = 1 - 1 + 1п(1п2) = 0,0860713..., (9)

1п 2

что наглядно иллюстрирует рисунок 6.

Ьд -1^2 Мд

Рисунок 6. График разности Ьд - ^2 Мд

Значение полученной постоянной (9) позволяет сделать приближение:

2 х < Мд < 2х+1 ^ Ьд »1о§2 Мд (10)

Функция / = 1og2 Мд является монотонно возрастающей и её значения удовлетворяют информационной аксиоме (1). Поэтому, основываясь на

выражении (7), и принимая во внимание более простой вид Ьд в выраже-

нии (10) по сравнению с выражением (5), окончательно примем меру информации 1д в следующем виде:

1д = ^ Мд (11)

Полученная формула количества информации, самоотражаемой конечным множеством (11), математически подобна информационной мере Хартли [8], взятой при единичном выборе и двоичном основании логарифма, но принципиально отличается от неё тем, что число символов используемого алфавита в мере Хартли является аргументом логарифма, а в формуле (11) - его основанием. Кроме того, основание логарифма в мере Хартли может быть любым, а в мере (11) основание больше двух не допускается. В связи с этим уместно привести высказывание академика

А.Н.Колмогорова о математическом подобии различных информационноэнтропийных функций: «Такие математические аналогии следует всегда подчеркивать, так как сосредоточение на них внимания содействует прогрессу науки» [10, с.39].

Подводя итог сделанному в настоящем разделе, можно констатировать, что нами получен новый подход к определению количества информации, основанный на совместном и одновременном учёте всех элементов конечного множества, без выделения какого-либо из них в качестве случайного события, результата испытания и т.п. То есть, мы ушли от традиционного увязывания количества информации с результатами выбора одной из множества различных возможностей. Чтобы отличать этот подход от других подходов к количественному определению информации, будем называть его синергетическим подходом. Такое название обусловлено тем, что количество информации, самоотражаемой конечным множеством, является результатом совместного отражающего действия

всей совокупности его элементов, а термин «синергетика» буквально означает «совместный, согласованно действующий».

Негэнтропия отражения конечных множеств

Определив информацию Iд как величину Ьд, мы тем самым предвосхитили оценку негэнтропии отражения I дв, как результат воспроизведения средней длины интегративного кода элементов одного конечного множества через пересекающееся с ним другое конечное множество. Непосредственно оценивая теперь величину Iдв, будем исходить из того, что множества Л, В, К в своей совокупности образуют простейшую систему информационной связи, в которой отражаемое (А) и отражающее (В) множества являются, соответственно, источником и приёмником информации, а связующее множество К = д • В выступает в качестве передающей среды или канала связи. Процесс передачи информации 1д по такой

системе связи соответствует процессу отражения множества А через непосредственно взаимосвязанное с ним множество В. Рассмотрим этот процесс, учитывая, что вне связи с управлением взаимодействующие объекты участвуют во взаимном отражении друг друга всей совокупностью своих элементов [9].

Интегративный код любого элемента а е д представляет собой определённое сообщение о конечном множестве А, как о целостном образовании, а общее число таких сообщений равно Мд. Соответственно, объём информации Уд, направляемый отражаемым множеством А в связующее множество К равен:

Уд = 1дМд

Пропускная способность множества К, в силу того, что К с д, не может превышать Уд и ограничена объёмом информации

УК = !км К

Вследствие этого информация 1д при поступлении в множество К уменьшается до величины

т = УК =г Мк 1д®К = ^^ = тК

М д М д

В отражающее множество В из связующего множества К поступает МК сообщений, которые несут об отражаемом множестве А объем информации

мК

Уд®В = Тд®КМК = 1К М~

Мд

и, соответственно, информация т д воспроизводится множеством В в виде информации

1д® в = Уд®в = (12)

д®в Мв К МдМВ

Если теперь рассмотреть обратный процесс отражения множества В через множество А, то мы получим такой же результат (12), то есть

1д® в = 1в ® д = тдв.

Таким образом, мы пришли к тому, что формула негэнтропии отражения 1 дв имеет вид:

М2

1дв = ГМ ^2 Мк (13)

МдМв

Из выражения (13) следует, что 1 дв является частью средней длины интегративного кода элементов связующего множества К. Так как К с д, в, то можно также утверждать, что негэнтропия отражения 1 дв в количественном отношении является мерой воспроизведения средней длины интегративного кода элементов каждого из пересекающихся множеств А и В.

Формула (13) относится к наиболее общему случаю непосредственной взаимосвязи конечных множеств А и В, когда К Ф0 л К Ф А, в (см. рисунок 2б). В других же, более частных случаях взаимосвязи (см. рисунок 2в,г,д) и при её отсутствии (см. рисунок 2а), выражение негэнтропии отражения 1 дв приобретает вид:

К = в с д ^ 1дв = Гк^2 Мк = Гв^2 Мв

М д М д

К = д С в ^ 1дв = МкМК = Мд^2 Мд

дв Мв 2 К Мв 2 д

К = в = д ^ 1 дв = log2Мк = log2 Мв = ^2 Мд

К = 0 ^ 1дв = 0 Особого рассмотрения требует противоречивая в негэнтропийном отношении ситуация, когда связующее множество К состоит только из одного элемента, то есть Мк = 1. Здесь, с одной стороны (формальной), в силу логарифмического характера отражаемой информации, формула не-гэнтропии отражения показывает, что 1 дв = 0. То есть случаи, когда М к = 0 и М к = 1, по формуле (13) не отличаются друг от друга. С другой же стороны (неформальной), при Мк = 1 в отличие от ситуации, когда МК = 0 , между множествами А и В существует канал связи, по которому может пройти некоторый объём информации и, соответственно, негэнтро-пия отражения может принять отличное от нуля значение. К такому же выводу нас подводят и познавательные ситуации, в которых сам факт наличия или отсутствия непосредственной взаимосвязи между конечными множествами имеет принципиальное значение2 и, как следствие, отчетливо

2 Например, при медосмотре группы людей, находящихся в отношениях и связях между собой, сам факт выявления единичного случая инфекционного заболевания будет отражать определённую информацию об общем неблагополучии обследуемой группы, которая должна учитываться при обработке данных медосмотра.

понимается, что случаи, когда МК = 0 и МК =1 , по величине негэнтро-пии отражения должны отличаться друг от друга.

Указанное негэнтропийное противоречие снимается (когда этого требует познавательная ситуация), если принять, что единственный элемент связующего множества К имеет код длиной в один символ. В этом случае, снова рассматривая совокупность множеств д, в, К как систему информационной связи, можно сказать, что от источника информации (множества А) в канал связи (множество К) поступает объем информации

Ук = 1 в виде Мд сообщений длиной уМ . Приёмник информации (мно-

Мд

жество В) может получить при этом из канала связи только одно из указанных сообщений, которое позволяет множеству В воспроизвести информацию о множестве А в виде величины у,, , , , соответствующей не-

МдМв

гэнтропии отражения. То есть при М к = 1 формула негэнтропиии отражения 1 дв для практических расчетов принимается в следующем виде:

МК =1 - 1лв = мAг-B (14)

Точно такой же результат (14) по снятию негэнтропийного противоречия мы получаем и чисто формальным путём, увеличивая на единицу значение аргумента логарифмической функции в формуле (13).

Полнота и асимметрия отражения конечных множеств

Заканчивая изложение синергетического подхода к определению количества информации, отметим дополнительные характеристики отражения друг через друга конечных множеств А и В, которые следуют из совместного рассмотрения негэнтропии отражения и самоотражаемой информации. Дело в том, что непосредственно взаимосвязанные множества А и В, в соответствии с формулой негэнтропии отражения (13), отражают

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

друг о друге одинаковое количество информации. В то же самое время, в общем случае, эти множества отличаются друг от друга по числу элементов и, соответственно, по количеству самоотражаемой информации, что обуславливает различную полноту их отражения друг через друга и, как следствие, общую информационную асимметрию отражения.

Очевидно, что мерой полноты отражения множеств А и В друг через друга является относительная негэнтропия отражения (А через В: Wа®в и В через А: Wв®а), численно равная отношению негэнтропии отражения Iав к соответствующему количеству самоотражаемой информации. То есть:

W = иВ = МК . ^2Мк (15)

в 1а мАМв ь§2 Ма

WB®А = 1АВ = Мк . ^2 Мк (16)

1в М АМ В !^2 Мв

Асимметрия отражения, в свою очередь, характеризуется разностью значений относительных негэнтропий отражения Wа®в и Wв®а , которая, в зависимости от порядка рассмотрения множеств, может быть положительной или отрицательной. Поэтому, в качестве общей меры асимметрии отражения (А Wв« а ) друг через друга множеств А и В принимается модуль указанной разности:

А^Л«В = I В - №в®л\ =

-2

МК -^2 ЫК

^2 Мл log2 Мв

МлМв

Относительная негэнтропия и асимметрия отражения в совокупности с собственно негэнтропией отражения Iлв дают вполне исчерпывающую характеристику информационных особенностей отражения друг через друга двух пересекающихся конечных множеств и могут использоваться при

решении различных прикладных задач. Примеры таких задач даются в приложении 2.

Заключение

Разработка синергетического подхода к определению количества информации была инициирована выявлением фактов неустойчивости и противоречивости результатов прогнозно-геологических исследований при оценке информативности признаков эталонных рудных объектов с помощью теории информации Шеннона [11-13]. Эти неустойчивость и противоречивость устраняются, если признаки оценивать с помощью негэнтро-пии отражения конечных множеств [5], что может представлять интерес для специалистов в области распознавания образов при оценке информативности признаков эталонных объектов распознавания.

При выводе формулы информации, самоотражаемой конечным мно-жестовм, и оценке негэнтропии отражения, мы оперировали единичными значениями признаков, рассматривая их как некоторые отличительные особенности элементов. Вместе с тем, признаки описания элементов какой-либо системы в общем случае имеют различные значения, число которых может доходить до общего количества элементов в составе системы. Поэтому, дальнейшее развитие синергетического подхода к определению количества информации будет осуществляться нами в плоскости анализа отражения дискретных систем через совокупности своих частей, выделенных по различным значениям признаков описания их элементов.

ПРИЛОЖЕНИЕ 1 О ТЕРМИНЕ «НЕГЭНТРОПИЯ»

Термин негэнтропия не имеет пока достаточно широкого распространения в научной литературе, поэтому целесообразно осветить его историю и дать общую интерпретацию. - Уже сам факт наличия у слова энтропия отрицательной приставки нег свидетельствует о том, что за понятием негэнтропия скрывается нечто противоположное энтропии и отрицающее ее, так сказать, некая отрицательная энтропия.

Первым понятие отрицательная энтропия употребил в 1943г. Э.Шредингер, который пришел к выводу, что биологическим системам для своего существования необходимо извлекать из окружающей среды отрицательную энтропию, чтобы компенсировать внутреннее производство энтропии, и тем самым тормозить свое движение в сторону термодинамического равновесия, соответствующего состоянию смерти (Шредингер Э. Что такое жизнь? Точка зрения физика. - М.: Атомиздат, 1972).

Позднее, в 1956г. Л.Бриллюэн, рассматривая деградацию качества энергии в замкнутой системе как следствие возрастания в ней энтропии, для краткости отрицательную энтропию стал называть негэнтропией, говоря, что «эта негэнтропия представляет собой в конечном счёте качество энергии» (Бриллюэн Л. Научная неопределенность и информация. - М.: Мир, 1966. С. 25) После этого Л.Бриллюэн обосновал, что процесс получения информации в физических опытах сопровождается уменьшением не-гэнтропии и сделал вывод, что «негэнтропия эквивалентна информации» (там же, с.31). Кроме того, непосредственно сравнивая информацию и энтропию, Л.Бриллюэн сформулировал и ввел в теорию информации негэн-тропийный принцип информации: «информация представляет собой отрицательный вклад в энтропию» (там же, с. 34).

После работ Л.Бриллюэна негэнтропия стала употребляться главным образом в двух значениях: как количество информации, равное разности между начальной (до получения сообщения) и конечной (после получения сообщения) энтропий, и как величина, обратная энтропии, выражающая

упорядоченность материальных объектов (Кондаков Н.И. Логический словарь-справочник. - М.: Наука, 1976).

В синергетической теории информации термин негэнтропия неразрывно связан с понятием отражение, в силу чего в этой теории фигурирует негэнтропия отражения, под которой в самом общем случае понимается информация о «чём-либо», отраженная через «что-либо».

ПРИЛОЖЕНИЕ2 ПРИМЕРЫ ИСПОЛЬЗОВАНИЯ ФОРМУЛЫ НЕГЭНТРОПИИ ОТРАЖЕНИЯ

Основной целью информационно-теоретических исследований, изложенных в настоящей статье, было получение формулы негэнтропии отражения конечных множеств. Эта цель была достигнута нами в виде формулы (13), для лучшего восприятия которой приведём примеры того, как она может быть использована при решении различных прикладных задач.

Пример 1. Оценка взаимосвязи физических свойств образцов горных пород

Пусть по какому-либо району, где проводятся геологоразведочные работы, имеется представительная совокупность образцов горных пород, у которых измерены плотность (о) и магнитная восприимчивость (х) (система П). Поставлена задача - выяснить, в какой мере непосредственно взаимосвязаны между собой две группы образцов, в первую из которых входят образцы, имеющие плотность выше среднего значения (оср) по всей совокупности, а вторую группу составляют образцы, обладающие магнитной восприимчивостью также превосходящей среднее значение (Хер) по всей совокупности образцов. С позиций изложенного материала мерой такой

взаимосвязи может служить как собственно негэнтропия отражения конечных множеств I ав , так и средняя величина её относительных значений Жа®в и Жв® а . Последовательность операций при этом сводится к следующему.

1). Вся совокупность образцов рассматривается в плоскости плотности горных пород, и те образцы, у которых плотность о > оср, выделяются в виде множества А с числом элементов Ма .

2). Аналогично п.1 в плоскости магнитной восприимчивости выделяется множество образцов В в количестве Мв , имеющих магнитную восприимчивость х > хср.

3). Выделенные множества А и в рассматриваются в совмещенной плоскости двух физических свойств горных пород (о и х) и выявляются образцы, у которых одновременно о > оср и х > хср (связующее множество К, включающее в себя Мк образцов). Если таких образцов не выявлено (К = 0), то делается заключение, что множества А и В не имеют непосредственной взаимосвязи друг с другом и решение поставленной задачи прекращается.

4). По формуле (13) вычисляется негэнтропия отражения Iав , как мера информационной взаимосвязи множеств образцов А и в и определяется средняя величина её относительных значений Жа®в (15) и Жв®а (16). При этом следует отметить, что в контексте поставленной задачи каждая из относительных негэнтропий Жа®в и Жв®а может представлять самостоятельный интерес.

Пример 2. Выбор оптимальных индикаторов технического анализа при проведении биржевых торгов

При проведении торгов на фондовой и валютной биржах решения о покупке или продаже биржевых инструментов (акций, фьючерсов, биржевых индексов, валют) часто принимаются с помощью методов технического анализа на основе сигналов, поступающих от тех или иных индикаторов. В настоящее время разработано довольно внушительное количество таких методов. Во многих методах индикаторы имеют параметры своего задания, вследствие чего сигналы, поступающие от однородных индикаторов с различными параметрами, могут не совпадать во времени. При этом в зависимости от конкретного биржевого инструмента и выбранного временного масштаба торговли (тайм-фрейма), одни и те же методы и индикаторы могут работать лучше или хуже других.

Биржевые игроки (трейдеры), выбирая для торговли в конкретных условиях те или иные методы и индикаторы технического анализа, как правило, руководствуются своими знаниями, опытом и интуицией, что обуславливает высокий субъективизм принимаемых решений. Этот субъективизм можно значительно уменьшить, если при выборе использовать негэнтропию отражения конечных множеств. Процедура такого выбора является формализованной и на примере N индикаторов при заданном биржевом инструменте и фиксированном тайм-фрейме сводится к следующему.

1). На ценовой истории биржевого инструмента выбирается представительный интервал времени (система П).

2). Выделяются исторические моменты времени (локальные промежутки А ?), в которые наиболее оптимально было совершать торговые операции в виде покупки или продажи инструмента (отражаемое множество А, состоящее из Ма эталонных моментов времени).

3). Фиксируются моменты времени, когда анализируемые индикаторы подавали соответствующие сигналы (отражающие множества

В1, В2,..., BN, включающие в себя М^ Мв2,..., MвN сигнальных моментов времени).

4). Выявляются случаи совпадения эталонных и сигнальных моментов времени (связующие множества К1, К2, . ., KN с числом моментов

времени МКх, Мк2 ,MкN).

5). Для каждого из отражающих множеств сигнальных моментов времени В1, В2,..., BN по формуле (13) вычисляется негэнтропия отражения 1АВ1 .

6). Результаты расчетов IАВ1 ранжируются в порядке убывания значений и для принятия торговых решений выбираются те индикаторы, не-гэнтропия отражения которых занимает лидирующее положение в полученном ранжированном ряду.

Литература

1. Шамбадаль П. Развитие и приложение понятия энтропии. - М.: Наука, 1967. - 280с.

2. Волькенштейн М.В. Энтропия и информация. - М.: Наука, 1986. - 192с.

3. Седов Е.А. Одна формула и весь мир. Книга об энтропии. - М.: Знание, 1982. -176с.

4. Бриллюэн Л. Научная неопределенность и информация. - М.: Мир, 1966. - 272 с.

5. Вяткин В.Б. Математические модели информационной оценки признаков рудных объектов: Автореф. дис. ... канд. техн. наук : 05.13.18 : Екатеринбург, 2004. - 27с. Режимы доступа: http://www.vbvvbv.narod.ru/avtoreferat/index.html http://orel3.rsl.ru/dissert/EBD 1639А vjatkinVB.pdf

6. Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. - 1965, т.1, №1 - С. 3-11.

7. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830с.

8. Хартли Р.В.Л. Передача информации. // Сб.: Теория информации и ее приложения. - М.: Физматгиз, 1959. - С. 5-35.

9. Урсул А. Д. Проблема информации в современной науке. - М.: Наука, 1975. - 288с.

10. Колмогоров А.Н. Теория информации и теория алгоритмов. - М.: Наука, 1987. -304с.

11. Вяткин В. Б. К вопросу информационной оценки признаков при прогнозногеологических исследованиях // Известия Уральского горного института. Сер.: Геология и геофизика. - 1993, вып.2. - С. 21-28.

12. Вяткин В.Б. Информационные прогнозно-геологические антиномии // Компьютерное обеспечение работ по созданию государственной геологической карты Российской федерации: Материалы 5-го Всероссийского совещания-семинара МПР РФ -

Ессентуки, 1998 - С. 116-119. Режим доступа: http://www.vbvvbv.narod.ru/mpi/antinom/index.htm

13. Вяткин В. Б. Информативность признаков: необходимость смены парадигмы // Геологическое картографирование и прогнозно-металлогеническая оценка территорий средствами компьютерных технологий: Материалы 6-го Всероссийского совещания-семинара МПР РФ - Красноярск, 1999 - С. 56-60. Режим доступа: http://www.vbvvbv.narod.ru/mpi/informativ krsn.htm

i Надоели баннеры? Вы всегда можете отключить рекламу.