УДК 519.7
СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ
Часть 2. Отражение дискретных систем в плоскости признаков их описания
Вяткин Виктор Борисович, к.т.н.
Екатеринбург, Россия
Проведён анализ отражения дискретной системы с конечным множеством элементов в плоскости множества значений произвольного признака. Доказано, что отражаемая системой информация делится на отражённую и неотражённую части и получены соответствующие информационные функции. Установлен структурный закон сохранения суммы хаоса и порядка и дана классификация дискретных систем по их структурной организации. Показана взаимосвязь синергетической и вероятностной теорий информации. Установлен закон сохранения информации.
Ключевые слова: ТЕОРИЯ ИНФОРМАЦИИ, КОЛИЧЕСТВО ИНФОРМАЦИИ, АДДИТИВНАЯ НЕГЭНТРОПИЯ, ЭНТРОПИЯ, ОТРАЖЕНИЕ, СТРУКТУРА, ЗАКРЫТАЯ СИСТЕМА, ОТКРЫТАЯ СИСТЕМА, ХАОС, ПОРЯДОК, ИНФОРМАЦИОННЫЙ ЗАКОН.
UDC 519.7
SYNERGETIC INFORMATION THEORY Part 2. Reflection of discrete systems in planes of signs of their description
Vyatkin Victor Borisovich. Dr.Sc.(Tech.)
Ekaterinburg, Russia
Analysis of reflection of discrete system with final set of elements in planes of set of values of any sign is leaded. It is demonstrated that information reflected with system is divided on reflected and not reflected part and relevant information functions are got. Structured law of saving of sum of chaos and order is established and classification of discrete systems on their structural organization is given. Interrelation of synergetic and probabilistic information theories is shown. Law of information saving is established.
Keywords: INFORMATION THEORY, QUANTITY OF INFORMATION, ADDITIVE NEGENTROPY, ENTROPY, REFLECTION, STRUCTURE, CLOSED SYSTEM, OPEN SYSTEM, CHAOS, ORDER, INFORMATION LAW.
«Не видно, почему теория информации должна столь существенно основываться на теории вероятностей, как это представляется по большинству руководств»
Колмогоров А.Н.
Введение
В предыдущей статье автора [1], опубликованной в настоящем издании, был изложен новый - синергетический - подход к определению количества информации и получена формула негэнтропии отражения IAB, то есть количества информации, которую отражают (воспроизводят) друг о друге, как о целостном образовании, два пересекающихся конечных множества А и В, таких, что A • Б = K, К Ф0. При количестве элементов в составе каждого из множеств А, Б, К равном, соответственно, Ма , Мб , Мк, формула негэнтропии отражения имеет вид:
! = МК
МаМв
1°ё2 МК •
(1)
При этом напомним, что гносеологически формула (1) относится к ситуации, когда множества А и В выделены в составе некоторой дискретной системы В = {й} при её рассмотрении в соответствующих плоскостях единичных значений признаков Ра и Рв .
Развивая в настоящей статье синергетический подход к определению количества информации, будем считать, что множество
А = {а | Ра (а)} = {й | Ра (й)} представляет собой автономную систему (подсистему А с В), и начнём рассмотрение информационных аспектов её отражения через совокупность конечных множеств ВьВ2,...,ВN, выделенных в составе системы В по множеству значений признака Рв = Рв1,Рв2 ,...,Рвм ("В;также может рассматриваться в качестве отражающей автономной системы). При этом предварительно сделаем следующие замечания.
1). Будем анализировать только те ситуации, когда отражающие множества В1, В2,...,BN, В; = {Ь; | Рв (Ь;)} = {й | Рв; (й)} не пересекаются
друг с другом и каждый элемент отражаемой системы А характеризуется конкретным значением признака Рв = Рв1 ,Рв2 Рвм (рисунок 1). То есть:
N
N
I В; =0 , * К; = А
;=1
;=1
и, соответственно:
N
N
X МВ. > Ма , X МК. = Ма
; =1
а - система А информационно закрыта; б - система А информационно открыта
Рисунок 1. Отражение системы A с D через совокупность конечных множеств Bi, B2,..., Bn
2). Отражаемая система А по отношению к окружающей среде (элементам дополняющего множества C = D \ A = {d е D, d <£ A}) может быть как открытой, так и закрытой в информационном отношении.
Система А в плоскости признака Pb = Pb1,Pb2,---,Pbn является
закрытой в информационном отношении, если отсутствует её непосредственная взаимосвязь с окружающей средой (рисунок 1а), то есть:
N N
♦ B, = A, X Mb, = Ma .
i=1 i=1
Система А в плоскости признака Pb = Pb1,Pb2, -,Pbn является
открытой в информационном отношении, если наблюдается её непосредственная взаимосвязь с окружающей средой (рисунок 1 б), то есть:
N N
♦ Bi > A, X Mb, > Ma i=1 i=1
3). Количество любой информации, измеряемой с помощью двоичных логарифмов, традиционно принято выражать в битах (слово бит, как сокращённое название двоичной единицы (binary digit), было предложено Тьюки [2]). То есть 1бит = log2 2 . Так как в развиваемой нами теории, при оценке отражаемой информации, могут использоваться только двоичные
логарифмы [1], то мы не будем отходить от этой традиции. Вместе с тем, если в традиционной теории информации 1бит интерпретируется как максимальное количество информации, которое можно получить при выборе одной из двух возможностей, то в синергетической теории информации за 1 бит принимается количество информации, самоотражаемой двоичным множеством или системой, состоящей из двух элементов. Чтобы отличать друг от друга эти численно равные единицы измерения различных видов информации (связанной с управлением и существующей независимо от него), будем называть их бит управления и бит отражения, соответственно.
С учётом сделанных замечаний перейдём к непосредственному рассмотрению особенностей отражения системы А через совокупность конечных множеств (систем) ^1,В2,...,ВN и начнём со случая, когда отражаемая система является закрытой в информационном отношении.
Отражение информационно закрытых систем
Количество информации (I а ), отражаемое системой А, о самой себе, как о целостном образовании, согласно работе [1] равно:
1А = ^2 МА (2)
По значениям признака Рв = Рв1,Рв2,---,?ВМ система делится на N
частей в виде совокупности конечных множеств В1,В2,...,BN, каждое из которых отражает о системе определённую информацию, численно равную негэнтропии отражения (1). Соответственно, общее количество информации о системе А, отражаемое через совокупность её частей, равно аддитивной негэнтропии отражения (I£), формула которой в условиях информационной закрытости системы (Мв, = Мк1) имеет вид:
N N Мк.
1 £ = X1АВ1 = X МГ 1о^2 МК (3)
i=1 ,=1 М а
При анализе отражения системы А через совокупность своих частей, информация I а и аддитивная негэнтропия Is выступают перед нами в качестве отражаемой и отражённой информации, соответственно. Проведём их сравнение, для чего правые части выражений (2) и (3) умножим на M а и разделим на log2 Ma . В результате этой операции для N > 1 получаем очевидное неравенство
N log 2 M к
Ma >Xmk, ,
,=1 ' log2 M A
из которого следует, что
1A >1S
Иначе говоря, не вся информация о системе А, как едином целом, отражается через совокупность её частей и всегда существует некоторая часть информации I а , которая остаётся неотражённой.
Является очевидным, что аддитивная негэнтропия отражения и неотражённая информация по отношению друг к другу выступают в качестве взаимодополняющих противоположностей и характеризуют отражение дискретных систем через свои части с различных сторон, - определённости и неопределённости, соответственно. Это позволяет говорить о том, что неотражённая информация представляет собой энтропию отражения. Обозначим энтропию отражения символом S и определим её величину как разность между отражаемой и отражённой информациями:
S = Ia - Is (4)
В соответствии с формулами (2) и (3) запишем:
N M к
S = log2 MA -X M- log2 MK, (5)
i=1 M A i
Умножив и разделив аргумент второго логарифма в выражении (5) на M а , и заменяя при этом логарифм произведения суммой логарифмов, получаем:
N
Так как XMк. = Ma , то из последнего выражения следует: i =1 i
(б)
Из выражений (3) и (6) видно, что при постоянстве Ma величина аддитивной негэнтропии /^ и энтропии отражения S зависит от количества частей системы и их соотношения между собой по числу элементов. При этом, чем более раздробленной является структура системы или, что то же самое, чем более разнообразны и неупорядочены её элементы по значениям признака, в плоскости которого идёт рассмотрение системы, тем больше энтропия S и меньше аддитивная негэнтропия /^. И, наоборот,
- чем меньше частей выделяется в составе системы и, соответственно, чем более однообразны и упорядочены её элементы по значениям признака, тем больше /s и меньше S. Так как /s и S не могут превышать отражаемую информацию /а , а число частей системы N не может быть больше общего количества её элементов Ma , то сказанное формализуется следующим образом:
Иначе говоря, увеличение числа отражающих конечных множеств приводит к возрастанию хаотичности, неупорядоченности, неопределённости отражения дискретной системы, как единого целого. То есть, чем более неадекватно отражение, тем больше его энтропия и меньше аддитивная не-гэнтропия.
N —— Ma Is —— G, S —— log2 Ma n ® 1 ^ Is® log2 MA, S ® G
(7)
Так как структуру любой системы, в первую очередь, характеризуют количество её частей и взаимоотношение последних по числу элементов, то также можно утверждать, что аддитивная негэнтропия и энтропия отражения, по отношению к структуре отражаемой системы, выступают в качестве показателей её упорядоченности и хаотичности или, выражаясь другими словами, являются мерами структурного хаоса и порядка, соответственно. Проиллюстрируем это следующим примером.
На рисунке 2 приведены различные состояния системы, состоящей из 16-ти элементов, которые характеризуются признаком «направление движения». По значениям этого признака система последовательно принимает 5 состояний, которым соответствует её деление на 1, 2, 4, 8, 16 равновеликих частей.
а б в г д
Рисунок 2. Деление системы на равновеликие части по признаку «направление движения элементов»
В состоянии на рисунке 2а все элементы движутся в одном направлении, и в структуре системы наблюдается идеальный порядок. На рисунке 2д имеем полярную противоположность, то есть каждый элемент системы обладает строго индивидуальным направлением движения и структура системы является максимально хаотичной. Состояния системы на рисунках 2б,в,г занимают промежуточное положение по отношению к состояниям на рисунках 2а,д и характеризуются тем, что в их структуре присутствует как хаотичность, так и упорядоченность. Рассчитывая для каждого со-
стояния системы по формулам (3) и (6) значения аддитивной негэнтропии и энтропии отражения, получаем1:
Состояние системы а б в г д
Количество частей (N) 1 2 4 S 1б
Количество элементов в части ( MBi ) 1б S 4 2 1
Негэнтропия отражения ( I s ) 4 З 2 1 G
Энтропия отражения (S) G 1 2 З 4
Из приведённых результатов видно, что нарастанию хаоса и уменьшению порядка в структуре системы на рисунке 2 соответствует уменьшение значений аддитивной негэнтропии и увеличение значений энтропии отражения.
Аддитивная негэнтропия /s , как отражённая информация, и энтропия отражения S, как неотражённая информация, являются составными частями отражаемой информации /а , в силу чего имеет место равенство
/а = /S+ S (8)
В то же самое время, как было показано, /^ и S количественно характеризуют структуру отражаемой системы со стороны её упорядоченности и хаотичности. Поэтому равенство (8) также показывает, что при фиксированном числе элементов системы сумма хаоса и порядка в её структуре остаётся постоянной величиной. Иначе говоря, чтобы мы ни делали с системой без изменения общего количества элементов, на сколько бы частей не разбивали её по значениям какого-либо признака и в каком бы соотношении по числу элементов не находились между собой части, сумма хаоса и порядка в структуре системы всегда будет оставаться неизменной. То есть, можно констатировать, что при любых структур-
1 Здесь и далее, значения аддитивной негэнтропии и энтропии отражения приводятся в битах отражения.
ных преобразованиях системы, происходящих без изменения числа её элементов, имеет место закон сохранения суммы хаоса и порядка:
порядок + хаос = const
Например, для вышеописанной системы на рисунке 2, как это видно из результатов проведённых расчётов, по всем её состояниям имеем: Is + S = 4 .
Хаотичность и упорядоченность в своей совокупности определяют в целом структурную организацию системы и, соответственно, для ее количественной характеристики может использоваться та или иная функция, аргументами которой являются меры хаоса и порядка. В качестве такой функции структурной организации может использоваться так называемая R-функция , представляющая собой отношение аддитивной негэнтропии к энтропии отражения:
R = Zs = поряд<°к S хаос
То есть значения R-функции говорят о том, что и в какой мере преобладает в структуре системы: хаос или порядок. Так, если R > 1, то в структуре системы преобладает порядок, в противном случае, когда R < 1 - хаос. При R = 1 хаос и порядок уравновешивают друг друга, и структурная организация системы является равновесной. Например, для различных структурных состояний системы на рисунке 2 значения R-функции равны:
Состояние системы: а б в г д
Значение R-функции: да 3 1 0.33 0
Рассмотрим теперь особенности взаимоотношений аддитивной негэнтропии Zs и энтропии отражения S при постоянном числе элементов
системы Ma и различном количестве частей N, соотносящихся между со-
бой по числу элементов Mb произвольным образом. При этом, сначала
2 Название функции дано по первой букве англ. слова reflection, что в переводе на рус-
ский язык означает отражение.
определим максимальные и минимальные значения /^ и £ при данном N,
основываясь на формулах (3) и (6) и выражениях (7) и (8).
Энтропия отражения является максимальной, когда все части системы представлены одинаковым числом элементов, то есть:
£ тах =-N±1^2 N = 1о£2 N (10)
Соответственно, минимальная величина аддитивной негэнтропии отражения имеет вид:
/т1" = 1о§2 МА - 1ов2 N = ^2 М^А (11)
Максимальное значение, в свою очередь, аддитивная нгэнтропия будет принимать тогда, когда число элементов в одной части равно
Ма - N +1, а каждая из остальных (N -1) частей включает в себя только
1 элемент, то есть:
/тах = МаМ-N +1 1оВ2(Ма - N +1) (12)
МА
Соответственно, минимальная величина энтропии отражения равна:
5т1" = ^2 Ма - Мам~ N +1 1оВ2(Ма - N +1) (13)
МА
Построим графики /т1п, /тах, £т1п, £тах, как функций от N и проведём анализ полученной диаграммы, которую будем называть информационным полем отражения дискретных систем (рисунок 3).
Приведённые графики изначально образуют два контура: энтропийный - abdefha и негэнтропийный или информационный - cdfghbc, которые локализуют соответствующие области всех возможных значений энтропии и аддитивной негэнтропии отражения информационно закрытых систем. Пересечение этих контуров по точкам Ь и f где наблюдаются равенства
/т1П = £тах и /тах = £т1П , позволяет по их проекциям выделить на гори-
зонтальной оси три интервала значений N (левый, центральный, правый) с присущими каждому интервалу особенностями взаимоотношений I х и 5. Рассмотрим эти особенности, предварительно определив значения N, соответствующие точкам Ь и f.
Рисунок 3. Информационное поле отражения дискретных систем
( Ma = 118 )
В точке b, согласно правым частям выражений (10) и (11), имеем
1 М A
уравнение logo N = logo——, решение которого дает, что в соответствую-
N
щей проекции N = л]Мa . При этом необходимо отметить, что поскольку N может принимать только целочисленные значения, то границы интервалов определяются с точностью до ближнего большего целого. Аналогичное уравнение для точки f образованное правыми частями выражений (12) и (13) не имеет аналитического решения. То есть, значение N, соответствующее проекции точки f точно может быть определено только численным путем. (Для членов последовательности N = 1, 2, ..., Ма определя-
ются Iх и 5 , и в качестве значения N, соответствующего точке /,
принимается то значение, после которого 5т1П > Iтах ) Но при этом, как
М А
показывают расчеты, значение N остается меньше ^ на некоторую величину АМа , которая увеличивается по мере роста Ма (рисунок 4). То есть, точке/ на оси N соответствует значение N = М>А _ АМа •
Таким образом, при заданном Ма имеем три формализованных интервала значений N
- левый: 1 £ N < л/МА ;
- центральный: - АМа ;
- правый: —2а -А Ма < N £ Ма •
Форма границ интервалов и соответствующие области возможных значений N, в зависимости от величины Ма , иллюстрируются рисунком 4. При этом графики начинаются с Ма = 6, так как при Ма < 6 центральный интервал, как таковой, просто не существует.
Отражение систем, попадающих в левый интервал (см. рисунок 3), характеризуется тем, что при любых соотношениях их частей между собой по числу элементов, сохраняется неравенство /^ > £ • То есть, в левом интервале значений N структурная упорядоченность системы всегда больше ее хаотичности и Я > 1.
В правом интервале наблюдается противоположная картина, когда при любых структурных преобразованиях системы выполняется неравенство £ > /^, что соответствует погашению отражаемой информации и преобладанию хаоса над порядком. При этом Я < 1.
В центральном интервале происходит пересечение областей возможных значений I£ и $>, вследствие чего между ними здесь наблюдаются различные соотношения и проявляется тенденция к взаимному уравновешиванию структурного порядка и хаоса. Я-функция при этом может быть как больше, так и меньше единицы, а в ряде случаев (по линии Ь/ ) имеет место и равенство Я = 1.
Иначе говоря, в левом интервале значений Л наблюдается необратимое преобладание в структуре системы порядка над хаосом, а в правом интервале, наоборот, - необратимое преобладание хаоса над порядком. В центральном интервале, в свою очередь, преобладание как порядка над хаосом, так и хаоса над порядком является обратимым. Чтобы отчётливо представлять, что значит порядок левого интервала
и хаос правого, а также гармония их взаимоотношений в центральном интервале, приведём образные лингвистические примеры.
Любой текст, как дискретная система с конечным множеством элементов, может быть рассмотрен в плоскости алфавита, с помощью которого он написан. Совокупности одинаковых букв при этом образуют отдельные части системы и, соответственно, для анализа структуры текста может использоваться материал настоящего раздела. Проведём такой анализ текстов, полученных различными исполнителями.
Возьмём известную обезьяну-машинистку, с которой «работал» французский математик Э.Борель, ожидая, что когда-нибудь получит от неё шекспировские строки. Проводя мысленный эксперимент, посадим обезьяну за пишущую машинку (клавиатуру компьютера). Обезьяна, случайным образом ударяя по клавишам, получает чехарду букв, лишённую всякого смысла. Такой текст олицетворяет хаос правого интервала, а его Я-функция равна нулю (при длине текста, не превышающем количество букв алфавита). Посадим теперь за другую пишущую машинку дятла, который начинает методично бить по одной и той же клавише, и выдаёт однобуквенную последовательность. Текст дятла также лишён какого-либо смысла и находится в крайней левой части левого интервала, где идеальный порядок. Я-функция при этом устремляется в бесконечность.
Сам собой напрашивается вывод, что наполненные смыслом содержательные тексты, по своей структурной организации, должны находиться в центральном интервале, а их Я-функция должна стремиться к единице. Чтобы проверить это, пригласим А.С. Пушкина и, посадив его за третью пишущую машинку, попросим что-нибудь напечатать. Явившийся нам при этом текст, представляет собой че-тырнадцатистишия поэмы «Евгений Онегин», каждое из которых находится в центральном интервале, а значения Я-функции равны:1-е четырнадцатистишие - Я = 0.94; 2-е - Я = 0.95; 3-е - Я = 0.95 и т.д. То есть, А.С. Пушкин подтвердил наши предположения, показав, что содержательные, наполненные красотой и гармонией тексты, находятся в центральном интервале, а хаос и порядок в их структуре уравновешивают друг друга.
В собственно лингвистическом отношении сказанное, по-видимому, означает, что принадлежность текстов к центральному
интервалу (при их длине до N , где N - число символов алфавита) является необходимым условием для наличия в них содержательного смысла. Но это необходимое условие не является достаточным, так как, например, обезьяний текст, при достаточно долгом его печатании, выйдет из правого интервала и войдёт в центральный, откуда в
дальнейшем перейдёт в левый, где останется навсегда. При этом, при движении текста по центральному интервалу, мы навряд ли увидим в нём хотя бы одну строку из «Евгения Онегина».
Указанные особенности интервалов значений N позволяют любые дискретные системы с конечным множеством элементов, в зависимости от количества частей, на которые они разделяются в плоскости какого-либо признака, формализовано классифицировать на три типа:
- упорядоченные (левый интервал);
- синергетичные (центральный интервал);
- хаотичные (правый интервал).
Например, система на рисунке 2 в различных своих состояниях будет представляться как: а - упорядоченная; б - упорядоченная; в - синергетичная; г - хаотичная; д - хаотичная. Точно также в приведённых лингвистических примерах олицетворением различных типов систем являются: текст дятла - упорядоченная система; текст обезьяны - хаотичная система; че-тырнадцатистишия «Евгения Онегина» - синергетичная система.
Заканчивая характеристику отражения информационно закрытых систем, отметим, что информационно-синергетические функции хаоса и порядка (І£, £, Я) и приведенная классификация систем имеют универсальный характер и могут использоваться при структурном анализе системных образований в любой предметной области.
Отражение информационно открытых систем
При информационном открытии системы (см. рисунок 1б) осуществляется её непосредственная взаимосвязь (взаимодействие) с окружающей средой, в результате чего часть отражаемой информации I а переходит в окружающую среду и распределяется по элементам дополняющих множеств Ві \ Кі ^ 0. Соответственно, по отношению к информационно за-
крытому состоянию системы, уменьшается аддитивная негэнтропия и увеличивается энтропия отражения. То есть собственно отражение системы становится более неопределённым, рассеянным, хаотичным. Так как от-
пия £ (6), являясь функцией внутреннего строения системы, при информационном открытии последней не изменяется, то есть является инвариантной величиной относительно любых взаимоотношений системы с окружающей средой. Это говорит о том, что при открытии системы, в общей энтропии её отражения, появляется новая составляющая (А £), как функция, характеризующая взаимосвязь системы с внешней средой. В соответствии со сказанным, для того, чтобы отличать друг от друга энтропии £ и А £, будем пользоваться терминами внутренняя (£) и внешняя (А £) энтропия отражения.
Определим величину внешней энтропии отражения, исходя из соблюдения баланса между отражаемой информацией, с одной стороны, и отражённой (негэнтропия) и неотражённой (энтропия) информациями, с другой стороны. Так как отражаемая информация I а и внутренняя энтропия £ при информационном открытии системы не изменяются, то внешняя энтропия А £ равна соответствующему уменьшению аддитивной негэн-тропии отражения I £ информационно закрытого состояния системы:
формационно открытой системы.
Освободимся в выражении (14) от аддитивной негэнтропии І£, как структурной характеристики закрытых в информационном отношении сис-
ношение
не зависит от того, открыта или закрыта система, то энтро-
Д £ = І£- І£ ,
(14)
тем, для чего перепишем его в развёрнутом виде и проведём несложные преобразования.
NMK N Ml
ЛS = XM~Llog2MKi —X —M— log2MK =
t=\ MA 1 1=1 MAMBt 1
N MKt (MBl - MKt )
= X ----l---l-----— log2MK.
i=1 MaMBi ё2 Ki
Умножив и разделив полученное выражение на Мк( , имеем:
NMB. — Mk. MK ■
л S = X —-------K^----• log2 MK (15)
1=1 mKl MaMBi ё2 Kl
Первый сомножитель в выражении (15) представляет собой отношение количества элементов дополняющего множества Bj \ Kj к числу элементов связующего множества Kj = A • Bj. Иначе говоря этот сомножитель есть отношение области непосредственной взаимосвязи множества Bj
с окружающей систему A средой к области непосредственной взаимосвязи этого же множества с самой системой A. Так как гносеологически множество Bj относится к результатам рассмотрения системы А в плоскости признака Pb = Pb1,Pb2,-,pBN , то данный сомножитель будем называть коэффициентом (m) информационной открытости системы по j-му значению признака PB , то есть:
MBj
mв =—-—1, о < mв <¥ (16)
Bj MKj Bj
Совокупность второго и третьего сомножителей, в свою очередь, представляет собой негэнтропию отражения IABi открытой системы. Поэтому,
с учётом (16), формула внешней энтропии Л S имеет вид:
N*
Л S=Xm Bji Ab1 (17)
j=1
Вернёмся теперь к рассмотрению информационного поля отражения дискретных систем на рисунке 3. Является очевидным, что прямоугольный контур aceg ограничивает в целом площадь информационного поля, включающего в себя, при данном М а , все возможные значения аддитивной не-гэнтропии и энтропии отражения, как открытых, так и закрытых в информационном отношении систем. В предыдущем разделе было показано, что если система является информационно закрытой, то области возможных значений аддитивной негэнтропии и энтропии отражения ограничены контурами cdfghbc и abdefha, соответственно. Когда система информационно открывается, её отражение становится более неопределённым и области возможных значений, как аддитивной негэнтропии, так и энтропии отражения начинают увеличиваться. При этом новые возможные значения аддитивной негэнтропии располагаются ниже линии /т1П, а энтропии отражения, - выше линии £тах . В случае неограниченного возрастания общего информационного открытия системы, то есть когда
"тВ- —а £ —— /^,
минимум аддитивной негэнтропии и максимум общей энтропии отражения выходят на свои асимптотические значения, лежащие, соответственно, на линиях ag и се. При этом полностью задействуются три новых области информационного поля отражения: abca, ahga и cdec. Причём, в первую из указанных областей попадают значения, как аддитивной негэнтропии, так и энтропии отражения, а вторую и третью области занимают, соответственно, только значения одной из них. Таким образом, комплексные области возможных значений отражённой и неотражённой информации ограничены контурами: аддитивная негэнтропия отражения - acdfga, энтропия отражения - acefga. Заканчивая описание распределения отражаемой информации по информационному полю отражения acega, отметим также, что в его пределах существует довольно обширная область efge, в которую
никогда не попадают значения как отражённой, так и неотражённой информации.
Информационный закон отражения
На основе изложенного материала составим информационный баланс отражения дискретных систем для общего случая, соответствующего состоянию информационной открытости системы:
/А = /£+ £ + А £ (18)
Если система информационно закрывается, то есть перестаёт взаимодействовать с окружающей средой, то А £ = 0 и информационный баланс отражения принимает форму выражения (8).
Полученное выражение (18) является устойчивым, однозначным соотношением между отражаемой, отражённой и неотражённой информациями, справедливым для любых дискретных систем, представленных конечным множеством элементов, вне зависимости от степени их информационной открытости, количества отражающих объектов и их соотношения между собой по числу элементов, что позволяет придать ему статус закона. Дадим этому закону название информационный закон отражения и сформулируем его следующим образом: при отражении системы А че-
N
рез совокупность систем Вь В2,..., BN, таких, что • В, = 0,
1=1
N
А • В, = К и • К, = А, происходит разделение отражаемой информа-
1=1
ции на отражённую и неотражённую части, первая из которых равна аддитивной негэнтропии, а вторая - сумме внутренней и внешней энтропий отражения.
Установленный закон по своей форме подобен известным физическим законам, таким как закон сохранения энергии, закон сохранения ко-
личества движения и т.д. При этом особо отметим, что на необходимость установления подобного рода законов в теории информации указывалось математиками и философами ещё в 50-е - 60-е годы прошлого столетия. Так, например, академик А.А. Харкевич писал: «Несмотря на быстрые темпы развития, общая теория связи (теория информации - прим. В.В.) не получила еще завершения в своих основных построениях. Обращает на себя внимание, в частности, отсутствие до настоящего времени системы основных законов типа законов сохранения, характерных для многих сложившихся отраслей знания. Наличие подобного рода законов, специфичных для связи, интуитивно ощущается. Однако эти законы еще не найдены и не сформулированы» [3, с.89]. Еще более близки к установленному нами закону философские заключения И.Б. Новика [4], который первым предложил трактовать информацию как форму отражения и считать, что информация - это упорядоченность отражения, а шум - неупорядоченность, хаотичность отражения. При этом было сделано предположение, фактически точно предсказывающее выражение (8): «Закон сохранения отражения в замкнутой системе может быть представлен в виде: I+N=const, где I -количество информации, а N (от англ. слова noise - шум) - количество шума, то есть суммарное количество отражения в замкнутой системе - величина постоянная» [4, с.127]. Это философское предсказание до получения выражений (8) и (18) не имело аналитического подтверждения, так как существующая теория информации не могла предоставить для измерения информации и шума (энтропии) различные функции, сумма значений которых оставалась бы постоянной. В связи с этим, проводя параллели с физическими законами сохранения, тот же И.Б. Новик говорил: «Если рассматривать одну какую-нибудь форму энергии (например, тепловую), то сохранения этой формы мы не обнаружим. Подобно этому, по-видимому, и при рассмотрении только одной формы отражения (информации) без учёта
её перехода в другую форму закон сохранения в данной области не удаётся установить» [4, с. 127].
Изложенный материал свидетельствует, что нами получены три информационные формы отражения (/^, £, А £) и показаны их взаимные переходы друг в друга при сохранении суммарного количества информации. Вместе с тем, мы воздерживаемся в настоящем разделе интерпретировать выражения (8) и (18) как закон сохранения информации (хотя их трактовка, как закона сохранения отражения, вполне допустима). Причина этого заключается в следующем. - Как было показано ранее [1], в синергетической теории информации мы имеем дело с тем видом информации, который существует независимо от управления, и созвучно названию теории может именоваться как синергетический вид информации. Другой же вид информации, неразрывно связанный с управлением и называемый вероятностным видом, при этом специально не рассматривается. Изучением этого вида информации занимается традиционная или вероятностная теория информации, основанная на рассмотрении множества вероятностей ансамбля случайных величин. То есть, дихотомически существуют два вида информации, каждому из которых соответствует своя теория со своим математическим аппаратом. Поэтому, прежде чем говорить о законе сохранения информации в более широком смысле, чем просто закон сохранения отражения, необходимо рассмотреть взаимоотношения синергетической и вероятностной теорий информации.
Сравнительная характеристика синергетической и вероятностной теорий информации
Мк-
Отношение ------- в выражении (6) с позиций теории вероятностей
МА
представляет собой вероятность (р,) встречи элементов, обладающих 1-м значением признака Рв , среди общего числа элементов системы А. Поэто-
му формула энтропии отражения информационно закрытых систем (6) может быть представлена также в следующем виде:
N
£ = “ХР11оё2 Рг (19)
г=1
Полученная формула (19) широко известна в науке как энтропия множества вероятностей Шеннона [2] и занимает в традиционной теории информации фундаментальное положение, являясь мерой количества информации, возможности выбора и неопределённости. Данный факт говорит о том, что вероятностная и синергетическая теории информации, имея предметом своего познания различные виды информации (связанной с управлением и существующей независимо от него), в то же самое время непосредственно взаимосвязаны между собой отношением взаимного проникновения друг в друга и, как следствие, в своей совокупности образуют единую количественную теорию информации. Образно выражаясь, можно сказать, что синергетическая и вероятностная теории информации являются оборотными сторонами одной и той же медали, название которой - «количество информации». В качестве переходного мостика при этом выступает энтропия (19), играющая в данных теориях различную роль.
В то же время необходимо отметить следующее. - В теории информации Шеннона энтропия (19) вводится в рассмотрение эмпирическим путём в самом начале теории, как функция, удовлетворяющая требованиям, априорно предъявленным к мере неопределённости выбора одной из N различных по своим вероятностям возможностей. В синергетической теории информации, в свою очередь, энтропия (19) получена аналитическим путём в процессе анализа отражения информационно закрытых систем, как
3 Основание логарифма в формуле (19) по Шеннону может быть любым и определяется выбором единиц измерения информации (бит, дит, нат и т.п.), исходя из соображений удобства решения той или иной задачи, а в синергетической теории информации, как было показано [1], основание логарифма больше двух не допускается.
разность между отражаемой и отражённой информациями. Иначе говоря, в синергетической теории информации энтропия (19) представляет собой меру неотражённой информации для информационно закрытых систем, и в силу этого является вторичной, то есть выводимой через негэнтропию отражения функцией. Сказанное приводит нас к выводу, что с информационно-генетических позиций синергетическая теория информации является первичной по отношению к вероятностной теории информации Шеннона. При этом следует отметить, что данное утверждение полностью согласуется с выводом академика А.Н. Колмогорова о том, что «теория информации должна предшествовать теории вероятностей, а не опираться на неё» [5, с. 249]4
Продолжая сравнение теорий, и обращаясь при этом к диаграмме на рисунке 3, можно видеть, что в собственно информационном отношении вероятностная теория информации ограничена энтропийным контуром аЬ-defha. Остальная часть информационного поля отражения дискретных систем, в отличие от синергетической теории информации, остаётся для неё недоступной. Иначе говоря, сфера приложения теории информации Шеннона ограничена информационно закрытыми системами. Но даже в этих условиях основополагающая информационно-энтропийная мера Шеннона, взятая сама по себе, является инвариантной функцией относительно размеров структурно-подобных систем. (Структурно-подобными мы называем системы, в составе которых выделяется одинаковое количество частей и наблюдается одно и то же пропорциональное соотношение последних по числу элементов.) Примеры таких систем приведены на рисунке 5.
4 В данном отношении весьма примечательно и другое высказывание А.Н. Колмогорова: «Не видно, почему теория информации должна столь существенно основываться на теории вероятностей, как это представляется по большинству руководств ... эта зависимость от заранее созданной теории вероятностей в действительности не является неизбежной». (Колмогоров А.Н. Указ. соч., с. 240. Разрядка моя - В.В.)
Мл, = 4 МА2 = 16 ЫАъ
4
64
^А, = ^Л2 = ^Аъ Рисунок 5. Структурно-подобные системы
Проводя для приведённых структурно-подобных систем ^1, ^2, Аз соответствующие расчёты, получаем:
Система: А, А2 А3
Энтропия Шеннона (5): 2 2 2
(энтропия отражения)
Аддитивная негэнтропия (/^): 0 2 4
Я-функция: 0 1 2
Как видим, энтропия Шеннона для всех трёх систем имеет одинаковое значение, то есть не отличает эти системы друг от друга. В то же время, поскольку 5 и согласно (8) реагируют на структурные изменения систем равносильным образом, то приведённые расчёты также показывают, что уже только одна аддитивная негэнтропия отражения является более универсальным инструментом анализа информационно закрытых систем по сравнению с информационно-энтропийной мерой Шеннона. Более же полное использование аппарата синергетической теории информации позволяет формализовано классифицировать каждую из систем А1, А2 , А3 на ри-
сунке 5, как хаотичную, синергетичную и упорядоченную, соответственно (чего, естественно, теория Шеннона сделать не может).
Обобщая сказанное, и подчёркивая, что в традиционной теории информации фигурирует только одна из трёх информационносинергетических функций (/£, £, А £), логично утверждать, что общий
потенциал практического использования у синергетической теории информации должен быть больше, чем у вероятностной теории информации Шеннона. Реализация этого потенциала является вопросом времени.
Закон сохранения информации
Представление внутренней энтропии отражения в виде формулы (19) свидетельствует о том, что одна из разновидностей синергетической информации тождественна вероятностному виду информации. Поэтому, рассматривая внутреннюю энтропию £ как количество вероятностной информации и, проводя соответствующую интерпретацию равенств (8) и (18), можно утверждать, что эти равенства на межвидовом информационноколичественном уровне выражают закон сохранения информации, который, в зависимости от того, какими являются системы в информационном отношении, может быть сформулирован следующим образом.
Информационно закрытые системы: В информационно закрытых системах с конечным множеством элементов суммарное количество синергетической и вероятностной информации сохраняет своё постоянное значение при любых структурных преобразованиях систем.
Информационно открытые системы: Общее суммарное количество вероятностной и синергетической информации, как находящейся внутри информационно открытых систем с конечным множеством элементов, так и передаваемой этими системами в окружающую среду, сохраняет своё постоянное значение при любых структурно-
системных преобразованиях и взаимоотношениях систем с окружающей средой.
Раскроем содержание установленного закона сохранения информации, для чего представим его в иллюстративной форме, как это показано на рисунке 6.
б
а
а + а -
а - информационно закрытая система б - информационно открытая система
Рисунок 6. Графическое выражение закона сохранения информации
Информационно закрытые системы. Когда система является закрытой в информационном отношении (см. рисунок 1а), в ней совместно с вероятностной информацией £ присутствует только одна разновидность синергетической информации в виде аддитивной негэнтропии отражения / ^ (рисунок 6а).
При этом изменение соотношения между различными видами информации и их взаимные переходы друг в друга определяются тем, в каком направлении осуществляются структурные преобразования системы. Так, например, если количество частей системы уменьшается, а тем более, если при этом какая-то часть системы начинает доминировать по числу элементов, то возрастает количество синергетической информации и уменьшается количество вероятностной. В пределе, когда все элементы системы в плоскости какого-либо признака становятся неотличимыми друг
от друга и, соответственно, система не разделяется на части (N = 1), её вероятностная информация полностью переходит в синергетическую информацию и как вид перестаёт существовать в системе. Разнообразия элементов и возможности выбора при этом нет и биты управления трансформируются в биты отражения. При обратных структурных преобразованиях, когда система всё более делится на части, то есть увеличивается разнообразие её элементов и возрастают возможности выбора, идёт противоположный информационный процесс. Синергетическая информация при этом переходит в вероятностную и биты отражения становятся битами управления. Этот процесс исчерпывает себя и прекращается, когда количество частей системы становится равным числу её элементов (N = М д).
Так как суммарное количество синергетической и вероятностной информации в системе не изменяется, то каждый из отмеченных противоположных процессов в информационно-количественном отношении заканчивается одним и тем же результатом, математически выражаемым чисто комбинаторной формулой количества информации. При этом, в первом случае, когда уменьшается количество частей и в структуре системы возрастает порядок, мы приходим к формуле количества информации, само-отражаемой конечным множеством [1], а во втором случае, при максимальной хаотичности структуры, имеем двоичный логарифм Хартли [6], лежащий в основе традиционного комбинаторного подхода к определению количества информации [7]. То есть, по-видимому, можно сказать, что комбинаторное количество информации, в зависимости от того, с какой стороны его рассматривать, может относиться, как к синергетическому, так и к вероятностному виду информации и измеряться, соответственно, в битах отражения или в битах управления.
Рассматривая теперь математическую форму закона сохранения информации, в свете сказанного можно утверждать, что выражение (8), помимо прочего, представляет собой уравнение взаимосвязи различных под-
ходов к количественному определению информации, что позволяет сделать методологический вывод. - Комбинаторный, вероятностный и синергетический подходы к определению количества информации неразрывно взаимосвязаны между собой и в своей совокупности составляют единую количественную основу общей теории информации.
Информационно открытые системы. Когда система информационно открывается (см. рисунок 1б), начинается её взаимодействие с окружающей средой, в результате чего часть синергетической информации /£ переходит в окружающую среду в виде внешней энтропии отражения А £ (рисунок 6 б).
Если в последующем система начинает обратно закрываться (V т® 0), то эта информация возвращается в систему в виде соответствующего увеличения значений /£. Так как по определению А £ < /£, то независимо от степени увеличения открытости системы (V тв1 ® ¥, при
данной её структуре, во внешнюю среду может перейти только ограниченное количество информации. То есть: система не может отдать во внешнюю среду, а также получить обратно из внешней среды количество информации, превосходящее аддитивную негэнтропию отражения её информационно закрытого состояния.
Также как в случае информационной закрытости, рассмотрим два полярных друг другу структурных состояния системы. В первом случае, когда система предельно упорядочена (N = 1), в ней актуализирована только синергетическая информация и до открытия системы имеем: /£ = /д, £ = 0 . После информационного открытия системы и его неограниченного возрастания (т ® ¥), из системы выходит и распространяется
по окружающей среде практически вся информация о ней, как едином целом и, соответственно: /£ ® 0, А £ ® /д
Во втором случае, при максимальной хаотичности структуры системы (N = М д), вся её информация представлена только вероятностным видом, который инвариантен относительно взаимоотношений системы с внешней средой. Соответственно, как до открытия системы, так и после её открытия сохраняются равенства £ = /д и /£ = 0, говорящие о том, что при любой степени открытости системы А £ = 0. Иначе говоря, достигая максимально возможной структурной хаотичности, система становится «невидимой» для внешней среды или, выражаясь по-другому, множество Л = {а | Рд (а)} = {й | Рд (^)} в плоскости признака Рв = Рвх, Рв2,---, PвN ,
при N = Мд перестаёт восприниматься окружающей средой как система.
Заключение
В двух статьях, на основе простого аксиоматического базиса, без опоры на теорию вероятностей и традиционную теорию информации, пройден путь от рассмотрения элементарного конечного множества до установления на межвидовом информационно-количественном уровне закона сохранения информации и его частной формы, - структурного закона сохранения суммы хаоса и порядка. При этом получены неизвестные ранее информационно-количественные функции, и в то же время показана их непосредственная взаимосвязь с традиционными мерами информации (комбинаторной и вероятностной). Всё это говорит о том, что в лице синергетической теории информации мы имеем вполне сформировавшуюся новую научную теорию.
Дальнейшее развитие этой теории и внедрение её в практику научных и прикладных исследований, по нашему мнению будет иметь значение не только для общей теории информации, но и для тех предметных облас-
тей, где объекты познания представимы в виде дискретных систем, состоящих из конечного множества элементов. Не исключено, что одной из таких областей, в числе первых, может стать статистическая термодинамика, полемика вокруг непосредственной взаимосвязи которой, с вероятностной теорией информации Шеннона, идёт уже далеко не один десяток лет. Поэтому, одним из актуальных направлений дальнейших исследований, нам видится информационно-синергетический анализ термодинамических систем в процессе их перехода из структурно-упорядоченного состояния в состояние термодинамического равновесия.
Литература
1. Вяткин В.Б. Синергетическая теория информации. Часть 1. Синергетический подход к определению количества информации // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2008. - №44(10). Режим доступа: http://ei.kubagro.ru/2008/10/pdf/12.pdf
2. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830с.
3. Харкевич А.А. Очерки общей теории связи. - М.: Гостехиздат, 1955. - 268с.
4. Новик И.Б. Негэнтропия и количество информации // Вопросы философии. - 1962, № 6. - С. 118-128.
5. Колмогоров А.Н. Теория информации и теория алгоритмов. - М.: Наука, 1987. -304с.
6. Хартли Р.В.Л. Передача информации. // Сб.: Теория информации и ее приложения. - М.: Физматгиз, 1959. - С. 5-35.
7. Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. - 1965, т.1, №1 - С. 3-11.