УДК 519.722+573.01:141.157
СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ: ПОЯСНЕНИЯ И ТЕРМИНОЛОГИЧЕСКИЕ ЗАМЕЧАНИЯ
Вяткин Виктор Борисович к. т. н.
Кубанский государственный аграрный университет, Краснодар-Екатеринбург, Россия
Статья посвящена разъяснению отдельных моментов синергетической теории информации и состоит из пяти автономных по своему содержанию разделов. В первом разделе раскрывается генезис названия теории и показывается ее независимость от синергетики Г.Хакена. Во втором разделе подробно рассматривается принципиальное различие содержательной сущности информационной меры Р.Хартли и количества информации, самоотражаемой конечным множеством, формулы которых имеют внешнее математическое подобие. В третьем разделе кратко освещается интерпретация понятия информация с позиций категории отражение. В четвертом разделе обосновывается необходимость изменения названия информации, которую отражают друг о друге два пересекающихся конечных множества (негэнтропия отражения). В пятом разделе словосочетание негэнтропия отражения заменяется термином синтропия и дается классификация различных видов синтропии
Ключевые слова: СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ, КОЛИЧЕСТВО ИНФОРМАЦИИ, КОНЕЧНОЕ МНОЖЕСТВО, ЭНТРОПИЯ, НЕГЭНТРОПИЯ, СИНТРОПИЯ
UDC 519.722+573.01:141.157
SYNERGETIC INFORMATION THEORY:
EXPLANATIONS AND TERMINOLOGICAL REMARKS
Vyatkin Victor Borisovich Cand.Tech.Sci
Kuban State Agrarian University, Krasnodar-Ekaterinburg, Russia
The article is devoted to an explanation of the separate moments of the synergetic information theory and consists of five independent sections. In the first section genesis of the name this theory reveals and its independence of G. Haken's synergetrics is shown. In the second section basic distinction of R. Hartley's information measure and quantity of information selfreflected by a final set is detail considered. In the third section concept interpretation information from category positions reflection is briefly considered. In the fourth section need of change of the name of information which is reflected about each other by two being crossed final sets is shown. In the fifth section the phrase negentropy of reflection is replaced with the term a sintropy and classification of different types of a sintropy is given
Keywords: SYNERGETIC INFORMATION THEORY, QUANTITY OF INFORMATION, FINAL SET, ENTROPY, NEGENTROPY, SINTROPY
Содержание
Введение (2).
1. О названии «синергетическая теория информации» (6).
2. О сходстве и различии формулы самоотражаемой множеством информации и информационной меры Р. Хартли (8).
3. Характеристика информации с позиций отражения (17).
4. О необходимости замены названия «негэнтропия отражения» (18).
4.1. Генезис словосочетания негэнтропия отражения. 4.2. Критический анализ словосочетания негэнтропия отражения.
5. Синтропия (23).
Заключение (29).
Литература (30).
Введение
В работах [1-8], в том числе опубликованных в настоящем журнале [3-7], представлена синергетическая теория информации, которая является новым направлением в исследовании количественной стороны феномена информации. Эта новизна заключается в том, что если в традиционной теории информации, основанной на работах Р.Хартли [9] и К.Шеннона [10], информация рассматривается как нечто атрибутивно связанное с управлением, то в синергетической теории информации речь идет о другом виде информации, который существует независимо от управления и генетически ему предшествует. Более конкретно - в традиционной теории информация представляет собой снятую неопределенность выбора одной из множества возможностей, а в синергетической теории под термином информация понимаются сведения о конечном множестве как едином целом. Соответственно, предметом познания синергетической теории информации являются информационно-количественные аспекты отражения конечных множеств (дискретных систем), как целостных образований.
В основе теории лежит вывод двух информационных формул, на которых базируются все дальнейшие теоретические построения. Это формула информации 1А, отражаемой произвольным множеством А о
самом себе как о целостном образовании (самоотражаемая множеством информация):
1А = 1о§2 MA , (1)
и формула информации IAB, которую отражают друг о друге, как едином целом, два пересекающихся конечных множества А и В, таких, что А П Б = K:
М 2
1АБ =----log2 Мк, (2)
АБ МАМБ к
где Ма , Мб , МК - число элементов в составе множеств А, Б, К.
С помощью формул (1) и (2) получен ряд новых информационнотеоретических результатов, к числу основных из которых, имеющих междисциплинарный характер, можно отнести следующее:
- Установлено, что при отражении дискретных систем через совокупности своих частей (подсистем) происходит разделение отражаемой информации на отраженную и неотраженную части (информационный закон отражения). При этом показано, что отраженная информация характеризует структуру системы со стороны ее упорядоченности, а неотраженная информация - со стороны хаотичности.
- Доказано, что при любых структурных преобразованиях дискретных систем, происходящих без изменения общего числа их элементов, сумма хаоса и порядка в структуре систем всегда остается постоянной величиной (закон сохранения суммы хаоса и порядка).
- Обосновано существование информационных границ взаимного отражения пересекающихся конечных множеств, при переходе через которые отраженные образы множеств становятся пустыми множествами.
- Разработана методика количественной оценки структурной организации и структурного развития дискретных систем с конечным множеством элементов.
- Показано, что при структурных преобразованиях дискретных систем происходят взаимные переходы друг в друга различных видов информации (вероятностного, который актуализируется при управлении и синергетического, существующего независимо от управления). При этом суммарное количество различных видов информации не изменяется (закон сохранения и превращения информации).
- Установлено, что любая система с конечным множеством элементов, в зависимости от количества частей, на которые она разбивается по значениям того или иного признака, однозначно попадает в один из трех интервалов на соответствующей числовой оси (левый, центральный, правый). При этом в каждом интервале структура системы имеет свои отличительные особенности, которые сохраняются при любых внутри интервальных преобразованиях системы и сводятся к тому, что в левом интервале наблюдается необратимое преобладание порядка над хаосом, а в правом интервале, наоборот, - необратимое преобладание хаоса над порядком. В центральном интервале, в свою очередь, преобладание как порядка над хаосом, так и хаоса над порядком является обратимым. Соответственно, любые дискретные системы с конечным множеством элементов, в зависимости от количества частей, на которые они разделяются в плоскости какого-либо признака, формализовано классифицируются на три типа: упорядоченные (левый интервал), синергетичные (центральный интервал), хаотичные (правый интервал).
Кроме того, установлено, что синергетическая теория информации и вероятностная теория информации К.Шеннона [10], имея предметом своего познания различные виды информации, и развиваясь независимо друг от друга на основе различных аксиоматических базисов, в то же самое время имеют между собой непосредственную математически выраженную взаимосвязь [2, 4, 8]. Это свидетельствует о том, что данные теории в своей совокупности образуют единую количественную теорию информации. (В определенной мере подобно тому, как в физике феноменологическая и статистическая термодинамики образуют единое учение о теплоте).
Разработка синергетической теории информации далека от своего завершения, но уже множатся примеры ее практического использования при решении разнообразных задач в различных предметных областях [11-
22 и др.] и просто цитирования в научной литературе [23-33 и др.]. Кроме того, ссылки на нее можно обнаружить в ряде кандидатских [34-37] и докторских [38-40] диссертаций. Примечателен также и тот факт, что статья «Хаос и порядок дискретных систем в свете синергетической теории информации» [7] длительный период времени входит в ТОР-5 наиболее популярных статей по среднему числу просмотров за день в Научном журнале КубГАУ [41]. Наконец, можно указать и такую экзотическую форму признания теории и примеров ее практического использования, как групповой плагиат со стороны профильных специалистов [42, 43].
Вместе с тем, имеется ряд моментов, благодаря которым синергетическая теория информации не всегда находит свое адекватное понимание и порой воспринимается как некая специфическая надстройка тех или иных теоретических воззрений, фактически не имеющих отношения к ее содержательной сущности. Такими моментам, в первую очередь, являются:
- название теории, часто ошибочно воспринимаемое как генетически вытекающее из синергетики Г.Хакена [44];
- внешнее сходство формулы самоотражаемой множеством информации (1) с формулой Р.Хартли [9], которая является частным случаем информационно-энтропийной меры К.Шеннона [10], что иногда порождает иллюзию того, что разрабатываемая теория ассимилируется традиционной теорией информации;
- использование термина негэнтропия в названии информации, отражаемой друг о друге двумя пересекающимися множествами (2) (негэнтропия отражения), что вносит определенную путаницу в общее понимание этого термина и порой создает ложное впечатление, что синергетическая теория информации является развитием идей Л.Бриллюэна [45, 46].
Раскрытию, объяснению и коррекции этих моментов посвящена настоящая статья. Кроме того, поскольку в синергетической теории информации понятие информации неразрывно связывается с отражением, то также дается краткая характеристика соответствующих философских воззрений.
1. О названии «синергетическая теория информации»
Сразу нужно сказать, что синергетическая теория информации обязана своим названием не научной дисциплине «синергетика», которая по замыслу ее основоположника - немецкого физика Г.Хакена -объединяет различные подходы к изучению явлений самоорганизации открытых динамических систем [44], а исходному значению слова синергетика, которое в переводе с греческого языка означает совместный, согласованно действующий. Дело в том, что в данной теории рассматриваются информационные аспекты отражения конечных множеств как целостных образований. Элементы множеств при этом принимают участие в информационных процессах отражения одновременно всей своей совокупностью без какого-либо выделения любого из них в качестве самостоятельного события, результата испытания и т.п., как это принято делать в традиционной теории информации. Поэтому включение в название теории слова синергетическая представляется вполне оправданным. В связи с этим нужно заметить, что аналогичным образом обосновывал использование слова синергетика и Г.Хакен, говоря: «Я назвал новую дисциплину «синергетикой». В ней исследуется совместное действие многих подсистем, в результате которого на макроскопическом уровне возникает структура и соответствующее функционирование» [44, с.15]. Кроме того, обсуждая общее использование термина синергетика, следует сказать, что этим термином, независимо от учения Г.Хакена, широко пользовался
американский архитектор, изобретатель и философ Р.Б.Фуллер1 [47], определивший синергетику как такое поведение целого, которое не предсказуемо на основе изучения его частей. При этом в качестве примера Р.Б.Фуллер приводил тот факт, что хром-никелевый сплав при своем растяжении демонстрирует прочность, в несколько раз превышающую прочность каждого из своих компонентов.
Синергетическая теория информации, возникнув и развиваясь независимо от традиционной синергетики Г.Хакена, в то же время имеет с ней объединяющее начало, которое заключается в том, что там и тут большое внимание уделяется общим вопросам организации (самоорганизации) системных образований в плоскости таких понятий как хаос и порядок. Но при этом содержательное наполнение данных понятий в обоих случаях принципиально различно. Так, например, хаос в синергетической теории информации имеет статический характер и связан с неоднородностью распределения элементов системы по значениям какого-либо признака [2, 4, 7, 8], а в традиционной синергетике хаос является динамическим и выражает случайный характер движения систем в фазовом пространстве, то есть актуализируется как непредсказуемый случайный процесс [44, 48-50]. В случае порядка все, соответственно, наоборот. Иначе говоря, рассматривая систему со стороны хаоса и порядка в 1-й момент времени, в синергетической теории информации нас интересует соответствующая данному моменту внутренняя структура системы, а в традиционной синергетике, в первую очередь, -
предсказуемость перехода системы в то или иное состояние в следующий момент времени, то есть возможность экстраполяции ее фазовой траектории.
1 Разнообразная плодотворная деятельность Ричарда Бакминстера Фуллера (США, 1895-1983) отмечена тем, что его именем названа одна из аллотропных форм углерода (фуллерен), а в 2004 году в США была выпущена почтовая марка с его изображением.
С другой стороны, по замечанию известного специалиста в области синергетики Ю.Л. Климонтовича, «основная задача синергетики -выявление общих идей, методов и закономерностей в процессах самоорганизации в различных областях естествознания и социологии» [48, с.60]. К аспектам решения этой задачи можно отнести тот факт, что с помощью синергетической теории информации обнаружены общие закономерности структурной организации реальных дискретных систем различной природы со стороны соотношения в их структуре хаоса и порядка [7, 8]. Это говорит о том, что синергетическая теория информации может быть включена в арсенал средств познания традиционной синергетики, что, в свою очередь, согласуется с высказыванием Г. Хакена о том, что «синергетику можно рассматривать как форум, на котором ученые разных дисциплин встретились друг с другом для того, чтобы обменяться своими идеями, как справиться с большими системами» [цит. по 51, с.9].
Таким образом, название «синергетическая теория информации» является обоснованным, как со стороны дословного значения термина синергетика, так и со стороны междисциплинарного научного направления «синергетика».
2. О сходстве и различии формулы самоотражаемой множеством информации и информационной меры Р. Хартли
На первый взгляд может показаться, что формула самоотражаемой множеством информации (1) представляет собой информационную меру Р.Хартли [9], взятую при единичном выборе и двоичном основании логарифма, к которой при одинаковой вероятности событий сводится также информационно-энтропийная мера К.Шеннона [10]:
Н = ^ N, (3)
где N - разнообразие элементов множества по какому-либо признаку
Р = Ръ р2, ..., PN .
Между тем, формулы (1) и (3) получены различными путями и имеют только внешнее формально-математическое сходство, что видно хотя бы из того, что их аргументы МА и N характеризуют множество с разных сторон. Соответственно, в одной и той же ситуации 1а и Н, в общем случае, имеют различные значения, причем Н < 1а . В этом можно убедиться на примере буквенных последовательностей (систем) конечной длины, информационные оценки которых по формулам (1) и (3) приведены в таблицах 1 и 2.
Таблица 1
№ Буквенная последовательность Ма N 1а Н
1 a,b,c,d,e,f,g,h 8 8 3 3
2 a,a,b,b,c,c,d,d 8 4 3 2
3 a,a,a,a,b,b,b,b 8 2 3 1
4 a, a, a, a, a, a, a, a, 8 1 3 0
Таблица 2
№ Буквенная последовательность Ма N 1а Н
1 ^ь 2 2 1 1
2 4 2 2 1
3 a,a,a,a,b,b,b,b 8 2 3 1
Из табл. 1 видно, что 1а не зависит от разнообразия букв,
образующих последовательность, а табл. 2, в свою очередь, показывает, что Н не зависит от общей длины буквенной последовательности. Иначе говоря, самоотражаемая множеством информация (1) и информационная мера Р.Хартли (3) инвариантны относительно друг друга, а их значения равны между собой только в частном случае, когда Ма = N.
Сказанное относится к частному случаю информационной меры Р.Хартли и может вызвать ложное предубеждение, что формулы (1) и (3) просто являются различными реализациями одной и той же комбинаторной формулы количества информации, представляющей собой двоичный логарифм числа элементов какого-либо конечного множества, которое, по замечанию А.Д.Урсула, может быть представлено «и количеством случайных событий, и количеством возможностей, и наличным количеством каких-то предметов и т.д.» [52, с.37]. Покажем, что это не так, и вскроем глубинные различия формул (1) и (3), для чего обратимся к их генезису.
Самоотражаемая множеством информация (1) представляет собой среднюю длину Ьа интегративных кодов элементов, которые могут быть поставлены в соответствие каждому из них при рассмотрении множества в качестве единого целого. В работах [1, 3] показано, что интегративный код элементов при этом может быть составлен с помощью только двоичного алфавита (N = 2). В противном случае, при числе символов алфавита N > 2, возникают нарушения монотонного возрастания средней длины кодов Ьа и информации 1а по мере увеличения общего числа элементов множества Ма . Соответственно, за самоотражаемую множеством информацию 1а принята средняя длина интегративных кодов при N = 2, точная формула которой имеет вид:
где х = [^2 МА ] - целочисленная часть ^2 МА .
При этом установлено, что на всем множестве возможных значений Ма отклонение Ьа от ^2 Ма (см. рис. 1) ограничено постоянной величиной
ЬА ж=2 = х + 2
(4)
у = Бир (Ьа - ^2МА) = 0,0860713.
М А 6 [ 1, ¥ )
что наглядно демонстрирует рис. 2. ЬА, 1оё2 М А
Рисунок 1. Графики функций Ьа и ^2 Ма
Ьа - 1о§2 МА
М
А
Рисунок 2. Г рафик разности Ьа - ^2 М а
Поэтому в качестве практической меры информации 1а , самоотражаемой конечным множеством А с числом элементов Ма , вместо
2
относительно громоздкого выражения (4) принята его аппроксимация2 в виде формулы (1), то есть:
Ьа
N=2
■ІА ~1^2 МА
Информационная мера Р.Хартли, в свою очередь, была изначально получена для целей сравнительного анализа пропускной способности различных систем технической связи [9]. Р.Хартли исходил из того, что при передаче сообщения с помощью ^символьного алфавита каждому символу сообщения соответствует единичный выбор из N возможностей. Следовательно, для того, чтобы передать сообщение из п символов по техническому каналу связи, необходимо осуществить п таких выборов. При этом сообщение в целом, как единая п-символьная
о л т П
последовательность, является реализацией одной из N возможных таких последовательностей. Дальнейший вывод информационной меры является довольно коротким, поэтому для соблюдения адекватности приведем его полностью.
«Будем произвольно считать, что количество информации пропорционально числу выборов, а коэффициент пропорциональности выберем таким образом, чтобы равным числам возможных последовательностей соответствовали равные количества информации. Пусть в какой-либо системе количество информации, связанное с п выборами, есть
Н = Кп (5)
где К - константа, зависящая от числа N возможных при каждом выборе символов. Возьмем две системы, в которых N имеет значения N1 и N2, и
2 Аппроксимация (от лат. Лрргохішо - приближаюсь) - замена одних математических объектов другими, в том или ином смысле близкими к исходным. Аппроксимация позволяет исследовать числовые характеристики и качественные свойства объекта, сводя задачу к изучению более простых или более удобных объектов (например, таких, характеристики которых легко вычисляются или свойства которых уже известны) (БСЭ).
пусть соответствующие константы будут Кх и К2. Определим эти
константы следующим условием: если числа выборов п1 и п2 в двух системах таковы, что возможных последовательностей в обеих системах одинаково, то одинаково и количество информации, т.е. если
V/ XXV у ди -
log N log N2
Это соотношение справедливо для всех значений N только тогда, когда K связано с N соотношением:
где К0 одинаково для всех систем. Так как К0 произвольно, то его можно опустить, оставляя основание логарифмов произвольным. Выбор того или иного основания определяет единицу измерения информации. Подставляя значение К в (5), имеем:
Сделанное нами сводится, следовательно, к тому, что в качестве практической меры информации мы берем логарифм числа возможных последовательностей символов» [9, с.11-12].
Наиболее широкую известность мера Р.Хартли (6) получила при п = 1 и двоичном основании логарифма, то есть в виде формулы (3). Более того, непосредственно с формулы (3), как правило, начинается сейчас и изложение собственно комбинаторного подхода к определению количества информации. Так, например, академик А.Н.Колмогоров в своей известной статье «Три подхода к определению понятия «количество информации»» [53], изложение комбинаторного подхода начинает следующим образом: «Пусть переменное х способно принимать значения, принадлежащие
то
K = K0 log N,
H = n log N
H = log Nn
(6)
конечному множеству X, которое состоит из N элементов. Говорят, что «энтропия» переменного х равна
Н (х) = ^2 N
Указывая определенное значение х = а переменного х, мы «снимаем» эту энтропию, сообщая «информацию» [53, с.3]
I = 1о§2 N. (7)
Каких-либо замечаний по поводу того, почему используется именно двоичный логарифм, А.Н.Колмогоров при этом не делает, принимая основание «2» как за нечто данное. Возможно, это потому, что еще за восемь лет до опубликования данной статьи он говорил, что «способ измерения количества информации при помощи сравнения любой информации с информацией в виде некоторого числа двоичных знаков стал сейчас стандартным в теории информации» [54, с.31]. В связи с этим можно заметить, что слова «стал сейчас стандартным» не являются научным обоснованием в строгом смысле этого слова, а отражают лишь факт предпочтительного удобства использования двоичных логарифмов в теоретической и практической деятельности, связанной с передачей, хранением и переработкой информации.
В отличие от произвольного основания логарифма в первоначальной мере Р.Хартли (6) и практического выбора двоичного логарифма в выражениях (3) и (7), в формуле самоотражаемой множеством информации (1), как это следует из ее выше описанного вывода, никакое другое основание логарифма, кроме «2», не допускается. В противном случае, фрагментарно нарушается монотонный характер увеличения информации с ростом числа элементов множества. Например, при основании «10» для всех ЫА < 10 будем иметь ЬА = 1А = 1. (При этом имеется в виду, что длина интегративного кода, как последовательности символов, может принимать только целочисленные значения.) То есть
основание логарифма «2» в формуле (1) имеет теоретическое, а не эмпирическое, как в (3) и (7), обоснование (подробности в работах [1, 3]).
Описанный генезис формул (1) и (3) свидетельствует о том, что они отличаются друг от друга не только своими аргументами, но и всем ходом рассуждений, на основе которых они получены, то есть являются принципиально различными мерами информации. Более того, если формулу самоотражаемой множеством информации (1) можно применять для информационной оценки любого конечного множества без каких-либо дополнительных сведений о нем, то для корректного практического использования меры Р.Хартли (3) и (6) необходимо знание условий формирования множества. Иначе говоря, при оценке количества информации по формулам (3) и (6) получатель информации должен знать, с помощью какого именно алфавита составлено сообщение. В противном случае оценка количества информации будет далеко не всегда адекватной и однозначной. Покажем это на конкретном лингвистическом примере и будем при этом информацию в формуле (6) обозначать как Н0 .
Пусть имеется телеграфное сообщение без предлогов в виде следующего текста из восьми символов (пробел «—» учитывается как символ):
= С О Р - М О Р Е = (8)
Русскоязычный читатель будет считать, что этот текст написан на русском языке с помощью русского алфавита (N = 32 при равнозначности е - ё и ь - ъ), а его смысл заключается в том, что какое-то море или его участок загрязнены посторонними предметами. Соответственно, количество информации, приходящейся на один символ сообщения по формуле (3) равно Н = ^232 = 5 бит , а общее количество информации,
содержащейся в сообщении, по формуле (6) составляет Н0 = 5 • 8 = 40 бит .
В том случае, если сообщение (8) попадет к англоязычному читателю, то оно будет воспринято, как составленное с помощью латинского алфавита (N = 27). А поскольку на английском языке слова сообщения могут означать СОР [ kэp] - полицейский, а МОРЕ [mэup] -угрюмый человек, то содержание сообщения для его получателя может представлять собой информацию о том, что некий полицейский является неприветливым хмурым человеком. Количество информации на один символ по Р.Хартли в этом случае равно Н = ^227 = 4,76 бит, а для всего сообщения Н0 = 4,76 • 8 = 38,08 бит .
Если же рассматривать текст (8) чисто формально, как просто существующую саму по себе последовательность символов, то с помощью меры Р.Хартли мы можем, строго говоря, оценить только разнообразие символов текста, причем разнообразие в смысле У.Р.Эшби [55], которое не учитывает частоту встречаемости символов3. В этом случае мы должны принять, что сообщение (8) составлено с помощью алфавита из шести символов «—», Е, М, О, Р, С (N = 6) и, соответственно, Н = ^2 6 = 2,59 бит , Н0 = 2,59 • 8 = 20,72 бит .
В свою очередь, информационная оценка текста (8) с помощью формулы (1) является однозначной, и независимо от каких-либо условий показывает, что текст отражает о самом себе, как едином целом, количество информации, равное 1А = ^2 8 = 3 бит (отражения). Причем
значение 1а не совпадает ни с одной из оценок, полученных с помощью меры Р.Хартли.
3 У.Р. Эшби в отношении символьных множеств писал, что «если порядок, в котором расположены элементы, игнорируется, то множество с, Ь, с, а, с, с, а, Ь, с, Ь, Ь,
а, содержащее двенадцать элементов, содержит только три различных элемента: а, Ь и с. О таком множестве будет говориться, что оно имеет разнообразие в три элемента» [55, с.178].
Таким образом, на примере телеграфного сообщения (8) мы убедились, что при информационном анализе одного и того же множества с помощью меры Р.Хартли можно получить различные результаты, зависящие от условии рассмотрения множества . В то же время, количество информации, самоотражаемой множеством, всегда остается постоянной величиной и не зависит от каких-либо условий. Это лишний раз говорит о том, что формулы (1) и (3) по своей содержательной сущности являются принципиально различными информационными мерами.
3. Характеристика информации с позиций отражения
В синергетической теории информации количественные аспекты информации рассматриваются с позиций воспроизведения конечных множеств как друг через друга (1АВ), так и через самих себя (1А), то есть с
4 Подобное разночтение результатов будет наблюдаться и при использовании более общей информационно-энтропийной меры К.Шеннона (5), учитывающей
N
частоты (вероятности) встречаемости символов и имеющей вид: 5 = —^р1 log2 р1 ,
г=1
N
^ р1 = 1, где р1 - вероятность какого-либо случайного события. (В общем случае
г=1
основание логарифмов в данной формуле является произвольным.) Покажем это разночтение, имея в виду, что при передаче сообщений формула К.Шеннона показывает, какое среднее количество информации приходится на один передаваемый символ при использовании ^-символьного алфавита. В работе [56] для русского и английского языков даются следующие значения количества информации по К.Шеннону, приходящейся на один символ (букву): 8Ки = 4,35 бит, 5Еп = 4,03 бит. Соответственно, если принять, что текст (8) составлен на русском языке, то количество информации в нем 8^и = 4,35 • 8 = 34,8 бит, а если на английском, то
5^ = 4,03 • 8 = 32,24 бит . В том же случае, когда текст будет рассматриваться как
формальный набор символов (автономная система), необходимо сначала определить относительную частоту встречаемости символов и принять ее за вероятность. Для текста (8) эти вероятности равны: р(Е) = р(М) = р(С) = р(-) = 1/8 = 0,125,
р(О) = р(Р) = 2/8 = 0,25. Соответственно, используя формулу К.Шеннона, получаем количество информации: на один символ
5 = -(4 • 0,125 • 0,125 + 2 • 0,25 • 0,25) = 2,5 бит , для всего сообщения
50 = 2,5 • 8 = 20 бит .
позиций отражения. Тем самым, в определенной мере, формализуются философские воззрения о неразрывной взаимосвязи понятия информация с категорией отражение. Впервые на эту взаимосвязь указал в 1959 году И.Б. Новик [57], а наиболее обстоятельное ее рассмотрение провел в ряде своих работ А.Д. Урсул [52, 58, 59], который, учитывая исследования Р.Хартли [9], К.Шеннона [10] и У.Р.Эшби [55], пришел к заключению, что информацию «можно определить в самом общем случае как отраженное разнообразие» [58, с.284]. Но при этом было оговорено, что «при определении тех или иных особенных форм понятия информации более важным может оказаться не признак разнообразия, а какой-либо иной» [59, с.29]. К таким «особенным формам» можно отнести информации 1А и 1АВ,
которые, как это следует из предыдущего раздела, не могут интерпретироваться как отраженное разнообразие. Эти разновидности информации связаны с объединением всех элементов множества в единое неделимое целое и, соответственно, в философском отношении понятие информация в данных разновидностях выступает как отраженное целое.
Сказанное лишний раз свидетельствует о том, что информация, фигурирующая в традиционной теории информации Хартли-Шеннона (отраженное разнообразие) и информация, рассматриваемая в синергетической теории информации (отраженное целое), являются различными видами информации, каждый из которых имеет свое автономное существование.
4. О необходимости замены названия «негэнтропия отражения»
4.1. Генезис словосочетания негэнтропия отражения
Начиная с ранних работ по анализу информационных аспектов отражения конечных множеств [60-63], информация 1АВ, которую отражают друг о друге два пересекающихся множества, именуется как
«негэнтропия отражения».5 Исторически вывод формулы (2), выражающей количество этой информации, был инициирован проблемой совершенствования методики информационной оценки признаков при прогнозе месторождений полезных ископаемых.6 Эта проблема заключалась в том, что способы оценки информативности геологических признаков, основанные на вероятностной теории информации К.Шеннона [65-69], дают неустойчивые, ситуационные результаты, что может приводить к общей противоречивости прогнозных заключений [61, 70-72]. Оценка же информативности признаков с помощью формулы (2) свободна от этих недостатков, что неоднократно было подтверждено на практике при проведении прогнозно-геологических исследований в
производственных условиях [73, 74].
Сначала формула (2) была получена эмпирическим путем на основе интуитивных представлений о том, что количество информации 1АВ должно, во-первых, находиться в прямой зависимости от числа элементов в области пересечения множеств АIВ = К и в обратной зависимости от числа элементов в дополняющих множествах А \ К и В \ К, а во-вторых, выражаться в битах, чтобы легитимно являться информационной мерой. Эти условия были выполнены, но получаемые при этом по формуле (2) информационные оценки множеств, противоречили традиционным подходам к определению количества информации (комбинаторному и вероятностному), идущим от работ Р.Хартли и К.Шеннона. В частности, явное такое противоречие можно видеть в том, что при наиболее сильной взаимосвязи множеств (А = В) информация, отражаемая множествами друг о друге, по формуле (2) принимает максимальное значение, в то время как
5 Первый раз формула (2) была опубликована автором в 1989 году [64] и выражала собой «информацию отражения».
6 Автор, будучи по образованию геофизиком, длительное время работал в геологических организациях Министерства геологии СССР и Министерства природных ресурсов России, занимаясь вопросами прогноза месторождений полезных ископаемых с помощью математических схем принятия решений.
согласно традиционным подходам она должна быть равна нулю, что само по себе является нонсенсом. (При А = В множества, выделенные по признакам РА и РВ, состоят из одних и тех же элементов, которые в плоскости этих признаков неотличимы друг от друга. Соответственно, среди элементов нет разнообразия и нет выбора, а следовательно, по Хартли и Шеннону нет никакой информации.) Поэтому, полученную эмпирическим путем формулу (2) нужно было как-то терминологически обособить, чтобы отличать от традиционных мер информации.
При выборе специального названия для информации 1АВ внимание, прежде всего, было обращено на два момента. Во-первых, формула (2) нашла идеологическую поддержку в лице философских представлений о диалектической взаимосвязи понятия информация с категорией отражение. (См. предыдущий раздел 3.) Во-вторых, в тезаурусе общей теории информации имелся относительно близкий по своему смыслу термин негэнтропия, введенный в научный обиход в 1950-х годах Л.Бриллюэном [45, 46] в качестве замены словосочетания отрицательная энтропия, которым пользовался Э.Шредингер [75]. Эта близость тогда - 20 лет назад - виделась в следующем. - Согласно негэнтропийному принципу информации Л.Бриллюэна «информация представляет собой отрицательный вклад в энтропию» [46, с.34], а последняя, выйдя после работ К.Шеннона [10] и Н.Винера [76] за пределы термодинамики, сейчас широко трактуется как мера неопределенности, хаотичности, дезорганизации чего-либо [77-79]. В этом контексте негэнтропия является информацией, которая уменьшает неопределенность и численно равна разности априорной и апостериорной энтропий. Информация же 1АВ, в свою очередь, с гносеологических позиций может интерпретироваться как
7
снятая неопределенность отражения , что в некоторой степени согласуется с указанным пониманием негэнтропии. Поэтому, учитывая сказанное, информации 1АВ, выражаемой с помощью формулы (2), было дано название негэнтропия отражения.
4.2. Критический анализ словосочетания негэнтропия отражения
Описанный генезис названия негэнтропия отражения относится к первоначальному этапу познания информационно-количественных
аспектов отражения конечных множеств, когда исследования велись в русле решения прогнозно-геологических задач и имели ярко выраженный эмпирический характер. Сейчас эти исследования имеют под собой аксиоматический базис, а их интегральным результатом является синергетическая теория информации. При этом в процессе развития данной теории возникли определенные моменты, с позиций которых название негэнтропия отражения для информации 1АВ представляется не
7 С гносеологичеиской точки зрения [1, 3, 72] процесс получения информации 1АВ познающим субъектом (аналитической системой) состоит из трёх этапов, и на примере произвольной дискретной системы Б и отличительных признаков РА и РВ выглядит следующим образом. - На первом этапе система Б рассматривается в плоскости О (РА) признака РА и те элементы ё е Б, у которых наблюдается признак РА, выделяются в виде множества А. На втором этапе идет рассмотрение системы в плоскости О (РВ) признака РВ и аналогично выделяется множество В. После завершения операций первых двух этапов познающий субъект находится в состоянии неопределенности относительно существования непосредственной взаимосвязи между множествами А и В. Эта неопределенность снимается на третьем этапе после рассмотрения выделенных множеств А и В в совмещённой плоскости О (РА, РВ ) признаков РА и РВ. Если при этом выявляется третье (связующее) множество К, такое, что К = АIВ, К ^ 0, то познающий субъект снимает (ликвидирует) свою неопределённость относительно непосредственной взаимосвязи множеств А и В и получает информацию 1АВ, которую эти множества отражают друг о друге. В противном случае, когда К = 0 , отмеченная неопределённость также снимается, но при этом делается вывод, что между множествами А и В существует только косвенная взаимосвязь, заключающаяся в том, что как А, так и В принадлежат одной и той же системе Б.
совсем удачным. К таким моментам, в первую очередь, относится следующее.
Во-первых, в разрабатываемой теории формула (2) получена уже аналитическим путем, причем независимо от тех требований, которые априорно предъявлялись к ней при ее эмпирическом выводе. При этом в процессе вывода формулы какая-либо речь о таком понятии как энтропия не ведется. Термин же негэнтропия генетически вытекает из энтропии и предполагает актуальное наличие последней, как неопределенности выбора одной из множества возможностей или неопределенности состояния, в котором находится та или иная физическая система. Эти виды неопределенности к выводу формулы (2) отношения не имеют, а потому присутствие в ее названии слова негэнтропия выглядит не достаточно корректным. В связи с этим следует признать, что введение в оборот словосочетания негэнтропия отражения было вынужденной мерой, обусловленной отсутствием (или незнанием) более подходящего термина для информации 1АВ, чем негэнтропия.
Во-вторых (и это более важный момент), при анализе отражения системы А через совокупность ее частей В1, В2,..., Вм, с помощью
формулы (2), выражающей отраженную информацию, получена формула неотраженной информации, которая будучи названной энтропией отражения (5), оказалась математически тождественной энтропии Шеннона. То есть в синергетической теории информации при анализе отражения дискретных систем, как целостных образований, перед нами в хронологической последовательности предстают три разновидности информации: отражаемая информация IА ® отраженная информация /2 = ^ 1АБ ® неотраженная информация 5 = IА -12. Включение при
этом в название отраженной информации термина негэнтропия выглядит нелогичным, поскольку энтропия в данном случае, замыкая приведенную
последовательность, является вторичной выводимой функцией и выступает лишь в качестве одной из разновидностей информации, которая апостериорно характеризует неадекватность отражения системы через совокупность своих частей. Можно также сказать, что, называя отраженную информацию негэнтропией отражения, мы без достаточных на то оснований как бы предвосхищаем появление энтропии, и тем самым, образно выражаясь, ставим телегу впереди лошади.
Кроме указанных негативных моментов использование
словосочетания негэнтропия отражения вносит также определенную путаницу в общее понимание термина негэнтропия и порой создает не соответствующую действительности иллюзию того, что синергетическая теория информации является развитием идей Л.Бриллюэна. Все это диктует необходимость отказа от употребления в данной теории термина негэнтропия и его замены каким-то иным термином, более адекватно соответствующим сущности выражения (2).
5. Синтропия
Учитывая приведенный критический анализ названия «негэнтропия отражения», информацию, которую отражают друг о друге два
пересекающихся конечных множества, предлагается назвать греческим словом синтропия. На русский язык это слово может быть переведено как сообраз, взаимная связь образов, совместный путь, сродство (приставка syn- соответствует приставке со-, а корень trop может иметь ряд значений, среди которых образ, путь, манера). Представляется, что такое название более адекватно соответствует содержательной сущности информации, выражаемой с помощью формулы (2), поскольку величина этой информации тем больше, чем больше пересекающиеся множества
проникают друг в друга, формируя при этом совместный образ в виде нового множества, и отражая тем самым свою непосредственную
взаимосвязь. То есть, можно принять, что в синергетической теории информации синтропия - это информация, которую отражают друг о друге, как едином целом, два пересекающихся конечных множества.
Ранее термин синтропия в теории информации не применялся, но имеются прецеденты его использования в других предметных областях. Поэтому целесообразно осветить общую историю этого термина.
Впервые термин синтропия стали использовать в 1921 году немецкие педиатры М.Пфаундлер и Л.Зехт [80], которые назвали синтропией «взаимную склонность, притяжение» двух болезней (в противоположность дистропии, те есть «взаимному отталкиванию»). Термин был воспринят медицинским сообществом и сейчас довольно широко используется при анализе полипатических явлений (сочетанной патологии), в том числе, проводимом на генетическом уровне [81, 82].
Позднее, независимо от медицинских исследований, термином синтропия стал пользоваться ряд ученых (Л.Фантаппи, А.Сент-Дьерди, Р.Б.Фуллер) для обозначения того, что противоположно по своему смыслу энтропии и присуще живой материи. Пионером в данном отношении выступил итальянский математик Л.Фантаппи [83, 84], который, занимаясь совместным анализом решения уравнений квантовой механики и специальной теории относительности, заострил внимание на том, что запаздывающие волны расходятся от источника, расположенного в прошлом, а опережающие волны, наоборот, сходятся к «источнику» (аттрактору), находящемуся в будущем. Интерпретируя расхождение волн (дивергенцию) как энтропию, противоположному явлению - схождению волн (конвергенции) - Л.Фантаппи дал название синтропия (полагая, что дословное значение этих терминов может быть выражено следующим образом: энтропия - entropy (en=diverging, tropos=tendency), синтропия -syntropy (syn=converging, tropos=tendency) [85]). Исходя из этого Л.Фантаппи пришел к индуктивному заключению, что в причинно-
временном отношении в природе существует два типа явлений: явления, причина которых находится в прошлом (причинно-следственные взаимосвязи) и явления, «причина»-аттрактор которых расположена в будущем (так называемый финализм, то есть предопределенное движение к цели). Причем к первому типу относятся физические и химические явления, подчиняющиеся закону возрастания энтропии (второму началу термодинамики), а ко второму типу - биологические явления, управляемые неким симметричным законом, которому Л.Фантаппи дал название закон синтропии [84]. Соответственно, во временном отношении явления первого типа сопровождаются рассеянием энергии, дезорганизацией и разупорядочиванием, а явления второго типа характеризуются концентрацией энергии и нарастанием порядка, организованности.
Интегральным результатом рассуждений Л.Фантаппи явилась «Объединенная теория физического и биологического мира», которую он доложил в 1942 году на заседании Академии наук Италии [83]. Однако, эта теория не получила широкого признания, а закон синтропии, выражающий финализм биологических явлений, был воспринят большинством ученых как «метафизический» ненаучный принцип. (Сам Л.Фантаппи по этому поводу огорченно говорил, что «такое отношение является препятствием на пути спокойного изучения реально существующих явлений второго типа» [84].) В связи с этой коллизией следует отметить осторожновзвешенное отношение к работам Л.Фантаппи со стороны Л.Бриллюэна, негэнтропия которого, генетически вытекающая из представлений
Э.Шредингера о физической сущности жизни [75], является родственным понятием по отношению к синтропии Л. Фантаппи (иногда их даже считают синонимами [86, 87]).
С одной стороны, отмечая неожиданность попытки объяснить финальность биологических явлений с помощью опережающих волн, Л.Бриллюэн задает критический вопрос: «О волнах какого рода здесь идет
речь?». Полагая при этом, что о световых волнах в данном случае говорить нельзя, поскольку «трудно возложить на световые волны ответственность за биологию» [46, с.107]. С другой стороны, не отрицая общую идею формализованного выражения финализма биологических явлений, он говорит, что «в современной физике почти все представляется с помощью волн, и, возможно, мы позднее обнаружим, что и в биологии доминирующую роль может играть какая-то волна. В настоящий момент этот вопрос остается открытым» [46, с.107]. При этом обращает на себя внимание тот факт, что, комментируя работы Л.Фантаппи, Л.Бриллюэн как бы забывает про термин синтропия, возможно, не желая его афишировать.
С иных позиций, нежели чем Л.Фантаппи, к использованию термина синтропия для обозначения того, что противостоит энтропии, подошел венгерский физиолог, лауреат Нобелевской премии А.Сент-Дьерди [88-90], который в 1974 году, популяризируя синтропию, предложил научному сообществу отказаться от употребления термина негэнтропия, заменив его синтропией. А.Сент-Дьерди исходил из того, что объекты неживой природы с течением времени, подчиняясь второму началу термодинамики, претерпевают деструкцию и переходят к простым формам своего существования, в то время как живые организмы в процессе развития все время усложняются и повышают уровень своей организации. На этом основании он постулировал существование в природе некой «жизненной силы» в виде «отрицательной энтропии», которой дал название синтропия. То есть, согласно А.Сент-Дьерди, в процессе биологической эволюции нарастанию энтропии противостоит синтропия, которая выражается во врожденном стремлении живой материи к самосовершенствованию (принцип синтропии).
Научное сообщество, несмотря на высокий статус А.Сент-Дьерди как нобелевского лауреата, подвергло критике его синтропийные взгляды
на биологическую эволюцию и расценило принцип синтропии как одну из
8
разновидностей витализма [90].
Попытки популяризировать синтропию, как то, что противостоит энтропии и олицетворяет движение к порядку и гармонии, предпринимал также Р.Б.Фуллер [91-93], который говорил, что «неумолимый путь постепенного исчерпания энергии вселенной, то есть энтропия, - всего лишь часть картины. Энтропия имеет свою противоположность, которую мы назвали синтропией» [91, p.51].
Изложенное свидетельствует о том, что использование термина синтропия имеет междисциплинарный характер, а его содержательная интерпретация при этом не является однозначной. Поэтому, чтобы избегать омонимичной путаницы, целесообразно дать общую классификацию различных видов синтропии, отражающую их внутреннее содержание. При этом предварительно отметим, что каждая из синтропий Л.Фантаппи, А.Сент-Дьерди и Р.Б.Фуллера подразумевает развитие окружающего мира по сценарию явлений второго типа (по Л.Фантаппи), то есть движение материи в сторону упорядоченности и организованности, вследствие чего их можно объединить общим названием - эволюционная синтропия. С учетом этого дадим следующую классификацию синтропий (в хронологическом порядке):
- медицинская синтропия (синтропия Пфаундлера - Зехта);
- эволюционная синтропия (синтропия Фантаппи - Сент-Дьерди -Фуллера);
- информационная синтропия (синтропия Вяткина).
По своему содержательному наполнению эти синтропии довольно далеки друг от друга. Вместе с тем, их количественная оценка может производиться в одном ключе, и этим ключом является формула
8 Витализм (от лат. - «жизненный») - философское направление,
утверждающее наличие в организмах нематериальной сверхъестественной силы, управляющей жизненными явлениями - «жизненной силы». (Википедия.)
информационной синтропии (2). Действительно, поскольку медицинская синтропия означает совместное протекание двух болезней А и В, то ее можно легко количественно оценить с помощью формулы (2), если при анализе соответствующей совокупности больных принять, что: МА -число случаев заболевания болезнью А; МВ - число случаев заболевания болезнью В; МК - число случаев одновременного заболевания болезнями А и В. При этом, в целях объективного сравнения синтропийных оценок различных пар болезней, получаемые результаты следует нормировать, представляя их в виде значений относительной синтропии
J = I
АВ 2
г I I Л
АВ + 1 АВ
V 1А 1В J
, 0 < JAB < 1.
В свою очередь, в отношении количественной оценки эволюционной синтропии можно сказать следующее. - В работах [2, 4, 8] показано, что при отражении дискретной системы А через совокупность своих частей В1, В2, ..., Вн ( А = иВг, IВ1 =0 ) аддитивная синтропия 12 ^ 1АВ , как
отраженная информация, всегда меньше, чем информация 1А, которую отражает система А сама о себе, как едином целом. При этом та часть информации, которая остается неотраженной (£ = IА -12), именуется как энтропия отражения. В этих же работах также показано, что по отношению к структуре отражаемой системы аддитивная синтропия и энтропия отражения выступают в качестве мер упорядоченности и хаотичности, соответственно. Причем энтропия отражения математически тождественна (но только математически) энтропии К.Шеннона, которая при определенных условиях, с точностью до постоянного множителя, равна энтропии Больцмана-Планка, статистически выражающей второе начало термодинамики. Отсюда следует, что значения аддитивной информационной синтропии и термодинамической энтропии изменяются противоположным образом. Поэтому информационная синтропия 12
может служить количественной характеристикой эволюционной синтропии. (Конечно, это относится только к статистическим
исследованиям, когда объекты познания в каждый 1-й момент времени могут быть представлены в виде конечного множества элементов.) При этом особо следует подчеркнуть, что информационная синтропия 12
определяется независимо от энтропии, что делает соответствующую оценку эволюционной синтропии также независимой от каких-либо энтропийных предопределений. (В то время, как последователи
Л.Фантаппи [94] пытаются придать его синтропии математическую форму, используя энтропию К.Шеннона9. При этом в качестве оценки принимается разность между максимальной и фактической энтропией. То есть, по сути дела, определяется негэнтропия Л.Бриллюэна10.)
Таким образом, можно констатировать, что информационная синтропия (IАВ, 12), первоначально выражая взаимосвязь абстрактных конечных множеств, имеет универсальный характер и может служить количественной характеристикой других видов синтропии.
Заключение
Статья имеет разноплановый характер и преследует своей целью как разъяснение отдельных моментов синергетической теории информации,
9 Сам Л.Фантаппи, будучи профессиональным математиком, не оставил после себя приемлемой для расчетов формулы синтропии. Как отмечает Mario Ludovico, «Фантаппи, возможно, не хватило времени, чтобы перевести понятие «синтропия» из предварительного философского определения в математически подходящую формулировку» [94, p. 199]. В 2004 году Ulisse Di Corpo, с разрешения родственников Л. Фантаппи, получил доступ к его личному каталогизированному архиву и с удивлением обнаружил, что все документы, касающиеся синтропии, загадочным образом исчезли. Причем исчезли только именно эти документы [95].
10 После работ Л.Бриллюэна негэнтропия употребляется, главным образом, в двух значениях: как количество информации, равное разности между начальной (до получения сообщения) и конечной (после получения сообщения) энтропий, и как величина, обратная энтропии, выражающая упорядоченность материальных объектов [96].
так и совершенствование ее терминологического базиса. Соответственно, к основным результатам выполненной работы относится следующее:
- показано, что синергетическая теория информации не имеет генетической связи с синергетикой Г.Хакена и в сравнении с последней иначе рассматривает такие понятия как хаос и порядок;
- как теоретически, так и практически на конкретных примерах, дано разъяснение того, что формула информации, самоотражаемой конечным множеством, и двоичный логарифм Р.Хартли числа равновероятных возможностей являются принципиально различными и иформационными мерами;
- с философских позиций сделано заключение, что информация, с которой оперирует синергетическая теория информации, представляет собой отраженное целое;
- проведен критический анализ словосочетания негэнтропия отражения, как названия информации, которую отражают друг о друге два пересекающихся конечных множества, и обоснована замена этого словосочетания термином синтропия;
- сделан междисциплинарный обзор использования термина синтропия в научных исследованиях и дана соответствующая классификация различных видов синтропии.
В целом изложенный материал может рассматриваться как один большой комментарий различных моментов синергетической теории информации, направленный на более четкое проявление ее контура, как самостоятельного научного направления в исследовании количественной стороны феномена информации.
Литература
1. Вяткин В.Б. Синергетический подход к определению количества информации // Информационные технологии. - 2009, № 12. - С. 68-73.
2. Вяткин В.Б. Введение в синергетическую теорию информации // Информационные технологии. - 2010, № 12. - С. 67-73.
3. Вяткин В.Б. Синергетическая теория информации. Часть 1. Синергетический
подход к определению количества информации // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2008. - №44(10). С. 166-189. Режим доступа:
http://ei.kubagro.ru/2008/10/pdf/12.pdf
4. Вяткин В.Б. Синергетическая теория информации. Часть 2. Отражение дискретных
систем в плоскости признаков их описания // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №45(1). С. 154-183. Режим доступа:
http://ei.kubagro.ru/2009/01/pdf/12.pdf
5. Вяткин В.Б. Синергетическая теория информации. Часть 3. Информационные функции и энтропия Больцмана // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №46(2). С. 165-174. Режим доступа: http://ei .kubagro.ru/2009/02/pdf/11 .pdf
6. Вяткин В.Б. Синергетическая теория информации. Часть 4. Квантовые аспекты отражения конечных множеств // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2011. - №05(69). С. 45-59. -Режим доступа: http://ei.kubagro.ru/2011/05/pdf/06.pdf
7. Вяткин В.Б. Хаос и порядок дискретных систем в свете синергетической теории информации // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №03(47). С. 96 - 129. - Режим доступа: http://ei.kubagro.ru/2009/03/pdf/08.pdf
8. Вяткин В.Б. Синергетическая теория информации: общая характеристика и примеры использования. // Наука и оборонный комплекс - основные ресурсы российской модернизации. Материалы межрегиональной научно-практической конференции. - Екатеринбург: УрО РАН, 2002. - С. 361-390.
9. Хартли Р.В.Л. Передача информации // Сб.: Теория информации и ее приложения. -М.: Физматгиз, 1959. - С. 5-35.
10. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830 с.
11. Салаватов Т.Ш., Мамедов А.В. Анализ текущего состояния режимов работы компрессорных скважин на основе энтропийного подхода. // Территория
«Нефтегаз» - 2007, № 8. - С. 34-41.
12. Скорик Б.И., Скорик А.Б., Зверев А.А. К вопросу о теории информационного взаимодействия сложных технических систем // Системи управління, навігації та зв'язку. - Вип. 4(12), 2009. - С. 116-119.
13. Белінска Я.В. Биховченко В. П. Індикатори фінансової стабільності та інноваційний менеджмент фінансової системи // Стратегічні пріоритети. - 2011, №3 (20). - P. 53-
68.
14. Шкрабак И.В. Структурная устойчивость экономики региона с позиций синергетической теории информации // Науковий вісник НЛТУ України. - 2012, Вип. 22.6. - С. 340-345.
15. Mamedov A.V. Entropie approach to compressor well's operation mode current condition analysis. // Elmi asarlar. Baki: Azarbaycan respublikasi dovlat neft §irkati “Neftqazlayiha” institutu. - 2008(24). - С. 101-113.
16. Вяткин В.Б. Периодический закон Д.И. Менделеева в свете синергетической теории информации // Энергоанализ и энергоэффективность. - 2004, № 1. - С. 30-33.
17. Вяткин В.Б. Информационно-синергетический анализ электронных систем атомов химических элементов. Часть 1. Структурная организация электронных систем в плоскости подоболочек. // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №04(48). С. 24-44. -Режим доступа: http://ej.kubagro.ru/2009/04/pdf/03.pdf
18. Вяткин В. Б. Критерии президентских и парламентских выборов // Судьба России: исторический опыт ХХ столетия: Тезисы Третьей Всероссийской конференции. -Екатеринбург: УрГУ, 1998. - С. 306-308.
19. Вяткин В.Б. Теоретические основы системы информационного анализа ИНФОТ и
ее функциональные возможности при прогнозно-геологических исследованиях // Геологическое картографирование и прогнозно-металлогеническая оценка территорий средствами компьютерных технологий: Материалы 6-го
Всероссийского совещания-семинара МПР РФ по компьютерным технологиям. -Красноярск, 1999 - С. 181-186.
20. Вяткин В.Б., Автонеев С.В. Выделение новых потенциально золоторудных площадей в пределах Краснотурьинского рудного узла с помощью системы ИНФОТ // Геологическое картографирование и прогнозно-металлогеническая оценка территорий средствами компьютерных технологий: Материалы 6-го Всероссийского совещания-семинара МПР РФ по компьютерным технологиям. -Красноярск, 1999 - С. 175-178.
21. Вяткин В.Б., Страшненко Г.И., Мельник В.В..Прогнозная оценка Сакмарского кварценосного района с помощью системы ИНФОТ // Геологическое картографирование и прогнозно-металлогеническая оценка территорий средствами компьютерных технологий: Материалы 6-го Всероссийского совещания-семинара МПР РФ по компьютерным технологиям. - Красноярск, 1999. - С.178-181.
22. Вяткин В.Б., Страшненко Г.И., Мельник В.В. Безэталонный прогноз месторождений с помощью синергетической теории информации // Материалы научнопрактической конференции "85 лет геологической службе Урала". - Екатеринбург: Уралнедра, 2005. - С. 166-167.
23. Вишняков Я.Д., Киселева С.П. Модель образования инновационных систем в информационном пространстве // Проблемы машиностроения и автоматизации. -2011, № 4. - С. 45 - 52.
24. Луценко Е.В. Универсальный информационный вариационный принцип развития систем // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2008. - №07(41). С. 117 - 193. -Режим доступа: http://ej.kubagro.ru/2008/07/pdf/10.pdf
25. Романенко В.Н., Никитина Г.В. Многозначность понятия информации // Философия науки. - 2010, № 4(47). - С. 75 - 99.
26. Громов Ю.Ю., Тютюнник В.М. Материалы к разработке теории информации. 1. Меры количества и качества информации // Фундаментальные исследования. -2011, № 8. - С. 347-355.
27. Попова Т.М. Термодинамическая природа информации // Электронный журнал Института энергетики Академии наук республики Молдова «Проблемы региональной энергетики». - 2010, № 1 (12). - С. 81-86. - Режим доступа: http://ieasm.webart.md/contents гц/?уо1ише ¡ё=24
28. Маслянко П.П., Ліссов П.М. Інформаційні ресурси та підходи до вимірювання інформації // Вісник КУЕІТУ “Нові технології” - 2008, №2(20) - С. 300-307.
29. І. В. Порало. Зворотні зв’язки як негентропія системи освіти України // Наукові записки Київського університету туризму, економіки і права. Серія: філософські науки. - К.: КУТЕП, 2011. - Вип. 10 - С. 353 - 371.
30. Казак В.Л. Теорія інформації в економічних дослідженнях на прикладі нормального розподілу // Економіко-математичне моделювання. -2009, № 4(17). - Р. 343-351.
31. Луцкий С. В. Теоретико-информационный подход к развитию технических систем // Вестник двигателестроения. -2007, № 2. - С. 28-33.
32. Музыка О.А. Ценностно-оценочный фактор в контексте социосинергетической парадигмы. - Ростов н/Д: Изд-во Рост. ун-та, 2006. - 240с.
33. Шардыко С.К. Концепции современного естествознания. Учебно-методический комплекс. - Екатеринбург: Уральский институт экономики, управления и права, 2007. - 129с.
34. Кирпичева Е. Ю. Методика и геоинформационная технология прогнозирования рудных объектов на основе банка эталонных моделей : дис. ... канд. техн. наук :
25.00.35. - М., 2007. - 103 с.
35. Мусихина О.В. Технология горно-геометрических расчетов при проектировании открытой разработки месторождений с использованием универсальных программных средств : дис. ... канд. техн. наук : 25.00.35. - Екатеринбург, 2007. -200 с.
36. Круль А. С. Информационная структура социальных систем : дис. ... канд. социологических наук : 22.00.04. - Уфа, 2010. - 249 с.
37. Нурмагомедов Н. Г. Трансформация рационалистической парадигмы социального управления: философско-методологический анализ : дис. ... канд. философ. наук :
09.00.11. - М., 2011.
38. Бакаева Ж.Ю. Феномен информации в семантическом аспекте: автореф. дис. ... д-ра философ. наук : 09.00.01. - Чебоксары, 2010.
39. Проценко В. Д. Синергизм биологических и технических систем: дис. ... д-ра биол. наук: 05.13.01. - М., 2004. - 258 с.
40. Королев Е.А. Организационно-экономический механизм трансформации
промышленных комплексов : дис. ... д-ра экон. наук : 08.00.05. - Екатеринбург,
2003. - 412 с.
41. Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ. - Режим доступа: http://ei .kubagro.ru
42. Вяткин В.Б. Групповой плагиат: от студента до министра // Газета "Троицкий вариант - Наука", рубрика "Гайд-парк онлайн", 08.11.2011. - Режим доступа: http://trv-science.ru/2011/11/08/gruppovoii-p1agiat-ot-studenta-do-ministra
43. Вяткин В.Б. От плагиата к профанациям // Газета "Троицкий вариант - Наука",
рубрика "Гайд-парк онлайн", 06.12.2011. - Режим доступа: http://trv-
science.ru/2011/12/06/ot-p1agiata-k-profanaciyam
44. Хакен Г. Синергетика. - М.: Мир, 1980. - 404 с.
45. Бриллюэн Л. Наука и теория информации. - М.: Физматгиз, 1960. - 392с.
46. Бриллюэн Л. Научная неопределенность и информация. - М.: Мир, 1966. - 272с.
47. Fuller R. B. Synergetics: explorations in the geometry of thinking. Macmillan Publishing Company, Inc., New York. 1975.
48. Климонтович Ю.Л. Проблемы статистической теории открытых систем: критерии относительной степени упорядоченности состояний в процессах самоорганизации // Успехи физических наук. - Т. 158, вып. 1, 1989. - С. 59-91.
49. Лоскутов А.Ю. Очарование хаоса // Успехи физических наук. - Т. 180, № 12, 2010. -С. 1305-1329.
50. Анищенко В.С. Детерминированный хаос // Соросовский образовательный журнал. - 1997, № 6. - С. 70-76.
51. Летников Ф.А. Синергетика геологических систем. - Новосибирск: СО РАН, 1992. -230 с.
52. Урсул А.Д. Отражение и информация. - М.: Мысль, 1973. - 231 с.
53. Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. - 1965, т.1, №1 - С. 3-11.
54. Колмогоров А.Н. Теория информации и теория алгоритмов. - М.: Наука, 1987. -304с.
55. Эшби У.Р. Введение в кибернетику. - М.: Изд. иностр. лит., 1959. - 432 с.
56. Яглом А.М., Яглом И.М. Вероятность и информация. - М.: Наука, 1973. - 512 с.
57. Новик И.Б. В.И. Ленин о единстве мира // Сб.: Великое произведение воинствующего материализма. - М.: Соцэкономиздат, 1959. - С. 165-181.
58. Урсул А.Д. Природа информации. - М.: Политиздат, 1968. - 288с.
59. Урсул А.Д. Проблема информации в современной науке. - М.: Наука, 1975. - 288с.
60. Вяткин В.Б. Совместный анализ двух информационных подходов к исследованию
системы "объект-признак" // Тезисы докладов семинара "Геологическая
синергетика". - Алма-Ата: КазИМС, 1991. - С. 7-9.
61. Вяткин В.Б. К вопросу информационной оценки признаков при прогнозногеологических исследованиях // Известия Уральского горного института. Сер.: Геология и геофизика. - 1993, вып. 2. - С. 21-28.
62. Вяткин В.Б. Теория информации и проблема негэнтропийной оценки признаков // Техногенез и экология: Информационно-тематический сборник - Екатеринбург: УГГГА, 1998 - С. 26 - 36.
63. Вяткин В.Б. Информационно-энтропийный анализ отражения системных объектов // Техногенез и экология: Информационно-тематический сборник. - Екатеринбург: УГГГА, 1999. - С. 50-68.
64. Вяткин В.Б. Новые информационные характеристики картографических признаков // Тезисы докладов 6-й Уральской научно-практической конференции "Применение математических методов и ЭВМ при обработке информации на геологоразведочных работах." - Челябинск, 1989. - С. 143 - 145.
65. Высокоостровская Е.М., Зеленецкий Д.С. О количественной оценке перспектив территории при поисках месторождений рудных полезных ископаемых // Советская геология. - 1968, № 8. - С. 58-71.
66. Чагин М. М. О применении информационных мер при решении задач геологического прогнозирования // Известия академии наук СССР. Сер. геологическая. - 1969, №11. - С. 80-86.
67. Землянов В.Н., Олонов Ю.М. Применение формулы условной вероятности для количественной оценки информативности поисковых признаков // Советская геология. - 1970, № 5. - С. 119-127.
68. Канищев А.Д. Опыт применения информационных методов при металлогеническом анализе Забайкалья. В кн.: Математические методы при прогнозе рудоносности. -М.: Наука, 1977. - С. 216-227.
69. Боровко Н.Н. Оптимизация геофизических исследований при поисках рудных месторождений. - Л.: Недра, 1979. - 230 с.
70. Вяткин В.Б. Информационные прогнозно-геологические антиномии // Компьютерное обеспечение работ по созданию государственной геологической карты Российской федерации: Материалы 5-го Всероссийского совещания-семинара МПР РФ по компьютерным технологиям. - Ессентуки, 1998. - С. 116-119.
71. Вяткин В. Б. Информативность признаков: необходимость смены парадигмы //
Геологическое картографирование и прогнозно-металлогеническая оценка территорий средствами компьютерных технологий: Материалы 6-го
Всероссийского совещания-семинара МПР РФ по компьютерным технологиям. -Красноярск, 1999. - С. 56-60.
72. Вяткин В.Б. Математические модели информационной оценки признаков рудных объектов: Автореф. дис. ... канд. техн. наук : 05.13.18 : Екатеринбург: УГТУ-УПИ,
2004. - 27с.
73. АКТ внедрения результатов диссертационных исследований Вяткина В.Б. на объектах геологоразведочной деятельности Центрально-Уральского ФГУП. Первоуральск, 2002. Режим доступа: http ://vbvvbv .narod.ru/avtoreferat/CU GRE. htm
74. АКТ использования результатов диссертационных исследований Вяткина В.Б. в ФГУП Уральская геологическая опытно-методическая экспедиция. Екатеринбург, 2002. Режим доступа: http ://vbvvbv .narod.ru/avtoreferat/U GOME.htm
75. Шредингер Э. Что такое жизнь? Точка зрения физика. - М.: Атомиздат, 1972. - 88с.
76. Винер Н. Кибернетика или управление и связь в животном и машине. - М.: Сов. радио, 1958. - 215с.
77. Шамбадаль П. Развитие и приложение понятия энтропии. - М.: Наука, 1967. - 280с.
78. Волькенштейн М.В. Энтропия и информация. - М.: Наука, 1986. - 192с.
79. Седов Е.А. Одна формула и весь мир. Книга об энтропии. - М.: Знание, 1982. -176с.
80. Pfaundler M., von Seht L. Weiteres uber Syntropie kindlicher Krankheitzustande // Zeitschr. f. Kinderheilk. - 1921, bd. 30. - S. 298-313.
81. Пузырев В.П. Генетический взгляд на феномен сочетанной патологии у человека // Медицинская генетика - 2008, № 9. - С. 3-9.
82. Петрик Е.А., Галкин И.В., Перепечко В.М., Аристархова О.Ю. Современное состояние проблемы полипатии (обзор) // Врач скорой помощи - 2010, №8. - С. 5573.
83. Fantappiè L. Principi di una teoria unitaria del mondo fisico e biologico. - Rome: Accademia d'Italia, 1942.
84. Fantappiè L. The Law of Syntropy. [Электронный ресурс.] Режим доступа: http://www.syntropy.org
85. Syntropy [Электронный ресурс.] Режим доступа: http://www.sintropia.it/indexe.htm
86. Негэнтропия // Википедия [Электронный ресурс.] Режим доступа:
http://ru.wikipedia.org
87. Негэнтропия // Викинаука [Электронный ресурс.] Режим доступа:
http://ru.science.wikia.com
88. Szent-Gyorgyi A. Drive in Living Matter to Perfect Itself // Synthesis 1, Vol. 1, No. 1, pp. 14-26. 1977.
89. Syntropy [Электронный ресурс.] Режим доступа: http://www.eoht.info/page/syntropy
90. Bergman J. Albert Szent-Gyorgyi's Theory of Syntropy and Creationism. (The Institute
for Creation Research.) [Электронный ресурс.] Режим доступа:
http://www.icr.org/article/136
91. Fuller R. B. Cosmography. Macmillan Publishing Company, New York, 1992.
92. Hubbard L. The design-science revolution of R. Buckminster Fuller. 1988. [Электронный ресурс.] Режим доступа:
http://www.lovolution.net/MainPages/essays/FullerEssay/fuller.htm
93. Syntropy // Psychology Wiki [Электронный ресурс.] Режим доступа:
http://psychology.wikia.com/wiki/Syntropytfcite note-1
94. Ludovico M. Syntropy: definition and use // Syntropy 2008, 1, pag. 139-201. [Электронный ресурс.] Режим доступа: http://www.sintropia.it/english/2008-eng-1-
2.pdf
95. Di Corpo U. Syntropy: a third possibility in the debate on evolution // Syntropy 2005, 3,
pag. 66-68. [Электронный ресурс.] Режим доступа:
http://www.sintropia.it/english/2005-eng-3-1.pdf
96. Кондаков Н.И. Логический словарь-справочник. - М.: Наука, 1975. - 720с.