Научная статья на тему 'Синергетическая теория информации часть 4. Квантовые аспекты отражения конечных множеств'

Синергетическая теория информации часть 4. Квантовые аспекты отражения конечных множеств Текст научной статьи по специальности «Математика»

CC BY
201
71
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
КВАНТ / ОТРАЖЕНИЕ / ОБРАЗ / КОНЕЧНОЕ МНОЖЕСТВО / КОЛИЧЕСТВО ИНФОРМАЦИИ / НЕГЭНТРОПИЯ / СИСТЕМА / ЧАСТЬ / QUANTUM / REFLECTION / IMAGE / FINAL SET / QUANTITY OF INFORMATION / NEGENTROPY / SYSTEM / PART

Аннотация научной статьи по математике, автор научной работы — Вяткин Виктор Борисович

С позиций синергетической теории информации рассматриваются квантовые аспекты информации, отражаемой конечными множествами элементов. При этом вводятся в рассмотрение такие понятия, как кванты информации и кванты отражения, биты отражения и их квантовая емкость, отраженные образы множеств и информационные границы их существования

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SYNERGETIC INFORMATION THEORY Part 4. Quantum aspects of reflection of final sets

From the positions of synergistic information theories, quantum aspects of the information reflected by final sets of elements are considered. Such concepts, as quanta of the information and quanta of reflection, bits of reflection and their quantum capacity, the reflected images of sets and information borders of their existence are thus added into consideration

Текст научной работы на тему «Синергетическая теория информации часть 4. Квантовые аспекты отражения конечных множеств»

УДК 519.72

СИНЕРГЕТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ

Часть 4. Квантовые аспекты отражения конечных множеств

Вяткин Виктор Борисович к. т. н.

Екатеринбург, Россия

UDC 519.72

SYNERGETIC INFORMATION THEORY Part 4. Quantum aspects of reflection of final sets

Vyatkin Victor Borisovich Cand.Tech.Sci

Ekaterinburg, Russia

С позиций синергетической теории информации рассматриваются квантовые аспекты информации, отражаемой конечными множествами элементов. При этом вводятся в рассмотрение такие понятия, как кванты информации и кванты отражения, биты отражения и их квантовая емкость, отраженные образы множеств и информационные границы их существования

Ключевые слова: КВАНТ, ОТРАЖЕНИЕ, ОБРАЗ, КОНЕЧНОЕ МНОЖЕСТВО, КОЛИЧЕСТВО ИНФОРМАЦИИ, НЕГЭНТРОПИЯ, СИСТЕМА, ЧАСТЬ

From the positions of synergistic information theories, quantum aspects of the information reflected by final sets of elements are considered. Such concepts, as quanta of the information and quanta of reflection, bits of reflection and their quantum capacity, the reflected images of sets and information borders of their existence are thus added into consideration

Keywords: QUANTUM, REFLECTION, IMAGE, FINAL SET, QUANTITY OF INFORMATION, NEGENTROPY, SYSTEM, PART

Введение

Ранее [1-3], на страницах настоящего журнала была представлена синергетическая теория информации, в которой за информацию принимаются сведения о конечном множестве, как едином целом. При этом, независимо от традиционных подходов к определению количества информации [4-6], были получены формула информации IА, самоотражаемой произвольным конечным множеством А, и формула негэнтропии отражения 1АВ, то есть количества информации, которую отражают (воспроизводят)

друг о друге, как о целостном образовании, два пересекающихся множест-

ва А и В:

1А = !°В2 МА , (1)

м2

1АВ = Мм 1о§2 МК , (2)

М АМ В

где К = А • В; Ма , Мв , Мк - количество элементов в составе множеств

А, В, К.

В настоящей статье, на основе формул (1) и (2) рассматриваются квантовые аспекты синергетической информации, и проводится соответствующий анализ особенностей отражения друг через друга двух пересекающихся конечных множеств.

Кванты информации

При последовательном увеличении числа элементов конечного множества на единицу, множество пробегает соответствующий ряд состояний, в каждом из которых количество самоотражаемой им информации по отношению к предыдущему состоянию, в соответствии с выражением (1), увеличивается на некоторую величину. Так как количество элементов конечного множества может принимать только целочисленные значения, то это увеличение происходит отдельными порциями АI или квантами. То

есть информация IA, самоотражаемая множеством А, при увеличении числа его элементов от MA = k до MA = k +1, где k - любое целое число, возрастает на квант информации А Ік, равный:

А Ік = 1Ама = к+1 - 1Ама = к = 1о«2(* +1) - 1о®2 к = 1<^2

/ 1 Л

(3)

1 +1

V к;

і д-к-г 1 им а

На основе выражения (3) кванту информации можно дать следующее определение: квант информации - это приращение информации, самоотражаемой конечным множеством, обусловленное увеличением числа элементов множества на единицу.

Из формулы (3) видно, что квант информации является переменной величиной, которая монотонно убывает с ростом числа элементов множества. При этом, в силу того, что Мд = 1 ^ I а = 0, первый квант информации АІ1 появляется при увеличении числа элементов множества от одного до двух. Отсюда следует, что информация I д, самоотражаемая конечным

множеством А с числом элементов Ма , может быть представлена в виде суммы из (Ма -1) квантов информации различной величины:

Мд -1

ІА = £ ^2

к =1

1+1

к

Мд -1

= ^2 П

к =1

1+1

к

(4)

При этом отметим, что выражение (4) равносильно формуле самоотражае-мой информации (1), в чем легко убедиться, представив произведение под знаком логарифма в данном выражении в развернутом виде:

МА-1 ( 1 Л (1 +1V2 + 1Л -«.IV

П

к=1

1+1

V к/

1

А

2

МА - 2 +1 МА - 2

МА -1 +1

А

м

А

1

= м

А

Средняя величина квантов самоотражаемой информации соответст венно равна:

_ 1og2 МА

АI = ІА Мд -1

Мд -1

(5)

Элементы множества принимают участие в его отражении всей своей совокупностью без какого-либо индивидуального выделения [1] и, соответственно, вклад каждого элемента в самоотражаемую множеством информацию, в общем случае, не может быть оценен с помощью того или иного кванта информации. Строго говоря, для такой оценки не может использоваться и средняя величина информационных квантов (5), так как количество последних на единицу меньше, чем общее число элементов множества и, соответственно, относя эту среднюю величину к каждому элементу множества, при обратном суммировании результатов мы всегда будем получать завышенное значение самоотражаемой информации. Поэтому вклад каждого элемента в самоотражаемую множеством информацию будем оценивать с помощью удельной информации, которую назовем квантом отражения (д). То есть квант отражения дА множества А, состоящего из Ма элементов, равен:

Чл

IА _ 1оё2 М

л

М

А

М

(6)

А

В соответствии с формулой (6) дадим кванту отражения следующее определение: квант отражения - это часть информации, самоотражаемой конечным множеством, которая приходится на каждый его элемент.

Из сравнения выражений (5) и (6) следует, что при Ыд >> 1 квант отражения по своей величине становится практически неотличимым от среднего значения квантов информации и при увеличении числа элементов асимптотически приближается к нему снизу, что иллюстрирует рис.1.

А1, Ча

Рисунок 1. Зависимость АI и Чл от Мл

Из приведенного рисунка видно, что кванты отражения при Мл = 3

имеют максимальное значение (чА^* = 1о§2 3/3 = 0.528), после которого с ростом числа элементов множества монотонно убывают. Это объясняется тем, что выражение (6) представляет собой сужение функции

/(х) =

1оё аХ

X

х > 0, а > 0, а Ф1 на множество натуральных чисел при

a = 2, а число 3 является наиболее близким натуральным числом к точке экстремума данной функции х0 = e = 2.718...1

Квантовые функции (3) - (6) совместно с самоотражаемой информацией (1) дают вполне исчерпывающее информационно-количественное описание отдельно взятого конечного множества одинаковых по некоторому признаку элементов, для стандартизации которого необходимо определиться с тем, что следует считать единицей измерения информации в проводимых информационно-синергетических исследованиях.

Биты отражения

В традиционных логарифмических мерах информации (комбинаторной и вероятностной) основание логарифмов является произвольным, что допускает использование различных единиц измерения информации (двоичных, десятичных, натуральных и т.п.). Наибольшей популярностью, в силу технического удобства, пользуются логарифмы с основанием два, а получаемые при этом двоичные единицы традиционно именуются битами. То есть, 1бит = log2 2 . Так как в комбинаторном и вероятностном подходах информация атрибутивно связана с процедурами выбора [4-6], то содержательно бит обычно интерпретируется как количество информации, получаемой при выборе одной из двух равновероятных возможностей.

В синергетических мерах информации (1) и (2), в свою очередь, основание логарифмов может быть равно только двум [1] и, соответственно, единицей измерения может также служить бит. При этом одному биту соответствует равенство IA = 1, которое выполняется при M A = 2. Вместе с тем, поскольку в синергетическом подходе к количественному определению информации, в отличие от вероятностного и комбинаторного подхо-

1 В соответствии с необходимым условием экстремума функции

d ч 1 - lnalog2 х „ т1-

— f (х) =--- -= 0, откуда х0 = aln a = e .

dx х ln a

дов, рассматривается иной (не связанный с выбором) вид информации [1,2], то бит здесь должен иметь и иную содержательную интерпретацию. Поэтому, чтобы отличать друг от друга численно равные количества различных видов информации, будем называть единицу измерения в синергетической теории информации битом отражения, который определим следующим образом: бит отражения - это количество информации, которую отражает о самом себе как едином целом множество из двух элементов. Рассматривая эту единицу измерения информации с квантовых позиций (3), можно также сказать, что бит отражения равен максимальному кванту информации, который образуется при увеличении числа элементов множества от одного до двух.

На основе сказанного бит отражения может быть представлен в следующем виде:

1 бит отражения _ 1А Ы _2 = АIтах = ^2 2 (7)

Из сравнения выражений (6) и (7) следует, что бит отражения является более крупной информационной величиной, чем квант отражения. При этом, если бит отражения всегда равен единице, то величина кванта отражения изменяется в зависимости от числа элементов отражаемого множества. Это позволяет при рассмотрении отражения конкретных множеств характеризовать биты отражения со стороны их квантовой емкости (С), под которой будем понимать количество квантов отражения, соответствующих одному биту. То есть, квантовая емкость Сд одного бита отражения множества А с числом элементов Ыа равна :

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2 Следует отметить, что квантовая емкость (8) имеет такую же математическую форму, что и коэффициент эмерджентности Хартли (при ЫА >> 1), предложенный в системной теории информации Е.В. Луценко [7] для оценики уровеня системности объектов, состоящих из конечного множества элементов. Это может свидетельствовать о взаимосвязи синергетической и системной теорий информации, анализ которой выходит за рамки настоящей статьи.

С _ 1 бит отражения _ ЫА (8)

А Ча ^2 ЫА

Из выражения (8) также следует, что квантовая емкость СА увеличивается с ростом числа элементов Ы А и показывает, сколько элементов множества А приходится на один бит его отражения. Это открывает путь для непосредственной оценки числа элементов одного множества, отраженного через пересекающееся с ним другое множество.

Отраженные образы множеств

При рассмотрении отражения друг через друга двух пересекающихся конечных множеств А и В (рис.2) перед нами неизбежно встает вопрос о том, в каком виде воспроизводится при этом каждое из множеств. Иначе говоря, нас интересуют отраженные образы множества А через множество

а_® в В_® А

В (А ) и множества В через множество А (В ).

Рисунок 2. Модель отраже ния конечных множеств А и В друг через друга

Собственно о множествах А и В, помимо того, что они выделены по некоторым отличительным признакам Рл и РВ, нам известно только то, что количество элементов в их составе равно Мл и МВ. Поэтому поставленный вопрос сводится к задаче определения числа элементов М л®В и

л

А __ В В__ А

МвВ®а в составе образов А и В , соответственно.

Предварительно отметим, что количество элементов в составе каждого из множеств А и В может быть оценено уже с помощью негэнтропии отражения 1АВ:

1АВ > 1 ^ МА > 2ІАВ, МВ > 2ІАВ

(9)

Условие 1дВ ^ 1 в выражении (9) обусловлено тем, что поскольку К с А, К С В то из формулы (2) следует, что при любом IАВ > 0 число элементов в составе множеств А и В не может быть меньше двух. Но независимо от

ны этого укажем следующее. Во-первых, одному и тому же значению не-гэнтропии отражения IлВ могут соответствовать различные совокупности значений Мл и МВ (даже при постоянстве Мк), и логично потребовать, чтобы каждая такая совокупность формировала свои отраженные образы

IлВ в общем случае неравноценны по отношению к каждому из множеств

В соответствии со сказанным естественным решением задачи опре-

битов отражения на величину негэнтропии отражения. Действительно, квантовая емкость (8) показывает, сколько элементов отражаемого множества приходится на один бит его отражения, а негэнтропия отражения (2) выражает количество этих битов, воспроизведенное через отражающее

множество. В соответствии с этим количество элементов в отраженных

А _ В В _ А

образах А и В равно (с округлением до ближнего меньшего цело-

данного условия величина 2ІАВ не может быть принята за количество эле-

А _ В В _ А

ментов в составе отраженных образов А и В . В качестве причи-

А _ В В _ А

А и В . Во-вторых, в квантовом отношении значения негэнтропии

А и В, что должно также учитываться при определении М л®В и

А

деления М А _ В и М В_ А выглядит произведение квантовой емкости

АВ

го):

М Ал® В = САІАВ

МК . ^2 Мк

МВ !^2 МА

м В_А _ Св1ав _ — • 1°gl-MK. (11)

вВ_А В АВ мА 1оё2 мв

Негэнтропийная оценка (9) показывает нижний порог возможных значений числа элементов в составе множеств А и В и, соответственно, число элементов (10) и (11) в отраженных образах данных множеств должно быть не ниже этого порога. Иначе говоря, должны выполняться неравенства:

1ав > 1 ^ Маа_В > 2 1ав , МВВ_А > 2 1ав (12)

Докажем, что эти неравенства действительно выполняются, для чего, на примере М А_В, подставим его значение из (10) в (12) и прологариф-

А

мируем полученное выражение. В результате этой операции получаем:

1о§2 МА - 1оё2(1°ё2 МА ) + 1о§2 1АВ >1АВ Делая необходимые перестановки, приходим к неравенству:

1og 2 Ма - 1 АВ > 1о§ 2 (1°8 2 МА ) - 1о§2 1АВ

Так как 1og2 МА _ 1А > 1АВ, то последнее неравенство при 1АВ > 1 является

очевидным, что доказывает справедливость неравенств (12).

А _ В В _ А

Проведем теперь сравнение отраженных образов А и В°^, которое может быть осуществлено с двух сторон: со стороны соотношения образов по числу элементов и со стороны их соответствия исходным множествам А и В. В первом случае, вследствие того, что квантовые емкости Сд и СВ увеличиваются по мере роста числа элементов Мд и МВ, из выражений (10) и (11) следует, что из отраженных образов двух пересекающихся конечных множеств, превосходство по числу элементов имеет образ того множества, у которого большее число элементов. Во втором случае, принимая за меру соответствия образа оригиналу отношение числа его элементов к числу элементов исходного множества, мы приходим к тому, что эта мера равна относительной негэнтропии отражения (/), ха-

рактеризующей полноту отражения одного множества через пересекающееся с ним другое множество:

мАА®В _ МК 1og2 МК _ 1АВ _ / (13)

Ма МаМв ^2 МА 1а А®В

МВВ_А _ М К 1og2 МК _ 1АВ _ / (14)

Мв МдМв ^2 Мв 1в В®А

Так как I д и 1В тем больше, чем больше, соответственно, Мд и МВ, то из

выражений (13) и (14) следует вывод о том, что при отражении друг через

друга двух пересекающихся конечных множеств более адекватный отраженный образ имеет то множество, которое состоит из меньшего числа элементов.

Естественно считать, что отражение пересекающихся множеств А и В, как их воспроизведение друг через друга, существует только тогда, ко-

А__ в В__ А

гда их отраженные образы А и В не являются пустыми множествами, то есть, когда М А_В > 1, М В_А > 1. В том случае, когда отра-

АВ

женный образ того или иного множества включает в себя только один элемент, негэнтропия отражения I дВ, как это следует из (10) и (11), равна соответствующему кванту отражения исходного множества: маа_в _ 1 ^^В _ Уа и МВВ_А _ 1 ^^В _ Чв .

Сказанное означает, что условием наличия отражения множеств А и В друг через друга являются неравенства IАВ > ча и ^В > чв , из чего следует, что отражение каждого из пересекающихся множеств имеет свою информационную (негэнтропийнуй) границу в виде равенства негэнтропии отражения соответствующему кванту отражения. Это приводит нас к выводу о том, что, если величина негэнтропии отражения IдВ меньше кванта отражения какого-либо из множеств А и В, то по отношению к этому множеству ее значение представляет собой информационный шум.

Образно выражаясь, при выполнении неравенств 0 < IдВ < Ча и

0 < IаВ < ЧВ множества А и В как бы «ощущают» друг друга, но силы (информации) этого «ощущения» недостаточно для того, чтобы воспроизвести их непустые образы.

Особенности взаимного отражения системы и части

Материал предыдущего раздела относится к наиболее общему случаю пересечения множеств А и В, когда А Ф В, К Ф А, К Ф В. Вместе с тем, в практической деятельности, мы весьма часто имеем дело с ситуацией, когда, например, множество А рассматривается как автономная дискретная система, а множество В выступает в качестве ее части или подсистемы, то есть, когда К _ В с А. Поэтому остановимся на соответствующих моментах.

Прежде всего, отметим, что в данном случае МК _ МВ , в силу чего негэнтропия отражения (2) приобретает вид:

В с А ^ ^ _ ^^гМв (15)

МА

Соответственно, количество элементов в отраженных образах системы А и ее части В согласно (10) и (11) равно:

М А _ В _ М

^2 МВ

А_ ^МВ

1ГЧГТ II //

А (16)

М В_А _ М-вв_а МА

Относительная негэнтропия отражения системы и части друг через друга, в свою очередь, равна:

/ А _ В

_ МВ 1о^ МВ

МА МА

В с А ^ А 52 А (17)

1 / _ Мв К '

О 7

В_ А

МА

На основании (16) и (17) ранее сделанные заключения, о соотношении отраженных образов множеств по числу элементов и соответствию их оригиналам, по отношению к системе и части предстают перед нами в следующем виде: образ системы, отраженный через ее часть, содержит большее число элементов, чем образ части, отраженный через систему; и полнота отражения части системой больше, чем полнота отражения системы частью.

Величина негэнтропии отражения системы и части (15), в отличие от общего случая пересечения множеств (2), зависит только от значений М а и М В . Вследствие этого, информационным границам отражения системы и части соответствуют строго определенные соотношения МА и МВ, которые, согласно (6) и (15), имеют вид:

Наглядное представление о соотношениях (18) дает рис. 3, где приведены графики зависимости IдВ, Ча , ЧВ от Ма при фиксированном МВ.

Iab = 4a ^ Ma = M^B IAB = qB ^ MA = MB

(18)

IAB > qA > qB

0

M B MB

Рисунок 3. Зависимость IaB , 4a , 4B от MA при MB = const

Из рисунка видно, что проекции информационных границ отражения

1АВ = ЧА и 1АВ = чв на горизонтальную ось делят область возможных значений Ма на три интервала, каждый из которых, по отношению к отра-

а_® в В_® А

женным образам А и В , обладает качественным своеобразием:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Мв £МА £МВ ^ АА_в , Вв_А ф 0 В с А ^\мВ <МА £мМв ^ АА_в ф 0, ВВ_а = 0 (19)

МА >мМв ^ АА_в, Вв_А = 0

В содержательном плане из выражения (19) следует, что увеличение системы А за счет элементов, обладающих только признаком Ра , сопровождается тем, что часть В, выделенная по признаку Рв , воспроизводит непустой образ системы несоизмеримо дольше, чем система образ части. При этом, уже при переходе числа элементов системы через границу Ма = Мв, признак Рв становится для системы в информационном отношении несущественным явлением. Вместе с тем, является очевидным, что эта несущественность признака не имеет отношения к системам с малым числом элементов (подобно тому, как не имеет смысла говорить о выполнении второго начала термодинамики в случае небольших совокупностей молекул идеального газа или, например, судить о законе распределения случайной величины по небольшому числу ее наблюденных значений).

Помимо изложенного, в информационных взаимоотношениях системы и части (множества и подмножества) обращает на себя внимание тот факт, что отношение Мв /Ма , фигурирующее в выражениях (15) - (17), при достаточно большом М А может рассматриваться как вероятность Р(В) встречи признака Рв среди элементов множества А. В то же время,

это отношение, с одной стороны (17), представляет собой относительную негэнтропию отражения части через систему, а с другой стороны (16), рав-

но отношению числа элементов отраженного образа части к числу элементов самой части. То есть:

М М в ® А

В с А ^ Зв® а = Р(В) = --В = ^В~-------- (20)

МА МВ

Выражение (20) свидетельствует о глубокой взаимосвязи негэнтро-пии отражения и отраженных образов конечных множеств с вероятностью случайных событий. Вместе с тем детальное рассмотрение этой взаимосвязи выходит за рамки настоящей статьи и является предметом отдельных исследований.

Заключение

В статье рассмотрены квантовые аспекты информации, отражаемой конечными множествами элементов. При этом введены в оборот такие понятия, как квант информации и квант отражения, бит отражения и его информационная емкость, которым даны формализованные определения. Также решена задача оценки количества элементов в отраженных образах пересекающихся конечных множеств и установлены информационные границы существования этих образов. Последнее может использоваться на практике, например, при решении задач распознавания образов (оценка информативности признаков по адекватности воспроизведения ими эталонных множеств объектов распознавания и минимизация признакового пространства с помощью информационных границ отражения).

В целом изложенный материал является развитием синергетической теории информации и расширяет общие представления о количественной стороне феномена информации.

Литература

1. Вяткин В.Б. Синергетическая теория информации. Часть 1. Синергетический подход к определению количества информации // Научный журнал КубГАУ [Элек-

тронный ресурс]. - Краснодар: КубГАУ, 2008. - №44(10). Режим доступа: http://ei.kubagro.ru/2008/10/pdf/12.pdf

2. Вяткин В.Б. Синергетическая теория информации. Часть 2. Отражение дискретных

систем в плоскости признаков их описания // Научный журнал КубГ АУ [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №45(1). Режим доступа:

http://ei.kubagro.ru/2009/01/pdf/12.pdf

3. Вяткин В.Б. Синергетическая теория информации. Часть 3. Информационные

функции и энтропия Больцмана // Научный журнал КубГ АУ [Электронный ресурс].

- Краснодар: КубГАУ, 2009. - №46(2). Режим доступа:

http:// ei. kubagro .ru/2009/02/pdf/ 11.pdf

4. Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. - 1965, т.1, №1 - С. 3-11.

5. Хартли Р.В.Л. Передача информации // Сб.: Теория информации и ее приложения. -М.: Физматгиз, 1959. - С. 5-35.

6. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830с.

7. Луценко Е.В. Автоматизированный системно-когнитивный анализ в управлении активными объектами (системная теория информации и ее применение в исследовании экономических, социально-психологических, технологических и организационно-технических систем): Монография (научное издание). - Краснодар: КубГАУ. 2002. - 605 с. Режим доступа: http://lc.kubagro.ru/aidos/aidos02/index.htm

i Надоели баннеры? Вы всегда можете отключить рекламу.