Научная статья на тему 'О системной информации в аддитивных информационных системах'

О системной информации в аддитивных информационных системах Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
653
87
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНФОРМАЦИЯ / ИНФОРМАЦИОННЫЕ СИСТЕМЫ / ИНФОРМАЦИОННАЯ НЕОПРЕДЕЛЕННОСТЬ / ЭНТРОПИЯ / ИНФОРМАЦИОННАЯ ЭНТРОПИЯ / СИСТЕМНАЯ ИНФОРМАЦИЯ / INFORMATION / INFORMATION SYSTEMS / INFORMATION UNCERTAINTY / ENTROPY / INFORMATION ENTROPY / SYSTEM INFORMATION

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Маркелов Владимир Михайлович

Дается анализ аддитивных информационных систем. Показано значение энтропии при исследовании состояния информационных систем. Анализируется сущность информационной энтропии. Показаны особенности аддитивных информационных систем. Информационные множества идентифицированных классов и атрибутов в таких системах пересекаются. Это позволяет провести идентификацию объекта в разных системах, в то время как множества функциональных и дополнительных классов атрибутов таких объектов различаются. Аддитивные системы соответствуют принципу сложения энтропийных вкладов и реализуют передаточную функцию в виде комплексного переменного, где действительная часть энтальпия, а мнимая вероятностная энтропийная характеристика. Рассмотрен подход Луценко к определению системной теории информации. Вводится понятие «чистые состояния» системы,под которым понимаются возможные дискретные состояния, в которых могут находиться компоненты исследуемой аддитивной системы или объекта. Описаны «чистые состояния» аддитивных систем. Показаны рамки применимости системной теории информации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

About system information in additive information systems

The analysis of additive information systems. Shows the value of entropy in the study of condition information systems. Analysis of the essence of information entropy. The features of the additive information systems. Information identified many classes and attributes in these systems intersect. This allows for identification of the object in different systems, while many functional and additional classes of the attributes of these objects differ. Additive systems consistent with the princi ple of adding the entropic contributions and implement the transfer function in the form of a complex variable,where the real part is the enthalpy,and the imaginary prob abilistic entropy feature. Reviewed the approach of Lutsenko to definition of system information theory. The concept of "pure condition" of the system, which implies the possible discrete conditions, which can be components of the investigated additive system or object. Described "pure state" of the additive system. Shows the scope of applicability of the system of information theory.

Текст научной работы на тему «О системной информации в аддитивных информационных системах»

В. М. Маркел в

О системной информации в аддитивных информационных системах

Дается анализ аддитивныьх информационных систем. Показано значение энтропии при исследовании состояния информационных систем. Анализируется сущность информационной энтропии.

Показаны особенности аддитивныьх информационных систем. Информационные множестваидентифицированных классов и атрибутов в таких системах пересекаются. Это позволяет провести идентификацию объекта в разных системах, в то время как множества функциональных и дополнительных классов атрибутов таких объектов различаются. Аддитивные системы соответствуют принципу сложения энтропийных вкладов и реализуют передаточную функцию в виде комплексного переменного, где действительная часть — энтальпия, а мнимая — вероятностная энтропийная характеристика.

Рассмотрен подход Луценко к определению системной теории информации. Вводится понятие «чистые состояния» системы,под которым понимаются возможные дискретные состояния , в которых могут находиться компоненты исследуемой аддитивной системы или объекта. Описаны «чистые состояния» аддитивных систем. Показаны рамки применимости системной теории информации.

Ключевые слова: информация, информационные системы, информационная неопределенность, энтропия, информационная энтропия, системная информация.

V. М. Maгkelov

About system information in additive information systems

The analysis of additive information systems. Shows the value of entropy in the study of condition information systems. Analysis of the essence of information entropy.

The features of the additive information systems. Information identified many classes and attributes in these systems intersect. This allows for identification of the object in different systems, while many functional and additional classes of the attributes of these objects differ. Additive systems consistent with the principle of adding the entropic contributions and implement the transfer function in the form of a complex variable,where the real part is the enthalpy,and the imaginary - probabilistic entropy feature.

Reviewed the approach of Lutsenko to definition of system information theory. The concept of "pure condition" of the system, which implies the possible discrete conditions , which can be components of the investigated additive system or object. Described "pure state" of the additive system. Shows the scope of applicability of the system of information theory.

Keywords: information,information systems,information uncertainty,entropy,information entropy , system information

Введение

'екущий период развития общества характеризуются широким применением информации и информационных систем [1]. Тенденции развития науки и техники требуют эффективного использования информационных ресурсов и систем. Современные информационные ресурсы и техно-¡Лрщи связывают с понятием »цифровые» [2].

Основные свойства информационных ресурсов включают: кодифицируемость, индентифици-руемость, стандартизованность, измеримость [3]. Важной характеристикой информационных процессов и информационных систем является взаимодействие [4]. Анализ информационных систем можно осуществлять разными методами, к числу которых относится и метод системной информации. Понятие системной информации

БведёнаЯджгаром техничвегсЯх науК^профессо— ром Луценко [5]. Оно в 'большей мере использует понятие энтропии, чем методы системного анализа.

Энтропия играет главную роль в статистической теории информации [6, 7]. Это полисеми-ческое понятие, имеющее ряд значений.

Энтропия (в естественных науках) — мера беспорядка системы, состоящей из многих элементов;

Энтропия (в статистической физике) — мера вероятности осуществления какого—либо макроскопического состояния;

Энтропия (в теории информации) — мера неопределенности какого—либо опыта (испытания), который может иметь разные исходы, а значит, и разное количество информации;

Энтропия (в информатике) — степень неполноты, неопределенности знаний.

Энтропия (в корпоративных информационных системах) — степень неполноты, неопределенности управленческой информации [8].

Таким образом, энтропия — один из инструментов анализа информации и информационных систем. Статистическая теория информации постулирует, что информация передается в виде последовательности сигналов, составляющих информационное сообщение [9]. Физический смысл сигнала, с помощью которого передается информация, может не совпадать со смыслом передаваемой информации. Восприятие информации немыслимо без определенных предварительных соглашений и знаний, без которых сигнал будет восприниматься лишь как сообщение о некотором факте, который непонятно как интерпретировать. Для достижения взаимопонимания необходима предварительная договоренность о значениях сигналов.

Обработка информации — процесс преобразования уже имеющейся информации в информационном поле [10]. Преобразование информации может быть связано с изменением ее содержания или формы представления. В последнем случае говорят о кодировании информации. Например, к обработке информации могут быть отнесены шифрование информации или перевод текстов на другой язык.

Информационная энтропия

Информационная энтропия — мера информации приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Информационная энтропия для независимых ¡Случайных событий х с п возможными состояниями (от 1 до п) рассчитывается по формуле:

Н(х) = -Х Р(/)10§2Р(0

Эта величина также называется средней энтропией сообщения. Величину

108. Ро

' назьшаЮТ^частеой '-Энтропией^рхйрактерйзующеи только i-e состояние, исследуемой системы.

Таким образом, энтропия события «x» является суммой с противоположным знаком всех! произведений относительных частот появле!! ния события i, умноженных на их же двоичные логарифмы (основание 2 выбрано только для удобства работы с информацией, представленной в двоичной форме). Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.

Шеннон [6] предположил, что прирост информации I, получаемой системой при переходе из состояния 1 в состояние 2, равен утраченной неопределенности, то есть

I=H2-HJ

Он задал требования к ее измерению:

• мера должна быть непрерывной, т.е. изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции;

• в случае, когда все варианты, например, буквы в приведенном примере равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать значение функции;

• должна быть возможность сделать выбор (в нашем примере букв) в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.

В связи с этим, функция энтропии H должна удовлетворять условиям:

H(p, ...., p ) определена и непрерывна для всех p , ...., p , где 0 < p¿ <1 для всех i=1, ..., n|и p1 + .... + p =1. Эта функция зависит только от распределения вероятностей, но не от алфавита.

Для целых положительных n, должно выполняться следующее неравенство:

< Н Í 1 1 ^

Н I....,!-

^ n n У

V-V--

n

n + 1 n + 1

n+1

Для целых положительных b,, где b1 + +b =n, должно выполняться равенство:

HI1,...,1 1 = Н

bi b

\

-IL bH

(

b.

1 b.

Шеннон показал, что единственная функция, удовлетворяющая этим требованиям, имеет вид:

- K ¿p(i )log2 p(i)

i=l

где K — константа (и в действительности нужна только для выбора единиц измерения). Он определил, что измерение энтропии применимое к источнику информации,

Н = - Pilog2Pi- ■■-Рп l0g2 Pn

может определить требования к минимальной пропускной способности канала, требуемой

n

n

щЛя надежной' п1редачитафорШц,ии в виде закодированных двоичных чисел.

Для вывода формулы Шеннона необходимо вычислить математическое ожидание «количества информации», содержащегося в символе из источника информации. Здесь следует отметить, что Шеннон фактически рассматривает символ как информационную единицу, не вводя это понятие.

Мера энтропии Шеннона выражает неуверенность реализации случайной переменной. Таким образом, информационная энтропия является разницей между информацией, содержащейся в сообщении, и той частью информации, которая точно известна (или хорошо предсказуема) [11].

Примером этого является избыточность языка — имеются явные статистические закономерности в появлении символов, пар последовательных букв, троек символов и т. д.

Определение энтропии по Шеннону вытекает из понятия термодинамической энтропии. Исследования энтропии Больцмана и Гиббса в статистической термодинамике, способствовали междисциплинарному переносу этого термина в новую область, что и осуществил Шеннон.

Определить энтропию случайной величины можно введя предварительно понятия распределения случайной величины X, имеющей конечное число значений

Px^rPi 0 i = 1, 2 ....., n

п

Еа = 1

1=1

и собственной информации:

I (X) = log 2 рх (X )

Тогда энтропия определяется как: H (X) = E(I (X) = -Е p(i) log2 p(i)

1=1

От основания логарифма зависит единица измерения информации и энтропии: бит, Нат или Хартли. Энтропия является количеством, определенным в контексте вероятностной модели для источника данных.

Например, кидание монеты «как принятие решения» имеет энтропию 1 бит на одно действие (при условии его независимости).

H(X)= - (0,5 log20,5 + 0,5 log20,5) =1

У источника, который генерирует строку, состоящую из заведомо известных букв, например, «А», энтропия равна нулю:

-Е log2l = 0

i=i

Опытным пуЛм можно установить, что энтропия английского текста равна 1,5 бит на символ, что конечно будет варьироваться для разных текстов [12]. Энтропия источника данных означает среднее число битов на элемент данных, требуемых для ее зашифровки без потери информации, при оптимальном кодировании. Некоторые биты данных могут не нести

йнфОрмации. Напрймер|®Структуры данных-' часто хранят избыточную информацию или имеют! идентичные секции независимо от информации в структуре данных. Количество энтропии не всегда выражается целым числом бит. Энтропийные характеристики и математические свойства заключаются в следующем: Неотрицательность: Н(Х) > 0 Ограниченность: Н(Х) < ^2[Х]. Равенство, если все элементы из X равновероятны. Если X, У независимы, то: Н(ХУ) < Н(Х) +Н(У).

Энтропия — выпуклая вверх функция распределения вероятностей элементов.

Если Х,У имеют одинаковое распределение вероятностей элементов, то Н(Х) = Н(У).

Алфавит, как правило, имеет вероятностное распределение, отличающееся от равномерного. Если исходный алфавит содержит п символов, его можно сравнить с «оптимизированным алфавитом», вероятностное распределение которого равномерное.

Соотношение энтропии исходного и оптимизированного алфавита — это эффективность исходного алфавита, которая может быть выражена в процентах. Эффективность исходного алфавита с п символами может быть также определена как его п—арная энтропия.

Энтропия ограничивает максимально возможное сжатие без потерь (или почти без потерь), которое может быть реализовано при использовании теоретически типичного набора или, на практике,— кодирования Хаффмана, кодирования Лемпеля — Зива — Велча или арифметического кодирования.

Информационные системы как аддитивные системы Аддитивные системы [13, 14] (от лат. аййШо — «прибавляю») — системы, которые являются аддитивными по отношению составляющих их частям или подсистемам.

Информационные множества идентифицированных классов и атрибутов в таких системах пересекаются. Это позволяет провести идентификацию объекта в разных системах, в то время как множества функциональных и дополнительных классов атрибутов таких объектов различаются.

Аддитивные системы соответствуют принципу сложения энтропийных вкладов и реализуют передаточную функцию в виде комплексного переменного, где действительная часть — энтальпия, а мнимая — вероятностная энтропийная характеристика. Примером простых аддитивных систем являются транзакционными [15]. Они характеризуются однозначной предсказуемой и всегда повторяемой их реакцией на воздействие одиночных транзакций. Информационные процессы в этих системах характеризуются парадигмами. Запрос ^ ответ Решение ^ действие Воздействие ^ реакция

СубтраЖивнЫе ИС [15] — ШстШьр» содержащие общую объединенную информацию о разноплановых или разнородных объектах. Их ¡рожно рассматривать как множества идентифицированных классов атрибутов.

Примерами являются системы мультимедиа и компьютерной графики (обучающие и дескриптивные, геоинформационные системы, коннекторы и т.п.)[14].

Мультипликативные ИС [15] — системы, обладающие как субтрактивным так и аддитивными свойствами, приобретаемыми в результате взаимодействия в процессе интеграции систем. Для адаптивных интегрированных структур признаки мультипликативности весьма ожидаемы [15].

О системной информации

Рассмотрим подход к определению системной теории информации, вводимой Луценко. По умолчанию он рассматривает аддитивные информационные системы. Вводится понятие «чистые состояния» системы W, под которым будем понимать возможные дискретные состояния, в которых могут находиться компоненты исследуемой аддитивной системы или объекта. Через I обозначим количество информации по К.Э. Шеннону [6]. Согласно работам Луценко [16, 17] системное обобщение формулы Хартли для равновероятных состояний объекта управления представляется в виде последовательности:

Формула Хартли имеет вид

I = log 2 W

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

I = log2 W v

M

I = log2 £ CW

m=1

I = iog2(cW + cW +...+CM)

M

при M = W : £ CW = 2W -1

m=1

I = log2(2W -1) « W

(1) (2)

(3)

(4)

(5)

(6)

при >> 1; I « W с очень малой и быстро уменьшающейся погрешностью. Здесь W — количество чистых (классических) состояний системы; ф — коэффициент эмерджентности Хартли (уровень системной организации объекта, имеющего W чистых состояний). Он также называется уровнем системности.

Луценко формулирует гипотезу о существовании "Закона возрастания эмерджентности"[5]. Суть этой гипотезы состоит в том, что в самих элементах системы содержится сравнительно небольшая доля всей записанной в ней информации, а основной ее объем составляет системная информация подсистем различного уровня иерархии.

Различие между классическим и предложенным системными понятиями информа-

Ции 'сШТветотвует различию междУ'понятЙяМИ множества и системы, на основе которых они сформированы.

i = log 2 w *=iog2 Mcm

m=l

M

log 2 £ cm

—m=i—

log2W

M

log 2 £ cm

m=1

I(W,M) = log2 W log2W

W

I(W,M) «log2 Wlog2 W = W I « w - iog W

1 SYSTEM '' Ш62 "

(7)

(8)

I(W, M) = log2 W + log2 W v-1

M

у m

?2 £ ^W m=1

iog 2 £ cw

w

<p = -

log2 W log2 W

I « W - log W

1 SYSTEM '' &2 ''

(9)

(10) (11) (12)

(13)

(14)

Гипотеза 1: «О природе сложности системы». Сложность системы Луценко связывает с количеством содержащейся в ней информации. В этой гипотезе открытым остается вопрос о мере количества информации. Например, количество бит может описывать текстовую структурированную систему, текстовую неструктурированную систему, иерархическую систему и топологическую систему

Гипотеза 2: «О видах системной информации». Системная информация включает две составляющие: зависящую от количества элементов системы; зависящую также от характера взаимосвязей между элементами

Лемма 1: При увеличении количества элементов в системе доля системной информации в ней возрастает нелинейно с тенденцией к уменьшению.

Закон возрастания эмерджентности: Чем больше элементов в системе, тем большую долю от всей содержащейся в ней информации составляет системная информация, содержащаяся не в элементах, а в подсистемах различной сложности и уровнях иерархии.

Следствие: Увеличение уровня системности влияет на объект аналогично повышению уровня детерминированности: понижение уровня системности, также как и степени детерминированности системы приводит к ослаблению влияния факторов на поведение системы, т.е. к понижению управляемости системы за счет своего рода «инфляции факторов»

Лемма 2: Чем выше уровень системности, тем большая доля информации системы содер-

жйТея'Во взаимосвязях ееЭйещентев

Лемма 3: Чем меньше элементов в системе, тем быстрее возрастает доля информации, содержащейся во взаимосвязях элементов при возрастании уровня системности.

Классическая формула Харкевича имеет вид.

I, = 10§2 Р (15)

где Р— вероятность перехода объекта управления в у-е состояние в условиях действия /-го фактора; Р— вероятность самопроизвольного перехода объекта управления в -е состояние, т.е. в условиях отсутствия действия .-го фактора или в среднем.

Раскроем смысл формул (1) и (2). В подробной интерпретации для (к-ой) части аддитивной системы

Для всей системы из п частей

+Wз + +'№п)

где I — количество информации; W — число «чистых» состояний системы; ф — коэффициент (степень) эмерджентности системы; ф также рассматривают как степень системности объекта и оценки качества системы, в частности [5, 16, 17]:

Ф < 1; деструктивная система; • ф = 1; классически система;

Ф > 1; синтетическая система.

Такой подход позволяет оценить результат композиции аддитивных систем.

Однако в целом данная теория имеет ряд ограничений. В частности, сложность определяется не только и не столько числом элементов, сколько количеством связей между ними. Следовательно

РипОшЗа 1: «О" ЙриродрЩюжности1шт1т1» - справедлива при неизменности числа связей, что мало встречается в реальной практике.

Наиболее слабым местом в теории является молчаливое предположение что все состояния ведут к достижению цели. Для детерминированных систем это не так. Рассмотрим автомобиль и простейшие четыре состояния: покой, ускорение, движение, торможение. Все четыре состояния ведут к достижению цели. Рассмотрим аддитивную систему из двух автомобилей. Если автомобили едут без контакта, такая система имеет 8 состояний по 4 для каждого автомобиля

Ф =1.

Если автомобили столкнулись, возникает больше состояний. Для каждого автомобиля появляется дополнительные состояния:

• мелкое повреждение, можно продолжать движение;

• серьезное повреждение, требуется буксировка;

• существенное повреждение автомобиль восстановлению не подлежит.

В результате система может находиться в 14 состояниях, что формально дает ф >1. Но в реальности эта система является деструктивной, что противоречит оценке системы по коэффициенту эмерджентности ф.

Заключение

Использование системной теории информации в ряде случаев, оговоренных в гипотезах, позволяет оценить эффективность такой системы и осуществлять эффективное управление такими системами. Использование системной теории информации и информационной энтропии позволяет решать задачи когнитивного моделирования [18, 19] и проводить оценку меры познания, то есть когнитивной энтропии. Однако при использовании этой теории требуется анализировать ситуацию, состояния и тип системы.

6.

7.

8.

10. 11.

12. №3.

ЛИТЕРАТУРА

Болбаков Р.Г., Раев В.К. Моделирование когнитивной семантики образовательных информационных систем // Информатизация образования и науки. 2013. № 1(17). С. 91-102.

Цветков В. Я. Клод Элвуд Шеннон, как основоположник цифрового моделирования // Перспективы науки и образования. 2014. № 1. С. 44-50.

Матчин В.Т. Информационные ресурсы как инструмент научного исследования и развития // Вестник МГТУ МИРЭА. 2014. № 2 (3). С.235-256.

V. Ya. Tsvetkov. Information Interaction as a Mechanism of Semantic Gap Elimination // European Researcher. 2013. Vol.(45). № 4-1, pp.782-786.

Луценко Е.В. Автоматизированный системно-когнитивный анализ в управлении активными объектами (системная теория информации и ее применение в исследовании экономических, социально-психологических, технологических и организационно-технических систем): Монография. Краснодар: КубГАУ 2002. 605 с. Шеннон К. Работы по теории информации и кибернетике. М.: Изд. иностр. лит., 1963. 830 с. Волькенштейн М. В. Энтропия и информация. М.: Наука, 2006. 192 с.

V. Yа. Tsvetkov, N.V. Azarenkova. Entropy in corporate information systems // European Researcher. 2014. Vol.(70). № 3-1. pp.471-477.

Кудж С.А., Цветков В. Я. Информационные сообщения. М.: Московский государственный технический университет радиотехники, электроники и автоматики МГТУ МИРЭА, 2013. 142 с. Tsvetkov V.Ya. Information field // Life Science Journal. 2014. № 11(5). рр.551-55.

Лийв Э. Х. Инфодинамика. Обобщенная энтропия и негэнтропия // Электронная библиотека Грамотей. 2010. URL: http:// www.gramotey.com/books/271133718619.htm (дата обращения: 05.11.2013). Бауер Ф., Гооз Г. Информатика. М.: Мир, 1976. 486 с.

Ильин И.В., Щтр.о.в К.А,,, .Трифонов Л.А., и др. .^ОнтйДргия.. ..'моделирования и праектировайия.^манййческих

14.'

15.

Й6.

17.

18. 19.

7.

8.

9.

10. 11.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

12.

13.

14.

15.

16.

17.

18. 19.

информационных сйСтеМ™ порталов. М., 2008. 254®^

Монахов Щ'ЩрСаВиных В.П., Цветков В.Я. Методология анализа и проектирования сложных инфйрмационнЫХ«исте'М|| М.: Просвещение, 2005. 264 с.

Болбаков Р.Г. Развитие и применение методов и алгоритмов когнитивной семантики в мультимедийных образовательных,!! портальных системах: дис. ... канд. техн. наук: 05.13.01. М.: МГТУ МИРЭА, 2013. 185 с.

Луценко Е.В. Обобщенный коэффициент эмерджентности Хартли как количественная мера синергетического эффекта объединения булеанов в системном обобщении теории множеств // Политематический сетевой электронный научный журнал кубанского государственного аграрного университета. Краснодар.: Кубанский государственный аграрный университет, 2011. С. 27-37.

Луценко Е.В. Количественные меры возрастания эмерджентности в процессе эволюции систем (в рамках системной теории информации) // Политематический сетевой электронный научный журнал кубанского государственного аграрного университета. Краснодар.: Кубанский государственный аграрный университет, 2006. С. 1-20. Tsvetkov V.Ya. Cognitive information models // Life Science Journal. 2014. № 11(4). рр.468-471.

Луценко Е.В., Коржаков В.Е., Лаптев В.Н. Теоретические основы и технология применения системно-когнитивного анализа в автоматизированных системах обработки информации и управления (АСОИУ) (на примере АСУ вузом): Под науч. ред. д.э.н., проф. Е.В.Луценко. Монография (научное издание). Майкоп: АГУ 2008. 520 с.

REFERENCES

Bolbakov R.G., Raev V.K. Modeling cognitive semantics educational information systems. Informatizatsiia obrazovaniia i nauki -Informatization of education and science, 2013, no. 1(17), pp. 91-102 (in Russian).

Tsvetkov V. Ia. Claude Elwood Shannon, as the founder of digital modeling. Perspektivy nauki i obrazovaniia - Perspectives of science and education, 2014, no. 1, pp. 44-50 (in Russian).

Matchin V.T. Information resources as an instrument of research and development . Vestnik MSTU MIREA, 2014, no. № 2 (3), pp. 235-256 (in Russian).

V. Ya. Tsvetkov. Information Interaction as a Mechanism of Semantic Gap Elimination. European Researcher, 2013, Vol.(45), no. 4-1, pp.782-786.

Lutsenko E.V. Avtomatizirovannyi sistemno-kognitivnyi analiz v upravlenii aktivnymi ob"ektami (sistemnaia teoriia informatsii i ee primenenie v issledovanii ekonomicheskikh, sotsial'no-psikhologicheskikh, tekhnologicheskikh i organizatsionno-tekhnicheskikh sistem): Monografiia [Automated system-cognitive analysis in the management of active objects (system information theory and its application in the study of economic, socio-psychological, technological and organizational-technical systems): Monograph]. Krasnodar, KubGAU Publ., 2002. 605 p.

Shennon K. Raboty po teorii informatsii i kibernetike [Work on information theory and cybernetics]. Moscow, Inostr. lit. Publ., 1963. 830 p.

Vol'kenshtein M. V. Entropiia i informatsiia [Entropy and information]. Moscow, Nauka Publ., 2006. 192 p.

V. Ya. Tsvetkov, N.V. Azarenkova. Entropy in corporate information systems. European Researcher, 2014, Vol.(70), no. 3-1, pp.

471-477.

Kudzh S.A., Tsvetkov V. Ia. Informatsionnyesoobshcheniia [Informational messages]. Moscow, MGTU MIREA, 2013. 142 p. Tsvetkov V.Ya. Information field. Life Science Journal, 2014, no. 11(5), pp. 551-55.

Liiv E. Kh. Infodinamika. Obobshchennaia entropiia i negentropiia. Elektronnaia biblioteka Gramotei [Infodynamics. Generalized entropy and negentropy. E-library Scholar]. 2010. Available at: http://www.gramotey.com/books/271133718619.htm (accessed 5 October 2014).

Bauer F., Gooz G. Informatika [Computer Science]. Moscow, Mir Publ., 1976. 486 p.

Il'in I.V., Petrov K.A., Trifonov L.A., i dr. Ontologiia modelirovaniia i proektirovaniia semanticheskikh informatsionnykh sistem i portalov [Ontology modeling and design of semantic information systems and portals]. Moscow, 2008. 254 p. Monakhov S.V., Savinykh V.P., Tsvetkov V.Ia. Metodologiia analiza i proektirovaniia slozhnykh informatsionnykh sistem» [Methodology for the analysis and design of complex information systems]. Moscow, Prosveshchenie, 2005. 264 p. Bolbakov R.G. Razvitie i primenenie metodov i algoritmov kognitivnoi semantiki v mul'timediinykh obrazovatel'nykh portal'nykh sistemakh: dis. ... kand. tekhn. nauk: 05.13.01 [Development and application ofmethods and algorithms for cognitive semantics in multimedia educational portal systems: Diss. ... PhD in Tech. Sciences: 05.13.01]. Moscow, MGTU MIREA, 2013. 185 p. Lutsenko E.V. Generalized coefficient of emergence Hartley as a quantitative measure ofthe synergistic effect of combining Bulanov in the system generalization of set theory. Politematicheskii setevoi elektronnyi nauchnyi zhurnal kubanskogo gosudarstvennogo agrarnogo universiteta - Multisubject network electronic scientific journal of the Kuban State Agrarian University. Krasnodar, Kubanskii gosudarstvennyi agrarnyi universitet, 2011. pp. 27-37 (in Russian).

Lutsenko E.V. Quantitative measure of the increasing emergence in the evolution of systems within systems theory, information). Politematicheskii setevoi elektronnyi nauchnyi zhurnal kubanskogo gosudarstvennogo agrarnogo universiteta - Multisubject network electronic scientific journal of the Kuban State Agrarian University. Krasnodar.: Kubanskii gosudarstvennyi agrarnyi universitet, 2006. pp. 1-20 (in Russian).

Tsvetkov V.Ya. Cognitive information models. Life Science Journal, 2014, no. 11(4), pp. 468-471.

Lutsenko E.V., Korzhakov V.E., Laptev V.N. Teoreticheskie osnovy i tekhnologiia primeneniia sistemno-kognitivnogo analiza v avtomatizirovannykh sistemakh obrabotki informatsii i upravleniia (ASOIU) (na primere ASU vuzom): Pod nauch. red. d.e.n., prof. E.V.Lutsenko. Monografiia (nauchnoe izdanie) [Theoretical bases and application technology system-cognitive analysis in the automated systems of information processing and management (ASIPM) (for example, ASM University): Under the scientific editorship by prof. E.V.Evilenko. Monograph (scientific publication)]. Maikop, AGU. 2008. 520 p.

Информация об авторе

Маркелов Владимир Михайлович

(Россия, Москва) Соискатель Московский государственный технический университет радиотехники, электроники и автоматики E-mail: [email protected]

Information about the author

Markelov Vladimir Mikhailovich

(Russia, Moscow) The applicant Moscow State Technical University of Radio Engineering, Electronics and Automation E-mail: [email protected]

i Надоели баннеры? Вы всегда можете отключить рекламу.