Научная статья на тему 'Об определении меры упорядоченности искусственных систем'

Об определении меры упорядоченности искусственных систем Текст научной статьи по специальности «Математика»

CC BY
223
67
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННАЯ СИСТЕМА / УПОРЯДОЧЕННОСТЬ / МЕРА / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ЭКСПЕРТНЫЕ СИСТЕМЫ / ЭКОНОМИКА / ТЕХНИКА / САМООРГАНИЗАЦИЯ / КРИТЕРИЙ ЭВОЛЮЦИИ / ИНТЕНСИВНОСТЬ / ЭНТРОПИЯ / ARTIFICAL SYSTEM / ORDERING / MEASURE / ARTIFICAL INTELLIGENCE / EXPERT SYSTEMS / ECONOMICS / TECHNOLOGIES / SELF-ORGANIZATION / THE EVOLUTION CRITERIA / INTENSITY / ENTROPY

Аннотация научной статьи по математике, автор научной работы — Федотов Владислав Харитонович

Рассмотрены проблемы выбора критериев оценки упорядоченности искусственных систем, которые можно использовать для конструирования интеллектуальных компонентов широкого класса информационных систем в экономике (планирование, прогнозирование), технике и др. В качестве меры упорядоченности предложена эвристическая функция интенсивности, построенная на аналогии с формализмом фундаментальных законов природы. Проведено ее сравнение с энтропийной мерой Шеннона, применяемой в теории информации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ABOUT THE DETERMINATION OF THE MEASURE OF ORDERING ARTIFICIAL SYSTEMS

The considered problems of the choice criteria of ordering artificial systems, which possible use for constructing intellectual component for broad classes information systems in economics (planning, prediction), technologies and others. As measures of ordering is offered heuristic function to intensities, built on analogies with formalism of the fundamental laws of the nature. Its compared with entropy measure by Shannon applicable in theories of information.

Текст научной работы на тему «Об определении меры упорядоченности искусственных систем»

В.Х. ФЕДОТОВ

ОБ ОПРЕДЕЛЕНИИ МЕРЫ УПОРЯДОЧЕННОСТИ ИСКУССТВЕННЫХ СИСТЕМ*

Ключевые слова: искусственная система, упорядоченность, мера, искусственный интеллект, экспертные системы, экономика, техника, самоорганизация, критерий эволюции, интенсивность, энтропия.

Рассмотрены проблемы выбора критериев оценки упорядоченности искусственных систем, которые можно использовать для конструирования интеллектуальных компонентов широкого класса информационных систем в экономике (планирование, прогнозирование), технике и др. В качестве меры упорядоченности предложена эвристическая функция интенсивности, построенная на аналогии с формализмом фундаментальных законов природы. Проведено ее сравнение с энтропийной мерой Шеннона, применяемой в теории информации.

V.Kh. FEDOTOV

ABOUT THE DETERMINATION OF THE MEASURE OF ORDERING ARTIFICIAL SYSTEMS

Key words: artifical system, ordering, measure, artifical intelligence, expert systems, economics, technologies, self-organization, the evolution criteria, intensity, entropy.

The considered problems of the choice criteria of ordering artificial systems, which possible use for constructing intellectual component for broad classes information systems in economics (planning, prediction), technologies and others. As measures of ordering is offered heuristic function to intensities, built on analogies with formalism of the fundamental laws of the nature.

Its compared with entropy measure by Shannon applicable in theories of information.

Важной проблемой при проектировании информационных систем поддержки принятия решений в экономике и технике является поиск адекватных мер оценки их упорядоченности. Применяемое в теории информации понятие энтропии предполагает знание функций распределения случайных величин, которые априори не известны. Целью работы является поиск эвристических критериев и адекватных мер оценки упорядоченности искусственных систем (ИС) на основе аналогий между фундаментальными законами природы. Физико-эвристический подход позволяет сформулировать важнейшие эвристические гипотезы для баз знаний интеллектуальных экспертных систем широкого назначения (экономика, техника и др.).

Законы материи и движения отражают фундаментальные свойства природы и общества и опираются на статистические гипотезы (законы сохранения, всемирного тяготения, больших чисел, действующих масс и др.). Принципы эволюции в философии выражает диалектика (законы движения природы и общества), в физике - термодинамика, в биологии - теория эволюции и т.д.

Молекулярно-кинетическая теория. Основана на гипотезах: 1) материя состоит из элементарных объектов; 2) объекты находятся в непрерывном хаотическом (тепловом) движении. В результате их взаимодействия возникают качественно новые свойства, не сводимые к простой сумме механических.

Открытые системы. Открытые системы обмениваются с внешней средой материей и энергией. Замкнутые системы - только энергией. Системы без обмена называют изолированными.

Первое начало термодинамики. Основная гипотеза естествознания -закон сохранения энергии (материи, количества движения). В природе различные формы движения непрерывно превращается друг в друга, но общее количество движения в замкнутой системе остается постоянным.

* Работа выполнена при финансовой поддержке РФФИ проект № 08-07-97009 р_поволжье_а «Исследование и оптимизация подходов к разработке масштабируемых, настраиваемых и адаптивных прикладных производственных информационных систем».

Второе начало термодинамики. В замкнутой системе энтропия S со временем растет dS>0, достигая максимума в равновесии dSeq=0. В открытой системе изменение энтропии dS=deS+diS, где deS - поток внешней энтропии (обмен энергией); dS - производство энтропии внутри системы (диффузия, реакции). В закрытых системах deS=0, dS=d/S>0. В открытых системах deS^0 и dS может иметь любой знак. В стационарном состоянии (с.с.) dS=0 и deS=-diS<0 [2].

Третье начало термодинамики. Связывает энтропию с числом состояний замкнутой системы S=klnro>0, где k - константа Больцмана; ю>1 - число состояний.

Принцип минимума производства энтропии. В линейных системах производство энтропии P=diS/dt монотонно убывает dP/dt2<0 и достигает минимума в с.с.

Критерий эволюции обобщает принцип минимума на нелинейные системы. В ходе эволюции любая система стремится уменьшить производство энтропии d^/dt^, обусловленное внутренними силами Х, здесь dP/dt=dxP/dt+d|P/dt. При этом не оговаривается знак dIP/dt. В линейной области dxP=d|P и критерий переходит в принцип минимума. Вне линейной области dP/dt может менять знак. Рост упорядоченности возможен тогда, когда избыточное производство энтропии становится отрицательным dIP/dt~d(52S)/dt<0.

Закон больших чисел. Основан на гипотезах: 1) вероятность p появления истинного события в n испытаниях одинакова; 2) испытания независимы. Вероятность сложного события (при n испытаниях событие наступит k раз) Pnk=Cnkpk(1-p)n-k, где Cnk - число сочетаний из n по k, [4].

Закон действующих масс (ЗДМ). Скорость химического превращения nА+mВ^• определяется гипотезой r=oAnBm, где: ю - вероятность; A, B - концентрации; n, m - число молекул. Чтобы оно произошло, нужны подходящие условия. Какие именно - достоверно неизвестно.

Заметим, что между формальной записью ряда законов природы существует аналогия, выражающаяся в том, что уровень взаимодействия объектов (зависимая величина) в первом приближении определяется взвешенным произведением нескольких существенных факторов (независимые величины). Назовем эту закономерность принципом взвешенной пропорциональности. Он дает простое эвристическое правило количественной оценки - «интенсивность» процесса пропорциональна некоторой «весовой» функции от объектов, участвующих в данном процессе. Вид функции «интенсивности» может быть различным и зависит от меры, метрики, системы координат и т.д.

Далее под мерой будем понимать любую единицу измерения количественных и качественных характеристик объектов, а под метрикой - правила измерения «расстояния» между ними. Приведем для сравнения известные определения [5].

Мера является обобщением понятия длины (площади и т.д.), соответствующим распределению элементов множества (концентрации) в некотором пространстве. Метрика на множестве Х - это функция p(x,y)>0, определенная на ХхХ и удовлетворяющая при любых х,уеХ гипотезам: 1) p(x,y)=0 x=y (ак-

сиома тождества); 2) p(x,y)+p(y,z) > p(x,z) (неравенство треугольника); 3) p(x,y) = p(x,y) (аксиома симметрии).

Пример. Евклидова метрика р(x,y)=Z(xi-y)1/2 задана на Rn. Пара {Rn,p} образует метрическое пространство. Здесь xi ,y,eRn- множество действительных чисел.

Фундаментальными мерами в теории информации являются количество информации и энтропия [3,6]. Энтропия дискретной системы определяется выражением

H(p) = -kHpi log p, (1)

где k - константа (примем k=1); p, - вероятность i-го состояния (Zp/=1); i=1 n -

номер состояния; n - число различных состояний. Для непрерывных систем H = -LM+“ p(x) log p(x)dx, где p(x) - плотность вероятности. Функция H получена К. Шенноном (1948) исходя из требований: 1) непрерывность по р; 2) монотонное возрастание по n при pj=1/n; 3) если выбор распадается на два последовательных выбора, то первоначальная Н должна быть взвешенной суммой индивидуальных значений Н. Отметим, что логарифмическая мера количества информации была введена Р. Хартли [7] еще в 1928 г.

Свойства энтропии. 1) Если одно из состояний достоверно, а другие невозможны, то энтропия достигает минимума Hmin=0; 2) Если все состояния равновероятны, то энтропия максимальна Hmax=logn; 3) С ростом числа состояний энтропия растет; 4) При объединении независимых систем их энтропии складываются; 5) При объединении зависимых систем энтропия становится меньше суммы энтропий частей.

Из свойств энтропии следует, что уменьшить энтропию (увеличить порядок) можно тремя способами: 1) разбалансирование вероятностей (флуктуации); 2) уменьшение числа состояний (пространственные ограничения); 3) увеличение числа зависимых подсистем (неоднородности).

В природе существует единство дискретного и непрерывного. Повышение сложности дискретной системы можно ассоциировать с предельным переходом к непрерывности. Непрерывная система асимптотически подобна сложной дискретной системе. Принцип взвешенной пропорциональности позволяет выбрать в качестве меры упорядоченности искусственной системы как физические (уменьшение производства энтропии, снижение скорости процесса и др.), так и эвристические функции интенсивности. В качестве критериев для конструирования эвристической функции интенсивности выберем следующие: 1) физичность (соответствие законам природы); 2) принцип взвешенной пропорциональности; 3) связь с известными мерами упорядоченности (энтропия, количество информации); 4) нелинейность; 5) возможность существования неустойчивости.

Мультипликативные функции. Возьмем за основу меры упорядоченности мультипликативные функции интенсивности вида (в Евклидовой метрике)

F(x,a) = ШхГ - knn - kiF(n), (2)

где k, - константы (без нарушения общности можно считать k, =1); x=(x) - вектор независимых переменных 0<x<1; a=(ai)>0 - вектор независимых параметров; ц-х?; i=1,...,n (n>1).

Примечание. Отметим, что в формальной записи законов природы вектор а может содержать и отрицательные компоненты. Пример: 1) Закон всемирного тяготения F=m1m2r2, где m1,m2 - массы; r- расстояние. Однако замена переменной d=1/r позволяет представить его в виде F=m1m2d2.

Свойства функции F. Отметим, что F(n)=F(x,1) и является частным случаем F(x,a).

1) Функция F ограничена сверху и снизу 0< F(x,a)<1. Если одно из х—0, то F—Fmin=0. Если все х,—>-1, то F—Fmax=1. С ростом размерности системы n функция F убывает.

2) Монотонно возрастает, выпукла вниз и не имеет перегибов. Fx- dF/dxj= a/x^ aj/XjF>0, Fx{2)- d2F/dx2= a/ar1)/x/F>0, ..., Fx(n)=(a;l)/x;nF>0.

3) Средние значения. Если все x=1/n, то Feq=n(1/n)ai= nHai < 1.

На рис.1.1 приведен вид функции F для n=2 при увеличении компонент вектора a (горизонтальные оси - компоненты вектора х, вертикальная ось - F, масштаб делений =0,1).

Аддитивные функции. Логарифмируя (2) получим аддитивные функции интенсивности (логарифмическая метрика)

I(x,a) - -lnF = - ln(nx/ai) = -Ha, lnx - Zap/ - I(p,a), (3)

здесь pi-ln(1/xi)>1, x^0. Учитывая, что I(p,a) - билинейная функция, рассмотрим свойства I(x,a).

1) Функция I ограничена снизу 0< I(x,a), но не ограничена сверху. С ростом размерности n функция I растет. Если все х—1, то I—Im/n=0. Если одно из X/——0, то I—— Imax=^.

2) Монотонно убывает, выпукла вниз и не имеет перегибов. Ix - dI/dXj =-aj/xj<0, IX(2)-d2I/dx/2=aj/x/>0, ..., Ix(n)=(-1)n(n-1)la//х/.

3) Средние значения. Если все х,=1/п, то Ieq= -Za/ ln(1/n) = lnnHa/ > 0.

Сбалансированные функции. Сложные системы характеризуются наличием неоднородных подсистем и законов сохранения (сбалансированность), которых может быть несколько. Предположим, что в системе существует хотя бы одна подсистема и один закон сохранения

Zx=1, /=1,...,n. (4)

Исключим любую переменную, например xn=1-Zx, i=1,...,n-1 (n>1), пони-

зим размерность функции интенсивности. Ее область изменения «сократится» с n-мерного куба до (n-^-мерного симлекса 0<х<1, Zx<1. Соотношения (2),(3) примут вид

F* - Xn annx? = (1 -Zx) annxa , (2*)

I*- - anln(1 -Zx) -Ha/lnx/ = anPn +Za/Pi , (3*)

Свойства функции F*.

F1) Функция F* ограничена сверху и снизу F*min < F*<F*max. С ростом n функция F* убывает.

F2) Не монотонна, выпукла вверх, имеет n граничных минимумов, один внутренний максимум и два перегиба. F*X=(aj/X/-an/xn)F*=0 при xk =0 или xk = (ak/aj)Xj= ak/Ha/; F*X'2)= [(a/xran/xn)2 -/ +an/Xn2)]F* = 0 при Xk=

[akaj±slakaj(ak+aj-1)]Xj/(aj(aj-1)) = ak(ak-1))/Z[akai±Vaka,(ak+ai-1)].

F3) Минимумы граничные F*m/n= F*(0)= 0. Максимум внутренний F*max= F*(x)= na/a//(Za/)a/< 1.

F1) Средние значения. Если все x=1/n, то функция F*eq=1/nHai.

Свойства функции I*.

11) Функция I* ограничена только снизу I*min < I*. С ростом n функция I* возрастает.

12) Немонотонна, выпукла вниз, имеет один внутренний минимум, не имеет перегибов. I*x= -a/x+an/xn = 0 при xk = (ak/aj)Xj= ak/Zay; Ix(2)= aj/xj2+an/xn2 > 0, ...,

Ix(n)= (n-1)l[(-1)n (aj/Xjn)+an/Xnn].

13) Минимум внутренний. I*min = I*(X) = - Ha/ ln(ai/Zaj) > 0.

14) Средние значения. Если все x=1/n, то функция I*eq= Ha/lnn.

Закон сохранения (4) позволяет связать сбалансированные функции с энтропией

I*(x/, x/) = -lnF*(x/, xi) = -Hx ln x = H(x). (5)

Энтропия является их частным случаем. Уменьшению энтропии соответствует уменьшение I* или увеличение F*, что возможно за счет: 1) отклонения компонент вектора хот среднего значения 1/n в сторону верхней границы (раз-балансирование); 2) уменьшения компонент вектора a (весов); 3) уменьшения размерности n системы (сложности). Иллюстрации приведены на рис. 1.

0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Рис. 1. Сбалансированные функции интенсивности:

1) Р*=х1а1х0а0, п=2, а1=а2=1 (сплошная); а1=1.3, а2=0.3 (пунктир);

2) Р*=х-|а1х2а2х0а , п=3,а1=а2=а3=1 (нижняя); а1=а2=1, а3=0.5 (верхняя);

3) /*=-(а1!пх1+а2!пх2), п=2, а1=а2=1 (сплошная); а1=1, а2=0.5 (пунктир); а1=х1, а2=х2 (нижняя, энтропия). 4) /*=-(а1!пх1+а2!пх2+а0!пх0), п=3, а1=а2=а3=1 (верхняя); а1=а2=а3=0.4 (средняя); а1=х1,а2=х2;а3= х3 (нижняя, энтропия).

Энтропия систем с двумя и тремя неравновероятными состояниями показана на рис. 1.3 (нижняя линия) и 1.4 (нижняя поверхность). Как видно, сбалансированные функции также разнонаправленны, но Р* выпукла вверх подобно энтропии.

Вычисление энтропии предполагает знание, вообще говоря, неизвестных функций распределения. Выберем в качестве аналога такой функции сбалансированную функцию интенсивности Р*, предварительно приняв несколько эволюционных гипотез. Предположим, что вектор х зависит от времени х=х(0 и описывает эволюцию некоторой динамической системы:

dxj/dt = f, (х, а, №) , х(^) = х0, (6)

где 0<х;<1 - концентрации (плотности) объектов, Ех;=1,/=1,...,п; w=w(E,t) - вектор параметров, влияющих на интенсивность процессов в системе; f=f(F*(x,a),w) - вектор от функции интенсивности; t - время; х0 - начальные условия.

Определим правила формирования функции f. Для этого представим сложный процесс в виде ряда стадий взаимодействия (этапов эволюции) объектов X, каждый из которых определяется сбалансированной функцией интенсивности

Т,а/Х/ ^ Т,а-/X/ , /=1,...,5;/=1,...,п+1, (7)

где а, а_->0 - число объектов /, участвующих в стадии / (матрица процесса), удовлетворяющая постадийным балансовым соотношениям 2а//=2а->0; / - номер стадии; 5>л+1 - число стадий. Матрица процесса описывает процессы рождения и гибели объектов системы. При а--а/,>0 число объектов / в стадии / возрастает (положительная эволюция), при а-/-а//<0 убывает (отрицательная эво-

люция), а при а--а =0 не изменяется (нейтральная эволюция). Тогда (6) с учетом суммарной интенсивности сложного процесса по всем стадиям примет вид dxj/dt — / ^ — 2(а_// - а//)Р/ ;/=1,...,п+1, /—1,..., 5, (8)

где F,^wiFi—w,ПjXJaij - стадийные функции интенсивности, связанные с общей интенсивностью F*=П/W/F/=wПJXjaj; а/ — Е, а/ w=П/W/, здесь ^ - стадийные коэффициенты интенсивности.

Из сбалансированности функции интенсивности следует, что в любой момент времени

Еdx/dt=0; 7=1,...,л+1. (9)

Поэтому одно любое из уравнений (8) является зависимым и его можно

исключить, понизив размерность системы на единицу.

Устойчивость системы (8) в линейном («грубом») приближении будет определяться п нетривиальными корнями характеристического уравнения [4]

Хл+СТ1Хп-1 + ...+стп=0. (10)

Если все корни имеют отрицательные действительные части РеХ,<0 при любых значениях параметров, то система остается устойчивой. Если при некоторых значениях параметров действительная часть хотя бы одного корня положительна РеХ,>0, то в этой области система теряет устойчивость. Пограничное состояние соответствует появлению пары чисто мнимых корней РеХ(=0 и требует дополнительных нелинейных («негрубых») исследований.

В общем случае для систем высокой размерности непосредственное определение корней (10) невозможно. Выполним косвенный анализ на основе его коэффициентов. Для устойчивости (РеХ/<0) необходимо и достаточно, чтобы выполнялось п неравенств Рауса-Гурвица [4]:

ст1>0, а1ст2 - а3>0, а3(ст1ст2 - а3)>0, а4[а3 (а1ст2 - ст3) -ст4ст12]>0, ... (11)

где

ар— Еi1< <ipdet(—дfiplдxiq); p, С) (12)

здесь det - определитель;д/)р1дх/С - частные производные.

Из (2*),(8) и свойств функции Р* следует, что

дfllдXk — Е(а-- aj)(a,klXk-a,nlXn)F, = Jjk;/, к—1,...,п. (13)

Подставляя соотношения (13) в (12), получим выражение коэффициентов характеристического уравнения через параметры сбалансированной мультипликативной функции интенсивности

2а1= (-1) ЕjJjj Е/Е/(а-- aij)(aijlXj—ainlXn)Fi , (12)

а2— (-1)2Е/1<у2 Jj1,k1Jj2,k2 — Е/1</2Е, [(а-71 - a,j1)(a,j1ІXj1-a/nlXn)F,] х хЕl[(a—j2 - а, ^ха^^-атх) Р,].

а3— (-1) Е/1</2</3 Jj1,k1Jj2,k2 Jj3,k3, ■■■, аn—

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(-1)ndet(J,p,,q) — (-1)%<...<р Jj1,k1Jj2,k2,■■■, ^п/п.

Критерий (11) с учетом (12') примет вид

0>Е^Л , Е/1</2</3 Jj1,k1Jj2,k2 Jj3,k3>ЕjJjj Е /1</2 Jj1,k1 Jj2,k2, (14)

Е/1</2</3 Jj1,k1 Jj2,k2 Jj3,kз(Е/1</2</3 Jj1,k1Jj2,k2 Jj3.k3-Е/1</2</3 Jj1,k1Jj2,k2 Jj3.kз) > 0,

Е/1</2</3 Jj1<j4,k1JJ2,k2 JJ3,k3 /1</2</3 ^1,^/2^ JJ3,k3([Е/1</2</3 Jj1,k1j JJ2,k2 JJ3,k3-

-Е/1</2</3 Jj1,k1 Jj2,k2 Jj3,kз) + Е/1</2</3 Jj1<j4,k1Jj2,k2 Jj3,k3 Jj4,k4(ЕjJjj) )] >0, ...

Критерий устойчивости. Соотношения (14) позволяют однозначно определить устойчивость системы (8) в исследуемой области параметров без вычисления корней характеристического уравнения. Выполнение всех условий (14) является критерием устойчивости целого класса сложных систем, эволюция которых описывается сбалансированными мультипликативными функциями интенсивности. Невыполнение любого из них является критерием неустойчивости.

Критерий Льенара-Шипара [4] сокращает условия Рауса-Гурвица, опуская каждое второе

0>ЕУ// , Е/1</2</3 Jj1,k1 J/2,k2 Jj3,kз(Е/1</2</3 Jj1,k1Jj2,k2 Jj3,k3-Е/1</2</3 Jj1,k1Jj2,k2 Jj3,k3) > 0, ... (14')

Из критериев Рауса-Гурвица и Льенара-Шипара следует, что в области устойчивости все коэффициенты ар>0. В области, где хотя бы одно из ар<0 (с четными или нечетными индексами), устойчивость нарушается. В области с одним из ар—0 требуется более тонкий (нелинейный) анализ. Это позволяет записать еще две (слабую и сильную) формулировки критерия.

Необходимое условие устойчивости. Для устойчивости системы (8) необходимо (но не достаточно) выполнение условий

-ЕjJjj>0, Е/1</2 Jj1,k1 Jj2,k2 >0, -Е/1</2</3 Jj1,k1Jj2,k2 Jj3,k3>

>0, Е/1</2</3 Jj1<j4,k1 Jj2,k2 Jj3,k3 Jj4,k4>0, . (15)

Достаточное условие неустойчивости. Для неустойчивости системы (8) достаточно, чтобы хотя бы одно из половины условий (15), выбранных через одно, начиная с первого или второго, не выполнялось (неустойчивость возможна и при менее жестких требованиях).

В частных случаях для систем невысокой размерности (п<4) и некоторых классов многомерных систем (квазилинейных) можно получить и более простые критерии устойчивости.

В исследуемой области параметров может существовать несколько стационарных состояний (с.с.). Эти состояния могут быть точками или иметь более высокую размерность (линии, поверхности и т.д.). В с.с. процессы рождения и гибели каждого объекта уравновешиваются

Еа р “—Еа-, /—1........п+1. (16)

С учетом (16) характеристические коэффициенты (12) в с.с. можно записать в виде [1]

ар “— Е,1<...<,р(х,Л~х,рТ1 Еk1<...<kpFkЛ••Fkp“Л,1...,p, к1.кр, (17)

где

Л/1.../р, К1.Кр= det(akp,/p - a-kp,ip) det(akp,/p), !р —1,2,---,П; 1^р —1,2,...,5. (18)

Из (17)-(18) следует, что коэффициенты ар могут менять знак только за счет величины Л,1.,р, К1.Кр, вычисляемой как произведение двух определителей, зависящих от матрицы процесса. Если все Л/1/р, К1.Кр>0, то соответствующий ар также положителен при любых значениях параметров. Если хотя бы один из Л,1.,р, k1.kp<0 при некоторых значениях индексов, то в некоторой области параметров возможно наличие с.с., в котором ар <0.

Соотношения (11),(17) позволяют однозначно определить устойчивость самих стационарных состояний системы (8) и справедливы только в их малой окрестности. Если все условия (11),(17) выполняются, то с.с. устойчиво и наоборот. Невыполнение любого из них однозначно идентифицирует неустойчивость с.с. С учетом (17)-(18) также можно перефразировать необходимое условие устойчивости и достаточное условие неустойчивости применительно к с.с.

Достаточное условие абсолютной неустойчивости (самоорганизации). Назовем систему абсолютно неустойчивой, если в некоторой области параметров все с.с. и границы неустойчивы, т.е. для каждого т—1,...,М (М -число с.с.) существует хотя бы одно рП]—1,.,п такое, что

ар,т — Е/1,т <..</р,т (х/1 ,т •••х/р,т ”) Ек1 ,т <...<kp,m р^,т •••Fkp,m Л/1.../p,m, k1...kp,m

<0. (19)

Абсолютная неустойчивость гарантирует переход системы в качественно новый режим незатухающих колебаний (самоорганизация). Сложность колебаний определяется числом и типом неустойчивостей (регулярные, многопериодические, квазипериодические, стохастические).

Модель (6)-(9) позволяет определить производные понятия «производства интенсивности» dFldt и «перепроизводства интенсивности» d2Fldt2 по аналогии с энтропией и вычислить их

dFldt= FЕj(ajlXJ—anlXn)f / = РЕ/Л//, /—1,. ,п-1. (20)

сГР/с^ Р[Е/(л/i2-Еj(aJІXj2-anlXn2)fj2 + Е/л//Е/(а-у-aij)(aijlXj-ainlXn)Р,], /—1,...5. (21) Для практической реализации этих критериев и соотношений требуется задать: 1) число независимых объектов п; 2) число этапов эволюции 5; 3) матрицу процесса а / размером пх5.

а) w1—1, w2—2 Ь) w1—2, w2—1

3| 1 1 1 1 1

• • • 2- -* * * 1 1 1 1

1 1 1 1

0.5 0і 1 0 *— 1 1 1 1

1 1 1 1 1 1 3 4 9 10

с) щ=2, М2=1

Рис. 2.1. Квадратичный триггер. Нестационарный портрет. Область устойчивости (х10—0.1): сплошная х-^); точки ст-|(0— -d2x1ldf2

Рис. 2.2. Интенсивность. Штрих-пунктир ^(^^(^-Г^) (суммарная интенсивность), сплошная бПМ (производство интенсивности), сплошная с маркерами С2Р/С? (перепроизводство интенсивности)

Пример 1. Рассмотрим несложный процесс, заданный параметрами п—1, 5—2 и матрицей а1/ — (01, 10), а2/ — (11, 02). Ему соответствует двухстадийная схема эволюции двух объектов, связанных законом сохранения (квадратичный триггер) 1) 0Х1+1Х2^-1Х'1+0Х2, 2) 1-Х1+1-Х2^-0-Х1+2-Х2. Стадийные функции интенсивности равны F1—w1x2 (положительная эволюция), Р2—w2x1x2 (отрицательная эволюция). В пространстве параметров область неустойчивости определяется критерием а1—F1lx2+F2lx1-F2lX2—w1+w2x2-w2x1<0 и реализуется при x1>(w1+w2)l2w2. Если w1—1, w1—2, то при начальных условиях х10<3!4 система начинает движение из области устойчивости (рис. 2), а при х10>3!4 - из области неустойчивости (рис. 3).

Равенства (16) запишутся Р1—Р2 и Р1+Р2—2Р2. Отсюда с учетом баланса w1x2—w2(1-x2)x2 определяются координаты двух точечных с.с.: х2—0, х1—1 (граничное) и х2—^2 ^)^2, х1—w1lw2 (внутреннее) при w1<w2 (условия физичности). Выражение (17) примет вид а1 — Е/1(x/1)-1Еk1Fk1Л/1,k1 — Р11х1—Р21х1—w1+w2x2-w2x1. В граничном с.с. а1—w2-w1>0, а во внутреннем а1—w2-w1<0. Значит, в случае общего положения w1^w2 критерий устойчивости выполняется только во внутреннем с.с., а граничное с.с. неустойчиво. При w1>w2 внутреннее с.с. становится отрицательным, а граничное - устойчивым. При w1—w2 оба с.с. совпадают, а1—0 и требуется дополнительный анализ.

На рис. 2.1 плотность Х1 со временем х-|(/) монотонно растет, а величина а1(/), имеющая смысл второй производной с обратным знаком, монотонно убывает, но остается положительной и достигает минимума а1—w2-w1 в с.с. На рис. 2.2 приведены нестационарные характеристики интенсивности. Видно, что суммарная интенсивность монотонно убывает, а ее производство становится отрицательным. Перепроизводство и производство интенсивности разнонаправленны.

На рис. 3 показаны соответствующие зависимости при движении из области неустойчивости.

а) иЛ|—1, и/2—2 Ь) иЛ|—2, и/2—1

с) щ—2, и/2—1

Область неустойчивости х10—0.9: х-^) - сплошная линия; а-|(0 - точки

Рис. 3.2. Интенсивность. Штрих-пунктир ^Щ—Р^-Р^) (суммарная интенсивность), сплошная dFldt (производство интенсивности), сплошная с маркерами d2Fldf2 (перепроизводство интенсивности)

На рис. 3.1 видно, что в области неустойчивости величина а-|(0 становится отрицательной, затем возрастает до положительного максимума а-Г—№2^1 в с.с. При этом производство интенсивности остается положительным, но проходит через максимум, а перепроизводство интенсивности становится отрицательным и остается таковым до стационара (рис. 3.2). Функция интенсивности позволяет определить распределение объектов в системе в любой момент времени и вычислить классическую нестационарную энтропию Шеннона-Хартли. На рис. 3.3 видно, что в области неустойчивости нестационарный избыток производства энтропии также отрицателен.

Нестационарные режимы характеризуется временем релаксации т, которое в первом приближении т-Иа-^—И^^). Время релаксации для случаев общего положения (рис. 3,а,е) т«4. С ростом wi время релаксации падает, а с уменьшением - растет. Для вырожденного случая (рис. 3,с) а1^0 и наблюдается резкое увеличение т в 10 и более раз (медленная релаксация). Отметим, что медленные релаксации соответствуют увеличению неравновесного времени жизни системы, т.е. являются своеобразным аналогом неустойчивости и их можно рассматривать как критерий долголетия («вечной молодости», «эликсир бессмертия» и т.д.).

Таким образом, эвристические критерии для оценки упорядоченности искусственных систем могут быть сконструированы на основе аналогий между фундаментальными законами природы. Мультипликативные сбалансированные функции интенсивности обладают свойствами, подобными энтропии и могут быть использованы для анализа возможных вариантов эволюции искусственной системы. С их помощью можно решать следующие задачи: 1) определение нестационарного распределения объектов в сложной динамической системе с заданной структурой; 2) оценка меры ее упорядоченности; 3) анализ устойчивости; 4) вычисление классической энтропии Шеннона-Хартли, в том числе нестационарной; 5) моделирование источника информации о неизвестных параметрах системы (распределения плотности вероятности и др.).

Физико-эвристический подход позволяет сформулировать основные гипотезы для баз знаний систем искусственного интеллекта и нового поколения информационных систем, применяемых в технике (роботы и др.) и экономике (планирование, прогнозирование, аудит и др.). Такие гипотезы должны обладать наивысшим приоритетом и размещаться в базе правил верхних уровней (макроправил). Наряду с ними там же целесообразно разместить правила выбора макроскопических характеристик системы (открытость, однородность и др.). Возможная структура эвристической базы знаний следующая: 1) критерии эволюции (правила принятия стратегических решений); 2) основная база знаний (описание предметной области на языке представления знаний); 3) алгебра знаний (формальные правила обработки базы знаний); 4) система согласования критериев эволюции и правил обработки; 5) система принятия решений.

Важной проблемой остается задача построения формализма самих искусственных систем, для решения которой в данном случае использовался метод представления сложной системы последовательностью стадий эволюции ее объектов.

Литература

1. Алексеев Б.В. Стехиометрические условия неустойчивости каталитических процессов l Б.В. Алексеев, В.Х. Федотов, Н.И. Кольцов Н ДАН СССР. 1989. Т. 306. № 4. С. 884-888.

2. Гленсдорф П. Термодинамическая теория структуры, устойчивости и флуктуаций ! П. Гленс-дорф, И. Пригожин. М.: Мир, 1973.

3. Колмогоров А.Н. Теория информации и теория алгоритмов ! А.Н. Колмогоров. М.: Наука, 1987.

4. Корн Г. Справочник по математике для научных работников и инженеров ! Г. Корн, Т. Корн. М.: Наука, 1978.

5. Математическая энциклопедия. М.: Советская энциклопедия, 1977-1984. Т. 1-5.

6. Хартли Р.В.Л. Теория информации и ее приложения ! Р.В.Л. Хартли. М.: Физматгиз, 1959.

7. Шеннон К. Работы по теории информации и кибернетике ! К. Шеннон. М.: Изд-во иностр. лит., 1963.

ФЕДОТОВ ВЛАДИСЛАВ ХАРИТОНОВИЧ - кандидат химических наук, доцент кафедры информационных систем экономического факультета, Чувашский государственный университет, Россия, Чебоксары ([email protected]).

FEDOTOV VLADISLAV KHARITONOVICH - candidate of chemical sciences, assistant professor, Chuvash State University, Russia, Cheboksary.

i Надоели баннеры? Вы всегда можете отключить рекламу.