Научная статья на тему 'Интегрированные системы идентификации с учетом априорной информации'

Интегрированные системы идентификации с учетом априорной информации Текст научной статьи по специальности «Математика»

CC BY
617
87
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНТЕГРИРОВАННЫЕ СИСТЕМЫ ИДЕНТИФИКАЦИИ / ВЫБОР СТРУКТУРЫ СИСТЕМЫ / ОПТИМИЗАЦИЯ РЕШЕНИЙ ПРИКЛАДНЫХ ЗАДАЧ

Аннотация научной статьи по математике, автор научной работы — Кориков Анатолий Михайлович, Сергеев Виктор Леонидович

Рассмотрены теоретические основы интегрированных систем идентификации. Приводятся математические модели исследуемых объектов идентификации и модели объектов-аналогов, представляющие дополнительные априорные данные, накопленный опыт и знания. Дана классификация интегрированных систем моделей, обоснована структура интегрированных систем идентификации.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Кориков Анатолий Михайлович, Сергеев Виктор Леонидович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Интегрированные системы идентификации с учетом априорной информации»

УДК 519.71+517.977.5

ИНТЕГРИРОВАННЫЕ СИСТЕМЫ ИДЕНТИФИКАЦИИ С УЧЕТОМ АПРИОРНОЙ ИНФОРМАЦИИ

А.М. Кориков, В.Л. Сергеев

Рассмотрены теоретические основы интегрированных систем идентификации. Приводятся математические модели исследуемых объектов идентификации и модели объектов-аналогов, представляющие дополнительные априорные данные, накопленный опыт и знания. Дана классификация интегрированных систем моделей, обоснована структура интегрированных систем идентификации.

Развитие теории идентификации

Теория идентификации как самостоятельное научное направление имеет полувековую историю развития: вначале идентификация систем развивалась в рамках кибернетики - науки об управлении сложными динамическими системами, а в настоящее время идентификация систем рассматривается как необходимая и обязательная подсистема теории управления [1]. С 28 по 30 января 2004 г. проведена III международная конференция «Идентификация систем и задачи управления» (SICPR0'04) [2], на которой проблемы идентификации и управления обсуждались в контексте всей познавательной человеческой деятельности по решению актуальных прикладных задач. Предполагается, что с 2004 г. конференции SICPRO будут проводиться ежегодно и превратятся в «одно из наиболее популярных мест встречи специалистов из разных областей науки управления» [2].

Возникает естественный вопрос: в чем причина полувекового интереса к проблемам идентификации ? При этом в последние годы наблюдается постоянное увеличение числа публикуемых работ по проблемам идентификации как в классическом направлении [3, 4], так и в направлении развития новых подходов к решению проблем идентификации и управления [5-8]. Чтобы получить ответ на поставленный вопрос, обратимся к истории развития методов идентификации систем.

Задачей идентификации системы, или просто идентификации, является построение оптимальной в смысле заданных критериев качества математической модели этой системы, учитывающей случайность наблюдений, по результатам измерений входных и выходных переменных, т.е. построение формализованного математического представления системы.

Задачи идентификации принято различать в узком и широком смысле. В узком смысле задача идентификации состоит в оценивании параметров и состояния системы по результатам наблюдений над входными и выходными переменными. При этом известна структура системы и задан класс моделей, к которому данная система относится.

При идентификации в широком смысле решаются такие задачи, как выбор структуры системы и задание класса моделей, оценивание степени стационарности и линейности системы, выбор информативных переменных и т.д.

Разработанные в 50-70 гг. XX века методы идентификации, как в узком, так и в широком смысле, основаны на методах математической статистики, теории статистических решений, математических методах оптимизации. В настоящее время широко известны классические методы идентификации: наименьших квадратов, максимального правдоподобия, стохастической аппроксимации [9-15].

Разработаны также методы идентификации в условиях непараметрической априорной неопределенности, когда исследователь располагает лишь общими сведениями о структуре моделей объектов, такими как ограниченность функций, их гладкость, существование производных и т.д. [16, 17].

Использование классических методов идентификации при решении практических задач часто связано с проблемой устойчивости решений. Действительно, в реальных условиях функционирования стохастических объектов исходная информация о модели объекта, статистических характеристиках помех, как правило, неточная, и в распоряжении исследователя имеется ограниченный набор экспериментальных данных, заданный в виде одной ограниченной реализации процесса. При таких условиях отмеченные выше классические методы идентификации часто оказываются неустойчивыми и неработоспособными.

В этой связи в 60-90 гг. XX века интенсивное развитие получили методы устойчивого (ро-бастного) оценивания и идентификации систем, основанные на использовании различной дополнительной априорной информации о решении, статистических характеристиках помех и т.п. Наиболее известные устойчивые (стабильные) алгоритмы идентификации сводятся, по существу, к вероятностно-статистическим методам (Байеса, максимума апостериорной вероятности и т.п.), методам решения некорректных задач Тихонова, методам условной оптимизации при наличии ограничений [18-20].

В процессе идентификации создаются модели, необходимые для практического использования математических методов и современных компьютерных технологий. В силу исключительной важности именно проблемы идентификации в настоящее время становятся «узким местом» при проектировании наукоемких систем с управлением. В современных условиях [1, 2] теория идентификации развивается на основе учета человеческого фактора в нормативных (предписывающих) моделях идентификации и признания решающей роли неформальных действий лица, принимающего решения (ЛПР) в процессе идентификации. Чтобы ЛПР успешно решало прикладные задачи в обстановке жестких ограничений на время поиска приемлемого решения, ему необходима информационная поддержка на всех этапах идентификации. В [1, 5] предлагается обсуждать проблемы идентификации в рамках двухэтапной модели процесса решения прикладной задачи теории управления: на 1-м этапе разрабатывается адекватная постановка (модель) прикладной задачи, а на 2-м - осуществляется решение прикладной задачи при известной адекватной постановке.

Подавляющее большинство известных методов идентификации систем [3, 4, 9-20], формирующих основу классической теории идентификации, способно обеспечить информационную поддержку ЛПР на 2-м этапе решения прикладной задачи. Теория идентификации в классическом направлении продолжает активно развиваться, так как за прошедшие годы существенно

изменился масштаб прикладных задач, повысились требования к качеству решения и времени поиска приемлемого решения, появились новые компьютерные технологии. Развитие теории идентификации в классическом направлении постоянно стимулируется необходимостью оптимизации процесса решения прикладных задач [1, 2, 4].

На упомянутом выше 1-м этапе решения прикладной задачи наблюдается иная ситуация. Методы и средства, разработанные на основе классической теории идентификации, являются лишь вспомогательными для ЛПР, адекватная постановка решаемой прикладной задачи конструируется (разрабатывается), как правило, лишь на основе интуиции и жизненного опыта ЛПР и представляет собой неформальный итерационный процесс. В [5, 6] делается попытка формализации этого процесса. В наших работах [7, 8] предлагается осуществить формализацию интуиции и жизненного опыта ЛПР созданием сложных систем идентификации, основанных на использовании интегрированных моделей. Интегрированные модели и системы идентификации, состоящие из согласованных моделей компонентов, позволяют отображать целостные, системные свойства реальных объектов и существенно повышают качество процедур принятия решений. Важным компонентом интегрированной системы являются формализованные модели, учитывающие дополнительную априорную информацию, накопленный опыт и знания ЛПР. Интегрированные модели и системы идентификации обеспечивают решение актуальных задач [7, 8]: создание эффективных процедур учета разнородной дополнительной априорной информации; обеспечение устойчивости решения; повышение точности алгоритмов идентификации при малом объеме исходных данных; формализацию и учет накопленного опыта и знаний; создание системы согласованности исходных, дополнительных априорных данных, накопленного опыта и знаний; оптимизацию решений прикладных задач.

Изложение основ теории интегрированных систем идентификации (ИСИ) начнем с простых математических моделей (статических и динамических), затем рассмотрим модели дополнительной априорной информации (модели «объект-аналог»), а также классификацию ИСИ и их структуру.

Математические модели объектов идентификации

Объекты идентификации - технические, экономические или социальные системы, удобно формально представлять в виде многополюсника со многими входами и выходами [21], где через X = ( х1з х 2,..., хп) обозначены входы объекта, а через У = (у1з у2,..., ут) - реакции объекта на входные возмущения (рис. 1).

Доклады ТУСУРа. 2004 г. Автоматизированные системы обработки информации, управления и проектирования Рис . 1 - Представление объекта идентификации

Все входы объекта представляют собой воздействия внешней среды на объект и являются какими-то определенными функциями состояния среды и времени. Поскольку состояние среды никогда точно не известно, то входы и выходы объекта естественно рассматривать как случайные функции времени, статистические свойства которых в общем случае не известны.

Однако обычно известны наблюдения входа и выхода, т.е. реализация функций X*(t) и У ).

Объект связывает входы X * с его выходом У *. Эту связь формально можно охарактеризовать некоторым оператором Е0, таким, что

У * = Е()(X \ £) , (1)

где - неконтролируемые источники случайных возмущений.

Поэтому под моделью объекта естественно также понимать некоторый оператор Е , преобразующий наблюдаемое входное воздействие на объект X в его реакцию У = Е (X). При классическом подходе задача идентификации заключается в построении модельного оператора Е из некоторого класса операторов по наблюдениям X * и У *, который был бы близок к Е0 в смысле некоторого критерия оптимальности. Рассмотрим примеры видов операторов Е

и соответствующие данным видам модели, наиболее часто используемые при решении практических задач. Более детальные перечень и описания видов операторов и моделей объектов идентификации приведен в [3, 4, 9-13, 21].

Статические модели

1. Линейные детерминированные модели. Модель линейного статического объекта с п входами и т выходами описывается системой линейных алгебраических уравнений

т _

У =Т^аг1Х1, г = 1,п (2)

]=1

или в векторной форме У = AX, где У = (у1,у2,...,Уп) - вектор-столбец выходных переменных объекта в момент времени X = (х1з х2,..., хт )Т - вектор-столбец входных переменных объекта в момент времени А = (аг]-,г = 1, п, 1 = 1, т) - матрица коэффициентов.

Задача идентификации системы (2) состоит в оценивании матрицы коэффициентов А .

2. Нелинейные параметрические модели (функции регрессии). Модель объекта в этом случае представляем в виде известной функции с неизвестными параметрами

У = I (х, а), (3)

где у - выходная переменная объекта; У(х, а) - известная функция двух векторных аргументов: х = (хг, х2,... хт ) - входа объекта и а = (а1з а2,...ат ) - вектора неизвестных параметров.

Задача идентификации сводится к определению параметров а на основе экспериментальных наблюдений.

Частным случаем параметрических моделей являются модели, линейные относительно оцениваемых параметров. Такие модели образуются в результате разложения искомой функ-

к

ции по заданной системе функций у(х,а) = ^ а^ф^ (х), где ф 1 (х) - система векторных линей-

1=1

но независимых функций. Частным случаем такого представления является аппроксимация функции у(х,а) отрезком многомерного ряда Тейлора.

Отметим преимущества использования нелинейных моделей объектов:

1) нелинейность является существенным свойством большинства реальных объектов;

2) дополнительная информация часто позволяет выбрать достаточно точную нелинейную модель с числом параметров значительно меньшим, чем для аналогичной линейной модели.

Приведем примеры практического использования нелинейной регрессионной модели объекта.

3. Модель производственных функций. Модель описывается уравнением

У = у (х а) =

= а0хах2а2,...,х^т , где у - результат производства (объем дохода); х1,х2,...,хт - затраты , факторы производства (капитала, труда, информации, технологии и т.д.). Параметры а1з а2,..., ат отражают влияние факторов х1,х2,...,хт на результат у .

4. Функция регрессии в задаче медицинской диагностики а2

У (¿, а) = а1 +—-ехр(-а4^). а3

_2_

Данная функция описывает изменения содержания сахара в плазме крови человека после «нагрузки» глюкозой. Используется в алгоритмах ранней диагностики заболеваний сахарным диабетом.

5. Функция регрессии в задаче интерпретации гидродинамических исследований скважин нефтяного месторождения

У (¿, а) = а1 + а21и(а3^ + а4).

Данная функция описывает изменение забойного давления нефтяных скважин после их остановки в целях определения фильтрационных параметров а1з а2, а3, а4 нефтяной залежи.

6. Функция регрессии в задачах прогноза добычи нефти и оценки извлекаемых запасов

У (^, а) = а/а2 ехр(-а30 .

Данная зависимость является простой моделью, отражающей изменения добычи нефти в процессе разработки нефтяного месторождения. Используется для прогноза добычи нефти и

Т

оценки извлекаемых запасов флюидов [7] £ = 11(¿, , где Т - время окончания разработ-

0

ки нефтяного месторождения.

7. Статические стохастические модели. Статический стохастический объект в общем случае описывается функцией вида

У = Е (X, $), (4)

где Е - оператор объекта;

$ - случайные неконтролируемые факторы (помехи), порожденные либо самим объектом, либо средствами сбора и передачи информации.

Обычно предполагается, что помехи аддитивные, т.е. регулярная и случайная составляющие выхода могут быть разделены:

У = Е (X) + $ . (5)

Статистические свойства случайной составляющей $ зависят от контролируемого входа X.

Модель объекта строится в общем случае в виде нелинейной многомерной функции регрессии вида

У = Е (х) , (6)

которая не зависит от неконтролируемой случайной составляющей $.

8. Непараметрические стохастические модели. Непараметрические стохастические модели описываются функцией, относительно которой известны лишь достаточно общие сведения, такие как непрерывность, ограниченность, существование производных и т.д. При данных априорных предположениях в качестве модели объекта часто используют функцию регрессии (условное математическое ожидание)

У = I(х) = | УР(У / х)йу , (7)

где Р(у / х) - условная плотность вероятности выхода объекта.

Задача идентификации в данном случае заключается в оценке условной плотности вероятности и функции регрессии на основе наблюдений входа и выходов объекта.

Динамические модели

В качестве математического описания динамических объектов наиболее часто используют интегральные уравнения, обыкновенные дифференциальные уравнения, дифференциальные уравнения в частных производных, конечно-разностные, дискретные аналоги интегральных и дифференциальных уравнений.

1. Динамические системы на основе интегральных уравнений. Модель линейного динамического объекта, на вход которого поступает сигнал x(t) , вызывающий реакцию y(t) , часто

представляют в виде интегрального уравнения

t

y(t) = J h(t, T)x(x)dT , (8)

—ад

где h((, т) - импульсная переходная функция (ИПФ) системы, h(t, т) = 0 при t < т.

В стационарном случае h(t, т) = h(t — т) уравнение (8) переходит в интегральное уравнение свертки

t ад

У (t)= J h(t — т)х(T)dT = Jh(T)x(t — T)dT . (9)

—ад 0

Задача идентификации заключается в определении ИПФ объекта h(t, т) либо h (т). Наряду с описанием линейного объекта с помощью ИПФ можно использовать его описание с помощью передаточной функции ф(t, p), связанной с ИПФ соотношениями

ад 1 а+/ад

ф(^ p) = J h(t, т)е"pTdT , h(t, т) = — J ф(t, p) epxdp . (10)

J 2п/ J.

—ад J а—/ад

В стационарном случае ф (t, p ) = ф( p ).

Модель нелинейного динамического инерционного объекта строится в предположении, что нелинейность и инерционность объекта можно разделить и представить объект в виде последовательной комбинации двух звеньев: нелинейного безынерционного и динамического линейного. В одномерном случае, предполагая, что инерционное звено стационарно, выход объекта y(t) связывают с его входом x(t) одним из двух соотношений:

(11)

y(t) = Jh (x)f[x(t-т)]ёт либо y(t) = f Jh(i)x(t-i)dx

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0 L 0 _

Задача идентификации будет состоять в определении пары функций h(t ) и f (t ). 2. Динамические системы, описываемые обыкновенными дифференциальными уравнениями. Модель линейного динамического объекта, на вход которого поступает сигнал x(t), вызывающий сигнал y(t), часто представляют в виде обыкновенного дифференциального уравнения

d"y dy . dxm . dx .

a —— +... + a,— + a0 y = b -+... + b,— + b0x, (12)

" dt" 1 dt ^ m dtm 1 dt 0

где d!y(0)/dt! = y'0, i = 0,1,...,n -1, - начальные состояния системы;

n и m - параметры структуры (порядок) уравнения.

ад

ад

Если система нестационарная, то коэффициенты уравнения а. и Ь. должны быть функциями времени. Задача идентификации заключается в определении порядка уравнения, коэффициентов а., Ь. и начальных состояний (если они неизвестны).

Класс моделей на основе интегральных и обыкновенных дифференциальных уравнений имеет свои преимущества и недостатки. Модели на основе дифференциальных уравнений могут приводить к большим ошибкам идентификации, если порядок модели не соответствует порядку объекта. Преимущество моделей на основе интегральных уравнений состоит в том, что они не требуют явного знания порядка объекта. Однако в этом случае описание объекта является непараметрическим, бесконечномерным, поскольку определение функции эквивалентно определению (заданию) бесчисленного числа параметров.

3. Нелинейные динамические модели. В непрерывном случае одномерный динамический объект (один вход и один выход) может быть описан с помощью нелинейного дифференциального уравнения

у" (0 = У(уи-1,...з у, хт,..., х), (13)

где У - нелинейная функция (п + т + 1)-го аргумента, которую и нужно идентифицировать.

4. Динамические системы, описываемые дифференциальными уравнениями в частных производных. Динамические объекты, представленные дифференциальными уравнениями в частных производных, имеют чрезвычайно широкое научное и практическое применение в разнообразных задачах гидротермодинамики, переноса излучения, прогноза погоды, динамики атмосферы и океана и т.д. [22].

Дифференциальное уравнение с частными производными порядка г есть функциональное уравнение вида

г х з У з У, У,..., У, дУ,..Л

^ ' дх2' ' дхп' дх^ ' J

= 0, (14)

содержащее по меньшей мере одну частную производную порядка г от неизвестной функции

У (Х) , где Х = (Х1з Х23..3 хп) .

В качестве примера рассмотрим дифференциальное уравнение параболического типа однофазной фильтрации, которое описывает плоскорадиальный приток сжимаемой жидкости к

дР д2Р дР

скважине нефтяного пласта:--1--- =-, где Р - давление в момент времени I на рас-

гдг гдг xдt

стоянии г от оси скважины; х - коэффициент пьезопроводности пласта, который характеризует скорость перераспределения давления в пласте.

Задача идентификации заключается в определении пьезопроводности пласта по результатам гидродинамических исследований скважины и регистрации кривой изменения давления после остановки скважины .

5. Дискретные, конечно-разностные аналоги интегральных и дифференциальных уравнений. При решении задач идентификации широкое применение получили дискретные, ко-

нечно-разностные аналоги интегральных и дифференциальных уравнений с использованием численных методов [18].

Суть этих методов заключается в замене интегралов суммами, а производных их конечными разностями. Это позволяет свести интегральные и дифференциальные уравнения к соответствующим системам сеточных алгебраических уравнений.

Решение уравнений определяется в узлах сетки, что часто требует запоминания большого объема данных и проведения больших вычислений.

Математические модели дополнительной априорной информации

Сведения об объектах идентификации условно можно разделить на следующие типы:

1) исходные и дополнительные данные (наблюдения входов и выходов объекта; дополнительные апостериорные и априорные данные);

2) априорная информации о структуре объекта;

3) априорная информация о статистических характеристиках случайных неконтролируемых переменных.

1. Исходные и дополнительные данные. Основным источником исходных данных для идентификации являются результаты прямых наблюдений входных и выходных переменных объекта.

В качестве дополнительных апостериорных (текущих) данных о переменных объекта могут быть использованы измерения, полученные из наблюдений косвенных переменных, функционально связанных с входными и выходными переменными объекта. К априорным могут быть отнесены данные, полученные на основе экспертных оценок переменных объекта, различных методик их расчета и т.д.

Удобной моделью дополнительных апостериорных либо априорных данных является понятие объекта-аналога, т.е. системы, подобной исследуемому объекту.

Объект-аналог определим как реально существующий либо воображаемый упрощенный объект, отражающий основные черты исследуемой системы, особенности ее строения и функционирования, представляющий и формализующий в виде моделей дополнительные апостериорные и априорные данные, накопленный опыт и знания.

Объект-аналог Г, изображенный на рис. 2, является некоторым отражением исследуемого объекта Г.

* 1 _ ,

Исследуемый

объект Г ^ ^

X

1 Т

Объект- ь

-► аналог Г

J к П

Рис. 2 - Модель 1-го уровня ИСИ

Исследуемый объект и объект-аналог представляют некоторую интегрированную систему взаимодействующих моделей первого уровня:

где п - случайные возмущения, связанные, например, с ошибками задания дополнительных априорных данных.

Переменная 2 объекта-аналога может соответствовать входным X либо выходным У переменным, а также представлять параметры, функции (функционалы), определяющие структуру исследуемого объекта. Переменная 2 представляет дополнительные апостериорные либо априорные данные.

Например, дополнительные априорные данные о параметрах модели нелинейного параметрического объекта (3) могут быть представлены объектом-аналогом а = а + п, где п - случайные ошибки задания дополнительных данных а.

Дополнительные априорные сведения о выходной переменной исследуемого объекта могут быть также представлены объектом-аналогом у = g(у) + п, где g - некоторая неизвестная функция регрессии.

Как и для исследуемых объектов, операторы и математические модели объектов-аналогов могут быть представлены математическими зависимостями (2)-(14). Объекты-аналоги также могут быть статическими либо динамическими, линейными либо нелинейными системами.

Исследуемой системе может соответствовать не один, а несколько объектов-аналогов. В этом случае интегрированная система первого уровня имеет вид

На основе интегрированной системы (16) могут быть представлены, например, исходные и дополнительные данные о параметрах и выходе нелинейного параметрического статического объекта в виде единой интегрированной стохастической системы взаимодействующих моделей:

У = Е (X, О;

2 = Е (2, п),

(15)

(16)

у = /(х а)

< а ] = а ] +п ], ] = 1, т; .У = g(у,) + vг, I = 1 П.

Объекты-аналоги 2 в свою очередь могут быть использованы в качестве исходных исследуемых систем и иметь свои аналоги - 2. Тогда имеем интегрированную стохастическую систему второго уровня:

У = Е (X, О;

<2; = Е, (2}, п;), , = 1т; (18)

_ 2 к = ¥]к (2,, 2,-, п]к ), к = 1,1.

В общем случае интегрированная система моделей может иметь неограниченное число уровней и представляет некоторую иерархическую структуру.

2. Априорная информация о структуре объекта. Априорная информация о структуре объекта известна еще до наблюдений входов и выходов объекта, носит в основном качественных характер и позволяет выбрать модель объекта и определить его структуру.

3. Априорная информация о статистических характеристиках случайных неконтролируемых переменных. Основная трудность идентификации систем состоит в том, что в большинстве реальных ситуаций наблюдения над исследуемыми объектами и объектами-аналогами искажены случайными возмущениями, которые определяются многими причинами. Погрешности могут появляться за счет ошибок регистрации входных и выходных переменных объекта, ошибок выбора структуры модели объекта, ошибок задания дополнительной априорной информации и т.д. Обычно эти ошибки описываются с помощью аддитивных помех.

Наличие помех, искажающих наблюдаемые входные и выходные сигналы, приводит к тому, что для идентификации должны использоваться статистические методы.

Плотности распределения вероятностей помех с формальной точки зрения могут быть любыми. Однако на практике часто возникают типичные ситуации, связанные с одинаковым механизмом их возникновения. Важную роль играют следующие законы распределения вероятностей помех: равномерный закон, нормальный закон, закон Лапласа.

Интегрированные системы моделей и их классификация

Под интегрированной системой моделей (рис. 3) будем понимать совокупность модели исследуемого объекта и моделей объектов-аналогов.

Интегрированная система моделей

N._

Модели объектов-аналогов

Рис. 3 - Интегрированная система моделей

Введем следующую классификацию интегрированных систем моделей (ИСМ): 1) линейные ИСМ -линейные статические, линейные динамические;

_

Модель исследуемого объекта

2) нелинейные ИСМ -нелинейные статические, нелинейные динамические;

3) линейные непараметрические ИСМ -линейные непараметрические статические, линейные непараметрические динамические;

4) нелинейные непараметрические ИСМ -нелинейные непараметрические статические, нелинейные непараметрические динамические;

5) непараметрические ИСМ -статические непараметрические, динамические непараметрические.

Приведем примеры стохастических интегрированных систем моделей, основанных на стохастических моделях исходных объектов и стохастических моделях объектов-аналогов.

1. Линейные интегрированные системы моделей. Линейные интегрированные системы моделей основаны на линейных статических либо динамических моделях исследуемых объектов и на линейных (статических либо динамических) моделях объектов-аналогов. В качестве примера линейной статической интегрированной системы моделей первого уровня рассмотрим регрессионную модель объекта и модель дополнительной априорной информации вида

у* = Е 1 1 '1 =1 п

1=1

т _

а 1 = Е ткак +п;, 7, к = 1,т

(19)

к=1

где у* - измеренные значения выхода объекта у ; х}- - входные переменные объекта; а 1 - неизвестные параметры модели объекта;

а 1 - дополнительные априорные данные о параметрах объекта, являющиеся в свою очередь выходными переменными объекта-аналога;

т^ - некоторые известные параметры объекта-аналога;

х7 - значения входных переменных; * - ошибки измерения выхода объекта; П1 - ошибки задания априорной информации. Модель (19) удобно представить в матричной форме

Г у* = Та +

^ (20) [а = Яа + п,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

где Г - матрица, которую часто называют матрицей планирования: Г = (х^,г = 1,п,у = 1,т);

у*,а,£ - имеют смысл векторов-столбцов измерений выхода объекта, параметров модели и ошибок измерений выходной переменной объекта;

Я = (т7к, 7, к = 1, т) - матрица коэффициентов объекта-аналога; а, п - векторы-столбцы дополнительных априорных данных и ошибок их задания. Линейной считается интегрированная система моделей, в которой в качестве входных переменных (регрессоров) объекта используются их функциональные преобразования вида (х) . В данном случае матрица планирования имеет вид Г = /7(х^) .

В качестве примера линейной динамической интегрированной системы моделей первого уровня приведем уравнения

т

у* = |Ь(т)х(Г! -х)ёт + ;

0 (21)

А = К + п ,г =1 п

где априорная информация об ИПФ К(т) задана в моменты измерения выхода объекта

у* = у Xг =1 п.

т

Используя представление ИПФ в виде ряда известных функций И^) = ^ а 7/7 (^), интег-

7=1

рированную систему моделей (21) можно свести к линейной статистической системе вида

Г у * = Га +

{- (22) [И = На + п,

Г т _ _Л

где Г = I | /}. (т)- т)ёт, 7 = 1, т, г = 1, п ;

V о

Н = /7) - матрица известных функций, вычисленных в точках ^;

И - вектор-столбец дополнительных априорных данных о значениях ИПФ в моменты времени ti.

В качестве примера рассмотрим линейную интегрированную систему моделей первого уровня с двумя объектами-аналогами, которые дают возможность учитывать дополнительную априорную информацию о параметрах модели исследуемого объекта и априорную информацию о выходе:

V* = Га +

Га = Яа + п; (23)

Г2у = Ну + V,

где Г , Я , Н - известные матрицы;

У = (У1, Уг,-, Уп )Т - вектор дополнительных априорных данных о выходе объекта в моменты времени , заданный с ошибками V = (у1,у2,...,уп)т ;

Г1, Г2 - диагональные (индикаторные) матрицы нулей либо единиц (где, например, 0 ха; означает, что априорная информация о 1 -й компоненте вектора а отсутствует).

При Г1 = (1,0,0,...,0), Г2 = (0,0,...,0), Я = Н = I интегрированная система моделей (23) переходит в интегрированную систему с одним объектом-аналогом, который представляет дополнительную информацию только о первой компоненте вектора параметров а:

| У* = Та +

[а1 = а1 +п1.

2. Нелинейные интегрированные системы моделей. Нелинейные интегрированные системы моделей основаны на нелинейных статических либо динамических моделях исследуемых объектов и линейных либо нелинейных моделях объектов-аналогов.

В качестве примера рассмотрим нелинейную статическую интегрированную систему моделей, в которой линейная модель объекта-аналога представляет дополнительную априорную информацию о неизвестных параметрах модели исследуемого объекта:

| у* = Уi + * = у (х, а)+*, i =1 п; (24)

[а = Я • а + п,

где у*,i = 1,п , - измеренные с ошибками i,i = 1,п, значения выхода объекта у ;

уг = У (х г, а) - значения выхода модели объекта, полученные при соответствующих значениях входов хг = (хи , X2iХтг ) ;

а, Я, п - определенные в (20) характеристики объекта-аналога.

Рассмотрим пример нелинейной динамической интегрированной системы моделей, в которой модель исследуемого объекта представлена конечно-разностным аналогом нелинейного дифференциального уравнения первого порядка

= У(у,, ,, а, хt) , у(0) = а0, (25)

ш

где У (у,,,, а, х,) - нелинейная относительно параметров а функция;

а0 - начальное значение.

При известной априорной информации о параметрах модели и выходе объекта имеет место нелинейная динамическая интегрированная система моделей:

у* = уг+* = у'(у,-1, у,,,, а, х)+*,, =1 n, у(0) = у (0);

Г1а = Яа + п; (26)

Г у = Ну + V,

где у* - измеренное в моменты времени , значение выхода объекта уг;

У' (у,-1, ух,,, а, х,) - конечно-разностная аппроксимация модели объекта;

х, = (х1х, х2х,..., хтх) - заданные значения входных переменных объекта.

В общем случае для нелинейного дифференциального уравнения и ^ объектов-аналогов динамическая нелинейная интегрированная система моделей примет вид

у* = Р (уг, у-, t, а, х,, х1, г =1, ги1 =1 г 2); у- = у ^ - г), х1 = x(t -1Xг =1, г1,1 =1 г 2;

__(27)

Г1ка = Я ка + пк, к =1,

^Г2/УI = НУ + V, 1 = 1 ^ ^ = ¿1 + ^2 , где ак - векторы-столбцы дополнительных априорных данных, полученных с 51 объектов-аналогов с ошибками пк;

у, - векторы-столбцы дополнительных априорных данных с s2 объектов-аналогов, заданных с ошибками vk;

Р - конечно-разностный оператор;

у(-г = - г), х1 = х-1) - начальные условия;

Г1к, Г21 - индикаторные диагональные матрицы вида (23).

3. Линейные непараметрические интегрированные системы моделей. Линейные непараметрические интегрированные системы моделей основаны на линейных статических либо динамических моделях объекта и на непараметрических статических либо динамических моделях объектов-аналогов.

В качестве примера линейной непараметрической статической интегрированной системы моделей, в которой дополнительная априорная информации о параметрах модели и выходе объекта представлена классами непараметрических моделей, приведем уравнения

V* = Та +

а = У1 (а) + п; (28)

, у = У2( у) + V,

где У1, У2 - неизвестные однозначные ограниченные функции.

Данная интегрированная система моделей является естественным представлением моделей дополнительных априорных данных, поскольку часто не удается найти подходящее конечномерное параметрическое описание связи исследуемых объектов и объектов-аналогов.

4. Нелинейные непараметрические интегрированные системы моделей. Нелинейные непараметрические интегрированные системы моделей основаны на нелинейных статических

либо динамических моделях объекта и на непараметрических статических либо динамических моделях объектов-аналогов.

В качестве примера нелинейной непараметрической статической интегрированной системы моделей, по аналогии с (28), приведем уравнения

где / (х, а) - известная нелинейная функция регрессии.

5. Непараметрические интегрированные системы моделей. Непараметрические интегрированные системы моделей основаны на непараметрических статических либо динамических моделях объекта и на непараметрических статических либо динамических моделях априорной информации. Непараметрическую статическую стохастическую систему с одним объектом-аналогом (модель двух черных ящиков) можно представить в виде

где /1, /2 - неизвестные однозначные функции,

Г - известная индикаторная матрица.

Данная интегрированная система моделей часто используется в случаях, когда объект слабо изучен либо достаточно сложный для параметрического описания. С другой стороны, и дополнительную априорную информацию о выходе объекта не удается представить в виде конечномерного параметрического описания.

Структура интегрированной системы идентификации

Под интегрированной системой идентификации понимается система разработки (проектирования) оптимальной в смысле заданных критериев качества интегрированной системы моделей. Структура интегрированной системы идентификации представлена на рис. 4.

у * = / (х а) +

:« = /(а)+п;

. У = У2( У) + V,

(29)

(30)

Интегрированная система идентификации

Интегрированная система моделей

Критерии качества и оптимальности

Алгоритмы адаптации (решение оптимизационных задач)

Рис. 4 - Структура интегрированной системы идентификации

Интегрированные системы моделей достаточно подробно даны в предыдущем разделе, поэтому ниже рассматриваются только критерии качества и оптимальности интегрированных систем моделей и алгоритмы адаптации.

Критерии качества и оптимальности. Комбинированные критерии качества интегрированной системы моделей, состоящие из комбинации частных критериев, предназначены для объединения (слияния) моделей объекта и моделей объектов-аналогов.

Частные критерии качества представляют меры близости измеренных значений выходных переменных исследуемого объекта и выходных переменных объектов-аналогов к соответствующим значениям выходных переменных модели объекта и моделей объектов-аналогов.

В случае одной выходной переменной для оценки близости объекта и его модели, оценки близости дополнительных априорных данных их моделям вводится функция (функционал) потерь r(U,V) , обладающая свойствами расстояния:

1) r(U,V) > 0 VU * V;

2) r (U,V) = 0 VU = V;

3) r(U,V) < r(U, Z) + r(Z, V) VU,V, Z.

Например, средние потери от отклонения модели объекта y(t) от соответствующих отклонений выхода объекта y *(t) на интервале [0, Г ] будут равны

1 Т

Q(a) = - J r(y*(t), y(t))dt, (31)

Т0

где y(t) = f(x(tXa);

r - функция потерь.

В данном случае задача оптимизации заключается в определении вектора параметров

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

*

a модели объекта, который бы минимизировал средние потери:

a* = arg min Q(a) , (32)

aeRm

где argmin Q(a) означает точку минимума функционала средних потерь Q(a).

Сформулированный критерий оптимальности переводит процедуру определения параметров функции в задачу оптимизации. Функционал средних потерь часто называют критерием качества модели объекта либо просто критерием качества.

Предполагая аддитивный характер ошибок измерения выхода объекта

у* = f (Х-,a) + £,■, i = 1 n ,

функционал качества часто выбирают в виде

Q(a) = 2 r (y* - f (x-, a)) = £ r ß-). (33)

i=1 i=1

Выбор функции потерь r определяется вероятностно-статистическими характеристиками случайных ошибок (помех) ^, i = 1,n . Например, при независимости и нормальности ошибок

^, i = 1,n , имеющих ограниченную дисперсию а2 = а < да, i = 1,n , оптимальной является

функция потерь г(*) = *2, г = 1,п [13, 20], и критерий качества (33) переходит в широко используемый квадратичный критерий

О(а) = ¿^2 =||у* - У(х,а)||2 = %т% , (34)

г=1

где у * - вектор измеренных значений выхода объекта;

У(х,а) - вектор-столбец значений выхода объекта, полученный на основе модели объекта в точках;

||х|| - норма вектора х .

Часто используется взвешенный с весами wij, г, 1 = 1, п , функционал качества

О(а) = ||у* - У(х, а)||^ = (у* - У(х, а))т Wy (у* - У(х, а)) , (35)

где матрица Wy = ((у Л 1 = 1, п) определяется статистическими характеристиками вектора

*

случайных величин у .

Если распределение плотности вероятности величины *, I = 1,п , равно распределению Лапласа У(х) = а-2 ехр(-|х|/2а2) , то оптимальным является критерий качества [20]

О(а) = Е|у* - У(Xi, а) . (36)

i=l

Частные критерии качества объектов-аналогов формируем по аналогии с рассмотренными функционалами качества. Например, для линейной интегрированной системы моделей с учетом априорной информации о выходе объекта и параметрах модели объекта

у * = Та + %;

а = Яа + п1; (37)

у = Ну + П2

частные квадратичные критерии качества объектов-аналогов равны

11(а) = ||а - Яа|2, 12(а) = ||у - Ну||2 . (38)

При использовании данных критериев качества предполагается, что векторы ошибок задания дополнительных априорных данных п1 и п2 распределены по нормальному закону.

При наличии априорной информации о статистических характеристиках ошибок п1 , П2

следует использовать взвешенные критерии вида

Ш , 12(а) = ||у -

11(а) = ||а - RЯ|W_, ^2(а) = ||у - , (39)

где Wя, Wy - матрицы, связанные со статистическими характеристиками случайных величин а, у.

За критерий качества интегрированной системы моделей принимаем взвешенные частные критерии качества вида

т

Ф(а) = О(а) + 2в]3] (а) , (40)

1=1

где О(а) - частный критерий качества модели исследуемого объекта; 11 (а) - частные критерии качества моделей объектов-аналогов;

в 1 - некоторые управляющие переменные, определяющие вес дополнительных априорных данных.

Следует отметить, что решение разнообразных задач обработки экспериментальных данных, идентификации, оптимизации и управления связано с использованием взвешенных критериев качества вида (40). Например, при решении задач оптимизации функций при наличии ограничений функционал типа Ф(а) называют функцией Лагранжа, а управляющие переменные в 1 имеют смысл множителей Лагранжа [19, 23].

При решении обратных некорректно поставленных задач [18] функционал Ф(а) имеет

смысл регуляризирующего (сглаживающего) критерия, а частные функционалы 11,1 = 1,т , имеют смысл стабилизирующих функционалов, связанных с «гладкостью» искомого решения. Так, например, при определении ИПФ к (^) интегрального уравнения (8) в качестве ста-

2

билизирующего функционала используют J = *

г dk(t) dt

dt [18].

0

Новым в приведенной структуре взвешенного функционала (40) является наличие механизма, позволяющего учитывать разнородную дополнительную априорную информацию.

Оптимальная структура интегрированной системы моделей определяется критерием вида

a*(ß*),/ = arg r min _ Ф(а, f, f, ß), (41)

aeRm, f eF, f eF ,ßER

где f * и f * представляют оптимальные функции из множества функций F , F , используемых соответственно в качестве моделей исследуемого объекта и моделей объектов-аналогов; a*(ß*) - оптимальные параметры модели объекта; ß* - оптимальные значения управляющих параметров.

Получение оптимальной структуры интегрированной системы моделей (41) представляет достаточно сложную задачу проектирования, которую, как правило, решают последовательно:

1) при заданной структуре моделей исследуемого объекта и объектов-аналогов получают оптимальные оценки неизвестных параметров

a*(ß) = arg min Ф(а, f, f, ß) ; (42)

2) определяют оптимальные значения управляющих параметров

ß* = arg min Ф(а, f, f, ß);

ßeR

(43)

3) определяют оптимальные модели объекта и оптимальные модели объектов-аналогов

f \ / = arg min-Ф(а*, f, f, ß*) . (44)

f eF, f eF

Алгоритмы адаптации. Алгоритм адаптации интегрированной системы моделей заключается в решении оптимизационных задач вида (42)-(44). Сложность решения оптимизационных задач зависит от сложности интегрированной системы моделей, сложности моделей объекта и моделей объектов-аналогов, размерности оцениваемых параметров функций.

Достаточно простые аналитические решения имеют место для линейных интегрированных систем моделей (20) и квадратичных функционалов качества (40). В данном случае имеет место критерий оптимальности

||2

а* (ß) = arg min (Ф = J + Q = lly* - Fall2 + ß ||a - Ra|| а V 2

и*-. (45)

а \ " ""у "

и алгоритм адаптации сводится к решению систем линейных уравнений вида

**F + в ЛтЯ)а = (FTу* + в Кт*-а) . (46)

Для доказательства утверждения (46) достаточно взять производные от функционала Ф по параметрам а и приравнять их к нулю:

— = УаФ = (у * - Fа) - 2Ят *а (а - Яа) = 0.

В случае, если дополнительная информация о параметрах а получена с объектов-аналогов, а дополнительная информация о выходе исследуемого объекта получена с й2 объектов-аналогов, интегрированная система моделей примет вид

V * = Ца +

а ] = К ;а + П: ], ] = 1, й ь (47)

. У к = ка + П к, к = 1 й2-Для системы (47) соответствующим образом формируется комбинированный функционал качества как сумма взвешенных частных критериев качества исследуемого объекта и объектов-аналогов

I 2 Д ||_ ||2 Д .._ „2

ф (a) = y* - Ы w ß \ а; - R; а 2 +Z ß2 *| |У * - F2 * а||

|W ¿—L • 1J II J 1J W- ¿—LК 2* II-7 * 2* IW '

1 y . , " а , , У

J=1 *=1

и алгоритм адаптации сводится к решению системы линейных уравнений вида

^ ®Т Wy Ц + 2 в 1 К?; Wa К1 + 2 вк К Wy ?2к 1 а = Г V Wy у* + £ + 2 Т2Тк WyУ

V

1=1

к=1

У

V

1=1

к=1

.(48

)

Алгоритмы адаптации нелинейной интегрированной системы моделей вида (24) при использовании квадратичных критериев качества и градиентных методов оптимизации (Гаусса-Ньютона, Ньютона, сопряженных градиентов и т.п.) сводятся к последовательному решению систем линейных алгебраических уравнений. Например, при использовании метода Гаусса-Ньютона алгоритм адаптации нелинейной интегрированной системы моделей (24) имеет вид

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Га1 = а1-1 + И Даг-1;

I Лг-1Да1-1 = Б1-1, г = 1,2,3,...,

(49)

где приращение вектора параметров Да1 1 на каждом шаге г определяется путем решения системы уравнений

( Wy Б + в • Ят Wa Я )-1 Да1 -1 = (Бт Wy е + в • Кт WаДа )1-1,

в которой

(

е1-1 = у* -1(х, а1-1); Б1-1 =

дГ(хг, а ) . — . -—

1 , г = 1, п , 1 = 1, т

V

да:

V 1

- матрица частных производ-

ных по параметрам ау, 1 = 1,т; Да0 = (а - а0) [7, 8].

Алгоритмы адаптации линейных и нелинейных непараметрических интегрированных систем моделей вида (28)-(30) при использовании квадратичных функционалов качества также сводятся к решению систем линейных уравнений. Например, для линейной непараметрической интегрированной системы моделей (28) алгоритм адаптации сводится к решению системы линейных уравнений вида

(¥Т Wy V + К1 + ¥т К 2Р ) а = (¥т Wy у* + К1а + К 2 у ), (50)

где К1 =

Га0 -а 1 ^

Л

К

И1

, 1 =1, т

V V -1

и К2 =

г - л

К

И2

Л = 1, п

V V "2 у

- диагональные

У

матрицы весовых функций (КИ ^ 0, И ^ го, КИ ^ С < го, И ^ 0), введенные по аналогии с непараметрическими оценками плотности и регрессии [24].

Задача определения оптимальных значений управляющих параметров в , определения оптимальной структуры моделей исследуемого объекта и структуры моделей объектов-аналогов, как правило, не имеет аналитического решения и сводится к поиску минимума функции (функционала) одной либо многих переменных [23, 25].

В заключение отметим, что рассмотренные линейные, нелинейные и непараметрические интегрированные системы идентификации в зависимости от выбора матриц Я , Wv, Wa,

структуры дополнительных априорных данных, вектора управляющего параметра в включают широкий спектр известных классических алгоритмов идентификации и порождают новые алгоритмы, обеспечивающие комплексное решение проблем учета разнородной информации, устойчивости решения, ограниченности выборок, согласованности исходных и дополнительных априорных данных, накопленного опыта и знаний; оптимизацию решений прикладных задач.

ЛИТЕРАТУРА

1. Прангишвили И.В. Международная конференция «Идентификация систем и задачи управления» (Б1СРР0-2000), Москва, 26-28 сентября 2000 г. / И.В. Прангишвили, В .А. Лотоц-кий, К.С. Гинсберг // Вестник РФФИ. -2001. - № 3 (25). - С. 44-57.

2. III Международная конференция «Идентификация систем и задачи управления» // Автоматика и телемеханика. - 2003. - № 11. - С. 202-204.

3. Клейман Е.Г. Идентификация нестационарных объектов / Е.Г. Клейман, И.А. Мочалов // Автоматика и телемеханика. - 1994. - № 2. - С. 3-32.

4. Клейман Е.Г. Идентификация нестационарных объектов // Автоматика и телемеханика.

- 1999. - № 10. - С. 3-45.

5. Гинсберг К.С. Системные закономерности и теория идентификации // Автоматика и телемеханика. - 2002. - № 5. - С. 156-170.

6. Гинсберг К.С. Новый подход к структурной идентификации // Автоматика и телемеханика. - 2002. - № 6. - С. 85-98.

7. Сергеев В.Л. Идентификация систем с учетом априорной информации. - Томск: Изд-во НТЛ, 1999. - 146 с.

8. Кориков А.М. Интегрированные модели и алгоритмы идентификации систем управления/ А.М. Кориков, В.Л. Сергеев // Проблемы современной электроники и систем управления. Том 2. - Томск: Изд-во Том. гос. ун-та систем управления и радиоэлектроники, 2002. - С. 63-64.

9. Эйкофф Э. Основы идентификации систем управления. - М.: Мир, 1975. - 683 с.

10. Райбман Н.С. Построение моделей процессов производства / Н.С. Райбман, В.М. Ча-деев. - М.: Энергия, 1975. - 375 с.

11. Цыпкин Я.З. Основы информационной теории идентификации.- М.:Наука, 1984.- 320

с.

12. Рубан А.И. Идентификация и чувствительность сложных систем. - Томск: Изд-во Том. гос. ун-та, 1982. - 303 с.

13. Идентификация динамических систем / Под. ред. А. Немуры. - Вильнюс: Минтис, 1974.

- 287 с.

14. Демиденко Е.З. Линейная и нелинейная регрессии. - М.: Финансы и статистика, 1981.

- 300 с.

15. Демиденко Е.З. Оптимизация и регрессия. - М.: Наука, 1989. - 296 с.

16. Катковник В.Я. Непараметрическая идентификация и сглаживание данных. - М.: Наука, 1985. - 336 с.

17. Добровидов А.В. Непараметрическое оценивание сигналов / А.В. Добровидов, Г.М. Кошкин. - М.: Наука, 1997. - 336 с.

18.Тихонов А.Н. Методы решения некорректных задач / А.Н. Тихонов, В.Я. Арсенин. -М.: Наука, 1979. - 288 с.

19. Ермаков С.М. Математическая теория оптимального эксперимента / С.М. Ермаков, А.А. Живглявский. - М.: Наука, 1987. - 320 с.

20. Поляк Б.Т. Стабильное оценивание в условиях неполной информации / Б.Т. Поляк, Я.З. Цыпкин // Вопросы кибернетики. Адаптивные системы управления. - М., 1977. - С. 6-14.

21. Справочник по теории автоматического управления / Под. ред. А.А. Красовского. - М.: Наука, 1987. - 712 с.

22. Марчук Г.И. Методы вычислительной математики. - М. : Наука, 1980. - 535 с.

23. Рубан А.И. Оптимизация систем. Учеб. пособие. - Томск: Изд-во Том. гос. ун -та, 1984.

- 528 с.

24. Тарасенко Ф.П. Непараметрическая статистика. - Томск: Изд-во Том. гос. ун-та, 1975.

- 292 с.

25. Сергеев В.Л. К оптимизации регрессионных оценок непараметрического типа при ограниченных выборках // Математическая статистика и ее приложения. - Томск: Изд-во Том. гос. ун-та, 1982. - Вып. 8. - С.123-148.

i Надоели баннеры? Вы всегда можете отключить рекламу.