Научная статья на тему 'Алгоритм идентификации с переходом в пространство параметров'

Алгоритм идентификации с переходом в пространство параметров Текст научной статьи по специальности «Математика»

CC BY
253
46
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Проблемы управления
ВАК
Область наук
Ключевые слова
ИДЕНТИФИКАЦИЯ / ОГРАНИЧЕНИЯ / СТАТИЧЕСКИЙ ОБЪЕКТ / ОЦЕНКИ ПАРАМЕТРОВ / ОШИБКА ИЗМЕРЕНИЯ ВЫХОДА / IDENTIFICATION / RESTRICTIONS / STATIC OBJECT / PARAMETER ESTIMATIONS / ERROR OF OUTPUT MEASUREMENT

Аннотация научной статьи по математике, автор научной работы — Гусев Сергей Сергеевич, Чадеев Валентин Маркович

Рассмотрен алгоритм идентификации статического объекта в случае, когда ошибка измерения выхода объекта приводит к выходу оценок параметров за допустимую область с некоторой вероятностью p, и в случае больших ошибок, когда эта вероятность равна нулю. Дан анализ связи ошибок измерения и вероятного распределения ошибки определения параметров

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Гусев Сергей Сергеевич, Чадеев Валентин Маркович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

IDENTIFICATION ALGORITHM WITH TRANSITION IN THE PARAMETERS DOMAIN

The identification algorithm of static object with restrictions is considered. The case when the error of output measurement of object y leads to exceeding the bounds of area of admissible estimations of parameters H with some probability p for all n-dimensional blocks and the case of greater errors when the probability is strictly equal to zero are offered. The connection of error of measurement and probable distribution of parameters estimation error is analysed with use of Kramer formula.

Текст научной работы на тему «Алгоритм идентификации с переходом в пространство параметров»

УДК 519.714.2

АЛГОРИТМ ИДЕНТИФИКАЦИИ С ПЕРЕХОДОМ О ПРОСТРАНСТВО ПАРАМЕТРОВ

С.С. Гусев, В.М. Чадеев

Рассмотрен алгоритм идентификации статического объекта в случае, когда ошибка измерения выхода объекта приводит к выходу оценок параметров за допустимую область с некоторой вероятностью р, и в случае больших ошибок, когда эта вероятность равна нулю. Дан анализ связи ошибок измерения и вероятного распределения ошибки определения параметров.

Ключевые слова: идентификация, ограничения, статический объект, оценки параметров, ошибка измерения выхода.

ВВЕДЕНИЕ

Качество идентификации объекта управления в большой степени определяет и качество управления сложным объектом. Значительную роль играет учет априорной информации о структуре и параметрах объекта. В статье исследуется работа специального алгоритма идентификации, учитывающего априорную информацию о параметрах объекта и требующего большого объема вычислительных ресурсов. Однако в наше время такие объемы вполне доступны большинству пользователей. Исследуется работа алгоритма при наличии ошибки измерения выхода. Анализируется связь точности идентификации и ошибки измерения.

1. ПОСТАНОВКА ЗАДАЧИ

Рассмотрим алгоритм идентификации, учитывающий априорную информацию о параметрах объекта. Будем рассматривать объект вида

т

у = хк ,

(1)

где у — скалярный выход объекта, х — вектор-строка входных переменных размерности п, h — вектор-строка неизвестных параметров объекта тоже размерности п. Дополнительно об объекте (1) известно, что параметры h принадлежат априорно известной области Н, т. е.

Задача состоит в том, чтобы по экспериментальным данным, заданным в виде матрицы

А =

1 х11 х12 . . х1п У1

2 х21 2 2 х2 . х2п У2

і хі1 хі2 . . хіп Уі

V 5 хЛ xs2 . . хвп уі у

(3)

определить оценки параметров h с учетом условия (2).

2. АЛГОРИТМ ИДЕНТИФИКАЦИИ

Из матрицы исходных экспериментальных данных (3) выделим матрицу входов размером п х 5

( \ х11 х12 ... х1п х21 х22 ... х2п

V хЛ х$2 ... xsn

к є Н.

(2)

и матрицу выхода У = (ур у2, ..., у^) размером 1 х 5.

Предполагается, что строки матрицы X линейно независимы. Если в исходных данных есть линейно зависимые строки, то их необходимо удалить до применения алгоритма, сократив число данных. Это условие означает, что определитель матрицы, составленный из любых п строк матрицы X, не равен нулю.

Алгоритм идентификации, подробно описанный в работе [1], состоит в следующем. Из матрицы исходных данных (3) выбираются блоки из произвольных п строк (по размерности объекта). Для каждого блока составляется своя система уравнений. Соответствующая первому из таких блоков система уравнений имеет вид:

*1*11 + к2Х12 + ... кпХ1п = Уі

*1*21 + *2*22 + ... *пХ2п = У 2

к1Хп1 + *2Хп2 + ... кпХпп = Уп

где к — оценки параметров объекта ^ или в мат-

т

ричном виде Хк = У.

Умножая левую и правую части этого равенст-т

ва слева на X , получим систему нормальных уравнений

ХтХкт = ХтУ,

(4)

из которой методом наименьших квадратов вычисляются оценки параметров объекта (1).

Из матрицы (3) можно получить С" таких

п-мерных блоков, для каждого из которых строится свой вектор оценок параметров объекта (1). Все эти оценки параметров собраны в матрицу В, содержащую С" строк и 2п столбцов и имеющую вид

где

В =

ь = сп.

11 12

... а

1 п к11 к12 ... к1 п

а21 а22 ... а2п к21 к22 ... к

aL1 aL2

2п

... aLn kL1 kL2 ... kLn )

(5)

В любой строке матрицы В в первых п позициях перечислены номера строк а., матрицы А (і — ноу

мер строки матрицы В, і = 1, 2, ..., Ь), j — номер строки матрицы А, j = 1, 2, ..., я)), использованных для вычисления п оценок к.., вычисленных по этим строкам и расположенных в матрице (5) на последних п позициях. Априорное условие (2) учитывается путем вычеркивания из матрицы (5) всех строк, в которых оценки к не удовлетворяют условию к є Н, где к = (кг1, кй, ..., кп), і = 1, 2, ..., Ь.

В результате вычеркивания получается матрица

В0 =

а

11 а12 21 а22

1 п к11 к12 2п к21 к22

1п

2п

к є Н,

V аШ а№2 ... аЫп к№1 к№2 ... кЫп )

где N т ь.

т

Введем вектор ^ = (^(1), и^(2), ..., м>(я)), размерности я, где ^(у) — частота использованияу-й строки матрицы А в матрице В0.

Введем матрицу Д отличающуюся от матрицы А тем, что в нее добавлен вектор-столбец w

w(1) 1 Х11 Х12 ... Х1п У1

W(2) 2 Х21 Х22 ... Х2п У2

w(я) я ХЛ Х^2

Последний шаг алгоритма состоит в том, что строки матрицы ¥ сортируются по первому столбцу так, чтобы значения ^(./) возрастали снизу вверх. Обозначим полученную таким образом матрицу через ¥0.

Оператор, реализующий описанный алгоритм, обозначим через ¥. Он преобразует матрицу исходных данных А в матрицу данных, отсортированную по частоте использования строк в матрице В0, учитывающей априорные условия к. е Н. Это можно записать как ¥0 = ¥{А}, к. е Н.

Рассмотрим некоторые свойства оператора ¥, позволяющие существенно повысить точность идентификации.

3. ОСНОВНЫЕ РЕЗУЛЬТАТЫ

Докажем, что оператор ¥ преобразует матрицу исходных данных (3) таким образом, что данные с большими ошибками измерения с большой вероятностью оказываются внизу блока данных. Это позволяет отбросить часть данных с большими ошибками и использовать для идентификации только отфильтрованные данные.

Предположим, что входные переменные х измеряются без ошибок, а выход у — с ошибкой е. Рассмотрим несколько основных случаев.

3.1. Большие ошибки

Предварительно введем некоторые определения.

Будем называть ошибку измерения конкретного выхода у. большой, если при использовании этого выхода в любом п-мерном блоке оценки к £ Н.

Теорема 1. Если в матрице исходных данных (3) точно в т произвольных строках выход у измеряется с большой ошибкой, а в остальных без ошибки, и выполняется условие 5 > п + т, то в результате применения оператора ¥ все строки с ошибкой окажутся внизу матрицы ¥0, по верхним 5—т—п строкам этой матрицы могут быть получены точные оценки параметров объекта (1). ♦

Доказательство.

Заметим, что из общего числа С” строк матрицы (5) только С”_ т строк не будут содержать ошибочных выходов. Только эти строки войдут в матрицу В0. Каждая строка в этой матрице будет

встречаться С”_ т-1 раз. Строки с ошибками (по определению большой ошибки) в матрицу В0 не войдут и, следовательно, значение ц> для этих строк будет равно нулю. Поскольку оператор ¥ сортирует строки по частоте м>, то это и доказывает утверждение. ♦

3.2. Общий случай

Рассмотрим теперь случай, когда ошибка измерения выхода у приводит к выходу оценок за область Н только с некоторой вероятностью р для всех п-мерных блоков, в который вошел этот выход у. Ранее, при больших ошибках, эта вероятность была равна единице.

Пусть среди всех 5 строк матрицы исходных данных (3) только два произвольных измерения выхода сделаны с ошибкой. Для краткости будем называть п-мерный блок, не содержащий строки с ошибочными измерениями, чистым, а содержащий — ошибочным. Ссылки на п-мерный блок и однозначно ему соответствующую строку в матрице В будем использовать одновременно.

Теорема 2. Если среди исходных данных (3) есть только два измерения выхода у. и у., сделанных с ошибками, которые приводят к выходу оценок за область Н с вероятностью р. и р. (для определенности р. > р.) соответственно, то в результате применения

. У

оператора ¥ в среднем будут выполняться неравенства т(к) > м() > w(i), к ^ і, к ^ у. ♦

Доказательство приведено в работе [2].

Подчеркнем, что последовательность строк, задаваемая условиями теоремы 2, выполняется только в среднем, а не в каждом конкретном случае.

3.3. Редкие ошибки

Если в объекте типа (1) входные х и выходные у переменные редко измеряются с ошибками, то рассмотренный алгоритм идентификации при соблюдении некоторых условий дает возможность по экспериментальным данным (3) точно определить неизвестные параметры h.

Теорема 3. Если матрица исходных данных А содержит точно т переменных (входных или выходных), измеренных с ошибкой, то параметры объекта (1) могут быть определены точно при условии 5 > п + т + I, где 11 1. ♦

Доказательство. В наихудшем случае все т ошибок будут распределены по разным строкам матрицы исходных данных (3). Соответственно ос-

тавшиеся, по крайней мере, (п + I) строк не будут содержать ошибок. Следовательно, построенные по этим строкам оценки будут точными. В каких именно строках не было ошибок, заранее не известно. Но матрица (5) будет содержать С”+ / строк, в которых векторы оценок к будут совпадать. Совпадающие оценки и будут точными параметрами объекта. ♦

4. СВЯЗЬ ОШИБКИ И ВЕРОЯТНОСТЕЙ

При реализации описанного алгоритма промежуточные оценки вычисляются по методу наименьших квадратов с помощью формулы Крамера к. = \и.\/\и|, / = 1, 2,..., п, где \и\ = \ХТХ| — определитель системы нормальных уравнений (4), 1и)\ — определитель, который получается из определителя матрицы и заменой /-го столбца столбцом свободных членов системы нормальных уравнений (4).

При наличии ошибок измерения выхода оценки можно представить в виде [3] к. = \иЦ\/\ и \ = к. + + \иЕ\/\и \, где и — матрица, содержащая ошибку е в ]-м столбце, или

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

к. = к. + е\В. \/и, (6)

где \В..\ — минор матриц и, не содержащий ошибок измерения выхода.

Ошибка оценки параметров Ак. = к. — к. и ошибка измерения выхода е связаны, как следует из формулы (6), следующим образом:

Ак = -е\Вц\/\и \.

Вероятностное распределение ошибки определения параметра Ак будет таким же, как и распределение ошибки е измерения выхода с точностью до не зависящего от помехи коэффициента \В..\/\и \.

Если Де) — плотность вероятности распределения центрированной ошибки измерения выхода (М{е} = 0), то среднее значение ошибки определения параметра объекта будет определяться формулой

I В I

М{Ак} = - Г Де)е Н|

ЕЙ С

и, очевидно, равно нулю.

Дисперсия ошибки определения параметра

)е |Ц| ‘к

= - Г Де).

ЕЙ й

.2 \Щ‘

йЕ.

Рассмотрим случай, когда априорно известная область существования параметров Н представляет собой параллелепипед с ребрами, параллельными осям координат в пространстве параметров. Ошиб-

Распределение ошибки оценки

ка измерения выхода имеет центрированное нормальное распределение N(0, а). Для оценок параметров используются блоки по п произвольных строк исходных данных, в которых только один выход измеряется с ошибкой. Рассмотрим два блока данных, отличающихся тем и только тем, что в одном случае ошибка измерения выхода имеет распределение N(0, а1), а в другом N(0, а2). Для определенности а1 > а2. Тогда имеет место следующее утверждение.

При прочих равных условиях, вероятность р1 выхода оценки кза границы области Н в первом случае будет больше вероятности р2 выхода оценки к за границы области Н во втором. Доказательство непосредственно следует из рисунка.

Дисперсии ошибки измерения выхода е и ошибки оценки АН параметров связаны (в соответствии с формулой (6)) коэффициентом а = —|Д..|/|и|, т. е.

У

дисперсии оценок а1к и а2к вычисляются через дисперсии ошибки измерения выхода по формулам а^ = аа 1 и 02ь = аа2.

Плотность вероятности ошибки определения параметров при ошибке измерения выхода с параметрами N(0, а1) и N(0, а2) и определяется формулами

/i(ki) =

/#2) =

>1h

(h - k1)

(h - k2 ) 2 a k h

CT2 h'J2n

Поскольку априорная область существования оценок в обоих случаях одна и та же, кт-п < кі < ктях,

то для вычисления вероятностей необходимо выполнять интегрирование тоже в одинаковых пределах.

Вероятности выхода оценок за область Н задаются формулами

p1 = 1 p2 = 1

j /i(ki)dh,

min

max

j /2(k2)dh.

ЗАКЛЮЧЕНИЕ

В работе рассмотрен алгоритм идентификации статического объекта, учитывающий априорную информацию о его параметрах. Алгоритм преобразует блок исходных данных в множество блоков меньшей размерности. Для каждого из этих блоков вычисляются оценки параметров объекта и запоминаются номера строк, использованных для вычисления этих оценок. Оператор, реализующий описанный алгоритм, преобразует матрицу исходных данных в специальную матрицу, учитывающую частоту попадания оценок в область Н. Рассмотрен объект, в котором входные переменные измерялись без ошибки, а выходные — с ошибкой.

Дан анализ связи ошибки измерения выхода с вероятностью выхода оценок параметров за априорно известную область существования параметров объекта. Найдены условия, при которых возможна точная идентификация объекта.

ЛИТЕРАТУРА

1. Чадеев В.М., Илюшин В.Б. Метод идентификации, учитывающий априорную информацию о параметрах объекта // Тр. V междунар. конф. «Идентификация систем и задачи управления» SICPRO’06. Москва, 30 января — 2 февраля 2006 г. / ИПУ РАН. — М. — 2006. — С. 1091—1105.

2. Чадеев В.М., Гусев С.С. Идентификация с ограничениями. Определение оценок параметров статического объекта // Тр. VII междунар. конф. «Идентификация систем и задачи управления» SICPR0’08. Москва, 28 — 31 января 2008 г. / ИПУ РАН. — М. — 2006. — С. 261—269.

3. Райбман Н.С., Чадеев В.М. Построение моделей процессов производства. — М.: Энергия, 1975.

Статья представлена к публикации членом редколлегии

Ф.Ф. Пащенко.

Чадеев Валентин Маркович — д-р техн. наук, ведущий науч. сотрудник, e-mail: [email protected],

Гусев Сергей Сергеевич — аспирант, e-mail: [email protected],

Институт проблем управления им. В.А. Трапезникова РАН,

г. Москва, в (495) 334-87-59.

h

h

min

2

2

1

а

e

1

e

i Надоели баннеры? Вы всегда можете отключить рекламу.