Актуальные проблемы авиации и космонавтики. Информационные технологии
УДК 519.68
А. А. Корнеева Научный руководитель - А. В. Медведев Сибирский федеральный университет, Красноярск
НЕКОТОРЫЕ ЗАМЕЧАНИЯ К ЗАДАЧЕ ПАРАМЕТРИЧЕСКОЙ ИДЕНТИФИКАЦИИ
Рассматривается задача параметрической идентификации или идентификации в «узком» смысле. Исследуется влияние неточности в выборе параметрической структуры модели на результаты численного моделирования исследуемого объекта. Приводятся результаты вычислительного эксперимента.
При решении задач идентификации большую роль играет уровень априорной информации [1; 2] об исследуемом процессе. При изучении того или иного объекта мы сталкиваемся с недостатком априорной информации, влиянием случайных помех, погрешностями измерений, то есть обладаем, в различной мере, неполной информацией. В зависимости от уровня априорной информации об объекте различают задачи идентификации в «узком» и «широком» смыслах [2].
Задача параметрической идентификации или идентификации в «узком» смысле, разбивается на два этапа. Исследуемый процесс описывается зависимостью вида х(') = А(и('), )), где ) - случайная помеха. На первом этапе, на основании имеющейся априорной информации, определяется параметрический класс операторов Аа, например: ха (') = Аа (и('), а), где Аа - параметрическая структура модели, а а - вектор параметров [3]. На втором этапе осуществляется оценка параметров а на основе имеющейся выборки {х,, и, , = 1,5"}, £ -объем выборки. Успех решения задачи идентификации в этом случае существенно зависит от того, насколько «удачно» определен оператор Аа .
Идентификация в «широком» смысле предполагает отсутствие этапа выбора параметрического класса оператора. Часто оказывается значительно проще определить класс операторов на основе сведений качественного характера, например, линейности процесса или типа нелинейности, однозначности либо неоднозначности и др. В этом случае задача идентификации состоит в оценивании этого оператора на основе выборки {х,-, и, I = 1,в форме х5 (') = А5 (и('), х5, и5),
где х5 = (х1,х2,...,х5),и5 = (и1,и2,...,и5) - временные векторы.
При вычислительном эксперименте уравнение объекта было принято в виде:
х' = 0.5и{ + sin(u2) + и3.
(1)
сделать это лишь в рамках вычислительного эксперимента, поскольку сами задаем исследуемый процесс в виде структуры (1). Уравнение модели имеет следующий вид:
Х' = а1и{ +а2 sin(u2) + а3и3.
(2)
Оценка параметров а1, а2, а3 осуществлялась с помощью метода наименьших квадратов. Относительная ошибка моделирования ст для уравнения (2) близка нулю, параметры оцениваются достаточно точно, при наложении помех 5 % и 10 % ошибка составляет 9 % и 18 % соответственно.
Оценка качества моделирования производилась по формуле
1 5 1 5
ст = Л 5 Е( х - х (и))21-
х, )2
(3)
где т - оценка математического ожидания выхода объекта.
На втором этапе мы допустили неточность в выборе параметрической структуры модели, как это и бывает на практике. Пусть модель процесса (1) описывается уравнением вида х =а1и/ +а^т(0.8и 2) + а3и3. В этом случае ошибка ст составила 46 % в условии отсутствия помех, 49 % и 5 1% при действии 5 % и 10 % помех соответственно. На рис.1 проиллюстрировано отклонение выхода модели (пунктирная линия) от истинного выхода объекта (сплошная линия), , -текущая итерация при произвольных значениях входных воздействий из интервала [0; 3].
где и1('), и2('), и3(') - входные переменные объекта, а х(') выходная переменная, то есть на вход объекта подается управляющее воздействие
и(') = (и1 ('), и2 ('), и3(')) е [0; 3]. Обучающая выборка формировалась случайным образом при различных объемах 5 = 100, 200, 300.
На первом этапе численного исследования мы «угадали» верную структуру объекта [4]. Мы можем
5 Я В Й- & .М £ «
Рис. 1
Секция «Математические методы моделирования, управления и анализа данных»
о s u s го в so в *>
Рис. 2
Как видно из вышесказанного, отклонение выхода модели от истинного выхода объекта значительно, хотя ошибка в выборе структуры модели не существенна. При выборе модели в виде х =а1м1' +а2 зт(0.99и2) + а3«3 относительная ошибка моделирования составила 9 %, при наложении помех 5 % и 10 % - 13 % и 19% соответственно (рис.2). Ошибка моделирования приближается к нулю лишь при выборе структуры вида
х = а1м]1 +а2 sin(0.99и2) + а3«3,
то есть при почти совпадающей параметрической структуре.
Результаты данного эксперимента показывают, что выбор параметрической структуры модели является очень важным этапом моделирования в «узком» смысле. Ошибка, пусть даже и не существенная, приводит к значительному снижению качества моделирования. Эта проблема отсутствует при непараметрической идентификации стохастических объектов [3]. Важную роль при этом играет так же анализ данных [4], предваряющий задачу идентификации.
Библиографические ссылки
1. Цыпкин Я. З. Основы информационной теории идентификации. М. : Наука, 1984. 320 с.
2. Эйкхофф П. Основы идентификации систем управления. М. : Мир, 1975. 683 с.
3. Медведев А. В. Непараметрические системы адаптации. Новосибирск, Наука, 1983. 174 с.
4. Корнеева А. А. О непараметрическом восстановлении матрицы наблюдений с пропусками в задаче идентификации с шумами //Молодой ученый. - 2012. № 3(38). С. 51- 60.
© Корнеева А. А., 2012
А. А. Коромыслова Научный руководитель - Е. С. Семенкин Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева, Красноярск
ИССЛЕДОВАНИЕ СВОЙСТВА МАСШТАБИРУЕМОСТИ ГЕНЕТИЧЕСКОГО АЛГОРИТМА
Разработана и протестирована программа безусловной оптимизации функций многих переменных генетическим алгоритмом.
Генетические алгоритмы способны не только решать задачи оптимизации, но и сокращать перебор в сложных задачах. Генетический алгоритм основан на имитации естественной эволюции [1]. Данная работа посвящена определению зависимости между числом переменных и ресурсами, затрачиваемыми для достижения заданной надежности при решении задач безусловной оптимизации функций многих переменных.
Тестирование генетического алгоритма проводилось на следующих функциях:
1. Функция Растригина:
I(x, y) = 0.1x2 + 0.1y2 - 4 • cos(0.8 • x) - 4 • cos(0.8 • y) + 8 x,y e [-16;16], min = I(0,0) = 0
2. Аддитивная потенциальная функция:
I (Xj, x2) = z( Xj) + z(x2),
1
z( x) = -
1
1
(x -1)2 + 0.2 2( x - 2)2 + 0.15 3(x - 3)2 + 0.3
x1,x2 e[0;4], min = I(2,2) = -15.6 3. Мультипликативная потенциальная функция:
z( x) = -
I (x1, x2) = - z (x1) z (x2), 1 1
(x -1)2 + 0.2 2( x - 2)2 + 0.15 3( x - 3)2 + 0.3
xj, x2 e [0; 4], min = I(2,2) = -60.8
Генетический алгоритм способен решать задачи большой размерности, благодаря свойству масштабируемости. Оно заключается в способности алгоритма находить решение поставленной задачи с заданной точностью и при этом затрачивать не большое количество ресурсов, по сравнению с увеличением размерности поискового пространства.
Чтобы исследовать генетический алгоритм на масштабируемость была зафиксирована определённая надежность. После этого было проведено тестирование данных функций для одной, двух, трёх, четырёх, пяти, десяти, пятнадцати и двадцати переменных. Число затрачиваемых ресурсов на решение задачи
1