Научная статья на тему 'Алгоритм выделения существенных переменных при помощи оптимизации вектора cs [7]'

Алгоритм выделения существенных переменных при помощи оптимизации вектора cs [7] Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
93
12
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СУЩЕСТВЕННЫЕ ПЕРЕМЕННЫЕ / НЕПАРАМЕТРИЧЕСКАЯ МОДЕЛЬ / НЕПАРАМЕТРИЧЕСКИЕ АЛГОРИТМЫ / ЗАДАЧА ИДЕНТИФИКАЦИИ / SIGNIFICANT VARIABLES / NONPARAMETRIC MODEL / NONPARAMETRIC ALGORITHMS / IDENTIFICATION PROBLEM

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Михов Е.Д.

Предложен алгоритм выделения наиболее информативных, существенных переменных в задачах восстановления функции по результатам наблюдений. Данный алгоритм может использоваться при проектировании космических аппаратов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ALGORITHM OF THE MOST INFORMATIVE VARIABLE IDENTIFICATION BY OPTIMIZING CS VECTOR

The paper proposes algorithm of the most informative variable identification in the tasks of reconstructing a function of several variables on the results of monitoring. This algorithm can be used in the spacecraft design.

Текст научной работы на тему «Алгоритм выделения существенных переменных при помощи оптимизации вектора cs [7]»

Математические методы моделирования, управления и анализа данных.

Комплексной характеристикой процесса поиска глобального минимума является оценка Рправ вероятности попадания получаемых искомых переменных в заданную е окрестность истинного решения. На рис. 2 представлена зависимость оценки вероятности попадания получаемых искомых переменных в заданную е окрестность истинного решения от числа п пробных точек при 100 < п < 500 . Параметры алгоритма минимизации следующие: (х°, у0 ) = (-10; -10), (Ах0, Ду0) = (20; 20), у = 1, q = 2, ядро по минимизируемой функции параболическое со степенью селективности ^ = 50. Параметры исследования: число реализаций N = 101, размер окрестности истинного решения е = 0,0005 . Оценка вероятности попадания найденного решения в окрестность истинного решения равна 1 при п > 150.

100 150 2QO 250 300 350 400 J 50 500 n

Рис 2. Зависимость оценки вероятности попадания найденного решения в окрестность истинного решения от объема выборки n

Библиографические ссылки

1. Bussieck M. R., Pruessner A. Mixed-Integer Nonlinear Programming // SIAG/OPT Newsletter: Views & News. 2003. Pp. 19-22.

2. Rouban A. I. Method for Global Optimization in Continuous Space // AMSE Journals. Series: Advances A. 2003. Vol. 40 (4). Рр. 9-28.

3. Рубан А. И. Глобальная оптимизация методом усреднения координат : моногр. Красноярск : ИПЦ КГТУ, 2004. 303 с.

4. Кузнецов А. В. Алгоритмы глобальной оптимизации функций в пространстве непрерывных переменных при наличии ограничений-неравенств : дис. ... канд. техн. наук / КГТУ. Красноярск, 2006. 138 с.

5. Рубан А. И. Метод глобальной оптимизации, основанный на селективном усреднении координат при наличии ограничений // Вестник ТГУ. 2013. Вып. 1(22). С. 14-123.

References

1. Bussieck M. R., Pruessner A. Mixed-Integer Nonlinear Programming. In SIAG/OPT Newsletter: Views & News, 2003, рр. 19-22.

2. Rouban A. I. Method for Global Optimization in Continuous Space. AMSE Journals, 2003, Series: Advances A, Vol. 40 (4), рp. 9-28.

3. Rouban A. I. Global'naya optimizatsiya metodom usredneniya koordinat [Global optimization by a method of averaging of coordinates]. Krasnoyarsk, KGTU Publ., 2004. 303 p.

4. Kuznetsov A. V. Algoritmy global'noy optimizatsii funktsiy v prostranstve nepreryvnykh peremennykh pri nilichii ogranicheniy - neravenstv. Dis. kand. tehn. nauk. [Algorithms of global optimization of functions in space of continuous variables in the presence of restrictions -inequalities Cand. Tech. Sci. diss]. Krasnoyarsk, KGTU Publ., 2006. 138 p.

5. Rouban A. I. Metod global'noy optimizatsii, osnovannyy na selektivnom usrednenii koordinat pri nalichii ogranicheniy [Global optimization method based on the selective averaging coordinate with restrictions] // J. Control and Computer Science, 2013, Vol. 1(22), рp. 114-123.

© Михалев А. С., Рубан А. И., 2016

УДК 519.87

АЛГОРИТМ ВЫДЕЛЕНИЯ СУЩЕСТВЕННЫХ ПЕРЕМЕННЫХ ПРИ ПОМОЩИ ОПТИМИЗАЦИИ ВЕКТОРА С/

Е. Д. Михов

Сибирский федеральный университет Российская Федерация, 660041, г. Красноярск, просп. Свободный, 79 E-mail: edmihov@mail.ru

Предложен алгоритм выделения наиболее информативных, существенных переменных в задачах восстановления функции по результатам наблюдений. Данный алгоритм может использоваться при проектировании космических аппаратов.

Ключевые слова: существенные переменные, непараметрическая модель, непараметрические алгоритмы, задача идентификации.

1 Работа была поддержана министерством образования. Соглашение: 14.578.21.0021. Уникальный идентификатор: КРМЕР157814Х0021.

<Тешетневс^ие чтения. 2016

ALGORITHM OF THE MOST INFORMATIVE VARIABLE IDENTIFICATION BY OPTIMIZING CS VECTOR

E. D. Mikhov

Siberian Federal University 79, Svobodny Av., Krasnoyarsk, 660041, Russian Federation E-mail: edmihov@mail.ru

The paper proposes algorithm of the most informative variable identification in the tasks of reconstructing a function of several variables on the results of monitoring. This algorithm can be used in the spacecraft design .

Keywords: significant variables, nonparametric model, nonparametric algorithms, identification problem.

Введение. Мы интерпретируем термин «информативность переменных» как переменных наиболее значимо влияющих на значение выходной переменной того или иного объекта, процесса. Те входные переменные, значение которых оказывает наиболее слабое влияние на выходную переменную, называем менее информативными, а те, значения которых имеют большее влияние на выходную переменную, - более информативными. Исследование данного свойства переменных имеет особую значимость при проектировании космических аппаратов. Из-за ограниченности полезной нагрузки у аппаратов, отправляемых на орбиту, такая операция, как определение, какие из аппаратов дают максимально полезную информацию, и, как следствие, ранжирование аппаратов по важности, представляется актуальной.

Алгоритм оценки информативности признаков на основе оптимизации параметра размытости ядра. В настоящее время существуют несколько методов нахождения информативных признаков [1], но данные методы неточны, вследствие чего был предложен новый метод нахождения информативных признаков.

Перед использованием алгоритма оценки информативности признаков на основе оптимизации параметра размытости ядра, необходимо провести центрирование и нормирование элементов вектора и из обучающей выборки.

Непараметрическая оценка функции регрессии по наблюдениям имеет вид (1)

X (и) =

X * П Ф

i=1 j=1

f Uj - Ujt ^

ХП Ф

i=1 j=1

f uj- ujiл

(1)

где х!: (и) - это непараметрическая оценка функции х(и) в точке и.

Как видно из (1) с каждой компонентой вектора и мы связали соответствующую компоненту вектора с8. Далее, на основании имеющейся обучающей выборки необходимо найти оптимальные с,!*, с^*, ..., сш* из условия минимума (2):

a(cs) = 4 1X ( (uk , cs) - хк )

V 5 к=1

(2)

где, с учетом (1), к Ф i.

После нахождения вектора с8* необходимо произвести сортировку элементов вектора с8* от наименьшего по модулю к наибольшему по модулю. Таким образом, получится цепочка неравенств, например, цепочка, может иметь следующий вид: |с,2*| < |с,9*| < < |с^*| <...< 10,4*1 < |с,3*|. Тот компонент вектора и, у которого соответствующий элемент вектора с8* оказался наибольшим, является кандидатом на исключение из непараметрической оценки как наименее информативный.

Вычислительный эксперимент. Проведем вычислительные эксперименты по нахождению наиболее информативных переменных в задаче восстановления функции по наблюдениям.

У изучаемого объекта будет 10 входных переменных и 1 выходная. Воздействие помехи равно 5 %. Размер выборки равен 1000. Далее используем приведенные выше правила поиска наиболее информативных признаков на основе оптимизации вектора с8 . Оптимизация производится при помощи алгоритма Неддлера-Мидда (деформируемого многогранника) [2].

Исследуем случай, при котором на выходную переменную действуют две малоинформативные переменные.

Объект описывается формулой (3):

х(и) = 3,62и1 + 3,69и2 + 3,79и3 + 0,75и4 + 3,73и5 + 3,61и6 + 3,79и7 + 3,78и8 + 0,62и9 + 3,61и10. (3)

Стоит отметить, что формула, описывающая объект, неизвестна исследователю, она используется только для генерации выборки.

Исходя из формулы (3), можно заключить, что переменные и4 и и9 - малоинформативные. Следовательно, по сформулированному выше правилу они должны быть исключены, что и происходит.

Результаты вычислений представлены в таблице, где символ «-» означает отсутствие компонент вектора и при описании исследуемого процесса.

Как видно из таблицы, неинформативные признаки были верно определены на первых двух тактах, о чем свидетельствует уменьшение ошибки моделирования. Когда была извлечена переменная и! на третьем такте, это привело к увеличению ошибки моделирования, что свидетельствует об информативности переменной щ.

Математические методы моделирования, управления и анализа данных

Результаты нахождения наиболее информативных признаков

Такт 1, ошибка моделирования 5,5 % Такт 2, ошибка моделирования 5,0 %

Номер входной переменной Компоненты вектора а cs Номер входной переменной Компоненты вектора а cs

1 3,62 0,59 1 3,62 0,83

2 3,69 0,55 2 3,69 0,91

3 3,79 0,53 3 3,79 0,43

4 0,75 1,26 4 0,75 1,23

5 3,73 0,87 5 3,73 0,90

6 3,61 0,56 6 3,61 0,55

7 3,79 0,70 7 3,79 0,53

8 3,78 0,69 8 3,78 0,87

9 0,62 2,72 - - -

10 3,61 0,51 10 3,61 0,75

Такт 3, ошибка моделирования 4,3 % Такт 4, ошибка моделирования 6,1 %

Номер входной переменной Компоненты вектора а cs Номер входной переменной Компоненты вектора а cs

1 3,62 0,70 - - -

2 3,69 0,64 2 3,69 0,76

3 3,79 0,58 3 3,79 0,48

- - - - - -

5 3,73 0,63 5 3,73 0,69

6 3,61 0,69 6 3,61 0,67

7 3,79 0,67 7 3,79 0,59

8 3,78 0,65 8 3,78 0,72

- - - - - -

10 3,61 0,57 10 3,61 0,58

Таким образом, изложенная выше методика нахождения информативных признаков в задачах идентификации представляется обнадеживающей, что подтверждается результатами многочисленных вычислительных экспериментов.

Библиографические ссылки

1. Загоруйко Н. Г. Когнитивный анализ данных. Новосибирск : Гео, 2013. 186 с.

2. Михов Е. Д. Оптимизация коэффициента размытости ядра в непараметрическом моделировании // Вестник СибГАУ. 2015. № 2(16). С. 338-342.

References

1. Zagoruyko N. G. Cognitive analysis of the data. Novosibirsk : Geo, 2013. 186 p.

2. Mikhov E. D. Smoth coefficient's optimization in the parametric modeling's task // Vestnik SibSAU. 2015. № 2(16), pp. 338-342.

© Михов E. Д., 2016

i Надоели баннеры? Вы всегда можете отключить рекламу.