Научная статья на тему 'Аппроксимация многомерных невыпуклых множеств с помощью аппарата нейронных сетей'

Аппроксимация многомерных невыпуклых множеств с помощью аппарата нейронных сетей Текст научной статьи по специальности «Математика»

CC BY
342
84
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АППРОКСИМАЦИЯ / НЕЙРОННЫЕ СЕТИ / НЕВЫПУКЛЫЕ МНОЖЕСТВА / APPROXIMATION / NEURAL NETWORKS / NON-CONVEX SETS

Аннотация научной статьи по математике, автор научной работы — Калистратов Тимофей Александрович

Рассмотрен метод построения аппроксимирующего многогранника для произвольного невыпуклого многомерного множества на основе аппарата нейронных сетей. Представлен алгоритм построения нейронной сети для решения данной задачи, а также методы упрощения структуры построенной нейронной сети с целью облегчения построения аппроксимирующего многогранника. Изложены отличительные особенности представленного подхода.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

APPROXIMATING OF POLYHEDRON OF NON-CONVEX SETS WITH NEURAL-BASED NETWORKS

This article presents a method of constructing an approximating polyhedron of arbitrary non-convex multidimensional set with neural-based networks. An algorithm for constructing a neural network for solving this problem, as well as methods to simplify the structure of the neural network built to facilitate construction of the approximating polyhedron. Set out the distinctive features of the approach.

Текст научной работы на тему «Аппроксимация многомерных невыпуклых множеств с помощью аппарата нейронных сетей»

УДК 514.11

АППРОКСИМАЦИЯ МНОГОМЕРНЫХ НЕВЫПУКЛЫХ МНОЖЕСТВ С ПОМОЩЬЮ АППАРАТА НЕЙРОННЫХ СЕТЕЙ

© Т.А. Калистратов

Ключевые слова: аппроксимация; нейронные сети; невыпуклые множества.

Рассмотрен метод построения аппроксимирующего многогранника для произвольного невыпуклого многомерного множества на основе аппарата нейронных сетей. Представлен алгоритм построения нейронной сети для решения данной задачи, а также методы упрощения структуры построенной нейронной сети с целью облегчения построения аппроксимирующего многогранника. Изложены отличительные особенности представленного подхода.

Математическое моделирование является признанным средством поиска эффективных решений сложных проблем. При использовании математических моделей для поиска эффективных решений важную роль играют методы многокритериальной оптимизации, позволяющие учесть противоречивые требования, предъявляемые к рассматриваемым решениям. Одним из методов многокритериальной оптимизации является метод достижимых целей (МДЦ), нашедший в последнее время широкое распространение в практике поддержки принятия решений. В рамках МДЦ осуществляется аппроксимация и визуализация многомерных множеств достижимых значений критериев оценки качества решений (т. н. множеств достижимых целей). МДЦ помогает изучить как возможные значения критериев, так и взаимозависимости между их недоминируемыми сочетаниями, что способствует поиску и изучению разумных компромиссных. Другими важными областями применения МДЦ являются изучение возможных вариантов технических систем на предпроектной стадии процесса проектирования, анализ задач бизнеса, в т. ч. разработка стратегий развития фирм, финансовое планирование и т. д.

Для построения множеств достижимых значений критериев для выпуклых, в т. ч. и линейных моделей в рамках МДЦ используются итеративные методы аппроксимации выпуклых тел многогранниками. Аппроксимирующие многогранники строятся с помощью расчета значений опорной функции аппроксимируемого множества [1].

Задача аппроксимации многогранниками многомерных выпуклых фигур достаточно хорошо изучена, существуют алгоритмы, позволяющие построить асимптотически оптимальную последовательность многогранников, для которой

р(Ри, V) ~ 5(и,Е„), п ^ о> [2]. (1)

Однако методы аппроксимации в невыпуклом случае вряд ли разумно основывать на решении задач оптимизации - эти задачи могут оказаться крайне сложными [3].

Использование для аппроксимации многомерных невыпуклых множеств многослойного персептрона Розенблатта обусловлена следующими выводами, приведенными Ф. Уоссерменом в своей работе «Нейро-компьютерная техника. Теория и практика» [4]: при создании и обучении персептрона каждый нейрон первого слоя разделяет все п-мерное пространство на два подпространства, каждый нейрон второго слоя отделяет в пространстве некоторую выпуклую (не обязательно замкнутую) фигуру, а каждый нейрон третьего слоя определяет невыпуклую фигуру. Подобное разделение согласуется с существующими методами аппроксимации невыпуклых фигур выпуклыми, а также выпуклых фигур многогранниками.

Нейронная сеть, предназначенная для решения задачи описанного типа, имеет следующие структурные особенности:

- сеть имеет три вычисляющих слоя, в третьем слое присутствует один элемент;

- число входов определяется размерностью задачи, выход один, представляющий собой функцию, показывающую принадлежность или непринадлежность точки к фигуре;

- коэффициенты весов, соединяющих нейроны первого уровня со входами, вещественны; коэффициенты остальных весов принадлежат множеству {-1, 0, 1}.

Построение структуры подобной сети носит итеративный характер и может быть описано следующим алгоритмом:

1) построение начальной структуры сети: на

третьем слое присутствует один нейрон, на втором слое - один нейрон, число нейронов первого слоя вычисляется по формуле

3- л/и-( 9/е) (п-1)/2, (2)

полученной в [5], где 8 - относительная погрешность аппроксимации выпуклых фигур;

2) попытка обучения сети. При удовлетворительных результатах обучения конец алгоритма;

3) добавление элементов в структуру сети. Во второй слой сети добавляется один нейрон, в первый слой

сети добавляется количество нейронов, рассчитываемое по формуле (2);

4) переход к шагу 2.

Заметим, что относительная погрешность аппроксимации выпуклых фигур задается моделирующим на основе общей допустимой погрешности аппроксимации, однако является ее составной частью, поэтому должна быть меньше последней. При этом выбор слишком малой погрешности аппроксимации выпуклых фигур приводит к слишком большому числу нейронов первого слоя, что в свою очередь может привести к превышению вычислительной сложности задачи разумных пределов или к зашумлению самой сети и росту ее погрешности.

По окончании построения структуры с сетью следует произвести следующие преобразования для выявления и удаления вырожденных элементов модели 5т2931:

- отбрасывание всех весов с нулевым весом (или весом ниже порогового для нейроной первого слоя);

- исключение из сети нейронов, не передающих свое значение никакому другому нейрону;

- объединение нейронов, имеющих одинаковые функции активации (отличие каждого коэффициента в функциях активации ниже некоторого порога).

После проведения описанных выше преобразований сеть необходимо заново обучить. В случае возрастания ошибки сети проведенные преобразования следует отменить и пересмотреть пороговые значения, отвечающие за отброс весов и объединение нейронов.

Следует отметить, что особенность функционирования нейронных сетей такова, что влияние каждого параметра сети на функционирование самой сети является псевдослучайной величиной, т. к. просчитывание всех возможных взаимодействий внутри сети является задачей высокой вычислительной сложности. Поэтому незначительное изменение структуры сети может привести к значительным изменениям ее функционирования, из-за чего нельзя дать рекомендаций по выбору «безопасных» пороговых значений.

После построения и упрощения структуры сети ее можно использовать для определения принадлежности точки моделируемому множеству. Однако помимо «классического» использования построенной нейронной сети на основании коэффициентов, полученных в ходе ее обучения, можно получить аналитическую запись аппроксимирующего многогранника. Напомним, что коэффициенты каждого нейрона первого

уровня задают некоторую плоскость в и-мерном пространстве, совокупность которых в качестве ее граней задает аппроксимирующую фигуру.

В заключение стоит отметить отличительные особенности такого подхода к аппроксимации многомерных множеств:

1) построение нейросетевой модели позволяет одновременно решать как задачу разбиения невыпуклых множеств на совокупность выпуклых, так и задачу аппроксимации получаемых выпуклых множеств;

2) для построения подобной модели необходима обучающая выборка (набор входных данных с известным результатом), размеры которой должны соотноситься с размерами самой нейронной сети;

3) если в ходе преобразования нейронной сети было удалено недостаточно вырожденных элементов, роль некоторых элементов сети будет нетривиальной, что может усложнить извлечение аналитической ап-проксимационной фигуры.

ЛИТЕРАТУРА

1. Бурмистрова Л.В. Анализ и использование адаптивных методов аппроксимации выпуклых тел многогранниками: автореф. дис. ... канд. физ.-мат. наук / МГУ им. М.В. Ломоносова. М., 2000.

2. Бронштейн Е.М. Аппроксимация выпуклых множеств многогранниками // Современная математика. Фундаментальные направления. М., 2007. Т. 22.

3. Березкин В.Е., Каменев Г.К., Лотов А.В. Реализация метода достижимых целей для нелинейных моделей в MS Excel // Вычислительный центр Российской академии наук. М., 1999.

4. Уоссермен Ф. Нейрокомпьютерная техника: теория и практика. М., 1992.

5. Бронштейн Е.М., Иванов Л.Д. О приближении выпуклых множеств многогранниками // Сибирский математический журнал. 1975. Т. 16. № 5. С. 1110-1112.

Поступила в редакцию 26 мая 2014 г.

Kalistratov T.A. APPROXIMATING OF POLYHEDRON OF NON-CONVEX SETS WITH NEURAL-BASED NETWORKS

This article presents a method of constructing an approximating polyhedron of arbitrary non-convex multidimensional set with neural-based networks. An algorithm for constructing a neural network for solving this problem, as well as methods to simplify the structure of the neural network built to facilitate construction of the approximating polyhedron. Set out the distinctive features of the approach.

Key words: approximation; neural networks; non-convex sets.

Калистратов Тимофей Александрович, Тамбовский государственный университет им. Г.Р. Державина, г. Тамбов, Российская Федерация, аспирант, кафедра компьютерного и математического моделирования, e-mail: [email protected]

Kalistratov Timofey Aleksandrovich, Tambov State University named after G.R. Derzhavin, Tambov, Russian Federation, Post-graduate Student, Computing and Mathematical Modeling Department, e-mail: [email protected]

i Надоели баннеры? Вы всегда можете отключить рекламу.