14. Расчет /1ср а и р+1 .
15. Передача служебной информации агентам уровня - -1.
16. Переход к п.1.
Разработанный алгоритм организует и оптимизирует распределенные вычисления методом принятия коллективного решения с использованием МС. Выполняется на фоне решения основной задачи. Время, затраченное на переконфигурацию структуры МС, из-за изменений в системе или поступления нового задания сводится к минимуму и оказывает относительно небольшое влияние на общее время ре.
БИБЛИОГРДФИЧЕСКИЙ СПИСОК
1. Лорин Г. Распределенные вычислительные системы. - М.: Радио и связь, 1984. - 296 с.
2. Таненбаум Э. Распределенные системы: принципы и парадигмы. - СПб: Питер, 2003. -877 с.
3. Хованское С.А.,Мельник Э.В.Блуишвили И.В. Метод организации распределенных вычислений в управляющих системах // Мехатроника, автоматизация, управление. «Новые технологии», №4, 2003.
4. Мельник Э.В.,Иванов В.В.,Погорелов КВ. Об одном подходе к организации поиска
// , « многопроцессорные системы». - Таганрог: Изд-во ТРТУ, №10, 2005.
МЛ. Щербинина
ПРИМЕНЕНИЕ НЕЙРОСЕТЕВОЙ СТРУКТУРЫ МОДУЛЬНОГО ТИПА ДЛЯ РЕШЕНИЯ НАВИГАЦИОННОЙ ЗАДАЧИ*
Ставится задача определения координат летательного аппарата по измеренным расстояниям до опорных радиомаяков. Если рассматривается более трех радиомаяков, то аналитически задача не решается. Предложенные способы решения, основанные на методе наименьших квадратов, требуют больших вычислительных ресурсов. Поэтому предлагается использовать нейронные сети для решения поставленной задачи. Нейросетевые средства отличаются компактностью вычисле-, -
стью. В работе предлагается использовать модульную нейросетевую структуру для решения навигационной задачи.
. -
разом (рис.1). В трёхмерном декартовом пространстве заданы координаты точек, в которых находятся опорные радиомаяки. Необходимо определить положение летательного аппарата (ЛА) по измеренным расстояниям Д от ЛА до опорных радиомаяков ( = 1, п). Предполагается, что схема расположения маяков фиксирована, а
ЛА находится внутри заданного куба, называемого областью решения. Необходимо с точностью не более чем 10 м оценить координаты летательного аппарата х, у
и г по измерениям дальностей Д до радиомаяков. Предполагается, что координаты
радиомаяков заданы с погрешностями и измерения дальностей также производятся на фоне помех.
Поставленная прикладная задача относится к классу задач аппроксимации функций многих переменных. В роли функций выступают оцениваемые координа-
* Работа выполнена при финансовой поддержке РФФИ (проект № 05-08-01421).
ты х, у и г, а независимыми переменными являются Б,, 1, п. В дальнейшем для аппроксимируемых функций будет использоваться обозначение ^(у1, у2, ... vn), а для независимых переменных - V, і = 1, п.
Обсуждение возможностей применения многослойного персептрона для решения навигационной задачи. Зависимости координат х, у и г от дальностей Бі
1, п являются гладкими нелинейными функциями. Как известно, гладкие нелинейные функции хорошо аппроксимируются с помощью искусственных нейронных сетей [1,2]. В рамках классической схемы для решения навигационной задачи можно использовать архитектуру - многослойный персептрон.
Качество построенного нейросетевого аппроксиматора оценивают по сово. -, ,
.
сложность его архитектуры, т.е. число связей между нейронами. Избыточная сложность персептрона приводит к эффекту «переобучения» сети [1,2]. Итоговая точность аппроксимации представлена несколькими показателями ошибок, т.е. расхождений между желаемым и реальным выходом персептрона. Точность аппроксимации можно повысить, если взять достаточно много обучающих примеров, представляющих всю пространственную область аппроксимации. Вычислительные затраты ограничиваются техническими возможностями или установленным временем для решения задачи.
Рис.1.Иллюстрация к постановке навигационной задачи
Описанные характеристики оценки нейросетевого аппроксиматора взаимосвязаны. Возникают некоторые противоречия при построении персептрона, оптимизированного по всем характеристикам. Улучшение одной из них может привести к ухудшениям других. Поэтому нужно рассматривать некоторый компромисс по требованиям к каждой из перечисленных характеристик.
Для проведения эксперимента предполагалось, что используется 4 радиомаяка. Использовалась следующая область решения: х-от -5000 м до 5000 м, у-от 0 м до 4000 м и г-от -5000 м до 5000 м.
Проведенный анализ показал, что зависимости координат х, у и г от дальностей Di не являются сложными. Чтобы обеспечить высокую точность аппроксимации, было создано порядка 500 000 примеров, равномерно распределенных в области решения. Из-за высокой вычислительной сложности заданную высокую точ-(10 ) . -« » х, у г, . . -
.
На ограниченной области решения (х - от 0 м до 5000 м, у - от 2000 м до 4000 м и г - от 0 м до 5000 м; число точек около 50 000) был построен многослойный персептрон с числом нейронов по слоям 12:12:12 и сигмоидальными активационными характеристиками, который аппроксимировал координаты х, у и г со средней точностью 8 м.
Полученные результаты показали, что данную задачу невозможно решить в большой области решения с заданной точностью на многослойном персептроне, поэтому в качестве аппроксиматора уместно использовать модульную нейросете.
Нейросетевая архитектура модульного типа. При решении задачи аппроксимации функции многих переменных Е(у1, У2, ... У„) с помощью модульной нейро-сетевой структуры предполагается, что область изменения независимых переменных V,, г = Щ разделена на локальные подобласти [3,4]. Подобласти также можно выделять и в области значений функций F(v1, v2, ... V,,). Внутри каждой локальной области отдельно и независимо от других локальных областей может быть построена своя аппроксимация ри ^, v2,..., Vп) функции (у = 1, к , где К - число
локальных областей). Таким образом, прогноз значений Е^, ^, ... V,) на всей области изменения независимых переменных формируется путем обобщения локаль-.
Модульная сеть (рис.2) состоит из классификатора и модулей, каждый из которых настраивается на локальную область.
^..., vn )
Рис. 2. Общая схема модульной нейронной сети
Принадлежность точек к зоне действия модуля определяется классификатором, а сама локальная функциональная зависимость Еи)(уи v2,...,Vп) - локальным
аппроксиматором. Количество К таких модулей определяется числом локальных разнородных областей в описании сложной функциональной зависимости и заданной точностью аппроксимации. Нейросетевая структура включает в себя выходной , -вое значение аппроксимируемой зависимости. Для того чтобы не возникало резких изменений функции на границах действия модулей, локальные подобласти задаются с некоторым перекрытием. В этом случае обеспечивается гладкость функции ^ ...,vn).
В качестве классификатора могут быть использованы: многослойный персеп-, . также реализован на многослойной нейронной сети или сети с радиальнобазисными активационными характеристиками.
Каждый модуль описанной нейросетевой структуры обучается отдельно и независимо от других модулей. Это позволяет использовать для обучения каждого аппроксиматора значительно меньшее число обучающих примеров, нежели в сети, настраиваемой по всему пространству независимых переменных. Меньшая сложность функции в локальной области позволяет добиться более высокой точности для фиксированной архитектуры сети. А значит, не требуется использовать слишком сложные модули для решения задачи аппроксимации, что значительно сокращает время обучения. Кроме того, при обнаружении больших ошибок при обработке тестовых или обучающих примеров в определенной локальной области тре-
( ), -
вующий в данной локальной области.
,
персептроном позволяет добиться более высокой точности, используя нейросете-вые модули существенно меньшей сложности.
Подготовка обучающей выборки. Для решения навигационной задачи на модульной нейросетевой структуре предлагается разделить всю область значений функций х, у и г на 8 параллелепипедов - локальных областей. Четыре класса накрывали область высот от 100 м до 2000 м, а остальные - от 2000 м до 4000 м. Каждый класс располагался в проекции на плоскость (х, у) в одном из квадрантов. Постоянная ширина перекрытия классов составляла 500 м. Число радиомаяков - 4.
Принадлежность обучающего примера локальной области понимается, как принадлежность примера классу. Для обучения локальных классификаторов используются данные всей области значений функций х, уи г. Обучающий пример , .
Таблица
Общий вид обучающего примера нейроеетевого классификатора
№ примера Д Д Д Д С, С? С 8
В таблице под Д , - = 1,4 понимаются дальности до радиомаяков, Су - желаемые выходы классификатора - код примера, указывающий на принадлежность к классам (у = 18, су = {-1, +1}). Если пример при надлежит классу у, то у'-й желаемый
выход Су равен +1, а остальные равны 1. Возможна ситуация, когда пример лежит в перекрытие между классами к и I. В этом случае выходы Ск и С1 равны +1. Реальный выход классификатора с™ принимает действительные значения в интервале
[-1; +1]. Число примеров классификатора может быть существенно меньше, чем общее число обучающих примеров, так как обученный классификатор дает грубую х, у г. у - ,
х, у г, . , -
у - -
ного выхода С™.
При обучении классификатора возможна ситуация, когда желаемый выход Су = +1, а реальный С^ < -ву, где ву - параметр, определяющий порог принадлежности примера классу у. Значение параметра ву для каждого класса определяет-
ся отдельно с учетом распределений значений выходов классификатора. Если Сж > в,-, пример принадлежит классу у. Будем называть эту ситуацию ошибкой
первого рода. Возможна и обратная ситуация: С = -1, а Сш > ву - ошибка второ-
3 3
. , , -.
нейросетевого классификатора - примеры соседнего класса оказывают большое влияние на ошибочно классифицируемый пример и «затягивают» его в свой класс.
Поэтому формирование выборки для обучения локальных аппроксиматоров происходит после обучения и с учетом выходов классификатора. В обучающую выборку у'-го аппроксиматора входят только те примеры, которые «распознаются» классификатором как принадлежащие у'-ому классу.
Каждый локальный аппроксиматор строит в своем классе по значениям дальностей Д, Д, Д и Д прогноз значений координат ~, ~ и г . Обучение нейросетевого аппроксиматора выполняется классическим методом обратного распространения ошибки [5].
,
непосредственно измеренные значения дальностей, а их преобразованные значения Д, Д, Д и Д. Нелинейное преобразование дальностей, как показал опыт, существенно сокращает время обучения классификатора и локальных аппроксиматоров, и позволяет использовать сети с меньшим числом слоев и нейронов.
Для формирования итогового прогноза ~,~ и ~ , кроме выходов локальных , . предполагается использовать в роли весовых коэффициентов.
Обсуждение результатов нейросетевой аппроксимации. Для обучения классификатора модульной нейросетевой структуры в области решения было смо-45 000 ,
200 . -цам, так и принадлежащие границам классов. В качестве классификатора использовалась многослойный персептрон с сигмоидальными функциями активации.
Был проведен ряд экспериментов по построению классификаторов различных архитектур. Наиболее удачными по частоте ошибок первого и второго родов оказались персептроны с числом нейронов от 20 до 30 в двух скрытых слоях.
На рис.3 показаны гистограммы относительных частот для выхода С^ классификатора при условии принадлежности выборочных примеров классу 2 ( С2 = +1). 3, ,
3, - .
На рис.4,а представлены результаты статистической обработки выхода классификатора по данным обучающей выборки. Рис.4 содержит две построенные в общей системе координат гистограммы относительных частот, рассчитанные при условии, что входной вектор не принадлежит классу 2 (левая гистограмма, левая ), ( , -
).
Гистограммы не перекрываются, так что можно выбрать порог в, который определяет принадлежность примера классу. Аналогичные гистограммы приведены на рис.4,6 для тестовой выборки.
а б
Рис.3. Гистограмма относительных частот для выхода 2 классификатора при условии принадлежности выборочных примеров классу 2
а б
Рис. 4. Гистограммы относительных частот для выхода 2 классификатора при условиях, что пример принадлежит классу С2 и не принадлежит классу С2
Анализ показывает, что обученный нейросетевой классификатор обладает
свойством обобщения данных и позволяет также правильно классифицировать
данные тестовой выборки.
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Хайкин С. Нейронные сети. Полный курс. - М., С-Пб., Киев: Издательский Дом "Вильямс", 2005.
2. Осовский С. Нейронные сети для обработки информации. - М.: Финансы и статистика, 2004.
3. Оныкий Б.Н., Мишулина О.А., Похвалов ЮЖ., Харитонов B.C., Щербинина М.В., Построение аппроксимационной модели для критического теплового потока в трубах с использованием модульной нейронной сети // Сб. научных трудов «Нейроинформатика-2004», Ч. 1. - С. 159-166.
4. . ., . ., . ., . ., . ., -
пия нейросетевой модели критического теплового потока в рамках пакета прикладных программ N-FONTO // Сб. научных трудов «Нейроинформатика-2005», Ч. 2, С. 172-182.
5. Rumelhart D. E., Hinton G. E., and Williams R. J. Leaming Internai Représentations by Error Propagation in Rumelhart. D. E. and McCieiiand J. L. // Paraiiei Distributed Processing: Explorations in the Microstructure of Cognition, MIT Press, 1986.