где Ci,W(k) - центр, а bj,W(k) и bpV(k) - параметры ширины нечетких правил. Шаг обучения pv(k) в простейшем случае выбирается в диапазоне 0 < ^v(k) < 1, однако при использовании алгоритма, описанного в [5], может уменьшаться в процессе обучения;у - выход обучающей выборки, у*- выход FSOM, вычисляемый в соответствии с (6), и zv -
выход правила-победителя и правила-вице-победителя, соответственно.
Центры нечетких множеств и синглетоны могут настраиваться в случае срабатывания только одного правила. Центры Cw правила-победителя изменяются в направлении вектора входов х; (рис. 5 ) согласно выражению
Cw (k +1) = cw (k) + E w (k)(x(k) - cw (k)), (9)
а синглетоны - в соответствии с рекуррентной формулой
aw(k +1) = aw(k) + Ea,w(k)aw(k)(y - у*), (10)
где "na,w (k) - шаг обучения синглетонов, a aw (k) -уровень активации правила-победителя.
Рис. 5. Модифицированный алгоритм обучения LVQ2.1. Настройка центров
УДК681.324.01 "
МЕТОД РЕШЕНИЯ ОПТИМИЗАЦИОННЫХ ЗАДАЧ НА ОСНОВЕ ПРИНЦИПОВ ВСПОМОГАТЕЛЬНЫХ ЗАДАЧ И РЕЛАКСАЦИИ
СКЛЯРОВ А.Я., ХРИСТОЕВА Л.А.___________
Предлагается метод декомпозиции оптимизационных задач большой размерности, использующий принципы вспомогательных задач и релаксации. Метод позволяет разрабатывать процедуры поиска неподвижных точек оптимизационных подзадач меньшей размерности в режиме параллельного счета. Исследуется сходимость разработанных алгоритмов.
Введение
Рассмотренные в [1- 10] методы и алгоритмы решения оптимизационных задач для упрощения процедур по -иска решения предусматривают декомпозицию их на
5. Заключение
Предложена архитектура нечеткой самоорганизующейся карты и процедура ее обучения с применением модифицированного алгоритма Кохонена, обладающая высокой скоростью сходимости, для настройки параметров функций принадлежности. Предложенная схема является более эффективной по сравнению с классической самоорганизующейся картой и может быть использована при разработке диагностирующих систем.
Литература: 1. Kohonen T. Self-Organizing Maps. Berlin: Springer-Verlag, 1995. 362 p. 2. J.-S. R. Jang Self-learning fuzzy controllers based on temporal back propagation IEEE Trans. Neural Networks. 1992. Vol. 3, no. 5. Р. 714-723. 3. Tsoukalas L.H., Uhrig R.E. Fuzzy and Neural Approaches in Engineering. N.Y.:John Wiley&Sons, Inc., 1997. 587 p. 4. Kohonen T. Improved version of learning vector quantization / / Proc. Int. Joint. Conf. on Neural Networks - San Diego, CA, 1990. 1. P.545-550. 5. Бодянский Е.В., Королькова Е.Е., Ламонова Н.С. Модифицированные алгоритмы самообучения самоорганизующихся карт Т. Кохонена // Проблемы бионики. 2003. Вып. 58.
Поступила в редколлегию 10.10.2005 Рецензент: д-р техн. наук, проф. Алексеев О.П.
Королькова Елена Евгеньевна, аспирантка кафедры ИИ ХНУРЭ, инженер НИПИАСУтрансгаз. Адрес: Украина, 61166, Харьков , пр . Ленина ,14,e-mail: spline.nipi@naftogaz.net
ряд подзадач меньшей размерности и разработку соответствующей процедуры координации полученных локальных решений на основе тех или иных принципов координации. Исследования этих принципов [1,2, 6, 10, 11] показывают, что до сих пор нет единого мнения об их количестве и классификации. Разнообразие многоуровневых алгоритмов решения оптимизационных задач можно объяснить в большей степени не разнообразием принципов, а лишь способом декомпозиции решаемых задач и выбором соответствующих переменных координации. Кроме того, координационные принципы, такие как прогнозирование взаимодействий, их согласование и оценка [1, 2], не позволяют рассматривать классические одноуровневые алгоритмы решения оптимизационных задач с позиций использования для их реализации в качестве вычислителей многопроцессорных устройств или взаимосвязанных систем микро-ЭВМ.
Целью исследования является разработка алгоритма решения оптимизационных задач, в максимальной степени приспособленного к возможностям многопроцессорных вычислительных устройств или сис-
4 9
BE, 2005, 1 4
тем взаимосвязанных микро-ЭВМ, позволяющих проводить параллельные вычисления, что даст возможность уменьшить время решения.
Задачи: рассмотреть известные в численном анализе [12-15] принципы вспомогательных задач и релаксации, применяемые для упрощения алгоритмических процедур решения оптимизационных задач; построить многоуровневую процедуру решения оптимизационных задач, комбинируя указанные принципы и разработанный на их основе алгоритм; доказать сходимость алгоритма при стандартных ограничениях на свойства оптимизируемого функционала и структуру пространства, на котором он определен.
1. Исследование принципов построения процедур решения оптимизационных задач численными методами
Рассмотрим проблему решения оптимизационных задач с самых общих позиций. Пусть задано множество допустимых решений и є U функционала (или функции) J(u) со значениями в R . Необходимо найти решение u* такое, что
J(u*) < J(u),u* є U;
Vu є U.
(1)
U представляет собой множество возможных способов достижения определенной цели или множество способов функционирования некоторой системы. В прикладных задачах принадлежность к U выражается при помощи соответствующих ограничений. Поэтому U в дальнейшем будем называть областью ограничений (или множеством точек, где ограничения выполнены). Функционал (или функция) J представляет собой критерий, который предопределяет выбор конкретного решения из множества возможных, т.е. принадлежащих множеству U .
В общем случае невозможно получить аналитическое выражение для определения оптимального решения поставленной задачи оптимизации (1) [16]. Поэтому в большинстве случаев задача сводится к поиску численного приближения решения и состоит в том, чтобы построить некоторую алгоритмическую процедуру,
*
которая позволит найти решение u , минимизирующее значение J на множестве U .
Однако прежде чем определять эту процедуру, необходимо, например, в случае, когда J является числовой функцией одной переменной, потребовать, чтобы J(u) была непрерывной или, по крайней мере, кусочно-непрерывной, а множество U было компактно (можно выделить сходящуюся последовательность) и замкнуто (предел сходящейся последовательности принадлежит этому множеству). В случае, когда J(u)
- функционал, то он должен быть ограничен снизу на заданном множестве функций, выпуклым и дифференцируемым, а пространство U должно быть Бана-
5 0
ховым. Если эти требования не соблюдены, то вряд ли возможно построить практически пригодный алгоритм, более эффективный, чем полный перебор всех элементов u, на которых задана функция (функционал) [1]. Следует отметить, что чем более жестким требованиям удовлетворяет J(u) (таким, как существование непрерывных производных различного порядка, ограниченности, выпуклости и т.п.), тем легче построить более эффективные численные алгоритмы поиска минимума.
Поиск решения задачи (1) численными методами тесно связан с возможностями вычислительных машин по обеспечению необходимой точности решения, скорости вычислений, требуемого объема оперативной памяти.
В случае применения для вычислений однопроцессорных ЭВМ задача сводится к построению последовательности итер аций численно го решения ур авнения
(2)
Если множество U есть числовая ось, то приведенная здесь производная является обычной , и тогда уравнение (2) есть просто одно (нелинейное) уравнение с одним неизвестным. Для n-мерного векторного пространства соотношение (2) представляется системой
нелинейных уравнений 3J / 9u; = 0,1 < i < n. Для пространства функций уравнение (2) является дифференциальным или интегро-дифференциальным.
Сущность итерационных методов решения уравнения (2) в общем случае состоит в следующем [13, 14].
Уравнение (2) преобразуется в равносильное уравнение вида
u = 9(u), (3)
а затем рассматривается последовательность
u1,u2 = 9(u1),u3 = 9(u3X-,un+1 = 9(unX-, (4)
которая при определенных условиях сходится к решению уравнения (3).
Аналитические условия, достаточные для сходимости последовательности (4), связаны с принципом сжатых отображений и существованием неподвижной точки [12, 17], которые определяют условия выбора функции <p(u) и эффективность итерационной процедуры.
В общем случае функция <p(u) должна задавать направление движения к неподвижной точке и величину шага приращения, т.е. если um - решение на m-й итерации, то сначала определяется направление поиска нового приближения wm, а затем выбирается um+1 = um -pmwm из множества элементов вида
BE, 2005, 1 4
um -pwm, где p - множество допустимых шагов приближения.
Таким образом, построение каждой итерации разбивается на два этапа: выбор направления wm и выбор шага pm . Делая соответствующий выбор функции ф(и), можно получить большинство известных в численном анализе методов решения оптимизационных задач, отличающихся друг от друга необходимым количеством вычислительных операций, точностью вычислений, скоростью сходимости, требованиями к корректности начального приближения uo и др. Общей же характерной чертой классических численных методов является последовательность шагов перехода от одной итерации к другой, что во многих случаях определяет время вычислений и накопление погрешностей, а также использование одного вычислителя.
Следует отметить, что эффективность методов и алгоритмов поиска решения оптимизационных задач определяется не только факторами, характеризующими тот или иной итер ационный метод, но и в значительной степени возможностями современной вычислительной техники.
С появлением средств параллельной обработки данных возникла потребность в методах и алгоритмах решения оптимизационных задач, предусматривающих распараллеливание процедур поиска решений [1 - 10 и др.].
Возникает вопрос: существуют ли общие принципы относительно классических (градиентных, Ньютона -Рафсона, Гаусса - Зейделя и др.) одноуровневых, а также многоуровневых методов решения оптимизационных задач типа (1), следуя которым можно было бы построить алгоритмические процедуры решения, в максимальной степени приспособленные к возможностям многопроцессорных вычислительных устройств или систем взаимосвязанных микро-ЭВМ про -водить параллельные вычисления?
Для ответа на поставленный вопрос необходимо исследовать структурные свойства оптимизационных процедур и общие принципы их построения.
Прежде всего, упрощение задачи (1) предполагает разложение её, в общем случае, на бесконечное число подзадач отыскания элементов последовательности (4). В связи с этим будем различать последовательную декомпозицию и параллельную. В первом случае разложение оптимизационной задачи в целях её упрощения осуществляется для реализации алгоритма решения на однопроцессорных ЭВМ, а во втором - на многопроцессорных.
В поисках аналогии рассмотрим, как решали подобные проблемы в области автоматического регулирования. Задача формулировалась следующим образом: дан некоторый объект управления, на вход которого поступают как управляющие, так и возмущающие воздействия; необходимо каким-то образом выб-
рать управление, позволяющее противодействовать влиянию этих возмущений.
Для решения поставленной задачи был введен принцип управления с помощью обратной связи: выход объекта должен сравниваться с желаемым его значением и вычисленное отклонение после соответствующих преобразований должно по цепи обратной связи подаваться на управляющие органы для изменения управления в нужную сторону.
Аналогично принцип оптимальности Белмана [13] предполагает, что выбор управления в непосредственно следующий за данным моментом интервал времени должен делаться в предположении, что управление в течение всего остального периода времени будет оптимальным.
Если установлен принцип, остается лишь решить задачу определения вытекающих из него действий (например, определение параметров в цепи обратной связи или выбор управления для начального интервала времени) и анализа условий, при которых применим тот или иной конкретный способ действий.
2. Исследование принципов вспомогательных задач и релаксаций
2.1 Принцип вспомогательных задач. Поступая по аналогии, рассмотрим широко используемые в задачах численного анализа некоторые принципы построения алгоритмов решения оптимизационных задач, которые позволили бы рассматривать как классические, так и многоуровневые алгоритмы с единых позиций реализации их на многопроцессорных вычислительных устройствах.
При решении оптимизационных задач численными методами довольно часто пользуются приемами сведения трудно решаемых задач к последовательности более простых, совокупность решений которых обеспечивает решение первоначальной задачи. В основу этих приемов положен принцип, который в [7] назван принципом вспомогательных задач, а в [12] - принципом частных целей.
Рассмотрим сущность принципа вспомогательных задач применительно к решению следующей оптимизационной задачи:
min[J(u) + J(u)];
Vu є U, (5)
где J(u) - выпуклый, дифференцируемый и ограниченный снизу функционал, определенный на Гильбертовом пространстве Н; J(u) - функционал только выпуклый и ограниченный снизу; U - выпуклое и замкнутое подпространство в Н.
Пусть задан другой выпуклый, дифференцируемый и ограниченный снизу функционал J(u), определенный на Гильбертовом пространстве Н.
Рассмотрим функционал, зависящий от v є Ни р > 0 :
5 1
BE, 2005, 1 4
Iv : u ^ J(u)+ < pJ'(v) - J'(v),u > +p J(u), (6)
где <..., ...> - обозначает скалярное произведение в Н.
Утверждение. Предположим, что
3v є H: Iv(v) = min Iv(u), (7)
ueU
тогда справедливо равенство
J(v) + J (v) = min[J (u) + J (u)] (8)
ueU • w
Доказательство этого утверждения вытекает прямо из вариационного неравенства, характеризующего неподвижную точку u* подпространства U:
u* є U,Vu є U : [< J'(u*),(u - u*) > +J(u) - J(u*)] > 0 .(9)
В утверждении говорится, что если v является решением вспомогательной задачи минимизации функционала (6) на замкнутом подпространстве U, то это же решение также будет решением основной оптимизационной задачи (5).
Рассмотрим обобщенный подход к построению алгоритмов поиска минимума функционалов типа (6). Обычно задается некоторое приближение u0 є U и строится последовательность um , m = 1,2,... которая при заданных ограничениях на Iv и U будет сходиться к u *, т.е. будет выполняться неравенство
Iv(um+1) < Iv(um ),Vm. (10)
Из неравенства (10) следует
lim [Iv(um) - Iv(um+1)] = 0 (11)
Как уже указывалось, поиск um+1 является задачей минимизации функции одной переменной. Действительно, при заданном направлении wm нужно минимизировать функционал Iv на множестве точек um -pwm . При этом определяется значение р и полагается
um +1 _ um _Р m ' wm. (12)
Используя формулу Тейлора, получаем
Iv(um+1) = Iv(um) - P(Iv)'(um ,wm) + • ” . (13) Для того чтобы выполнилось неравенство (10), необходимо выполнение условия
Pm (I ) (um ,wm) ^ 0’ (14)
из которого следует требование
Pm > °-(I,)'(um-wm) > 0. (15)
Если не существует w m такого, что
(Iv)'(um,wm) > 0, (16)
(Iv)'(um,v) = 0, Vv є H (17)
и тогда um = u*, т.е. является искомым решением.
Таким образом, направление поиска решения на каждом итерационном шаге должно подчиняться условию (16). Далее, из соотношения (11) следует
lim Pm • (Iv)'(um,wm) = 0 (18)
что при соответствующем выборе Pm приведет к
lim (Iv)'(um,wm) = 0, (19)
В общем случае направление поиска решения wm должно выбираться таким, чтобы из условия (19) следовало
Ит (IY),(um,vm) = 0,Vvm^|vJ < С < +» . (20)
Если последовательность um ограничена, то можно выделить подпоследовательность, слабо сходящуюся к u* , и при некоторых предположениях условие (20) приведет к
(Iv)'(u*, ф) = 0, Уфе H, (21)
где (Iv)'(u, ф) - G-дифференциал оператора Iv в точке u в направлении Ф (или дифференциал Гато).
Таким образом, сходящийся итерационный процесс поиска решения задачи (5) можно построить, используя следующий алгоритм.
Алгоритм А1.
Шаг 1. Сформировать функционал (6).
Шаг 2. Задать начальные значения u0 є U и m = 0 , выбрать направление поиска минимума функционала
(6) wm, ||wm|| = 1, такое, что
(Iv)'(um,wm) > 0,
lim (Iv)'(um,wm) = 0 ^ lim (Iv)'(um,vm) = 0, (22) Vvm є U,||vm|| = 1 .
Если условие (22) удовлетворяется, то выбор w m является сходящимся.
Шаг 3. Выбрать число pm (выбор точки um+1 на прямой um - pwm) такое, что
Рm > 0,IY(um) - IY(um+1) > 0 >
Ит [IY(um) - IY(um+1)] = 0 ^ (23)
m^+^
^ lim (Iv)'(um,wm) = 0. m^+^
то это значит 5 2
DE, 2005, 1 4
Если условие (23) удовлетворяется, то выбор pm является сходящимся.
Шаг 4. Исследовать, является ли Iv достаточно регулярным для перехода от (20) к (21).
Шаг 5. Исследуется возможность перехода от (21) к
(5).
Замечание 1. Если допустить, что функционал (6) зависит от индекса итерации m, то изложенный выше принцип вспомогательных задач является обобщением идеи, на основании которой в [9] разработан метод вспомогательного оператора.
Замечание 2. Для разложения вспомогательной задачи (6) на ряд вспомогательных задач меньшей размерности необходимо, используя основные методы теории декомпозиции [1-5, 8-10, 16], придать соответствующие структурные свойства функционалам J, J и пространствам, на которых они определены.
Замечание 3. При стандартных предположениях о выпуклости, дифференцируемости, ограниченности снизу и коэрцитивности [12]
и м2
(Зє > 0 : Vu,v < J'(u) - J'(v),u - v >> є||u - v|| )
функционалов J, J, непрерывности по Липшицу их производных, а также выпуклости и замкнутости подпространства U алгоритм сходится при достаточно малых значениях pm [12 - 15].
2.2 Принцип релаксации. Исследования понятия релаксация [13]; релаксационные методы [17]; метод релаксации еще раз [15]; релаксированная задача [14] и др. показали, что нет единого установившегося мнения относительно понимания принципа, кроме как непосредственного значения слова relaxation - ослабление, смягчение, уменьшение напряжения. В связи с этим будем понимать этот принцип в смысле Аоки М., определенном в [15], который использовал принцип релаксации при построении алгоритмов решения оптимизационных задач многих переменных специального вида методом Г аусса-Зейделя. Кратко изложим основную идею принципа релаксации в смысле Аоки М.
Обозначим через Hi Гильбертово подпространство, через Ui - подмножество Hi, т.е. (Ui с Hi) и пусть
N
H = пHi, (24)
i=1
N
U = П Ui,Ui с Hi. (25)
i=1
Необходимо определить u є U, такое, что
J(u*) < J(u),u* є U;
Vu є U,
(26)
где u = (ubu2,...,uN).
Решение поставленной задачи может быть получено по релаксационному алгоритму, приведенному в [11].
Алгоритм А2.
Шаг1. Задать начальное значение u0 = (u0,u^,^,uN) такое, чтобы u0 є U ; k = 0 - индекс итерации; i = 1,(i = 1,2,---,N).
Шаг 2. Решить задачу
min J(uk+1,u2+1,^,uik_+11,ui,uk+1,^,uN); (27) ui є Ui
пусть uk+1 - является решением задачи (27).
Шаг 3. Проверить, если i = N, то выполнить шаг 4; иначе индексу номера переменной присвоить значение i = i +1 и выполнить шаг 2.
Шаг 4. Проверить условие останова алгоритма (получена ли заданная точность результата решения задачи?): если нет - i = 1, k = k +1 и выполнить шаг 2; иначе -останов.
На основании изложенного выше понимания принципа релаксации в смысле Аоки М. и принципа вспомогательных задач рассмотрим обобщенный алгоритм решения следующей оптимизационной задачи:
min[J(ubu2)];
V(ubu2) є U1 x U2, (28)
где J(u1,u2) - выпуклый, дифференцируемый и ограниченный снизу функционал, определенный на Гильбертовом пространстве Н; U = U1 х U2 - выпуклое и замкнутое подпространство в Н.
Алгоритм А3.
Шаг 1. Задать начальные значения (u0,u0)и индексу итер аций присвоить k=0.
Шаг 2. Решить вспомогательную задачу (ВЗ1)
min [J(ubuk)+ <pj (uk,uk) - Ju1(uk,uk),u1 >] ;(29) u1eU1
k+1
пусть u1 - решение.
Шаг 3. Решить вспомогательную задачу (ВЗ2)
min [J(uk+1,u2)+<p2Ju2(uk+1,uk) -Ju2(uk+1,u|),u2 >] ;(30) u2£U2
k+1
пусть u2 - решение.
Шаг 4. Проверить заданные условия останова алго-
ритма (например
uk - uk+1
^ є). Если условия удов-
летворяются - останов; иначе - k = k +1 и идти к шагу 2.
5 3
BE, 2005, 1 4
Замечание 4. Алгоритм А3 допускает последовательное разложение оптимизационной задачи (28) на две вспомогательные (ВЗ1) и (ВЗ2).
Замечание 5. Если оптимизационная задача имеет форму (24) - (26), то она может быть представлена в виде последовательного разложения и решена по схеме алгоритма А3 с использованием однопроцессорной ЭВМ в режиме последовательного решения N вспомогательных задач. При этом выигрыш состоит в том, что снижаются требования к объему оперативной памяти и быстродействию процессора из-за понижения размерности задачи, решаемой в каждый момент времени.
Замечание 6. Если взять в качестве вспомогательного функционал вида
- N -
J(u) =Z Ji(ui), (31)
i=1
то оптимизационная задача (24) - (26) представляется в виде параллельного разложения на N несвязанных подзадач, решение которых возможно получить в соответствии с алгоритмом А3 на многопроцессорных ЭВМ в режиме параллельного счета.
Более сложной выглядит система подзадач в случае, когда между отдельными подзадачами существуют те или иные взаимосвязи. Для учета этих взаимосвязей необходим иной структурно-алгоритмический подход, который учитывает связи подзадач, позволяет решать их в некотором смысле независимо друг от друга в режиме параллельного счета, а затем координировать полученные решения с учетом взаимосвязей.
В [5] предложено сложную задачу представлять в виде совокупности взаимосвязанных простых подзадач на нижнем уровне иерархической структуры глобальной задачи, а задачу их координации выполнить на уровне координатора. При этом стратегия построения координирующего алгоритма основывается на так называемых принципах координации (прогнозирование, развязывание и оценка взаимодействий) и не предусматривает формального выбора наилучшего координирующего воздействия (см. [1]) для заданного разложения оптимизационной задачи. Поэтому покажем, как можно использовать принцип релаксации на двух уровнях при иерархическом представлении структуры глобальной оптимизационной задачи и построить оптимизационную процедуру координации на верхнем уровне иерархии.
Пусть необходимо решить оптимизационную задачу (28) при выполнении условия (24),(25), а оптимизируемый функционал J имеет следующие структурные особенности:
J:(u,v) ^9(J1(U1,v),J2(U2,v),...,Jn(Un,v)), (32)
где ф() - строго сохраняющая порядок функция от R N до R , а Ji(ui,v) - функционал, определенный на Ui х V.
5 4
Тогда оптимизационную задачу (28) можно представить в виде
ф :v ^ min J(u,v) = J(u*(v),v), (33)
u є U
где u * (v) - минимизирующее решение совокупности N подзадач, полученных при разложении (30) на основании условия (24), (25).
При соответствующих допущениях о выпуклости, непрерывности, дифференцируемости и коэрцитив-ности функционала (33) можно показать, что он дифференцируемый по Фреше:
Ф'М = J>*(v),v)) (34)
и оптимальное значение его можно найти с помощью алгоритма, основанного на методе проекции градиента (13), (15):
vk+1 = P(vk-р. J'v(uk+1,vk), (35)
где р - оператор проектирования на V; uk+1 = u * (vk).
Таким образом, нахождение решения (33) является задачей координации локальных решений u*(vk).
В случае, когда допущение (32) о структуре оптимизируемого функционала не выполняется, необходимо воспользоваться определенной свободой выбора вспомогательного функционала J (см. [6]), т.е. положить, что
-k N-k 1 и ||2
J :(u,v) Ji(Ui) + -||v|| , (36)
i=1 2
а для заданных значений (uk,vk) выбрать
Jk :ui ^ J(uk,uk,^,uk_1,ui,uk+1,...,uN,vk). (37)
При этом мы можем воспользоваться релаксационным алгоритмом А2 на двух уровнях: на нижнем уровне решить N вспомогательных задач (возможно параллельно)
-k
min Jf (ui) + <pJui(uk,vk) -(JOXu^Xui>, (38)
-k
а на верхнем уровне решить задачу координации (35).
3. Применение принципа вспомогательных задач к оптимизационным задачам с явными ограничениями
Рассмотрим класс оптимизационных задач, в которых ограничения заданы системами равенств или/и неравенств в явном виде:
J(u*) < J(u),u* є U;
Vu є U;
(39)
при условии
g(u) = 0; или g(u) є K, (40)
BE, 2005, 1 4
где J(u) - выпуклый, дифференцируемый и ограниченный снизу функционал, определенный на Г ильбер-товом пространстве н; U - выпуклое и замкнутое подпространство в Н ; g(-) - отображение из U в н выпуклое в смысле
Vu, v є U, Va є [0,1], ag(u) + (1 - a)g(v) -
-g(au + (1 -a)v) є K; (41)
K - выпуклый замкнутый конус в н с непустым
о
содержимым к (в случае, когда K = {0}, задача (39)
имеет ограничения только в виде равенств, а g(u) является афинным (см. [12])).
Для решения задачи (39) при условии (40) сформируем Лагранжиан
L(u, X) = J(u) + <X,g(u)>, (42)
где Хе K* (к* - сопряженный конус).
Решением (42) является седловая точка (u*, X*) на U х K*, удовлетворяющая неравенствам
u* є U, Vu є U, <lu (u*, X*),u - u*> > 0; (43)
X* є K*, VXe K*, (L'x (u*, X*), X -X*> < 0 . (44)
Учитывая (42), запишем (43) в виде
< Ju (u*), u - u*) > + < X*, g(u) - g(u*) >> 0 . (45)
В соответствии с принципом вспомогательных задач сформируем вспомогательный функционал в форме Лагранжиана
L : (u,X) ^ J(u)+<X,Q(u) >, (46)
где J(u) и Q(u) имеют те же свойства, что и J(u), g(u) соответственно.
В соответствии с (6) сформируем вспомогательный функционал
J(u)+ < P1J'(uk) - J'(uk ),u > + < Xk,(p1g'(uk) -
-Q'(uk))*u > + < X,Q(u) + P2g(uk)-Q(uk) > (47)
и определим оптимизационную задачу с явными ограничениями как
min [J(u)+ < P1J'(uk) - J'(uk),u > + < Xk,(P1g'(uk) -
ueU
- Q'(uk))*u >], (48)
Q(u) + P2g(uk) - Q(uk) є K . (49)
Определенную таким образом вспомогательную задачу можно решить, используя алгоритм А1 в одноуровневом варианте. Для решения задачи (48), (49) в двухуровневом варианте необходимо в качестве вспомогательного взять функционал вида
= _ 1 2
J:(u, X) ^ J(u) --||х|| (50)
и воспользоваться алгоритмом А2 на двух уровнях. Алгоритм А4.
Шаг 1. Выбрать начальные значения (u0, X0). Индексу
итераций присвоить значение k = 0 .
Шаг 2. Решить вспомогательную задачу на нижнем уровне:
min[J(u)+ < PJ'(uk) - J(uk),u > +p < Xk,g(u) >]. (51)
ueU
rr ,.k+1
Пусть u - решение.
Шаг 3. На верхнем уровне решить задачу подстройки множителей Лагранжа
Xk+1 = P(Xk +Є- g(uk+1)), (52)
где p - оператор проектирования на K * (P = I, если K = {0}).
Шаг 4. Если условия останова достигнуты - останов; иначе - k = k +1 и перейти к шагу 2.
Для получения параллельного разложения задачи (48), (49) необходимо позаботиться о соответствующих структурных свойствах вспомогательного функционала, т.е. определить его в аддитивной форме, например
J(u, X) = E[Jik(Hi) + <Xi,Qk(Hi)>] (53)
i=1
положив при этом
Qk :ui ^gi(uk,uk,_,ui,uk+1,_,un). (54)
4. Выводы
Научная новизна: разработанный алгоритм построения оптимизационных процедур координации на верхнем уровне иерархии при иерархическом представлении структуры глобальной оптимизационной задачи иллюстрирует новый подход к решению оптимизационных задач. Доказана сходимость алгоритмов при стандартных ограничениях на свойства оптимизируемого функционала и структуру пространства, на котором он определен.
Практическая значимость: построенные алгоритмические процедуры решения оптимизационных задач, которые в максимальной степени приспосо блены к возможностям многопроцессорных вычислительных устройств или систем взаимосвязанных микроЭВМ, позволяют проводить параллельные вычисления, что в свою очередь увеличивает скорость нахождения решения на 11% и уменьшает погрешность полученных результатов за счет меньшего количества шагов.
5 5
BE, 2005, 1 4
Литература: 1. Месарович М., Мако Д., Такахара И. Теория иерархических многоуровневых систем. М.: Мир, 1973. 344 с. 2. Лэсдон Л. Оптимизация больших систем.-М.: Наука, 1975. 532 с. 3. Jc/vdcm M.R., Richards R.I. Decentralized Control Systems Theory: A Critical Evaluation // Int. J. Contr. 1977. V 26. N1. P. 129-144. 4. Jovdan M.R., Richards R.I. Decentralized Control Systems Theory: A Critical Evaluation // Int. J. Contr. 1977. V 26. N1. P. 129-144.
5. Decomposition of large-scale problems / Editor David M. Himmelblou, Department of Chemical Engineering; The University of Texas, Austin, Texas; North-Holland publishing company - Amsterdam, London: American publishing company co. inc. New York, 1973. 256 p. 6. Sandell N.R., VaraiyaP., AthansM., SafonovM.G. Survey of Dеcentralized Control Methods for Large-Scale Systems // IEEE Transaction on Automatic Control. 1978. V.23, N2. P. 246-253.7. Mahmoud M.S. Multilevel Systems Control and Applications: A Survey // IEEE Transaction on Automatic Control. 1977. N3. P. 125143. 8. Pearson I.D. Dynamic decomposition techniques. // Optimization Methods for Large-Scale Problems with Applications / Edited by D.A. Wismer. -New York: McGray-Hill, 1971. P. 121-190. 9. MahmoudM.S. Dynamic feedbeck metodology for interconnected control systems // Int. J. Control. 1979. V 29, N5. P. 881-898. 10. SmithN.I., Sage A.P. An introduction to hierarchical systems theory // Comput. Elect. eng.: Pergamont Press. 1973. N1. P. 55-71. 11. Левыкин
В.М., Скляров А.Я. Построение многоуровневых алгоритмов оптимального управления динамическими системами на основе принципов вспомогательных задач и релаксации. Деп. в УкрНИИ, 1985. N 2707 -Ук 85. 12 с. 12. Сеа Ж. Оптимизация. Теория и алгоритмы. М.: Мир, 1973. 244 с. 13. Евтушенко Ю.Г. Методы решения экстремальных задач и их применение в системах оптимизации. М.: Наука, 1982. 432 с. 14. КалиткинН.Н. Численные методы. М.: Наука, 1978. 512 с. 15. Аоки М. Введение в методы оптимизации: Пер. с англ. М.: Наука, 1977. 344 с. 16. Месарович М., Такахара Я. Общая теория систем: математические основы. М.: Мир, 1978. 311 с. 17. Мантуров О.В. Курс высшей математики. М.: Высш. шк., 1991.408 с. 18.
Поступила в редколлегию 23.10.2005
Рецензент: д-р техн. наук, проф. Филатов В. А.
Скляров Александр Яковлевич, доцент, кафедра ИУС ХНУРЭ. Научные интересы: синергетика, анализ и мониторинг компьютерных сетей. Адрес: Украина, 61276, Харьков, пр. Ленина, 14, т. 702-14-51.
Христоева Людмила Александровна, ассистент, кафедра ИУС ХНУРЭ. Научные интересы: временные ряды, анализ и мониторинг компьютерных сетей. Адрес: Украина, 61276, Харьков, пр. Ленина, 14, т. 702-14-51.
УДК615.89:621.372
ПРОВЕРКА ПРИМЕНИМОСТИ МЕТОДА МАЛОГО ПАРАМЕТРА ДЛЯ ОПИСАНИЯ НЕОДНОРОДНЫХ МНОГОМОДОВЫХ КАНАЛОВ ПЕРЕДАЧИ ДАННЫХ
ВАСИЛЬЕВ С.Н.
Приводится методика нахождения приближенных решений системы обыкновенных дифференциальных уравнений, описывающих неоднородный канал передачи данных. Производится сравнение полученных результатов с точными решениями исследуемой системы, которые в ряде случаев можно получить непосредственно. Для других типов неоднородностей, с которыми приходится сталкиваться на практике, приводится сравнение указанных решений с результатами, полученными численными методами.
Введение
Целью работы является исследование применимости метода малого параметра для решения обобщенной системы телеграфных уравнений в высокочастотной области. Подчеркнём, что эта система есть основная модель при исследовании процессов в информационных каналах с распределенными параметрами [1-3]. Такие каналы передачи данных являются объектом исследования в настоящей работе.
Отсутствие точных решений для наиболее важных типов распределения неоднородностей по длине канала делает актуальной задачу поиска частотного диапазона, в котором достигается необходимая точность приближенного решения.
1. Формальная постановка задачи и основные расчетные формулы
Ниже приводятся расчётные формулы метода, описанного в работе [4]. Там же предложено доказательство асимптотической сходимости метода при больших частотах (ю ^ <ю).
Система уравнений в традиционных обозначениях имеет вид:
( u Y
8
I I J
Ai =
(( 0R1 ( 0 lW U ^
W
G 0
C 0
V I 7
8
' 0 R2
vG 0 /
A 0
' 0 V
vC 0 /
(1)
Здесь 8 = (jra) 1; j - мнимая единица; Aj иA0 - матрицы-функции от длины канала x; их размерность -(2m42m), где m-число каналов; ( U, I )T -2 x m мерный вектор “напряжений” и “токов”; R, G, L , C - вещественные симметричные положительно определённые (шґш) матрицы-функции от х.
В приближённом решении
Г и ^
V I X
11
m -1 X i (x)dx 2
Z cie 8 0 (Z0(x) + -Z1(x) + O(- 2)) (2)
i=1
все X? - собственные значения матрицы C4L - предполагаются различными:
z0(x) = ^,(x)u(x), ?1(x) = if +^?0;
h
h2
Lh2 = -kh1, CLh2 = X2h2, V = h1 • h2;
5 6
BE, 2005, 1 4