3. Алексеев С. Г., Барбин Н. М., Алексеев К. С., Орлов С. А. Связь показателей пожарной опасности с химическим строением. II. Кетоны (часть 1) // Пожаровзрывобезопасность. - 2011. - Т. 20, № 6. - С. 8-15.
4. Алексеев С. Г., Барбин Н. М., Алексеев К. С., Орлов С. А. Связь показателей пожарной опасности с химическим строением. III. Кетоны (часть 2) // Пожаровзрывобезопасность. - 2011. - Т. 20, № 7. - С. 8-13.
5. Алексеев С. Г., Барбин Н. М., Алексеев К. С., Орлов С. А. Связь показателей пожарной опасности с химическим строением. IV. Простые эфиры // Пожаровзрывобезопасность. - 2011. - Т. 20, № 9. - С. 9-16.
6. Алексеев К. С., Барбин Н. М., Алексеев С. Г. Связь показателей пожарной опасности с химическим строением. V. Карбоновые кислоты // Пожаровзрывобезопасность. - 2012. - Т. 21, № 7. - С. 35-46.
7. Алексеев К. С., Барбин Н. М., Алексеев С. Г. Связь показателей пожарной опасности с химическим строением. VI. Альдегиды // Пожаровзрывобезопасность. - 2012. - Т. 21, № 9. - С. 29-37.
8. Алексеев С. Г., Барбин Н. М., Смирнов В. В. Связь показателей пожарной опасности с химическим строением. VII. Нитроалканы // Пожаровзрывобезопасность. - 2012. - Т. 21, № 12. - С. 22-24.
9. Алексеев С. Г., Алексеев К. С., Барбин Н. М. Связь показателей пожарной опасности с химическим строением. VIII. Сложные эфиры (часть 1) // Пожаровзрывобезопасность. - 2013. - Т. 22, № 1. - С. 31-57.
10. Смирнов В. В., Алексеев С. Г., Барбин Н. М., Животинская Л. О. Связь показателей пожарной опасности с химическим строением. IX. Хлорал-каны // Пожаровзрывобезопасность. - 2013. - Т. 22, № 4. - С. 13-21.
11. Алексеев С. Г., Алексеев К. С., Животинская Л. О., Барбин Н. М. Связь показателей пожарной опасности с химическим строением. Х. Сложные эфиры (часть 2) // Пожаровзрывобезопасность. - 2013. - Т. 22, № 5. - С. 9-19.
12. Смирнов В. В., Алексеев С. Г., Барбин Н. М., Калач А. В. Связь показателей пожарной опасности с химическим строением. XI. Галогеналканы // Пожаровзрывобезопасность. - 2013. - Т. 22, № 8. - С. 25-37.
Применение генетического алгоритма
для автоматизации построения и обучения нейросетевых методов обнаружения очагов лесных пожаров по данным дистанционного зондирования земли
Андреев С. Н., Купцов А. В., Шорохов А. А., ВУНЦВВС «ВВА», г. Воронеж
Одним из важнейших свойств искусственных нейронных сетей (НС) является их способность к обучению. Это свойство может быть использовано и для
обучения НС обнаружению очагов лесных пожаров по спектрофотометриче-ским данным дистанционного зондирования Земли (ДЗЗ).
Под обучением НС понимается целенаправленный процесс адаптации сети к предъявляемым эталонным образцам (шаблонам) путем модификации параметров сети в соответствии с заданным алгоритмом, итеративно повторяемым до тех пор, пока сеть не приобретет необходимых для решения практических задач свойств. Найденная в процессе обучения функция, является уникальным результатом работы самой НС, а не предварительно заложенного в нее человеком знания [1].
Для обучения НС ей последовательно предъявляются данные из обучающего набора шаблонов 0=(х, Ф)с, с=1, 2, ..., Q, где Q - число обучающих примеров (объём выборки). Каждый шаблон (х, Ф)С1 включает в себя вектор известных (эталонных) входных сигналов сети хс=(х1, х2, ..., хп)с и соответствующий ему вектор выходных сигналов Фс=(Ф1, Ф2, ..., Фт)с, определяющих принадлежность эталона к определенному классу, где п и т - число входных и выходных нейронов сети соответственно.
В процессе обучения, под воздействием каждой реализации выборки 0, НС изменяет настраиваемые параметры до тех пор, пока значение функции ошибки Е не достигнет минимума или не стабилизируется вблизи него [2].
Математически задача обучения заключается в нахождении таких значений параметров сети (при фиксированной её структуре), при которых минимизируется ошибка Е между реакцией сети ус= (у1, у2, ..., ут)с и требуемым откликом Фс=(Ф1, Ф2, ..., Фт)с для всех примеров обучающей выборки. Для определения значения ошибки выхода сети обычно используется выражение
Благодаря обучению сеть приобретает способность правильно реагировать не только на эталонные шаблоны, предъявленные в процессе тренировки, но и на другие наборы данных, которые она ранее не «видела». В этом смысле НС обладает свойством обобщения.
Для решения задач обучения НС применяются различные методы оптимизации, однако из множества разработанных в этой области методов [1, 2], наибольший интерес для решения задачи обучения НС обнаружению очагов лесных пожаров по данным ДЗЗ представляют генетические алгоритмы (ГА), как наиболее универсальные [3].
ГА представляет собой параллельный асинхронный оптимизационный алгоритм, являющийся, с математической точки зрения, разновидностью известных методов оптимизации - переборного и метода градиентного спуска, в котором поиск решения осуществляется одновременно с использованием целой популяции «особей» или «хромосом» - единичных закодированных решений задачи [3].
Поскольку обучение НС - это оптимизационный процесс, то ГА может быть использован и для обучения НС. Однако при этом возникает вопрос о представлении информации в ГА.
(1)
Формально запись ГА представляется в виде кортежа [4]:
ГА = (Б', L, K, t, с, m, i, Рс, Pm, P, е, fk, Fit'), (2)
где б' = (с,c2,...,с',...,ск} - текущая популяция генотипов; t - номер текущей эпохи; K - размер популяции; Ск = (G/,G2,...,G^}, k= 1, 2, ..., K - одно из возможных решений задачи, представленное в виде хромосомы, кодирующей n переменных; L - длина хромосомы; s - оператор селекции; с - оператор скрещивания; m - оператор мутации; i - оператор инверсии; Ps - вероятность селекции; Рс - вероятность скрещивания; Pm - вероятность мутации; Pt - вероятность инверсии; s - критерий остановки эволюции (алгоритма); fit'k = f(C'k), k= 1, 2, ..., K - приспособленность каждой особи (степень обученности каждой
к
НС) в популяции текущей эпохи t; f.it1 = F ( б' ) = ^ f (C[) - приспособленность
k=1
(степень обученности) всей популяции текущей эпохи t.
Репродукция популяции в ГА состоит из четырех основных генетических операторов: селекции, скрещивания, мутации и инверсии [2].
Чтобы придать нейрону в процессе обучения большую гибкость в отношении формирования его внутренней архитектуры и внешних связей, в структуру модели модифицированного формального нейрона (МФН) была введена «хромосома» Сн, которая в свернутом виде содержит полную информацию как о самом нейроне, так и о связанной с ним части сети:
С JGLGL GLl = DHL (3)
н 1 Gi 'G2""'G J в/ KJ
где dh = (G, G2,..., G}- последовательность генов, определяющая значения полного набора n параметров МФН (генотип нейрона); DR = (GR,GR,...,GR}-последовательность генов, определяющая свойства, порядок кодирования и принадлежность каждого соответствующего гена из последовательности DH множеству подлежащих настройке (оптимизации) переменных параметров нейрона RH = (G1,G2,..., Gm}, m<n.
Тогда процесс обмена генетической информацией между МФН и реализующим обучение ГА представляется как Сн з Dn ~Z- RH = СГА, где Dn з Rh , Rh = ¥(Dh | DR ), т.е. из набора n параметров МФН dh , содержащихся в хромосоме Сн (3), выделяется m генов, содержащих переменные параметры Rh , которые перекодируются в хромосому С ГА согласно правилу ¥, определенному в DR, и в соответствии с кодом, используемым конкретным ГА. При этом длина хромосомы С ГА , передаваемой в ГА для оптимизации, определяется длиной последовательности Rh , т.е. LrA =Lr . После применения к СГА генетических операторов осуществляется декодирование информации из хромосомы потомка С'ГА в хромосому нейрона Сн в обратной последовательности.
В общем случае изменяться могут все параметры МФН кроме его типа и собственного адреса A (положения в сети). С учетом вышеизложенного, выход-
ной сигнал МФН с адресом А в слое I нейросети предлагается определять по формуле:
ЛУ \ С А \
у = f
А (x^M G,
а, i=1
ФА
Г
У
А S ai ( Уаi ) С н
а, i=1
(1)
У
где САн - хромосома МФН с адресом A1, определяемая последовательностью (3);
Al = A(i, j, 1) - адрес данного нейрона в слое 1; Ad = A(i, j, d)- адрес любого
нейрона из слоя d лежащего ниже слоя 1 (в общем случае d < 1, однако, поскольку рассматриваемая НС является сетью прямого распространения сигнала и реализуется на ЭВМ последовательной архитектуры, то для d=1 должно соблюдаться условие Id < i1, Jd < jl); i = 0,..., I1 -1, i = 0,..., J1 -1 - координаты нейронов сети (или точек изображения (образа), формируемого выходами нейронов этого слоя) в плоскости слоя 1; I1, J' - соответственно число строк и столбцов в матрице плоскости слоя 1 нейронов сети (или точек изображения); 1=1, 2, ..., L - номер слоя сети (или «степень абстрактности» изображения, формируемого на вы-
ч Ad
ходах нейронов этого слоя); xa = у а - значение входного сигнала, поступившего
на синапс с локальным адресом а с выхода нейрона одного из нижележащих слоев d, имеющего глобальный адрес Ad; sa - синаптическая функция i-го синапса с локальным адресом а; nA - общее число синапсов нейрона с адресом A1;
fA - функции активации нейрона с глобальным адресом A1. Обучение МФН происходит следующим образом (рис.).
1. Задаются параметры ГА (2) (K, Pc, Pm, P ,s, fit'^j.
2. На вход МФН подается вектор x из набора обучающих шаблонов 0.
3. По формуле (4), в соответствии с заданными в хромосоме Сн (3) параметрами, определяется реакция нейрона у.
4. Вычисляется ошибка рассогласования выхода E(0 | Сн) (1).
5. По значению ошибки рассогласования, через набор переменных параметров нейрона Rh (Сн ^ RH ^ С ГА ), ГА (2) осуществляет модификацию структуры и функций МФН таким образом, чтобы минимизировать ошибку на его выходе E(0 | Сн) ^ min , при этом приспособленность каждой k-ой особи (k-ой реализации МФН) в текущей популяции эпохи t (на каждой итерации ГА) определяется как fitk = f (С'к) = E(01 С'к).
6. После окончания обучения из популяции (из K реализаций МФН) выбирается наиболее приспособленная особь (реализация МФН у которого fitk = E(0 | Сн) = min ), а хромосома Ск фиксируется и сохраняется как Сн.
При необходимости использования обученного МФН в расчетах, развертывание его структуры осуществляется из сохраненной хромосомы Сн.
Таким образом, предложенный подход интеграции элементов ГА в структуру нейронов позволяет перейти к автоматизированному построению, в про-
A1
цессе обучения с использованием ГА, нейросетей, предназначенных для решения широкого круга задач, в том числе и задач обнаружения очагов лесных пожаров по данным ДЗЗ.
Рис. Схема обучения МФН с использованием ГА
Схема обучения НС состоящей из МФН и моделирующей систему восприятия и обработки информации, аналогична схеме обучения отдельного МФН. Различие заключается лишь в длине хромосомы С ГА , кодирующей переменные признаки структуры НС.
Роль системы управления в этой модели выполняет ГА, который в процессе обучения через аппарат генетической памяти осуществляет управляющее воздействие на формирование структуры и функции систем восприятия, анализа и распознавания входного сигнала и агрегирования вывода.
Однако с ростом сложности решаемой задачи возрастает и сложность архитектуры НС, а вместе с тем затраты временных и вычислительных ресурсов на её обучение. В то же время ГА, также как и НС, допускает декомпозицию на структурные компоненты, что может быть использовано для ускорения обучения нейросетевых структур большого объема и сложности за счет распараллеливания вычислительного процесса в локальной вычислительной сети.
Таким образом, найден новый подход к решению проблемы обучения НС с использованием ГА, который позволяет подойти к решению задачи обнаружения очагов лесных пожаров по спектрофотометрическим данным ДЗЗ на новом методическом уровне.
Библиографический список
1. Горбань, А. Н. Обучение нейронных сетей / А. Н. Горбань - М.: СП «ПараГраф», 1990. -159 с.
2. Оссовский, С. Нейронные сети для обработки информации / С. Оссов-ский; пер. с польск. И. Д. Рудинского. - М.: Финансы и статистика, 2004. - 344 с.
3. Скурихин, А. Н. Генетические алгоритмы / А. Н. Скурихин // Новости искусственного интеллекта, - 1995, - № 4, - С. 6-46.
4. Вороновский, Г. К. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности / Г. К. Вороновский и др. -Харьков: ОСНОВА, 1997.
5. Андреев, С. Н. Построение нейросетевой системы прогнозирования термогидродинамических процессов (явлений) в атмосфере. / С. Н. Андреев // Нейрокомпьютеры: разработка, применение. - 2007. - № 9. - С. 293-315.
Расчет интенсивности отложения льда при гололеде
Андронников В. В., Савченко П. Д., Раевский А. Л., ВУНЦВВС «ВВА», г. Воронеж
В холодный период года образование гололеда наблюдается почти на всей территории страны. Для надежного прогноза гололеда, определения качественных и количественных параметров гололедных отложений на конструктивных деталях различной конфигурации, необходимо понимание процесса и условий его образования. Практическое решение этой задачи связано с большими трудностями, так как образование и закономерности распределения отложений льда на различных деталях определяются целым комплексом факторов, таких, как скорость и направление ветра, форма и размеры тел, ориентация их по отношению к влагонесущему потоку, продолжительность нарастания отложений, водность и микроструктура облачности (тумана), вид осадков, температура воздуха и т. п.
Процесс образования гололеда исследуется с помощью экспериментов в лабораторных и естественных условиях и теоретически, в частности, на основе модели инерционного и гравитационного осаждения водных аэрозолей [1]. Каждый из этих подходов имеет свои достоинства и недостатки. Поэтому решение данной задачи в полном объеме возможно при сочетании теоретических и экспериментальных исследований. Причем в современных условиях приоритетное значение имеет создание надежных математических и численных моделей процесса гололедообразования для решения научных и практических задач.
На гидрологических постах наблюдения за гололедом проводятся с помощью гололедного станка, диаметр проводов которого равен 4-5 мм. Поэтому рассмотрим процесс гололедообразования применительно к цилиндрическому телу, основываясь на теории коагуляционного роста капли воды в облаке (тумане). Такой подход может быть применен при следующих допущениях:
- осаждение облачных капель и капель осадков происходит из столба атмосферы, основанием которого является продольное сечение цилиндрического тела;
- процесс осаждения капель является установившимся;
- осажденная вода равномерно распределяется по всей боковой поверхности цилиндр и вся замерзает [2].