Научная статья на тему 'Об одном эволюционном алгоритме настройки искусственных нейронных сетей'

Об одном эволюционном алгоритме настройки искусственных нейронных сетей Текст научной статьи по специальности «Математика»

CC BY
765
108
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭВОЛЮЦИОННЫЕ АЛГОРИТМЫ / ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ / EVOLUTIONARY ALGORITHMS / ARTIFICIAL NEURAL NETWORKS

Аннотация научной статьи по математике, автор научной работы — Дармаев Тумэн Гомбоцыренович, Хандаров Фёдор Владимирович

В статье рассматриваются вопросы эволюционной настройки искусственных нейронных сетей. Приводится аналитический обзор существующих подходов, выделяются требования к алгоритмам подобного рода. Приводится описание и результаты тестирования нового алгоритма одновременной настройки весов и структуры нейросети.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Дармаев Тумэн Гомбоцыренович, Хандаров Фёдор Владимирович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

On evolutionary algorithm of artificial neural networks adjustment

The article deals with the issues of evolutionary adjustment of artificial neural networks. The analytical review of existing approaches is given, the requirements for such algorithms are highlighted. The description and the results of testing a new TWEANN-algorithm of simultaneous adjustment between weights and artificial neural networks are described.

Текст научной работы на тему «Об одном эволюционном алгоритме настройки искусственных нейронных сетей»

Болдсайхан Бадамжав, доктор медицинских наук, профессор Монгольского университета науки и технологий; директор Центра системных исследований Монгольского университета науки и технологий. 210646, Улан-Батор, ул. Бага Тойруу, 34. Тел.: 99133579; E-mail: Bbld51@yahoo.com

Boldsaikhan Badamzhav, Ph. D., Sc.D., M.D., professor; Director of System Research Center, Mongolian University of Science and Technology; 210646, Ulaanbaatar, Baga Toiruu str. 34. Tel.: 99133579; E-mail: Bbld51@yahoo.com

Дармаев Тумэн Гомбоцыренович, кандидат физико-математическмх наук; доцент; директор Научно-образовательного и инновационного центра системных исследований и автоматизации; 670000, г.Улан-Удэ, ул. Смолина, 24 «а»; Тел.: (3012)221215; E-mail: dtg@bsu.ru

Darmaev Tumen Gombotsyrenovitch, candidate of physical and mathematical sciences, associate professor, Director of scientific and educational centre of system research and automation; 670000, Ulan-Ude, Smolin str., 24 «а». Tel.: (3012)221215; E-mail: dtg@bsu.ru

Хабитуев Баир Викторович, инженер Научно-образовательного и инновационного центра системных исследований и автоматизации; 670000, г. Улан-Удэ, ул. Смолина, 24 «а»; Тел.: (3012)221215; E-mail: bairincO@gmail.com

Khabituev Bair Victorovich, software engineer, Scientific and educational centre of system research and automation, 670000, Ulan-Ude, Smolin str., 24 «а». Tel.: (3012)221215; E-mail: bairinc0@gmail.com

Хандаров Фёдор Владимирович, научный сотрудник Научно-образовательного и инновационного центра системных исследований и автоматизации; 670000, г.Улан-Удэ, ул. Смолина, 24 «а»; Тел.: (3012)221215; E-mail: fhandar@rambler.ru.

Khandarov Fedor Vladimirovich, research associate, Scientific and educational centre of system research and automation; 670000, Ulan-Ude, Smolin str., 24 «а». Tel.: (3012)221215; E-mail: fhandar@rambler.ru

УДК 004.8: 004.032.26

Т.Г. Дармаев, Ф.В. Хандаров Об одном эволюционном алгоритме настройки искусственных нейронных сетей

В статье рассматриваются вопросы эволюционной настройки искусственных нейронных сетей. Приводится аналитический обзор существующих подходов, выделяются требования к алгоритмам подобного рода. Приводится описание и результаты тестирования нового алгоритма одновременной настройки весов и структуры нейросети.

Ключевые слова: эволюционные алгоритмы, искусственные нейронные сети.

T.G. Darmaev, F. V. Khandarov On evolutionary algorithm of artificial neural networks adjustment

The article deals with the issues of evolutionary adjustment of artificial neural networks. The analytical review of existing approaches is given, the requirements for such algorithms are highlighted. The description and the results of testing a new TWEANN-algorithm of simultaneous adjustment between weights and artificial neural networks are described.

Keywords: evolutionary algorithms, artificial neural networks.

Введение

Эволюционные алгоритмы (ЭА) - область вычислительного интеллекта, базирующаяся на идеях биологической эволюции. Среди ЭА выделяют четыре направления: генетические алгоритмы, эволюционное программирование, эволюционные стратегии, генетическое программирование [16]. Они моделируют процесс естественного отбора в популяциях, состоящих из отдельных агентов (особей) посредством применения генетических операторов отбора, мутации и воспроизводства. Для четырех упомянутых направлений существуют различия в представлении, использовании и конкретизации операторов, настройке параметров и др. [16]. В качестве иллюстрации приведем в общем виде схему генетического алгоритма:

Пусть в пространстве поиска х задана функция приспособленности G(X), требуется найти

х* = argmaxG(x) x* = argminG(x)

’ ИЛИ xzX '

1. Случайным образом генерируется начальный конечный набор (называемый популяцией) проб-

р(°)_/ (°) (°)\ (0) Y

ных решений ' ■’■■■■’Ps j• Pj i..s- e A (называемых особями), где S~ начальный размер популя-

ции.

2. Производится оценка приспособленности текущего поколения, т.е. для каждой особи ВЫЧИСЛЯ-

ЛИ _ ( (*) (») (*)_/-/' (к)\

ется значение функции приспособленности: ^ ~ \2\ ' \ Р )

3. Выход, если выполняется критерий останова, иначе - шаг 4.

4. Производится генерация нового поколения посредством применения операторов селекции ^, скрещивания С и мутации М : М-С-8{р{к),г{к)^ и переход к пункту 2.

Генетические операторы $ С и М ~ представляют собой упрощенные аналоги биологических процессов селекции, скрещивания и мутации [18].

Искусственная нейронная сеть (ИНС) является одним из хорошо исследованных методов машинного обучения и представляет собой модель для аппроксимации функций с помощью функций активации, для обучения которой используется какой-либо метод минимизации ошибки на тренировочной выборке.

ИНС можно представить в виде упорядоченного множества обрабатывающих элементов (нейронов), соединенных между собой взвешенными связями. Подобная структура может быть описана ориентированным графом, в котором каждой вершине 1 сопоставлена передаточная функция (функ-

ция активации)./,: ' ’ \ ^ 41 ' J, где У, является выходным сигналом вершины /, х}- - / -м входом вершины /, Wij - весом, приписанным связи между вершинами 1 и ■! . - порогом (смещени-

f

ем) вершины. Функции Jl обычно выбираются нелинейными (гиперболический тангенс, сигмоидальная функция, функция Гаусса и т.д.).

Процесс решения задач с помощью ИНС включает в себя этап обучения, в процессе которого выполняется определенный алгоритм обучения, когда на вход сети подаются данные, содержащие известные значения выходных переменных, и по результатам сравнения фактических выходных значений с целевыми производится корректировка весов сети, т.е. решается задача минимизации

f-f \/ ^111111. где - количество примеров в обучающем множестве. Ук - желаемый выход-

ной сигнал для £"ГО примера, f(xk,W) - сигнал, выдаваемый сетью для к -го примера, W ~ матрица весов ИНС.

Применение эволюционных алгоритмов для настройки искусственных нейронных сетей. В

работах [3-9, 12-17] показано, что перспективным является применение ЭА к обучению ИНС, данная область в зарубежной литературе обозначается как EDNA (Evolutionary Design of Neural Architectures

- эволюционное проектирование нейронных архитектур) [4]. При настройке и обучении ИНС эволюционным путем может не только решаться задача поиска весов связей, но также отыскиваться структура сети, параметры избранного алгоритма обучения, обучающая выборка и др. В последние годы одним из наиболее перспективных подходов признается одновременная эволюция весов и структуры нейронной сети, в зарубежной литературе фигурирующая под аббревиатурой TWEANN (Topology and Weight Evolving Artificial Neural Networks - эволюция топологии и весов искусственных нейронных сетей) [5].

При применении эволюционных алгоритмов для решения задачи TWEANN основной проблемой, которая стоит перед исследователем, является проблема кодирования (представления) ИНС, которое в общем случае определяет дальнейший выбор генетических операторов и от которого в большей степени зависит эффективность разрабатываемых алгоритмов [1, 5 ,9].

Оценивать различные представления можно различными способами; подробный набор критериев для оценки различных представлений ИНС включает следующие характеристики: полнота, замкнутость, компактность, масштабируемость, множественность, приспосабливаемость, модульность, избыточность и сложность [4, 9].

Способы кодирования классифицируются как прямые и непрямые. Непрямое кодирование подразумевает хранение информации, общей для ИНС: число и емкость слоев, плотность связей, типы участков для составных сетей и т.д. Это представление отличается большей компактностью и модульностью [4, 5, 9]. Однако в данном способе практически невозможно проследить, какие изменения в генотипе оказались ключевыми и привели изменениям в фенотипе, иными словами - трудно выявить

факторы, которые являются положительными для целевой функции адекватности ИНС. Не менее значимыми недостатками являются множество трудностей с подбором генетических операторов, сходимостью и производительностью. Прямое кодирование представляет ИНС в явном виде с указанием всех нейронов, связей и весов, что лишает данный вид представления модульности и увеличивает объемы хранимой информации, однако придает большую алгоритмизируемость и снижает расходы на кодирование/декодирование [12].

В целом можно отметить то, что работы в направлении разработки методик прямого и косвенного кодирования отмечаются как весьма перспективные, и исследования данной предметной области находятся сейчас в самом разгаре [3, 9, 12].

В нашей работе мы станем придерживаться прямого способа кодирования ИНС.

Начальная популяция, как правило, формируется случайным образом. В работах [5, 19] показано, что последовательное усложнение структуры в общем случае эффективней, чем последовательное упрощение, в силу минимизации размерности пространства поиска, поэтому начальная популяция особей должна формироваться из сетей без скрытых нейронов.

В различных работах поднимается вопрос о разрушающем эффекте оператора кроссовера (скрещивания) [1, 5, 14, 15]. Вопрос о характере задач, для которых оператор кроссовера эффективен, остается открытым. Показано, что кроссовер при использовании представления особей в виде битовых строк приводит к рекомбинации коротких подстрок (т.н. строительных блоков - building blocks [6]), и оценка для строки, получаемой в результате подобной операции, оказывается выше средней оценки родителей [14, 15]. Таким образом, кроссовер, как правило, более эффективен в пространствах поиска, где приспособленность особи хорошо соотносится с ее представлением. В случае искусственных нейронных сетей показано [15, 20, 21], что подобное соотношение нарушается в связи с характером самого пространства поиска. Также следует отметить повышение вычислительной трудоемкости для операций кодирования/декодирования. Данная проблема решается различными способами [14].

Алгоритм одновременной настройки весов и структуры нейросети. Будем использовать ЭА для обучения ИНС прямого распространения (без обратных связей). В качестве единственного репродуктивного оператора будем использовать адаптивный оператор мутации, тогда эффективность разрабатываемого алгоритма в основном будет обусловлена представлением особей (способом кодирования ИНС) и механизмами адаптации оператора мутации. Количество входных и выходных нейронов будем считать фиксированным и равным соответственно Nj и N0-

В качестве модели представления будем использовать следующую: каждая ИНС может быть однозначно охарактеризована списком своих связей (с указанием смежных нейронов и значением весового коэффициента) и списком узлов (с указанием входящих и исходящих связей). Отметим, что список узлов, отчасти дублирующий информацию, содержащуюся в списке связей, увеличивает объем памяти, требуемый для хранения информации о каждой ИНС, однако подобная избыточность по памяти доставляет небольшой выигрыш в вычислении выходного сигнала сети и позволяет отслеживать некоторые исторические изменения для каждой сети. Помимо кодирования собственно ИНС, в генотипе каждой особи будем хранить два параметра, характеризующие направление развития особи:

direction e{0,lj (направление развития сети: при каждом усложнении принимает значение 1, при упрощении - 0) и age > 0 - возраст сети (количество итераций без структурных изменений).

Ближайшими аналогами подобного представления являются модели, используемые в алгоритмах NEAT [5] и NEvA [17]. В первом случае отличия проявляются в отсутствии исторических меток и наличии информации о связях, во втором - в наличии списка узлов. В обоих случаях также отсутствуют адаптационные характеристики.

Г енотипическое представление

Список связей

№ 1 2 3 4 5 6 7 8

Входящ. нейроны 1 2 2 3 3 6 7 7

Исходя щ. нейроны 6 6 7 7 5 7 4 5

Вес 0.1$ 0.47 0.45 0.79 0.12 0.92 0.64 0.34

Список узлов

№ 1 2 3 4 5 Б 7

Входящ. связи - - - 7 5,8 1Д 3,4, 6

Исходя щ. связи 1 2, 3 4, 5 - - « 7, ?

Адаптационные характеристики: age, ДFitness

Фенотипическое представление

Рис. 1, Представление искусственной нейронной сети в качестве особи для разрабатываемого эволюционного алгоритма

В качестве операторов мутации для И НС могут быть приняты добавление/удаление нейрона, добавление/удаление связи, изменение весов связей, рекомбинация нейронов/связей [14]. В работе мы станем использовать следующие варианты мутаций:

L Добавление нейрона. В список нейронов в случайное место вставляется нейрон для всех входящих и скрытых нейронов, расположенных в списке перед вставляемым, разыгрываются с вероятностью pta,, = 0.5 входящие связи со случайным весовым коэффициентом для всех выходных и скрытых нейронов, расположенных в списке после вставляемого - исходящие связи с той же вероятностью.

2. Добавление связи. Для двух случайно выбранных нейронов образуется новая связь.

3. Изменение весов. Для всех связей ИНС с вероятностью применяется оператор Гауссовой мутации - к весам прибавляется случайно выбранное число, полученное с помощью нормального распределения с заданными параметрами.

Для дальнейших выкладок нам потребуются некоторые специфические характеристики ИНС:

• Связность С = L/Ьмщ, где L - количество связей сети, Jem? /V/ * (Nff + AqJ f NH * N0 + ((NH* N/i) - N/i) ' 2 - максимальное количество связей, /V/, NH, N0 - количество входных, скрытых и выходных нейронов соответственно;

• Структурный возраст age = ~ отношение количества итераций без структурных

изменений данной особи к общему возрасту популяции;

• ^Fitness _ приращение фитнесс-функции относительно родительской особи.

Мутации 1-2 относятся к усложняющим структурным мутациям. Очевидно, что вероятность усложнения структуры psu должна увеличиваться пропорционально в случаях, если структура особи не

изменялась продолжительное время * +а и при этом приращение приспособленности относи-

г- AF —> 0 р

тельно родительской особи мало: ‘ . Во всех остальных случаях - должны изменяться веса

сщс —у 0 ^ w

особи. При этом * ' с количеством итераций, что отражает необходимость тонкой настройки

_ a-AFk PsM ~ п а е ’ PsM ~ 1 Pwm особей на поздних этапах эволюции: а&ек . где - вероятность структурной мутации, Р™ - вероятность мутации весов свяей, ( ’ ) _ параметры, подбираемые экс-

периментально. В случае, если структурная мутация происходит, требуется выбрать ее конкретный вид, т.е. решить: добавлять связь или добавлять нейрон. Решение зависит от показателя связности особи, если особь сильно связана - вероятность добавления нейрона будет выше, если особь слабо

связана - выше будет вероятность добавления связи: P^ddNode 1 PAddLink 3 PAddLink L1 ^ 'к + Ч _ гдс (0,1)

Схема разработанного алгоритма, таким образом, имеет вид:

1. Генерация начальной популяции Р0 из уникальных особей a! (i=l,..,N) - сетей без скрытых слоев с различными множествами W(i) связей.

2. Оценка приспособленности текущей популяции fitness^), если выполняются условия выхода (средняя приспособленность не изменяется в течение определенного количества итераций или достигнуто максимальное количество итераций) - шаг 7, иначе - шаг 3.

3. Выбор оператора мутации М().

4. Применение выбранного оператора мутации с одновременной оценкой полученных особей.

5. Формирование новой популяции P1+i.

6. Переход на шаг 1.

7. Выход.

В ходе шага 4 для каждой особи применяется выбранный для нее оператор мутации, в ходе шага 5

- особь с наилучшей приспособленностью из предыдущей популяции заменяет особь с наихудшей приспособленностью в новой популяции, т.е. реализуется стратегия элитизма [22].

Разработанный алгоритм реализован в виде библиотеки классов на языке C++.

Задача о балансировании шестов. Для тестирования алгоритма станем использовать известную в области адаптивного нейроуправления задачу о балансировании шестов [23], которая применяется для тестирования нейроэволюционных алгоритмов. Существуют различные разновидности рассматриваемой задачи в зависимости от количества шестов, характера воздействия на тележку, пространства движения тележки, наличия данных об угловых скоростях [24]. В работе будем рассматривать следующую постановку задачи: тележка перемещается в одном измерении, несет на борту два шеста различной длины, сила воздействия - непрерывна. Результаты работы разработанного алгоритма будут сравниваться с результатами работы алгоритмов NeVA [17], SANE [23], ESP [23], CMA-ES [25], NEAT[5], Число запусков алгоритма составит 100 с параметрами, указанными в таблице 1.

Таблица 1

Некоторые параметры разрабатываемого алгоритма на задаче с двумя маятниками___________

Параметр Значение

Размер популяции Случайный в диапазоне от 10 до 200

H,ri,a,p Случайные для каждого запуска из диапазона (ОД), на протяжении запуска - фиксированы.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Из таблицы 2 видно, что разрабатываемый алгоритм показал себя хуже CMA-ES и NEvA, опередив SANE, ESP и NEAT при чисто случайном подборе параметров а'! @ и размера популяции.

Таблица 2

Результаты сравнения разрабатываемого алгоритма на задаче с двумя маятниками

Алгоритм Среднее количество попыток Размер популяции Число неудач

SANE 12600 200 0

ESP 3800 200 0

NEAT 3578 150 0

Разраб. алгоритм 2651 85,7 0

NeVA 1448,55 18-200 0

CMA-ES 895 3 0

Сосредоточим наши дальнейшие исследования на подборе параметров Р и размера попу-

ляции. Установим —0.5,^ —0^ п0 ПрСЖНСМу будем подбирать а>Р случайным образом, но по правилу а<Р

Таблица 3

Результаты сравнения разрабатываемого алгоритма на задаче с двумя маятниками

при первоначальной фиксации параметров ^ <Р и размера популяции=50

Алгоритм Среднее количество попыток Размер популяции Число неудач

SANE 12600 200 0

ESP 3800 200 0

NEAT 3578 150 0

Разраб. алгоритм 1722 50 0

NeVA 1448,55 18-200 0

CMA-ES 895 3 0

Устанавливая параметры ^ ~ ' ,г! ~ ’а < $ , мы придаем большее значение связности и возрасту особи (важно на первоначальном этапе), а фиксируя размер популяции - искусственно ограничиваем количество вычислений целевой функции. Полученный результат подтверждает гипотезу о важности факторов, однако пока не позволяет улучшить показатели по сравнению с алгоритмом NeVA. Следует отметить также, что:

- в среднем вычисление целевой функции в алгоритме NeVA «дешевле» в силу возможностей этого алгоритма по снижению размерности особей, поскольку структурно особи разрабатываемого алгоритма в среднем сложнее особей алгоритма NeVA;

- CMA-ES не подбирает структуру сети, решая более простую задачу.

Таким образом, можно утверждать, что разрабатываемый алгоритм, уже при минимальной настройке параметров показывающий значительный рост производительности и результат, сравнимый с лучшими существующими алгоритмами, имеет хорошие перспективы развития за счет своих возможностей по более тонкой настройке параметров.

Дальнейшие исследования разработанного алгоритма следует сконцентрировать как на первоначальном подборе, так и на адаптации параметров а’ $ и размера популяции.

Заключение. В работе представлен нейроэволюционный алгоритм, использующий прямое кодирование нейронной сети списками вершин и связей, основным репродуктивным оператором алгоритма является адаптивный оператор мутации. Информация, необходимая для адаптивного подбора параметров мутации хранится отдельно для каждой особи. Приведены результаты тестирования разрабатываемого алгоритма на модельной задаче о балансировании шестов.

Показана перспективность исследований нейроэволюционных алгоритмов без кроссовера в области хранения параметров мутации индивидуально для каждой особи.

Литература

1. David Е. Moriarty, Risto Mikkulainen. Efficient reinforcement learning through symbiotic evolution. Machine Teaming 44(1-3): 11-32, Department of Computer Sciences, The University of Texas at Austin. Austin, TX 78712, 1996.

2. Gomez F. and Miikkulainen, R. (2001). Teaming robust nonlinear control with neuroevolution. Technical Report AI01-292, Department of Computer Sciences, The University of Texas at Austin.

3. Gronroos M. Evolutionary Design of Neural Networks”,-PhD thesis, Dept, of Mathematical Sciences, University of Turku, Finland.

4. Karthik Balakrishnan, Vasant Honavar Properties of genetic representations of neural architectures. - University of Tennessee - Universitat Erlangen-Numberg, Erlangen, 1996.

5. Kenneth O.Stanley, Risto Miikkulainen. Evolving Neural Networks through Augmenting Topologies. Evolutionary Computation 10(2): 99-127, The MIT Press, 2002.

6. Holland J.H. Building blocks, cohort genetic algorithms, and hyperplane-defined functions [ Текст ] / J.H. Holland // Evolutionary Computation. - 2000. - Vol. 8, no. 4. - P. 373-39.

7. Saravanan N., Fogel D. B. Evolving neural control systems // IEEE Expert, 1995, pp. 23-27.

8. Wieland A. Evolving controls for unstable systems. // Proceedings of the 1990 Connectionist Model Summer School. - San Mateo, CA: Morgan Kaufmann, 1990 - 91-102.

9. Конушин А. Эволюционные нейросетевые модели с незаданным заранее числом связей // Компьютерная графика и мультимедиа. Вып. №1(2)2003. URL: http://cgm.computergraphics.ru/issues/issuel

10. Круглов В.В., Борисов В.В. Искусственные нейронные сети: теория и практика. 2-е изд. стереотип. - М.: Горячая ли-ния-Телеком, 2002. - 382 с.: ил.

11. Саймон Хайкин Нейронные сети: полный курс. 2-е изд. - М. : Вильямс, 2006. - 1104 с.

12. Хмелев А.Г., Лютянская Л.А. Нейросетевые модели идентификации и оптимизации системы бюджетирования крупных промышленных предприятий//Бизнес информ: науч. информ. журнал. 2010 (361). № 2(1). - С. 103-106.

13. Цой Ю.Р., Спицын В.Г. Эволюционный подход к настройке и обучению искусственных нейронных сетей // Нейроинформатика: электрон, журнал. -2006. - Т. 1, №1. - С. 34-61.

14. X. Yao. Evolving Artificial Neural Networks.// Proceedings of the IEEE. 1999. Vol. 87, no. 9. P. 1423-1447.

15. Angeline P.J., Saunders G.M., Pollack J.B. An Evolutionary Algorithm that Constructs Recurrent Neural Networks // IEEE Transactions on Neural Networks. - 1993. -No. 5. -P. 54-65.

16. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. М.: Горячая линия-Телеком, 2007.

17. Цой Ю.Р. Нейроэволюционный алгоритм и программные средства для обработки изображений : дис. ... канд. техн. наук / Томск, политехи, ун-т. -Томск, 2007. - 209 с.

18. Holland J.H. Adaptation in natural and artificial systems. Michigan : The University of Michigan Press, 1975.

19. James D. A comparison of speciation, extinction, and complexification in neuroevolution with and without selection pressure // Proceedings of the 10th annual conference on Genetic and evolutionary computation - GECCO’08, New-York, 2008.

20. Schaffer J.D., Whitley D., Eschelman L. Combination of Genetic Algorithms and Neural Networks: The state of the art. // Combination of Genetic Algorithms and Neural Networks, IEEE Computer society, 1992.

21. Brown A.D., Card H.C. Evolutionary artificial neural networks // Proceedings of CCECE, 1997.

22. De Jong K. Generation Gaps Revisited. Foundations of Genetic Algotihms 2. 1993. P.19-28.

23. Gomez, F., Miikkulainen, R.: Solving non-Markovian control tasks with neuroevolution. In: Dean, T. (ed.) Proceedings of the Sixteenth International Joint Conference on Artificial Intelligence, pp. 1356-1361. Morgan Kaufmann, San Francisco (1999)

24. Gomez F. 2D pole balancing with recurrent evolutionary networks // Proceedings of International Conference on Artificial Neural Networks (ICANN-98). - New-York: Elsevier, 1998.

25. Igel C. Neuroevolution for reinforcement learning using evolution strategies [ Текст ] / С. Igel // Proceedings of Congress on Evolutionary Computation 2003 (CEC 2003), Vol. 4. - IEEE Press, 2003. - P. 2588-2595.

Дармаев Тумэн Гомбоцыренович, кандидат физико-математических наук; доцент; директор Научно-образовательного и инновационного центра системных исследований и автоматизации. 670000, г.Улан-Удэ, ул. Смолина, 24 а.

Тел.: (3012)221215; E-mail: dtg@bsu.ru

Darmaev Tumen Gombotsyrenovitch, candidate of physical and mathematical sciences, associate professor, Director of scientific and educational centre of system research and automation; 670000, Ulan-Ude, Smolin str., 24 a.

Tel.: (3012)221215; E-mail: dtg@bsu.ru.

Хандаров Фёдор Владимирович, научный сотрудник Научно-образовательного и инновационного центра системных исследований и автоматизации; 670000, г.Улан-Удэ, ул. Смолина, 24 а. Тел.: (3012)221215; E-mail: fhandar@rambler.ru.

Khandarov Fedor Vladimirovich, research associate, Scientific and educational centre of system research and automation; 670000, Ulan-Ude, Smolin str., 24 a. Tel.: (3012)221215. E-mail: fhandar@rambler.ru.

УДК 004.27

С.И Олзоева

Об организации вычислительных кластеров в высших учебных заведениях

Статья посвящена актуальной проблеме развития системы суперкомпьютерного образования, рассматриваются вопросы построения многопроцессорных вычислительных кластеров, как первоначального этапа для реализации программы подготовки специалистов в области высокопроизводительных вычислений.

Ключевые слова: суперкомпьютерные технологии, вычислительные кластеры, высокопроизводительные вычисления, параллельное программирование.

S.I. Olzoeva

On organization of computing clusters in higher educational institutions

The article is devoted to the urgent problem of development of the supercomputer system of education, the issues of construction of multi-processor computing clusters are considered as an initial step to implementation of training programs for professionals in the field of high performance computing.

Keywords: supercomputer technologies, computing clusters, high-performance computing, parallel programming.

i Надоели баннеры? Вы всегда можете отключить рекламу.