Научная статья на тему 'Нейросетевые технологии акропроектирования'

Нейросетевые технологии акропроектирования Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
104
28
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Куликова Е.Н., Волков А.А., Ваганов Р.Ф.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Нейросетевые технологии акропроектирования»

1/2009

ВЕСТНИК _МГСУ

НЕИРОСЕТЕВЫЕ ТЕХНОЛОГИИ МАКРОПРОЕКТИРОВАНИЯ

Куликова Е.Н., Волков А.А., Вагапов Р.Ф.

МГСУ

Рассмотрим некоторые общие вопросы построения нейросетвых технологий макропроектирования объектов и процессов в строительстве, акцентируя внимание на постановках задач и основных алгоритмах.

Искусственные нейронные сети индуцированы биологией, так как они состоят из элементов, функциональные возможности которых аналогичны большинству элементарных функций биологического нейрона. Эти элементы затем организуются по способу, который может соответствовать анатомии мозга. Несмотря на такое поверхностное сходство, искусственные нейронные сети демонстрируют удивительное число свойств, присущих мозгу. Например, они обучаются на основе опыта, обобщают предыдущие прецеденты на новые случаи и извлекают существенные свойства поступающей информации, содержащей излишние данные.

Особенностью нейронных сетей является их неспособность "объяснить", как они решают задачу. Внутреннее представление, получающееся в результате обучения, часто настолько сложно, что его невозможно проанализировать, за исключением самых простых случаев.

Искусственный нейрон имитирует в первом приближении свойства биологического нейрона. На вход искусственного нейрона (в дальнейшем - просто нейрон) поступает некоторое множество сигналов, каждый из которых является выходом другого нейрона. Каждый вход умножается на синаптический вес, аналогичный синаптической силе, и все произведения суммируются, определяя уровень активации нейрона (рис. 1).

W1

W2 1 NET f OUT=f(NET)

Wn

Рис. 1. Искусственный нейрон

Множество входных сигналов, обозначенных а1, a2,...an , поступает на нейрон. Эти входные сигналы, в совокупности обозначаемые вектором A , соответствуют сигналам, приходящим в синапсы биологического нейрона. Каждый сигнал умножается на соответствующий вес w1, w2,...wn , и поступает на суммирующий блок, обозначенный Е . Каждый вес соответствует силе одной биологической синаптической связи. Множество весов в совокупности обозначается вектором W . Суммирующий блок, соответствующий телу биологического элемента, складывает взвешенные входы алгебраически, создавая выход, обозначенный NET. Сигнал NET далее, как правило, преобразуется акти-вационной функцией f и дает выходной нейронный сигнал OUT.

Хотя один нейрон и способен выполнять простейшие процедуры распознавания, сила нейронных вычислений проистекает от соединений нейронов в сетях.

a

ВЕСТНИК 1/2009

Классификация нейронных сетей по способам обучения и типам связей приведена на рис. 2.

Рис. 2. Классификация нейронных сетей и методов их обучения

Простейшая сеть состоит из группы нейронов, образующих слой. Каждый элемент из множества входов А отдельным весом соединен с каждым нейроном. А каждый нейрон выдает взвешенную сумму входов в сеть. В сети многие соединения могут отсутствовать. Для сети связи между нейронами описываются матрицей Ж.

Алгоритмы обучения нейронной сети, подразумевающие наличие некоего внешнего звена, предоставляющего сети кроме входных выходные целевые образы, называются алгоритмами обучения с учителем. Для их успешного функционирования необходимо наличие экспертов, создающих на предварительном этапе для каждого входного образа эталонный выходной.

Процесс обучения без учителя заключается в подстраивании весов синапсов. Очевидно, что подстройка синапсов может проводиться только на основании информации, доступной в нейроне, то есть его состояния и уже имеющихся весовых коэффициентов. Исходя из этого соображения и, что более важно, по аналогии с принципами самоорганизации нервных клеток, построены сигнальный и диффенциальный алгоритмы обучения Хебба.

При обучении по сигнальному методу усиливаются связи между возбужденными нейронами. В дифференциальном методе сильнее всего обучаются синапсы, соединяющие те нейроны, выходы которых наиболее динамично изменились в сторону увеличения.

Другой алгоритм обучения без учителя - алгоритм Кохонена - предусматривает подстройку синапсов на основании их значений от предыдущей итерации. Обучение сводится к минимизации разницы между входными сигналами нейрона, поступающими с выходов нейронов предыдущего слоя, и весовыми коэффициентами его синапсов.

В общем случае алгоритмы обучения состоят в следующем:

1/2009 ВЕСТНИК

1. На стадии инициализации всем весовым коэффициентам присваиваются небольшие случайные значения.

2. На входы сети подается входной образ, и сигналы возбуждения распространяются по всем слоям, причем для каждого нейрона рассчитывается взвешенная сумма его входов, к которой затем применяется активационная функция нейрона, в результате чего получается его выходное значение.

3. На основании полученных выходных значений нейронов производится изменение весовых коэффициентов.

4. Повторение цикла с шага два, пока выходные значения сети не застабилизиру-ются с заданной точностью. Применение этого способа определения завершения обучения обусловлено тем, что подстраиваемые значения синапсов фактически не ограничены.

Нейронные сети могут быть с обратными связями или без. Обратная связь - связь идущая от выходов к входам. Сети без обратных связей обладают более ограниченными возможностями по сравнению с сетями с обратными связями. Так как сети с обратными связями имеют пути, передающие сигналы от выходов к входам, то отклик таких сетей является динамическим, то есть после приложения нового входа вычисляется выход и, передаваясь по сети обратной связи, модифицирует вход. Затем выход повторно вычисляется, и процесс повторяется снова и снова. Для устойчивой сети последовательные итерации приводят к все меньшим изменениям выхода, пока, в конце концов, выход не становится постоянным. Для многих сетей процесс никогда не заканчивается, такие сети называются неустойчивыми.

Существует теорема об устойчивости сетей с обратными связями, определяющая, какой должна быть устойчивая сеть [1]. Сеть с обратными связями является устойчивой, если ее матрица симметрична и имеет нули на главной диагонали, то есть wii = 0 для всех i. Данное ограничение означает, что нейрон не связан сам с собой (если рассматривать нейронную сеть как граф, то для устойчивости сети в этом графе не должно быть петель). Симметричность матрицы синаптических весов означает, что связи между нейронами взаимообратны, то есть не может присутствовать ситуация, когда один нейрон "1" оказывает влияние на нейрон "2", а нейрон "2" не влияет на нейрон 1.

Симметрия сети является достаточным, но не необходимым условием для устойчивости системы. Имеется много устойчивых систем, например, сети прямого действия, которые ему не удовлетворяют.

Библиографический список

1. Cohen M.A., Grossberg S.G. 1983. Absolute stability of global pattern formation and parallel memory storage by competitive neural networks. IEEE Transaction on Systems, Man and Cybernetics 13:815-26.

Рецензент: проф. кафедры САС МГСУ, д.т.н., проф. Э.П. Григорьев

i Надоели баннеры? Вы всегда можете отключить рекламу.