Научная статья на тему 'Универсальный программный комплекс для компьютерного моделирования на основе искусственной нейронной сети с самоорганизацией структуры'

Универсальный программный комплекс для компьютерного моделирования на основе искусственной нейронной сети с самоорганизацией структуры Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
375
96
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Арзамасцев А. А., Крючин О. В., Азарова П. А., Зенкова Н. А.

Authors develop the multifunctional program complex (simulator) for computer simulation on the basis of the artificial neuron network with self-organizing structure. The complex is intended for computer ANN-models construction of objects of various types and irrespective of their nature. This model can be used for testing entrants and revealing of their professional preferences. On its basis authors develop the special testing program which now is checked in higher forms of Tambov schools.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Арзамасцев А. А., Крючин О. В., Азарова П. А., Зенкова Н. А.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The universal program complex for computer simulation on the basis of the artificial neuron network with self-organizing structure

Authors develop the multifunctional program complex (simulator) for computer simulation on the basis of the artificial neuron network with self-organizing structure. The complex is intended for computer ANN-models construction of objects of various types and irrespective of their nature. This model can be used for testing entrants and revealing of their professional preferences. On its basis authors develop the special testing program which now is checked in higher forms of Tambov schools.

Текст научной работы на тему «Универсальный программный комплекс для компьютерного моделирования на основе искусственной нейронной сети с самоорганизацией структуры»

УДК 519.95

УНИВЕРСАЛЬНЫЙ ПРОГРАММНЫЙ КОМПЛЕКС ДЛЯ КОМПЬЮТЕРНОГО МОДЕЛИРОВАНИЯ НА ОСНОВЕ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ С САМООРГАНИЗАЦИЕЙ СТРУКТУРЫ

© А.А. Арзамасцев, О.В. Крючин, П.А. Азарова, Н.А. Зенкова

Arzamaszev А.А., Kryuchin O.V., Azarova Р.А., Zenkova N.A. The universal program complex for computer simulation on the basis of the artificial neuron network with self-organizing structure. Authors develop the multifunctional program complex (simulator) for computer simulation on the basis of the artificial neuron network with self-organizing structure. The complex is intended for computer ANN-models construction of objects of various types and irrespective of their nature. This model can be used for testing entrants and revealing of their professional preferences. On its basis authors develop the special testing program which now is checked in higher forms of Tambov schools.

Введение. Известно, что возможности искусственных нейронных сетей (ИНС) при моделировании объектов различной природы зависят от их структуры, под которой обычно понимают число скрытых слоев, число нейронов в этих слоях, имеющуюся систему связей между нейронами и их активационные функции. Правильный выбор указанных параметров в значительной степени позволяет достигать адекватности ИНС-модели и реальному объекту.

В настоящее время не существует общего алгоритма определения структуры ИНС, подходящей для каждой рассматриваемой проблемы. Часто такую структуру выбирают методом «проб и ошибок», который зачастую отнимает у исследователя много времени. В некоторых программных ИНС-оболочках предусмотрена визуализация построения структуры сети.

Целью данной работы является разработка многофункционального программного комплекса для компьютерного моделирования на основе искусственной нейронной сети с самоорганизацией структуры.

Алгоритм самоорганизации структуры сети. Алгоритм базируется на двух эмпирических феноменах ее обучения, которые обычно наблюдаются при изменении числа нейронов в скрытом слое и количества скрытых слоев (см. рис. 1 а, IЬ).

На рис. 1 а показано, как изменяется ошибка обучения сети при изменении числа нейронов в скрытом слое. Видно, что вначале, при добавлении новых нейронов, ошибка убывает. Однако начиная с некоторого числа нейронов она стабилизируется, так что дальнейшее увеличение их количества не приводит к снижению ошибки обучения. По всей видимости, речь здесь может идти о непреодолимой погрешности, которую можно связать с несоответствием структуры ИНС-мо-дели и моделируемого объекта. Можно сделать вывод, что увеличивать число нейронов в слое целесообразно лишь до тех пор, пока это приводит к уменьшению ошибки обучения (на рис. 1 а это число - 4 или 5).

На рис. 1Ь показано, как изменяется ошибка обучения сети при увеличении числа скрытых слоев, при условии, что выбор количества нейронов в каждом слое производится так, как это показано на рис. I а. Из

этого рисунка видно, что ошибка обучения сети быстро убывает до остаточного значения F0CT, которое не может быть уменьшено в дальнейшем. По нашему мнению, такое значение F0CT связано с погрешностью эмпирических данных, используемых при обучении сети. Из рис. 1 b также хорошо видно, что информацию об уменьшении F0CT можно использовать для выбора числа скрытых слоев. Так, ошибка обучения практически не меняется при использовании 3 или 4 скрытых слоев в ИНС (рис. 1Ь).

а)

Ь)

Рис. 1. Методика выбора числа нейронов в скрытом слое -а) и количества скрытых слоев - Ь)

Рассмотренная феноменология обучения ИНС использована нами для конструирования эффективного алгоритма самоорганизации структуры. Суть алгоритма заключается в постепенном наращивании числа нейронов в каждом слое и числа скрытых слоев до тех пор, пока ошибка обучения сети Faci не перестанет уменьшаться (рис. 1а, 16). Блок-схема такого алгоритма показана на рис. 2.

В блоке 1 задают число входов ИНС - п (определяется постановкой задачи и зависит от числа факторов, оказывающих влияние на моделируемый объект), число выходов ИНС - к (определяется как число факторов, являющихся результатом моделирования и интересующих пользователя системы); начальное число слоев - S принимается равным нулю.

В блоках 2 и 3 задаются начальные условия: начальная лучшая невязка для нейрона (BestError) - максимальное число используемого типа; начальная лучшая невязка для слоя (LayerBestError) - максимальное число используемого типа; начальная лучшая невязка для всей сети (NetBestError). В процессе конструирования сети данные невязки будут изменяться и достигать своего минимального значения.

Также пользователем задается величина delta - несущественное изменение невязки. Если разница между двумя невязками (полученной в настоящий момент времени и предыдущей) становится меньше величины delta, то построение слоя (в случае несущественного изменения BestError) или построение всей сети (в случае несущественного изменения LayerBestError) будет прекращено.

В блоке 4 задается первоначальное число нейронов в каждом из предполагаемых слоев ИНС равным нулю.

В блоке 5 при переходе к построению нового слоя нейронов невязка сети получает то значение, которое получилось в конце построения предыдущего нейрон-

В блоке 6 в начале построения нового нейронного слоя счетчик слоев в сети - S увеличивается на единицу.

В блоке 7 при подборе нового нейрона в текущем слое счетчик нейронов в этом слое - i увеличивается на единицу.

В блоке 8 при подборе нового нейрона в текущем слое невязка данного слоя получает то значение, которое получилось в результате подбора предыдущего нейрона в слое.

В блоке 9 при подборе активационной функции каждого нового нейрона в текущем слое осуществляется перебор всех уже имеющихся в наличии слоев ИНС.

В блоке 10 осуществляется перебор всех нейронов в каждом из уже построенных слоев ИНС.

В блоке 11 осуществляется перебор всех имеющихся в распоряжении пользователя активационных функций нейронов. Таким образом, имеется возможность не просто подобрать активационную функцию только для одного (рассматриваемого в данный момент времени) нейрона при закрепленных активационных функциях остальных нейронов в сети, а произвести перебор всех имеющихся нейронов и, если это приведет к уменьшению значения невязки, поменять активационные функции некоторых из них.

В блоке 12 производится обучение сети по опреде-

JICHHOMV anrOHHTMV ^О^ИН ИЗ метопов оппепиления ми-

нимума функции многих переменных) и находится значение лучшей текущей невязки - ej.

Блок 13. Если произошло уменьшение лучшей текущей невязки - ej по сравнению с лучшей невязкой для подбираемого в данный момент времени нейрона -BestError, то управление передается к блоку 14, в противном случае осуществляется переход к новой активационной функции нейрона (блок 11).

В блоке 14 номер активационной функции, при которой произошло уменьшение ej, записывается в массив FBest в строку с номером 5 (этот номер соответствует номеру слоя) и в столбец с номером i (этот номер соответствует номеру нейрона, активационная функция которого подбирается в данный момент времени).

В блоке 15 значение невязки ej записывается в переменную BestError - теперь это значение будет лучшим для подбираемого нейрона.

В блоке 16 осуществляется запись текущих значений коэффициентов синаптических связей.

Блок 17. Если произошло существенное уменьшение (на величину, большую, чем delta) величины лучшей невязки последнего нейрона (BestError) относительно лучшей невязки для последнего построенного слоя (LayerBestError), то можно добавить в текущий слой еще хотя бы один нейрон: см. блоки 18 и 19. В противном случае (если существенного уменьшения невязки не произошло), добавление нового нейрона в текущий слой, вероятнее всего, не приведет к дальнейшему существенному уменьшению лучшей невязки, т. е. необходимо перейти к блоку 20.

В блоке 18 осуществляется запись количества нейронов на последнем построенном слое.

В блоке 19 производится восстановление начальных коэффициентов синаптических связей и осуществляется переход к блоку 7.

Блок 20. Если произошло существенное уменьше-

МПА ^1Ю П(ЗПШШ1П/ £лг\гм т\;1Л Il^Xi rl £*1 to \ Г>£» ПТЛПЛ II I ГТЛ?11_

nnw ynu UVJirnnilj, -1V1V1 VXVlLUy uvjirnnnoi JI V ~I

шей невязки последнего построенного слоя (LayerBestError) относительно лучшей невязки сети (NetBestError), то можно добавить в сеть еще хотя бы один нейронный слой: перейти к пункту 4. В противном случае (если существенного уменьшения невязки не произошло), добавление нового слоя в сеть не приведет к дальнейшему уменьшению лучшей невязки сети, т. е. необходимо перейти к блоку 21.

Блок 21. Сеть построена.

Разработка программного обеспечения. Алгоритм, приведенный на рис. 2, реализован в виде программной оболочки, осуществляющей следующие основные функции:

- ввод исходных данных для обучения сети (векторы х и у) из отдельных файлов; в программе реализуется концепция «обучение с учителем»;

- обучение ИНС по методам сканирования, Мон-те-Карло и градиентному;

- визуализацию ошибки обучения сети по мере увеличения числа нейронов в слое и увеличения числа слоев;

- визуализацию структуры сети в виде схемы;

- запись в соответствующие файлы результатов обучения сети: ее структуры, коэффициентов передачи (синаптических связей), функций нейронов и погреш-

ипртрм niivupuua

I Задать число входов п; число выходов к; начальное число слоев 3=0;

Задать лучшую невязку для нейрона BestErтor; лучшую невязку для слоя нейронов 1_ауегВез1Еггог;

3 I -

Задать лучшую невязку нейронной сети NetBestError; величину delta

i:=0

NetBestError: = LayerBestError

S:=S+1

i:=i+1

© О (D—

8

X

LayerBest:=BestError;

t: = 1, S, 1

10—1----------

r: = 1,n (S),1

11 I ---------

*0

*0

<D

Обучение сетТпо выбранному алгоритму; получение текущей Вез1Еггог при использовании функции активации] подбираемого нейрона__________

Запись полученных при данной активационной функции коэффициентов синаптических связей

(^ОСТАНОВ^)

Рис 2. Блок-схема алгоритма самоорганизации структуры искусственной нейронной сети

При разработке программы были использованы следующие средства: в качестве IDE была выбрана среда CBuilder 6 компании Borland. Интерфейс программы был реализован с помощью библиотек Visual Component Library. Минимальные системные требования: операционная система Microsoft Windows 98/МЕ/2000/ХР, 64 Mb оперативной памяти. Программа не требует инсталляции и может быть запущена с любого носителя.

Пользовательский интерфейс программы. Для обучения нейронной сети необходимо ввести обучающую выборку входных и выходных элементов. В управляющем наборе «количество нейронов» следует указать число элементов во входном и выходном слоях (обычно эти сведения бывают понятны из структуры моделируемого объекта), а в наборе «пути к файлам» -имена текстовых файлов, в которых заданы обучающие выборки (рис. 3).

После задания исходных данных пользователь может начать обучение ИНС. Для изменения настоек процесса обучения можно использовать окно, показанное на рис. 4.

■ижшиаш

П^гик. Файлам Входные

jD:Wz\Science^Aspirants\Kruchinl\Data\inpuUxt

Вьиааные

ID:\Arz\S cienceSAspif ants\Kr uchin\D ata\output.txt

Количество нейронов Входные

Выходные

и

Учоть

Рис. 3. Форма задания исходных данных для обучения искусственной нейронной сети

HV

Обдониес

Статика | Дшамика i : Формирован« нейронов

КоЯИЧвСТВО HW^JOttOB

статическое

динамическое

Метсо

: <• полное скатфование

Монте-Карло • !~' градиентный

Свойства подбора весов

Дельта

{005

Изменение дельта

ГГ“

¡Функции

! Г X Г

9 JXH

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

г

/ *:

SQRTIXi * tan {X)

по количеству по погреоностн по отношению тогрешностеи по адличеству оажакоеых погрешностей

Рис. 4. Окно настроек процесса обучения сети с заданной структурой по эмпирическим данным

Вначале пользователь должен задать начальную структуру сети. В случае выбора варианта «статическое» структура сети является жесткой и задается самим пользователем. Такой вариант может быть выбран, когда пользователь знает точную внутреннюю структуру моделируемого объекта.

Для выбора заданной структуры следует в меню количества нейронов выбрать статическое, а затем в меню формирования нейронов указать количество слоев (считая входной и выходной) и максимальное количество нейронов в слое (рис. 4). После нажатия кнопки «Создать» откроется окно с разметкой структуры сети, которую нужно заполнить нейронами. При нажатии левой кнопки мыши на пустом поле в нем появляется нейрон, а при нажатии правой кнопки - меню, позволяющее выбрать активизирующую функцию нейрона. Нейроны отображаются в виде эллипсов, цвет которых зависит от активационной функции. Каждый нейрон предыдущего слоя оказывается связанным с каждым нейроном последующего слоя.

При выборе пользователем варианта «динамическое» ИНС может модифицировать структуру в процессе обучения. Здесь реализуется алгоритм самоорганизации, приведенные на рис. 2. Этот способ более предпочтителен в случае, когда пользователь точно не знает внутреннюю структуру моделируемого объекта. Поскольку в процессе своего обучения сеть сама модифицирует структуру связей, этот способ может быть использован для разработки компьютерных моделей объектов с неизвестной внутренней структурой (типа «черный ящик»), а также для структурной идентификации таких объектов. Учитывая, что критерием остановки процесса обучения сети является ошибка обучения, сеть будет изменять свою структуру до тех пор, пока заданная погрешность не будет достигнута. Этот процесс может занимать значительное время.

выбрать допустимую погрешность для каждого слоя и для остановки обучения (рис. 5). Следует также выбрать критерий остановки обучения (при проведении определенного количества итераций, при достижении определенной погрешности, при достижении погрешности, которая в определенное число раз меньше начальной, при повторении одной и той же погрешности несколько раз). Следует также отметить, что в этом случае активационные функции для каждого нейрона подбираются программой из числа отмеченных пользователем (рис. 5).

Для обучения сети можно использовать различные методы математического программирования: метод простого сканирования, Монте-Карло и градиентный. Каждый из перечисленных методов имеет свои особенности, которые отражаются на времени обучения сети.

В зависимости от используемого метода, а также от способа формирования сети следует ввести еще несколько параметров. При выборе полного перебора следует указать, с каким шагом нужно подбирать числа из отрезка [0; 1]. При выборе метода Монте-Карло следует ввести шаг, определяющий диапазон изменения весов и число, определяющее во сколько раз будет меняться шаг на каждой итерации. Также следует указать и количество итерации (при выборе остановки по числу итераций), число одинаковых погрешностей или

погрешность (при остановке по абсолютной или относительной погрешности).

После того, как обучение сети закончено, можно считать, что ИНС-модель рассматриваемого объекта построена.

Пользователь может увидеть ее конфигурацию, выбрав меню Вид —> Визуализация и открыв окно, в котором будут отображены весовые коэффициенты и активационные функции нейронов (рис. 6). После обучения сети можно также сохранить ее конфигурацию, выбрав меню Файл —> Сохранить.

Пользователь также может проводить необходимые ему вычисления (вычислительный эксперимент) по обученной ИНС-модели. Для этого нужно открыть конфигурацию сети, выбрав меню Файл —» Открыть. Новые данные необходимо ввести в левый столбец таблицы и нажать на кнопку «Считать» (см. рис. 3). Нейронная сеть выведет результаты расчета.

Вкладка «Вывод результатов» позволяет сохранять историю обучения (изменения погрешностей или весовых коэффициентов). Могут быть выбраны разные способы сохранения погрешности: «по результату» -сохраняются последние значения; на каждом слое, на каждом нейроне; на каждой итерации или их комбинации. Для сохранения необходимо отметить соответствующие пункты и задать имена файлов. Аналогичную операцию можно произвести и при сохранении весо-

: О^ёниё Вывод рездяьтато» I Статика Ддаамика |

Допустимые погрешности Погрешность полная

яЦЙ*І

}0,5

Погрешность ряаа

Количество квмроное ^ статическое

динамическое

Метод

• полное сканирование ; Монте-Карло Г градиентный

Свойства табора весов -Дельта

И аменеже дельта

Функции

Г X

1У 1 /(1 ♦ 1X1}

' Х"3 " ЗОЙ? IX! ЙПIЯ !

Остановка '

по ко>»меству по погрешности '■ ' по отношетово погрешности

■' ' по к.опинвст

Рис. 5. Окно настроек процесса обучения сети с самоорганизующейся структурой по эмпирическим данным

.»ШШІ

т гт

Рис. 6. Окно визуализации структуры сети. Для реального объекта таблицы автоматически заполняются значениями весовых коэффициентов и активационными функциями нейронов ИНС-модели

“ ,М*1

Обучение сети , Вьаза рёзугьтзгсю )|

Погрешности Веса |

. "Пути сохранения весов

Слон

: ¡р wz\iciertceVUpiranIs\Kwchin\fenjlCW.txt

Нейрон

С ^ 1:е'А:р1г.эп11'’> шсЬ|П\1е-:икН'у'/ М

: Итерация

. г'\ :■ ■: 1?-1С еА>р1гап»$\КгисЬ1п\ге^и1^А/'ч|/ 1к1

• Тш сохранения

по результату

по слоям

по н&Рсоиам

по &кам

• Визуа/ызация погоешности

. по результату

£«/ по слоям

м по нейронам

то весам

Рис. 7. Внешний вид вкладки «Вывод результатов»

В программе также возможна визуализация изменения погрешности. В этом случае откроется окно, в котором будет строиться соответствующий график.

Пример использования программы. Идея использования аппарата искусственных нейронных сетей для моделирования социальных систем была предложена в

работе [1]. О принципиальной возможности построения компьютерных моделей социальных систем на основе ИНС указано в работе [2].

Разработанный нами симулятор был применен для построения компьютерной модели личности школьников старших классов г. Тамбова на основе значительного по объему эмпирического материала [3]. Обучающая выборка, являющаяся результатом анкетирования более чем тысячи школьников, представляла собой прямоугольную матрицу размером 1052 строки и 253 столбца. Строки представляли собой записи, соответствующие респонденту, столбцы - варианты ответа респондентов на вопросы анкеты, относительно предрасположенности к дальнейшему образованию в университете по различным профилям [3].

Обучение ИНС проводили таким образом, что она автоматически выбирала структуру модели. Время обучения составило 2 недели непрерывной работы компьютера, при этом приведенная погрешность составила не более 10%, что позволило считать ИНС-модель адекватной реальному объекту (в данном случае объектом являлся социум, включающий учащихся старших классов школ г. Тамбова). Общая структура полученной сети показана на рис. 8, а ее коэффициенты синаптических связей приведены в табл. 1 -4.

Рис. 8. Структура ИНС-модели. 1-58, 60-65, 69, 71 - входные нейроны с линейной активационной функцией, 59, 66, 67, 68 - нейроны с активационной функцией типа «сигмоид» - (/{$) = 1/(1 + $2)), 70 - нейрон с параболической активационной функцией (Дз) ~ .V2), 78 — выходной нейрон с параболической активационной функцией (/($) = 53). Общее число связей (весовых коэффициентов сети) - 444.

Таблица 1

Коэффициенты синаптических связей нейронов входного и первого срытого слоев ИНС-модели

Номера нейронов 59 60 61 62 63 64 65

1 0,010 0,073 0,016 0,077 0,067 0,074 0,093

2 0,047 0,088 0,089 0,016 0,057 0,063 0,098

3 0,024 0,033 0,046 0,059 0,020 0,075 0,081

4 0,026 0,010 0,008 0.052 0,071 0,093 0,024

5 0,025 0,026 0,056 0,022 0,035 0,040 0,086

6 0,017 0,047 0,098 0,096 0,062 0,017 0,030

7 0,092 0,014 0,001 0,007 0,095 0,026 0,058

8 0,066 0,048 0,094 0,010 0,044 0,038 0,051

9 0,023 0,086 0,028 0,053 0,088 0,092 0,078

10 0,010 0,058 0,080 0,018 0,015 0,070 0,080

И 0,087 0,047 0,037 0,005 0,065 0,076 0,038

12 0,029 0,099 0,067 0,080 0,034 0,032 0,027

13 0,064 0,059 0,057 0,056 0,028 0,010 0,070

14 0,086 0,013 0,013 0,058 0,041 0,072 0,094

15 0,050 0,078 0,023 0,062 0,026 0,061 0,052

16 0,070 0,094 0,027 0,049 0,022 0,081 0,019

17 0,001 0,005 0,092 0,013 0,003 0,070 0,010

18 0,046 0,090 0,045 0,070 0,060 0,055 0,014

19 0,004 0,084 0,040 0,046 0,041 0,001 0,014

20 0,047 0,063 0,025 0,035 0,007 0,021 0,013

21 0,060 0,017 0,019 0,060 0,075 0,062 0,037

22 0,098 0,089 0,039 0,058 0,061 0,092 0,028

23 0,024 0,013 0,031 0,022 0,074 Г\ и,ии.£ Г\ АОО и,иоо

24 0,080 0,074 0,019 0,078 0,039 0,099 0,058

25 0,068 0,052 0,082 0,008 0,078 0,018 0,087

26 0,021 0,060 0,095 0,086 0,090 0,009 0,083

27 0,077 0,086 0,084 0,013 0,091 0,035 0,037

28 0,086 0,074 0,097 0,067 0,079 0,059 0,037

29 0,047 0,072 0,097 0,099 0,005 0,038 0,086

30 0,073 0,072 0,039 0,079 0,007 0,069 0,051

31 0,092 0,049 0,081 0,084 0,085 0,051 0,072

32 п гт 0,074 п ппо П П!П 0,040 о 05Я 0 ОМ

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

33 0,015 0,084 0,077 0,060 0.069 0,001 0,084

34 0,038 0,049 0,028 0,099 0.008 0,018 0,086

35 0,061 0,022 0,083 0,045 0,085 0,085 0,060

36 0,005 0,020 0,032 0,008 0,044 0,078 0,029

37 0,052 0,043 0,044 0,090 0,021 0,025 0,016

38 0,062 0,042 0,083 0,025 0.050 0,061 0,008

39 0,059 0,060 0,091 0,013 0,095 0,045 0,058

40 0,040 0,014 0,097 0,055 0,095 0,054 0,054

41 0,050 0,002 0,070 0,004 0,031 0,056 0,071

42 0,022 0,014 0,067 0,094 0,036 0,067 0,032

43 0,090 0.018 0,046 0,058 0,039 0,044 0,094

44 0,042 0,084 0,028 0,078 0,082 0,022 0,030

45 0,041 0,075 0,094 0,033 0,053 0,032 0,032

46 0,093 0,003 0,098 0,034 0,006 0,094 0,072

47 0,074 0,097 0,030 0,060 0,069 0,023 0,056

48 0,055 0,050 0,007 0,046 0,069 0,091 0,042

49 0,002 0,022 0,071 0,046 0,006 0,087 0,079

50 0,056 0,040 0,052 0,019 0,057 0,043 0,005

51 0,024 0,005 0,097 0,082 0,098 0,088 0,006

52 0,002 0,048 0,016 0,011 0,008 0,079 0,069

53 0,001 0,089 0,100 0,043 0,097 0,089 0,093

54 0,026 0,088 0,038 0,087 0,016 0,016 0,061

55 0,064 0,073 0,074 0,032 0,052 0,091 0,008

56 0,038 0,053 0,099 0,043 0,026 0,032 0,028

57 0,043 0,067 0,005 0,007 0,092 0,048 0,022

58 0,037 0,029 0,099 0,009 0,063 0,010 0,076

Таблица 2

Коэффициенты синаптических связей нейронов первого и второго срытых слоев ИНС-модели

Номера нейронов 66 67 68 69

59 0,030 0,012 0,014 0,081

60 0,021 0,041 0.001 0,068

61 0,004 0,035 0,080 0,009

62 0,083 0,008 0,016 0.056

63 0,019 0,013 0,089 0,091

64 0,085 0,032 0,003 0,030

65 0,073 0,079 0,024 0,030

Таблица 3

Коэффициенты синаптических связей нейронов второго и третьего срытых слоев ИНС-модели

Номера нейронов 70 71

66 0,010 0,079

67 0,013 0,007

68 0,004 0,094

69 0,014 0,077

Таблица 4

Коэффициенты синаптических связей нейронов третьего срытого и выходного слоев ИНС-модели.

Номера нейронов 78

70 0.049

71 0,084

Таким образом, нами разработан многофункциональный программный комплекс (симулятор) для компьютерного моделирования на основе искусственной нейронной сети с самоорганизацией структуры. Комплекс предназначен для построения компьютерных

ИНС-моделей объектов различного типа и вне зависимости от их природы.

В качестве примера использования симулятора с его помощью реализована компьютерная модель социального объекта - личности школьников старших классов г. Тамбова в плане их предпочтений к продолжению образования в университете и выборе специальности. Такая модель может быть использована для тестирования абитуриентов и выявления их профессиональных предпочтений. На ее основе нами разработана специальная тестирующая оболочка, которая в настоящее время проходит проверку в старших классах школ г. Тамбова.

ЛИТЕРАТУРА

1. Арзамасцев А.А., Зснкова Н.А. Моделирование в психологии на основе искусственных нейронных сетей. Тамбов. ТГУ им. Г Р. Державина, 2003, 106 с.

2. Hilbert N.. Troizsch К. Simulation for the Social Scientist. Open University Press, 2006.

3. Арзамасцев A.A., I остиювич T.A., Везручеико И.П., Зснкова Н А. Личностные качества, профессиональная предрасположенность и социальная активность школьников старших классов. Тамбов: ТГУ им. Г.Р. Державина, 2004. 103 с.

Поступила в редакцию 7 сентября 2006 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.