Научная статья на тему 'Исследование методов прогнозирования ситуаций с применением сетей адаптивной резонансной теории'

Исследование методов прогнозирования ситуаций с применением сетей адаптивной резонансной теории Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
107
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПРОГНОЗИРОВАНИЕ СИТУАЦИИ / АДАПТИВНАЯ РЕЗОНАНСНАЯ ТЕОРИЯ / СЕТИ АРТ / АССОЦИАТИВНАЯ ПАМЯТЬ / ДВУНАПРАВЛЕННАЯ АССОЦИАТИВНАЯ ПАМЯТЬ / РЕКУРРЕНТНЫЕ НЕЙРОННЫЕ СЕТИ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Гамазов Иван Николаевич, Терехов Валерий Игоревич, Мялкин Максим Павлович

В статье рассмотрены методы поиска аналогов описываемой ситуации с помощью различных архитектур сетей адаптивной резонансной теории. Рассмотрены преимущества и недостатки описанных архитектур, предложено использование двунаправленной ассоциативной памяти для решения поставленной задачи.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Исследование методов прогнозирования ситуаций с применением сетей адаптивной резонансной теории»

6« г о с начала гола

Рис. 1. График с отображением динамики количества фактов Список литературы

1. Паклин Н.Б., ОрешковВ.И. Бизнес-аналитика от данных к знаниям. Питер, 2013. 20-27 с.

2. Чекко Р. Графика на JavaScipt: ORelly, 2014. № 9. С. 15-16.

3. Highcharts Demos / Spline with symbols. [Электронный ресурс]. Режим доступа: http://www.highcharts.com/demo/spline-symbols/ (дата обращения: 02.04.2017).

ИССЛЕДОВАНИЕ МЕТОДОВ ПРОГНОЗИРОВАНИЯ СИТУАЦИЙ С ПРИМЕНЕНИЕМ СЕТЕЙ АДАПТИВНОЙ РЕЗОНАНСНОЙ ТЕОРИИ Гамазов И.Н.1, Терехов В.И.2, Мялкин М.П.3

'Гамазов Иван Николаевич - бакалавр, магистрант; 2Терехов Валерий Игоревич — кандидат технических наук, доцент; 3Мялкин Максим Павлович - бакалавр, магистрант, кафедра системы обработки информации и управления, Московский государственный технический университет им. Н.Э. Баумана,

г. Москва

Аннотация: в статье рассмотрены методы поиска аналогов описываемой ситуации с помощью различных архитектур сетей адаптивной резонансной теории. Рассмотрены преимущества и недостатки описанных архитектур, предложено использование двунаправленной ассоциативной памяти для решения поставленной задачи.

Ключевые слова: прогнозирование ситуации, адаптивная резонансная теория, сети АРТ, ассоциативная память, двунаправленная ассоциативная память, рекуррентные нейронные сети.

Введение

В исследованиях, проведенными авторами в работе [1], были подробно рассмотрены принципы построения когнитивных карт для описания различных процессов и ситуаций. Основой построения когнитивной карты и дальнейшего прогноза развития ситуации является вектор состояний системы

Х(ф) = ср(У(Ъ)) = (р>(ух(Ъ) ) , р>(у2(Ъ) ) , ■ ■ -,(р(уп(Ъ) ) ) . Такой вектор отражает состояние системы (ситуации или процесса) в указанный момент времени ф. Особенностью данного вектора является числовой вид, пригодный для дальнейших вычислений и преобразований.

Описание ситуации в виде вектора, предложенного в работе [2], хотя и позволяет просчитать возможный сценарий развития ситуации, не дает возможности найти исторические аналоги ситуации, сослаться на уже произошедшие события и посмотреть, к каким последствиям приводит тот или иной сценарий. Целью данной статьи является применение сетей адаптивной резонансной теории для поиска исторических аналогов ситуации, основываясь на числовом векторе описании ситуации.

Следует отметить, что правильно построенная когнитивная карта похожа на модель искусственной нейронной сети (ИНС) по строению - концепты карты представляют собой нейроны, связи между ними задают связи между нейронами, веса связей на когнитивной карте «ложатся» на матрицу весов ИНС. Однако, описанные в [2] методы получения прогноза требуют подавать результаты предыдущего шага расчета значений концептов снова, для получения следующего шага. Выходные данные, полученные для конкретного момента времени, являются входными для расчета следующего момента времени. В теории ИНС существуют соответствующие архитектуры - рекуррентные нейронные сети. Выходы таких сетей подаются на их входы, образуя обратные связи внутри нейронной сети. Наличие обратных связей позволяет таким сетям запоминать и воспроизводить цепочки реакций на один стимул (на один входной набор данных).

Рекуррентные нейронные сети

Первой, достаточно известной ИНС с обратными связями стала нейронная сеть Хопфилда [3], созданная в 1982 году. Такая сеть может быть использована как ассоциативная память (как фильтр) или как средство решения задач оптимизации. Суть работы сети как фильтра заключается в том, что она способна восстановить эталонный образ из поврежденного или неполного, поданного на вход. Однако сети данного типа обладают рядом недостатков, не позволяющих применять их на практике. Основной недостаток заключается в малом количестве образов, которым можно обучить сеть. Еще одним недостатком подобных сетей является возможность получения ошибочного ответа от сети. Даже когда сеть достигла устойчивого состояния (выдала ответ), оно может быть ложным. Такое возможно, если поданный на вход искаженный образ похож сразу на несколько запомненных образов. В этом случае ответ сети будет содержать фрагменты нескольких образов, однако такой ответ нельзя назвать правильным - исходный образ не был полностью восстановлен и не может быть однозначно идентифицирован.

Сеть Хопфилда была в дальнейшем доработана Бартом Коско и получила название нейронной сети Коско [4] или ДАП (двунаправленная ассоциативная память). ДАП является гетероассоциативной - входной образ подается на один слой нейронов, а выходной получается на другом. Выделяют четыре основных типа ДАП:

1) Синхронная ДАП. Подача на вход сети зашумленного образа приведет к циклическому распространению сигнала по сети до тех пор, пока не будет найден наиболее близкий эталонный образ (ассоциация), которому ранее была обучена сеть. По своей сути данный процесс похож на воспоминание человеком чего-либо.

2) Непрерывная ДАП. Функция активации нейронов - сигмоидальная, что позволяет сузить динамический диапазон реакции нейронов. Особенность сети в возможности усиливать низкоуровневые входные сигналы. Благодаря сигмоидальной функции нейроны обладают плавной непрерывной реакцией.

3) Конкурирующая ДАП. Такие системы увеличивают контрастность - усиление сигнала высокоуровневых нейронов за счет соседних с ними и ослабление низкоуровневых нейронов. В ДАП конкуренция реализуется взаимным соединением нейронов внутри каждого слоя посредством дополнительных связей. Веса этих связей формируют другую весовую матрицу с положительными значениями элементов главной диагонали и отрицательными значениями остальных элементов.

4) Адаптивная ДАП. Сеть изменяет свои веса в процессе функционирования, т.е. подача на вход сети обучающего набора входных векторов заставляет её изменять энергетическое состояние до получения резонанса. Постепенно кратковременная память превращается в долговременную память, настраивая сеть в процессе её функционирования. При обучении сети векторы подаются на слой А, а ассоциированные векторы на слой В. Один из них или оба вектора могут быть зашумлёнными версиями эталона; сеть обучается исходным векторам,

свободным от шума. В этом случае она извлекает сущность ассоциаций, обучаясь эталонам, хотя «видела» только зашумлённые аппроксимации.

Рассмотрим адаптивную ДАП подробнее.

Сети адаптивной резонансной теории АРТ-1

Рассмотрим принципы построения адаптивной ДАП на основе нейронных сетей адаптивной резонансной теории (АРТ). Архитектура сети адаптивной резонансной теории представлена на рис. 1.

Рис. 1. Архитектура нейронной сети АРТ

Архитектура нейронной сети АРТ-1 состоит из входного слоя S-элементов, которые принимают входное изображение. Входной S-слой связан с интерфейсным Z-слоем, который, в свою очередь, связан с распознающим Г-слоем. S-элементы также связаны с управляющими нейронами G', G2 и R. Распознающий Г-слой нейронов является слоем конкурирующих нейронов, каждый нейрон в данном слое может находиться в одном из трех состояний, активный, неактивный, заторможенный. В результате распознавания изображения активным остается только один нейрон Г-слоя.

Все веса в сети являются бинарными, кроме весов и , являющихся весами связей между нейронами Z- и Г-слоев. Нейроны G' и G2 являются управляющими, нейрон R обеспечивает параметр сходства между входным и запомненным изображением, а также обеспечивает «торможение» нейронов Г-слоя.

Сигналы, передаваемые по связям от нейронов S-слоя к нейронам G' G2i R и к Z-слою, а также от нейронов G' G2t R к слоям Z и Г являются возбуждающими, а сигналы, передаваемые по связям от Z-слоя к R-нейрону и от Г-слоя к нейрону Gявляются тормозящими.

Каждый элемент в Z- и Г- слоях имеет по три входных сигнала, для перевода нейрона Z- или Г-слоях в активное состояние необходимо передать ему два из трех возбуждающих сигналов из разных источников, таким образом, работа нейронов этих слоев определяется по правилу «два из трех».

Особенности сетей АРТ-1

Особенности такой сети заключается в том, что на каждое входное изображение она может выдать только одну ассоциацию, хотя их может быть несколько.

Однако основной особенностью сетей АРТ-1 является существенная потеря информации при обучении сети. Кроме этого, на результат обучения сети влияет не только сама обучающая выборка изображений, а также и порядок подачи изображений сети для обучения. Так как сеть принимает на вход только бинарные изображения (точнее, бинарные векторы изображений), то определение принадлежности нового изображения одному из классов происходит за счет пересечения нового образа на входе сети с уже запомненной ею последовательностью. Это

приводит к серьезной потере информации в результате обучения, что плохо само по себе, а также может приводить к неправильному обучению сети, приводя к различным результатам работы с тестовой выборкой при одной и той же обучающей выборке. Подробно причины такого поведения сетей АРТ-1 рассмотрены в работе [5].

Для преодоления описанного недостатка, связанного с выдачей единственного ассоциированного изображения при наличии нескольких таких изображений в работе [5] предлагается ввести дополнительный управляющий нейрон Я1, инвертирующий сигнал нейрона Я и дополнительный слой регистрирующих нейронов Г1, каждый нейрон которого будет связан обратными связями сам с собой и с нейронами распознающего Г-слоя. Все связи на данном уровне будут бинарными, состояние нейронов Г1-слоя изначально будет неактивным, активация будет происходить по правилу «два из трех» - сигнал от нейрона Г-слоя, соответствующего текущему нейрону Г1-слоя и от нейрона Я1. Архитектура такой сети представлена на рис. 2.

Рис. 2. Архитектура дискретной нейронной сети АРТ

Такая архитектура позволит получать ответ от сети на нейронах слоя Г1, а активированные нейроны Г-слоя принудительно затормаживать для получения следующей ассоциации.

Анализ составных образов с помощью нейронных сетей АРТ

Как уже говорилось выше, предложенная к использованию архитектура нейронных сетей АРТ обладает недостатком огрубления входной информации при обучении. На многосоставных образах (на образах, составленных из нескольких образов, имеющих несколько сильно отличающихся компонент) такая сеть не будет эффективна, так как слишком сильно огрубит входную информацию. Если входной образ можно разбить на несколько независимых компонент, для которых параметры сходства между собой могут сильно отличаться. Для распознавания и нахождения таких комбинированных образов в работах [5, 6] предложены различные архитектуры, отличающиеся наборами распознающих нейронов в Г-слоях. На рис. 3 представлена обобщенная схема архитектуры нейронной сети АРТ, обладающая независимыми полями чувствительных и интерфейсных нейронов, с общим слоем распознающих Г-нейронов.

Рис. 3. Обобщенная архитектура сети с несколькими полями чувствительных и интерфейсных нейронов

Нейрон 02 перейдет в активное состояние, только если все нейроны б' ( Ц = 1 , с1) будут активны, обеспечивая работу нейронов распознающего Г-слоя по правилу «два из трех». Я-нейрон не будет выдавать запрещающего сигнала только тогда, когда на его вход не будет приходить ни одного сигнала от Яд-нейронов ( ц = 1, с1). Оба этих условия будут выполнены, только если каждая компонента, обрабатываемая на своем поле нейронов, будет соответствовать компоненте ассоциированного изображения, хранящегося в сети.

Архитектура сети, представленная на рис. 4, представляет собой множество дискретных сетей АРТ-1, связанных между собой дополнительными нейронами Р]^Рт, организующими взаимодействие между различными частями сети. Каждая часть такой сети способна выдавать несколько ассоциированных образов и отвечает за свою компоненту - таким образом, можно получить весь возможный спектр различных ассоциированных компонент, позволяющих получить множество разных возможных образов, так или иначе похожих на входной образ.

Рис. 4. Архитектура сети, состоящая из нескольких связанных сетей АРТ Применение сетей АРТ в прогнозировании ситуации

Описанные архитектуры ИНС принимают на свои входы бинарные вектора, хранящие изображения. Однако, используя бинарные вектор для описания ситуации, появляется возможность использовать такие сети для распознавания похожих друг на друга ситуаций и прогнозирования их развития.

Каждая ситуация описывается набором факторов, касающихся разных частей этой ситуации - экономическими, социальными, политическими и так далее. Описав каждую область своим бинарным вектором, и подав все бинарные вектора на соответствующие поля нейронных сетей, представленных на рис. 3 и 4 мы обучим сеть данной ситуации, в дальнейшем сеть сможет ассоциировать данную ситуацию с другими. Обучив подобным образом сеть на достаточном количестве ситуаций из прошлого за достаточно продолжительный период времени, будет получена возможность сравнить текущую ситуацию с историей, найдя похожую (ассоциированную) ситуацию из прошлого и посмотрев, как она развивалась.

Вопрос описания ситуации в виде бинарного вектора (или набора бинарных векторов, в случае описания различных составляющих отдельно друг от друга) предлагается решать с помощью когнитивных карт. Это наглядный инструмент описания чего-либо, имеющий механизмы верификации полученной модели, и формализованный с точки зрения получения выходных данных. В работе [1] описано получение вектора ситуации для конкретного момента времени. При этом согласно [1] описанный вектор выглядит следующим образом:

X(t) = р ( Y( t) ) = ( р (у i( t) ) , р(y2(t) ).....р (Уп(t) )).

Данный вектор отражает состояние ситуации в конкретный момент времени t, причем

- числовое значение, пригодное для дальнейших вычислений. Дальнейшие исследования методов прогнозирования ситуаций с применением сетей адаптивной резонансной теории могут идти в следующих направлениях:

1. Автоматизация процесса формализованного описания ситуации;

2. Разработка методики прогнозирования ситуаций с применением сетей адаптивной резонансной теории;

3. Создание единой гибридной информационной системы, включающей в себя модули формализованного описания ситуаций, построения прогноза различными методами и поиск аналогов ситуаций из прошлого.

Заключение

В статье рассмотрены различные архитектуры ИНС, реализующих принципы работы ассоциативной и адаптивной памяти, основанные на адаптивной резонансной теории. С помощью предложенных архитектур предлагается получать прогнозное развитие ситуации, основываясь на примерах из прошлого, которым такая сеть заранее обучена. Приведен метод формирования вектора описания ситуации, для работы сети, получаемый при построении когнитивных карт, отражающих текущую ситуацию.

Авторами предлагается использовать двунаправленную дискретную ассоциативную память, реализованную на архитектуре ИНС адаптивной резонансной теории для «запоминания» различных ситуаций и прогнозирования текущей ситуации путем поиска аналогичной ситуации в прошлом. В силу особенностей архитектуры, такие сети способны дообучаться в процессе работы и не требуют полного переобучения, что позволяет постоянно пополнять память сети различными сценариями текущих ситуаций.

Список литературы

1. Гамазов И.Н., Терехов В.И. Анализ задач, возникающих при создании нечетких когнитивных карт // Проблемы науки. № 6 (7), 2016. С. 12-17.

2. Дмитриенко В.Д., Заковоротный А.Ю., Липчанский М.В. Двунаправленная ассоциативная память на основе нейронных сетей адаптивной резонансной теории // Вестник Национального технического университета Харьковский политехнический институт. № 56, 2005. Харьков: Нацюнальний техшчний ушверситет «Харювський полггехшчний шститут», 25 октября 2005. С. 194-204.

3. Hopfield J.J. Neural networks and physical systems with emergent collective computational abilities, Proceedings of National Academy of Sciences. Vol. 79. No. 8. P. 2554-2558. April, 1982.

4. Kosko B. Competitive adaptive bi-directional associative memories // In Proceedings of the IEEE First International Conference on Neural Networks, eds. M.Caudill and C.Butler. San Diego, 1987. Vol. 2. P. 759-766.

5. Дмитриенко В.Д., Хавина И.П., Заковоротный А.Ю. Новые архитектуры и алгоритмы обучения дискетных нейронных сетей адаптивной резонансной теории // Научные ведомости Белгородского государственного университета. № 15 (70). Том 12-1, 2009. Белгород: Федеральное государственное автономное образовательное учреждение высшего

46

образования «Белгородский государственный национальный исследовательский университет», 2009.

6. Дмитриенко В.Д., Заковоротный А.Ю., Бречко В.А. Ассоциативная нейронная сеть арт // Научные ведомости Белгородского государственного университета. № 19-1 (138). Том 24, 2012. Белгород: Федеральное государственное автономное образовательное учреждение высшего образования «Белгородский государственный национальный исследовательский университет», 2012.

7. Дмитриенко В.Д., Леонов С.Ю. Нейронная сеть арт, распознающая изменяющиеся объекты // Вестник Национального технического университета Харьковский политехнический институт. Серия: Информатика и моделирование. № 62 (1104), 2014. Харьков: Нацюнальний техшчний ушверситет «Харквський полгтехшчний шститут», 2014.

СОВЕРШЕНСТВОВАНИЕ СИСТЕМЫ УПРАВЛЕНИЯ ОБЛАЧНЫМИ СЕРВИСАМИ В УСЛОВИЯХ ОГРАНИЧЕННОСТИ РЕСУРСОВ Шишкин Ю.Е.1, Шишкин В.Е.2

'Шишкин Юрий Евгеньевич — аспирант, кафедра информационных технологий и компьютерных систем, Севастопольский государственный университет; 2Шишкин Владислав Евгеньевич — учащийся, Средняя общеобразовательная школа № 34, г. Севастополь

Аннотация: в статье решается задача минимизации функции потерь, характеризуемой системой метрик качества облачного сервиса, при внешних ограничениях на максимальное число вычислительных ядер, объем оперативной памяти, пропускной способности каналов связи и допустимого объема финансовых затрат.

Ключевые слова: Большие Данные, облачные сервисы, распределенные вычисления, система поддержки принятия решений, система массового обслуживания, имитационное моделирование.

УДК 5'7.977.58:004.75

На сегодняшний день для решения задачи построения отказоустойчивых и хорошо масштабируемых вычислительных систем используется подход облачных сервисов. Понятие облачных технологий подразумевает возможность мгновенного получения сетевых ресурсов по требованию, в случае возрастания внешней нагрузки на сервис происходит активация дополнительного пула вычислительных узлов, при этом оплата за выделенный ресурс происходит по факту его использования [1 - 3]. Существующие системы управления облачными сервисами, например, используемые в Microsoft Azure и Citrix, решают задачу управления облачным сервисом как задачу без финансовых ограничений [4 - 5].

Выдвигается гипотеза о том, что применение метода штрафных функций вблизи или около налагаемых ограничений путем введения системы параметризованных задач оптимизации с ограничениями позволит перейти к искомой задаче с ограничениями [6 - 8].

Система управления имеет некоторое множество альтернатив Y = {Yl, Y2}, причем

каждая из альтернатив определяется некоторым набором свойств Yt = Qn, Qt 2, Qim }, таких как требуемые аппаратные ресурсы и стоимость. Целевые критерии выбора отражают множество свойств принятых альтернатив К (Y ) = {К (Y ), К2 (Y ), — , Kz (Y )}.

Введем оператор f как интегральный критерий, ставящий в соответствие каждому вектору К некоторое число E > 0 - метрику эффективности E = f (К ) = f (К,К2,..., Ки ), которая при заданных ограничениях примет следующий вид:

i Надоели баннеры? Вы всегда можете отключить рекламу.