УДК 004.8.032.26
Н.С. Эрдниева
ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ ДЛЯ ПРОГНОЗИРОВАНИЯ ПОКАЗАТЕЛЕЙ ЭФФЕКТИВНОСТИ ПЕРЕДАЧИ СООБЩЕНИЙ МУЛЬТИПРОЦЕССОРНОЙ АРХИТЕКТУРЫ
Разработаны модели многослойных искусственных нейронных сетей прямого распространения (МИНСПР) для прогнозирования показателей эффективности передачи сообщений мультипроцессорной архитектуры SOME-Bus. Приведено сравнение результатов модели МИНСПР с результатами моделей обобщенных регрессионных нейронных сетей (ОРНС), опорного вектора регрессии (ОВР) и множественной линейной регрессии (МЛР).
Искусственные нейронные сети, мультипроцессорные архитектуры, передача сообщений, оценка эффективности
N.S. Erdnieva USING THE ARTIFICIAL NEURAL NETWORK FOR PREDICTING THE EFFICIENCY FOR TRANSMITTING THE MULTIPROCESSOR ARCHITECTURE DATA
The article presents the new multi-layer feedforward artificial neural network (MFANN) models for predicting the performance efficiency indicators of transmitting multiprocessor architecture SOME-Bus data. The performance results of the MFANN models are com-
pared with the results obtained by means of the generalized regression neural network (GRNN), support vector regression (SVR) and multiple linear regression (MLR).
Artificial neural networks, multiprocessor architectures, message passing, performance evaluation
1. Введение
В настоящее время создание и использование параллельных систем связывают с необходимостью повышать быстродействие и надежность систем. Прогресс в развитии технологии БИС приводит к дальнейшему улучшению характеристик многопроцессорных параллельных систем [1]. Быстрыми темпами развиваются модели параллельного программирования. Наиболее популярными из них являются модели передачи сообщений и с разделяемой памятью. В модели передачи сообщений множество узлов во время вычислений используют свою локальную память. В модели с разделяемой памятью задачи разделяют общее адресное пространство, которое они читают и записывают асинхронно [2].
В [3] архитектура мультипроцессора на основе трансляции называется SOME-Bus. Было проведено статистическое моделирование архитектуры с использованием распределенной разделяемой памяти для создания набора данных. Набор данных содержит следующие переменные: отношение среднего времени канала передачи сообщений к среднему времени выполнения потоков (TjR), вероятность нахождения блока в измененном состоянии ( Pm ), вероятность связи сообщения данных с записью мисс ( Pw ), вероятность заполнения кэша ( Pcf ) и вероятность обновления запроса собственности
(Puor). ОВР были использованы для создания моделей для предсказания среднего времени отклика
сети (ВОС), среднего времени ожидания канала (ВОК), и средней загрузки процессоров (ЗП). Сделан вывод, что ОВР модель является перспективным инструментом для прогнозирования показателей эффективности мультипроцессоров с распределенной разделяемой памятью.
В [4] были разработаны модели МИНСПР для прогнозирования показателей эффективности архитектуры SOME-Bus с использованием протокола передачи сообщений (ACK). Производительность модели была оценена путем расчета средней абсолютной ошибки (САО), среднеквадратичной ошибки (СКО), относительно абсолютной погрешности (ОАП) и среднеквадратичной относительной ошибки (СКОО). Результаты моделей на основе МИНСПР сравнивались с результатами моделей ОРНС, ОВР и МЛР.
OPNET Modeler [5] используется для статистического моделирования SOME-Bus архитектуры передачи сообщений. Входные переменные модели прогнозирования включают TjR, номер узла, номер нити и схему движения. Выходные переменные модели прогнозирования включают среднее ВОК, среднюю загрузку канала (ЗК), среднее ВОС, среднее ЗП и среднее время входного ожидания (ВВО). Производительность моделей прогнозирования была оценена путем расчета их стандартной ошибки оценки (SEE) и коэффициента множественной корреляции (R). Полученные результаты сравниваются с результатами ОРНС, ОВР, и МЛР.
2. Одновременная оптическая мультипроцессорная шина обмена (SOME-Bus)
Архитектура SOME-Bus [6] включает оптико-электронные приборы высокопроизводительной
сетевой архитектуры. Она обеспечивает сильную интеграцию передатчика, приемника и аппаратного контроллера кэш-памяти для получения высокой степени интеграции слаженности в системе механизма. Это низкое время ожидания, высокая пропускная способность волоконно-оптической сети, в которой каждый из узлов N имеет выделенный канал вещания (ГБайт/с). На рис. 1 показана архитектура SOME-Bus сети. Массив приемника содержит оптический интерфейс, выполняющий фильтрацию адресов, длину мониторинга и тип декодирования. Если адрес обнаружен в заголовке сообщения, сообщения помещаются в очередь, иначе сообщение будет проигнорировано. Массив приемника содержит набор очередей, в которых одна очередь связывается с входным каналом, при этом одновременно прибывают сообщения с любого числа узлов и становятся буфером, пока локальный процессор не будет готов удалить их. Способность поддерживать многократные одновременные передачи является уникальной особенностью SOME-Bus, которая эффективно поддерживает распределенные механизмы синхронизации барьера и протоколы согласования кэшей.
Рис. 1. Параллельный массив приемника
3. Протоколы передачи сообщений
Системы передачи сообщений сочетают локальную память и процессор в каждом узле соединения сетей. Глобальной памяти нет, поэтому необходимо перемещать данные из одной локальной памяти в другую посредством передачи сообщений. Это осуществляется путем отправки/получения пары команд. Одновременная обработка сообщений и проблема вычисления отслеживаются операционной системой и протоколами. Преимуществом этой формы обмена данными является исключение необходимости синхронизации конструкций (семафоры), что приводит к повышению производительности. Схема передачи сообщений обеспечивает гибкость в размещении большого числа процессоров. Базовая модель программирования основана на идее согласования отправки запроса на один процессор с просьбой получения на другом. В такой схеме выполняется отправка блоков до соответствующего приемника, прежде чем могут быть переданы данные. Для каждого пакета, отправленного в источник узла, возвращается АСК после того, как пакет достигнет узла назначения. Это позволяет источнику узлов обнаружить потерю пакетов. Если в течение времени не будет получено АСК, то производится повторная передача пакета [7].
4. Обзор методов
4.1. Многослойные искусственные нейронные сети прямого распространения
ИНС использует модель структуры нейронной сети, которая является мощной вычислительной техникой для моделирования сложных нелинейных отношений, когда неизвестна в явном виде связь между переменными. МИНСПР состоит как минимум из трех слоев: входа, выхода и скрытого слоя. Каждый нейрон в слое принимает взвешенные входы от предыдущего слоя и передает свой выход нейронам в следующем слое. Вычисляется суммирование взвешенных входных сигналов и это суммирование передается по нелинейной функции активации. Результаты сети сравниваются с фактическими результатами наблюдений и ошибка сети обучается, пока не достигнет приемлемого значения.
4.2. Обобщенные регрессионные нейронные сети
ОРНС является обобщением радиальных базисных функций сетей и вероятностных нейронных сетей, выполняющих линейную и нелинейную регрессию. Эти сети прямого распространения используют архитектуру базисной функции для аппроксимации произвольной функции между входными и выходными векторами из обучающей выборки. Основной функцией ОРНС является оценка поверхности линейной (нелинейной) регрессии на независимых переменных и, учитывая зависимые переменные X. То есть сеть вычисляет наиболее вероятные значения выхода, Ох, учитывая векторы обучения И. Сеть вычисляет совместную функцию плотности вероятности И и X. Значение X для И выражается в виде
Важным преимуществом ОРНС являются ее простота и быстрая процедура приближения. В отличие от обратного распространения ОРНС не сходится к локальным минимумам [8]. Топология ОРНС состоит из четырех частей. Во-первых, существует входной слой, полностью подключенный к образцу слоя. Во-вторых, есть образец слоя, имеющий одну величину для каждого образца. Он вычисляет образец гауссовой функции, выраженный как
(1)
(2)
где
Df =(u - U )T (u - Ut) (3)
s - параметр сглаживания, u - вход, представленный в сети и Ut - обучающиеся векторы. В-третьих, есть слой суммирования, имеющий две величины N и P. Первый блок вычисляет взвешенную сумму выходов скрытого слоя. Второй блок имеет вес, равный 1, и суммы экспоненциальных членов (h ). В-четвертых, есть выход блока, который делит N на Р для обеспечения результата прогнозирования.
4.3. Опорный вектор регрессии
4.3.1. Опорный вектор линейной регрессии
Нам известны данные обучения (xt,y{), (i=1,...,l), где x - это d-мерный вход и у е Ж - выход, где Ж - множество вещественных чисел. Модель линейной регрессии записывается
f (x ) = («, x) + b, w, x еЖd , b еЖ . (4)
где f(x) - это неизвестная целевая функция и (.•?) обозначает точечный продукт в Жd .
Для измерения эмпирического риска мы должны указать функцию потери. Наиболее распространенной функцией потери является функция потери e -регистра, предложенная Вапником [9] и определяемая следующей функцией:
L ( ) = У 0 for\f(x)-y\ <e
e у У f (x)- У -e otherwise ^ ^
Оптимальные параметры W и b в (4) находятся из решения прямой задачи оптимизации:
mm1)w||2 + С]Г (x~+xt) (6)
2 i=1
с ограничениями
Уг -{W xt) - b £e + X ,
W, x) + b - yi <e + £+, (7)
,£^ 0 i = 1,...,L
где C - значение, определяющее обмен между плоскостью f(x) и количеством, до которого отклонения большие, чем точность e , допускаются. Слабые переменные £ и £+ представляют отклонения
от ограничений e -трубы. Будет решена двойственная задача, соответствующая оптимизация определяется как
L l (a* -ос\ос* -aj Xxi,xj)
с ограничениями
1 la -am,, - a
max A X ' \ ' v г A 1
x,x 2 J J
2 i =1 i =1
L l
■ ^ Уг (a*- a) - eZ(a*+a) (8)
L , ,
0 <ai,a* < С, i=1,...,l, ^[ai -a*) = 0 (9)
Решение задачи оптимизации определяется (8) и (9) дает оптимальные множители Лагранжа
* __ т
а иа , пока о и Ъ получены как
— 1 ( * \ ~ 1
о = Е(а*- а )х* , ъ = (х + х*)), (10)
1=1 2
где хг и х* являются опорными векторами.
4.3.2. Опорный вектор нелинейной регрессии
Для нелинейной регрессии нелинейные отображения 0 входного пространства могут быть использованы для более высокой размерности пространства признаков, а затем в этом пространстве может быть выполнена линейная регрессия. Нелинейная модель записывается:
/ (х )=(а,ф(х))+ Ь, О х е ^, Ъ е ^, (11)
i =1
i =1
i =1
_ = £ (ц -a* f{xt),
г=1
г=1
(12)
г=1
где X и Х!1 - опорные векторы. Точку продукции выразим через ядро К функции, удовлетворяющей
условиям Мерсера [9]. Если термин Ь размещен в ядерной функции, (11) может быть записана следующим образом:
где р - это ширина ядра РБФ.
4.4. Множественная линейная регрессия
МЛР представляет собой статистический метод, который использует несколько объяснительных переменных для предсказания результата переменной отклика. Цель МЛР заключается в моделировании отношений между объяснительными переменными и переменными отклика. МЛР модели часто используются в прогнозировании анализа производительности сети, которая представлена отношениями между входами сети и набора предикторов выходных переменных в (15).
где i=1, 2,..., n; Bt - остаток, Ej - разница между значением зависимой переменной для предсказания модели и зависимой переменной, и х - независимые параметры.
5. Моделирование и поколение наборов данных
OPNET Modeler [5] используется для моделирования архитектуры SOME-Bus с использованием протокола передачи сообщений с ACK. Базовая модель процесса, управляющая поведением очереди модулей, является OPNET встроенной моделью acb_fifo, показанной на рис. 2. Модель имеет свой сервер и может концентрировать многократные входящие потоки пакетов в единый внутренний ресурс очереди. Он поддерживает обслуживание вида First-in-First-out. Состояние «init» используется для инициализации процесса и установки переменных. Если пакет приходит, когда процесс находится в состоянии «init», процесс переходит в состояние «arrival», иначе он переходит в состояние «idle», где его ждет прибытие пакета. Состояние «arrival» используется для приема пакетов и запуска обслуживания. В состоянии «arrival», если сервер не занят, процесс переходит в состояние «svc_strt», которое, в свою очередь, переходит в состояние «idle», где его ждет либо прибытие пакета, либо завершение обслуживания. Во время состояния «idle», если обработка пакета завершена, процесс переходит в состояние «svc_cmp». Во время состояния «svc_cmp», если очередь не пуста, процесс переходит в состояние «svc_strt».
Важными параметрами моделирования являются число узлов (16, 32 и 64), число потоков выполнения каждого процессора (от 1 до 6), T/R, (от 0,05 до 1), нить времени выполнения (100) и схема движения. Набор данных, полученных в результате моделирования, содержит 4 входных и 5 выходных переменных. Входные переменные модели прогнозирования включают TjR, номер узла, номер нити и схемы движения. Выходные переменные модели прогнозирования включают среднее ВОК (интервал времени постановки пакета в очередь в выходном канале до прохождения пакета до обслуживания), среднюю ЗК (средняя доля времени, в течение которого канал сервера занят), среднее ВОС (интервал времени постановки сообщения в очередь в выходном канале до поступления под-
(13)
г=1
Радиальная базисная функция (РБФ) вычисляется с помощью гауссовой формы:
2 p2
(14)
V
(15)
тверждающего сообщения на вход очереди), среднюю ЗП (средняя доля времени выполнения потоков), среднее ВВО (интервал времени постановки сообщения во входную очередь до обслуживания сообщения от процессора).
def.
Рис. 2. Типовая модель процесса очереди
Набор данных, полученных в результате статистического моделирования, включает 792 образца. В табл. 1 приведены описательные статистики данных.
6. Результаты и обсуждение
Модель прогноза МИНСПР показана на рис. 3. Как видно на рис. 3, структура нейронной сети содержит два скрытых слоя. Первый скрытый слой имеет 9 нейронов, второй скрытый слой имеет 6 нейронов. В скрытых слоях используется тансигмоидная функция активации. В выходном слое используется линейная функция активации. Для обучения сети используется алгоритм Левенберга-Маркара (ЛМ). Также параметрами модели МИНСПР являются число эпох (500), скорость обучения (0,02) и импульс (0,5).
Таблица 1
Описательная статистика набора данных
Статистические названия Критерии производительности
ВОК ЗК ВОС ЗП ВВО
Среднее 19.0801 0.2322 449.4143 0.4649 167.8480
Максимум 186.3973 0.8541 1,027.3580 0.9509 356.9148
Минимум 0.0031 0.0007 20.6056 0.0119 2.1585
SD 28.8380 0.2129 240.3182 0.2892 94.7545
Производительность модели прогнозирования ИНС оценивается с помощью R и SEE, формулы которых (12) и (13) соответственно:
R = 1 -
Eli Y - г)2 U=i Y - y )2
SEE i
- E Y - г)2-
n i ii
(16)
(17)
где n - число точек данных, используемых для тестирования, Y - наблюдаемое значение, Y' - прогнозируемое значение и Y представляет собой среднее из наблюдаемых значений.
Результаты модели прогнозирования МИНСПР сравниваются с результатами, полученными по ОРНС, ОВР, и МЛР. В табл. 2-9 показана работа всех моделей прогнозирования в значениях R и SEE с использованием различного числа кросс-проверок итераций, РБФ обозначает радиальную базисную функцию и L означает линейный.
На основании результатов могут быть сделаны следующие выводы:
1. Для всех показателей эффективности модели на основе МИНСПР работают лучше, чем модели на ОВР-основе, ОРНС-основе, и МЛР-основе.
2. По показателям прогнозирования модель ОВР-РБФ занимает второе место.
3. Показатель SEE модели прогнозирования на основе МИНСПР уменьшается, как только число итераций на тестовом наборе увеличивается с 10 до S0. Тем не менее показатель SEE модели на основе ИНС увеличивается, когда число итераций превышает S0.
4. Для прогнозирования ЗК и ЗП модель МИНСПР показывает хорошие результаты (SEE стремится к нулю). Прогноз ошибки, связанный с ВОС и ВВО выше, чем с ВОК, по причине высокого стандартного отклонения ВОС и ВВО в наборе данных.
5. Модели прогнозирования на основе МЛР дают хорошие результаты для прогнозирования ЗК и ЗП, но они не показывают такие же показатели для прогнозирования ВОК, ВОС, и ВВО. Это связано с нелинейными характеристиками ВОК, ВОС, и ВВО.
6. Так как в ОРНС нет этапов обучения, модель на основе ОРНС дает результаты гораздо быстрее, чем модели прогнозирования на основе МИНСПР и на основе ОВР.
7. Модели прогнозирования на основе МИНСПР дает низкий показатель SEE для прогнозирования ЗП, где SEE меняет значения от 0,0125 до 0,0143.
S. Модели прогнозирования на основе МИНСПР дают самый высокий показатель SEE для прогнозирования ВОС, где SEE меняет значения от 14,2463 до 22,3406.
9. Модели МЛР и ОВР-L показывают аналогичные показатели для прогнозирования.
10. Значения R для прогнозирования ВОК, ЗК, ВОС, ЗП, и ВВО стремятся к 1 для всех итераций.
11. Время обучения для моделей на основе МИНСПР намного ниже, чем для моделей на основе ОВР, приведены в табл. 10-12.
12. Этапы обучения моделей ОВР-РБФ занимают больше времени для составления прогноза сравнения с результатами других моделей в связи с использованием алгоритма поиска сетки.
13. Время выполнения для моделей прогнозирования ОВР-РБФ и ОВР-L изменяется от 5 до б с, а время выполнения для моделей МИНСПР, ОРНС, и МЛР стремится к нулю.
14. Для всех моделей МИНСПР были достигнуты глобальные минимумы.
I*11 Enltlun Uyu >nl Hidden Layer
Рис. 3. Модель МИНСПР для прогнозирования показателей эффективности
Таблица 2
Значения R и SEE моделей МИНСПР, ОРНС, МЛР, ОВР-L и ОВР-РБФ путем десятикратной кросс-проверки
Показатели эф-фектив-ности R SEE
ИНС ОРНС МЛР ОВР-L ОВР- РБФ ИНС ОРНС МЛР ОВР-L ОВР- РБФ
ВОК 0.9956 0.9009 0.7719 0.7802 0.9926 2.5401 12.2491 17.7719 19.4299 3.5152
ЗК 0.9992 0.9888 0.8915 0.9911 0.9864 0.0088 0.0314 0.0948 0.0288 0.0573
ВОС 0.9955 0.9927 0.7689 0.7712 0.9893 22.3406 28.0563 151.3559 153.5735 35.1874
ЗП 0.9993 0.9988 0.9568 0.9566 0.9883 0.0106 0.0143 0.0834 0.085 0.0566
ВВО 0.9737 0.9554 0.8225 0.8251 0.9572 20.7994 27.6846 53.1487 53.6145 27.4746
Таблица 3
Значения R и SEE моделей МИНСПР, ОРНС, МЛР, ОВР-L и ОВР-РБФ путем 20-кратной кросс-проверки
Показатели эф-фектив-ности R SEE
ИНС ОРНС МЛР ОВР-L ОВР- РБФ ИНС ОРНС МЛР ОВР-L ОВР- РБФ
ВОК 0.9961 0.9107 0.7449 0.7794 0.9925 2.3610 11.3501 17.4882 20.9333 3.5404
ЗК 0.9992 0.9924 0.8869 0.9926 0.987 0.0081 0.0243 0.0941 0.0261 0.0571
ВОС 0.9964 0.9934 0.76 0.7688 0.9899 19.9550 26.4159 151.9981 155.632 34.2684
ЗП 0.9994 0.9988 0.9548 0.9566 0.9883 0.0100 0.0134 0.0827 0.0851 0.0566
ВВО 0.9757 0.958 0.8106 82.76 0.9609 19.5336 25.3917 53.4062 53.1712 26.234
Таблица 4
Значения R и SEE моделей МИНСПР, ОРНС, МЛР, ОВР-L и ОВР-РБФ путем 30-кратной кросс-проверки
Показатели эф-фектив-ности R SEE
ИНС ОРНС МЛР ОВР-L ОВР- РБФ ИНС ОРНС МЛР ОВР-L ОВР- РБФ
ВОК 0.9973 0.9191 0.7556 0.7781 0.9925 1.9756 10.4803 17.2198 20.9609 3.5278
ЗК 0.9994 0.9938 0.8827 0.9931 0.9866 0.0074 0.0223 0.094 0.0252 0.0572
ВОС 0.9966 0.9933 0.7578 0.7685 0.9895 19.2222 25.9292 150.9108 155.6577 34.7925
ЗП 0.9994 0.9988 0.9493 0.9567 0.9884 0.0092 0.013 0.0831 0.0849 0.0566
ВВО 0.9792 0.957 0.7959 0.8279 0.96 17.7565 24.4516 52.6166 53.1414 26.5457
Таблица 5
Значения R и SEE моделей МИНСПР, ОРНС, МЛР, ОВР-L и ОВР-РБФ путем 40-кратной кросс-проверки
Показатели эф-фектив-ности R SEE
ИНС ОРНС МЛР ОВР-L ОВР- РБФ ИНС ОРНС МЛР ОВР-L ОВР- РБФ
ВОК 0.9975 0.9264 0.7074 0.779 0.992 1.7644 9.7633 17.0384 20.9565 3.659
ЗК 0.9994 0.9927 0.8713 0.8977 0.9869 0.0068 0.0236 0.0939 0.0941 0.0572
ВОС 0.9969 0.9923 0.7462 0.7692 0.9896 18.3303 26.5084 150.6976 155.4807 34.556
ЗП 0.9995 0.9988 0.9515 0.9566 0.9884 0.0090 0.0132 0.0812 0.0851 0.0565
ВВО 0.9811 0.9531 0.7977 0.8279 0.9611 16.1882 23.3667 52.8934 53.1395 26.2092
Таблица 6
Значения R и SEE моделей МИНСПР, ОРНС, МЛР, ОВР-L и ОВР-РБФ путем 50-кратной кросс-проверки
Показатели эф-фектив-ности R SEE
ИНС ОРНС МЛР ОВР-L ОВР- РБФ ИНС ОРНС МЛР ОВР-L ОВР- РБФ
ВОК 0.9973 0.9234 0.68 0.7788 0.9924 1.5529 9.3122 17.131 20.9541 3.5811
ЗК 0.9995 0.9922 0.8615 0.8976 0.9869 0.0064 0.0225 0.0931 0.0942 0.0573
ВОС 0.9974 0.9923 0.7191 0.7688 0.9896 16.6480 26.3149 150.6653 155.5459 34.7366
ЗП 0.9995 0.9987 0.9429 0.9571 0.9885 0.0083 0.0128 0.0822 0.0852 0.0564
ВВО 0.9836 0.9531 0.7929 0.8279 0.9609 14.5471 23.4087 51.7876 53.1319 26.249
Таблица 7
Значения R и SEE моделей МИНСПР, ОРНС, МЛР, ОВР-L и ОВР-РБФ путем 60-кратной кросс-проверки
Показатели эф-фектив-ности R SEE
ИНС ОРНС МЛР ОВР-L ОВР- РБФ ИНС ОРНС МЛР ОВР-L ОВР- РБФ
ВОК 0.9995 0.9264 0.6057 0.7791 0.9927 1.4062 9.4494 16.313 20.9487 3.4927
ЗК 0.9995 0.9934 0.8745 0.8976 0.987 0.0061 0.0213 0.0936 0.0941 0.0573
ВОС 0.9974 0.9929 0.6925 0.7686 0.99 16.3740 25.3646 148.9668 155.6017 34.0167
ЗП 0.9995 0.9986 0.9406 0.9571 0.9885 0.0076 0.0127 0.0814 0.0852 0.0565
ВВО 0.9851 0.9539 0.7769 0.8281 0.9616 13.6680 22.9766 52.0667 53.1063 26.0344
Таблица 8
Значения R и SEE моделей МИНСПР, ОРНС, МЛР, ОВР-L и ОВР-РБФ путем 70-кратной кросс-проверки
Показатели эф-фектив-ности R SEE
ИНС ОРНС МЛР ОВР-L ОВР- РБФ ИНС ОРНС МЛР ОВР-L ОВР- РБФ
ВОК 0.9981 0.9327 0.6057 0.7788 0.9921 1.3308 8.4841 16.313 20.9572 3.5788
ЗК 0.9995 0.9931 0.8214 0.8975 0.987 0.0057 0.0212 0.0924 0.0942 0.0571
ВОС 0.9979 0.9918 0.7137 0.7693 0.99 14.8896 25.5296 149.8528 155.4193 33.9499
ЗП 0.9995 0.9982 0.9411 0.957 0.9885 0.0075 0.0125 0.0806 0.0853 0.0566
ВВО 0.9893 0.9401 0.7298 0.8281 0,9619 12.5396 24.2335 51.7245 53.1109 25.9861
Таблица 9
Значения R и SEE моделей МИНСПР, ОРНС, МЛР, ОВР-L и ОВР-РБФ путем 80-кратной кросс-проверки
Показатели эф-фектив-ности R SEE
ИНС ОРНС МЛР ОВР-L ОВР- РБФ ИНС ОРНС МЛР ОВР-L ОВР- РБФ
ВОК 0.9980 0.937 0.6198 0.7791 0.992 1.1782 8.1584 16.3505 20.9464 3.5854
ЗК 0.9996 0.9845 0.8578 0.9938 0.9868 0.0054 0.0213 0.091 0.0238 0.0573
ВОС 0.9979 0.9915 0.6367 0.7678 0.9894 14.2463 24.5993 147.0421 154.4348 34.8452
ЗП 0.9994 0.9986 0.9103 0.894 0.9885 0.0072 0.0127 0.081 1 0.0956 0.0565
ВВО 0.9867 0.9357 0.757 0.8278 0.9618 11.9345 22.8651 51.0856 53.1457 25.9849
Таблица 10
Время обучения для моделей МИНСПР для различного числа итераций
Число итераций Время обучения(с)
ВОК ЗК ВОС ЗП ВВО
10 1.26 1.1700 1.1800 1.1500 1.2000
20 1.14 1.3200 1.1600 1.3500 1.1900
30 1.28 1.1700 1.1700 1.1700 1.2000
40 1.15 1.1800 1.3600 1.1600 1.2000
50 1.17 1.3400 1.2000 1.1500 1.2000
60 1.15 1.17 1.35 1.18 1.18
70 1.16 1.32 1.37 1.2 1.4
80 1.17 1.41 1.38 1.39 1.17
Таблица 11
Время обучения для моделей ОВР^ для различного числа итераций
Число итераций Время обучения(с)
ВОК ЗК ВОС ЗП ВВО
10 1,723.46 73.95 201.17 96.53 175.22
20 1,579.7 75.74 202.33 98.09 176.8
30 1,607.4 75.81 204.11 98.42 176.69
40 1,642.06 76.13 203.56 97.97 176.31
50 1,692.74 75.5 203.25 98.08 176.47
60 1,572.32 75.67 203.13 98.53 176.84
70 1,658.4 75.88 203.77 98.8 175.58
80 1,760.57 75.78 203.2 98.75 176.86
Таблица 12
Время обучения для моделей ОВР-РБФ для различного числа итераций
Число итераций Время обучения(с)
ВОК ЗК ВОС ЗП ВВО
10 3,012.15 317.77 317.03 386.12 787.800
20 3,012.48 317.11 315.66 386.43 786.550
30 3,012.48 317.98 315.23 386.62 785.880
40 3,012.59 318.73 315.27 386.52 785.750
50 3,012.61 318.64 315.94 386.75 786.480
60 3,012.71 319.37 315.44 386.8 790.340
70 3,013.78 319.87 316.95 387.97 788.560
80 3,017.78 319.98 315.94 388.72 784.580
7. Заключение
Данная статья предлагает использовать МИНСПР для прогнозирования показателей эффективности передачи сообщений мультипроцессорной архитектуры. Основная идея состоит в сборе показателей эффективности путем прогнозирования производительности системы для большого набора входных параметров. OPNET Modeler используется для статистического моделирования передачи сообщений SOME-Bus архитектуры. Полученный набор данных содержит пять показателей эффективности (ВОС, ВОК, ЗП, ЗК и ВВО). Были разработаны модели МИНСПР с различным числом итераций для прогнозирования этих показателей эффективности. Для разработанных моделей были рассчитаны значения R и SEE. Модель МИНСПР показывает самое низкое значение SEE ЗП и самое высокое значение для прогнозирования ВОС. Показано, что показатели модели МИНСПР лучше, чем у моделей ОРНС, ОВР и МЛР.
ЛИТЕРАТУРА
1. Модулярные параллельные вычислительные структуры нейропроцессорных систем / Н.И. Червяков и др. М.: Физматлит, 2003. С. 288.
2. Кулер Д. Параллельная архитектура компьютера: аппаратный / программный подход / Д. Кулер, Дж.П. Сингх, А. Гупта. 4-е изд. Нью-Йорк: Морган Кауфманн, 2009.
3. Акай М.Ф. Прогнозирование показателей эффективности оптической распределенной многопроцессорной общей памяти с помощью опорных векторов регрессии / М.Ф. Акай, И. Абасикелес // Экспертная Система Приложений. 2010. № 37. С. 6293-6630.
4. Заид Е.И.М. Вычисления и оценка показателей эффективности передачи сообщений многопроцессорной архитектуры с использованием искусственных нейронных сетей / Е.И.М. Заид, М.Ф. Акай // Труды 2-й международной конференции по вычислительным наукам и технологиям, ICCST-2, Нидж, Турция (9-11 Июля 2012). С. 76-77.
5. ОПНЕТ Модельер Инк. OPNET Университетская программа, http://www.opnet.com/university_program 2012.
6. Катсинис С. Анализ эффективности одновременной оптической многопроцессорной шины обмена / С. Катсинис // Параллельные Компьютеры. 2009. № 27. С. 1079-1115.
7. Фил Л. Анализ производительности многопроцессорной DSP: поток-ориентированная компонентная модель / Л. Фил, Е. Ванделер, С. Чакраборти // IEEE Журнал обработки сигнала. 2005. № 22. С. 38-46.
8. Фират М. Обобщенные регрессионные нейронные сети и нейронные сети прямого распространения для прогнозирования глубины промоины вокруг опор моста / М. Фират, М. Гунгор // Расширенный инженер-программист. 2009. № 40. С. 731-737.
9. Вапник В.Н. Характер статистической теории обучения / В.Н. Вапник. Нью-Йорк: Спрингер, 2000.
Эрдниева Надежда Сергеевна - Nadezhda S. Erdnieva -
аспирант Северо-Кавказского Postgraduate
Федерального университета North Caucasus Federal University
Статья поступила в редакцию 13.04.13, принята к опубликованию 20.05.13