Научная статья на тему 'Определение нейросетевой факторной модели по результатам экспериментальных исследований нанокомпозитного покрытия'

Определение нейросетевой факторной модели по результатам экспериментальных исследований нанокомпозитного покрытия Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
242
68
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МИКРОТВЕРДОСТЬ / КОМПОЗИТНЫЕ ПОКРЫТИЯ / ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ / MICROHARDNESS / COMPOSIT COATING / ARTIFICIAL NEURAL NETWORKS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Валюхов С. Г., Кретинин А. В., Стогней О. В.

Результаты экспериментальных исследований по определению микротвердости нанокомпозитной пленки Fe-Al 2O 3 аппроксимированы с использованием аппарата искусственных нейронных сетей. Получена нейросетевая зависимость микротвердости от концентрации металлической фазы и нагрузки на индентор. Разработан алгоритм получения параметров нейронной сети при ограниченном наборе экспериментальных данных

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Валюхов С. Г., Кретинин А. В., Стогней О. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

DEFINITION OF NEURAL NETWORKS FACTORIAL MODEL BY RESULTS OF EXPERIMENTAL RESEARCHES OF NANOGRANULAR COMPOSITE COATING

Results of experimental investigation of Fe-Al 2O 3 nanogranular composites microhardness have been approximated by the artificial neural networks. The neuronet dependence of the microhardness on metal phase fraction and loads value has been obtained. The algorithm of obtaining of the neural network parameters at the limited set of experimental data has been developed

Текст научной работы на тему «Определение нейросетевой факторной модели по результатам экспериментальных исследований нанокомпозитного покрытия»

УДК 538.9

Энергетика

ОПРЕДЕЛЕНИЕ НЕЙРОСЕТЕВОЙ ФАКТОРНОЙ МОДЕЛИ ПО РЕЗУЛЬТАТАМ ЭКСПЕРИМЕНТАЛЬНЫХ ИССЛЕДОВАНИЙ НАНОКОМПОЗИТНОГО ПОКРЫТИЯ

С.Г. Валюхов, А.В. Кретинин, О.В. Стогней

Результаты экспериментальных исследований по определению микротвердости нанокомпозитной пленки Бе-А1203 аппроксимированы с использованием аппарата искусственных нейронных сетей. Получена нейросетевая зависимость микротвердости от концентрации металлической фазы и нагрузки на индентор. Разработан алгоритм получения параметров нейронной сети при ограниченном наборе экспериментальных данных

Ключевые слова: микротвердость, композитные покрытия, искусственные нейронные сети

Введение

Исследование физических свойств нано-структурированных композиционных материалов сопряжено с рядом проблем. Во-первых, вследствие пространственной неоднородности и высокой чувствительности характеристик композитов к структуре и составу, в результатах экспериментальных исследований нанокомпозитов весьма велика случайная составляющая. Имеется в виду, что даже после статистической обработки статистически значимой выборки данных по результатам измерений с большим количеством повторений нелинейные зависимости физических свойств имеют стохастический характер. При обработке результатов эксперимента возможности достижения высокой точности аппроксимации определяются, во многом, выбором базисной функции аппроксимации (полиномиальная, степенная, тригонометрическая и т.д.) и степенью соответствия этой функции эмпирическим данным. Однако вторая проблема заключается в том, что макроскопические характеристики нанокомпозитов не являются аддитивными относительно концентрации компонент, поэтому аппроксимационные и прогностические процедуры, выполняемые обычными методами, далеко не всегда удачны.

В настоящее время наиболее мощной и универсальной функцией аппроксимации является функция в виде ряда с членами, содержащими нелинейные логистические сигмоиды (функции Ферми). Теоретически доказано, что такая аппроксимация позволяет достичь высокой точности для произвольного набора эмпи-

Валюхов Сергей Георгиевич - ВГТУ, д-р техн. наук, профессор, тел. (473) 252-34-52

Кретинин Александр Валентинович - ВГТУ, д-р техн. наук, доцент, e-mail avk-vrn@mail.ru

Стогней Олег Владимирович - ВГТУ, д-р физ.-мат. наук, профессор, тел. (473)246-66-47

рических данных. Так как подобный алгоритм является основой функционирования одного из видов искусственных нейронных сетей (ИНС), то в дальнейшем воспользуемся терминологией ИНС.

В настоящее время можно отметить ограниченное число работ, в основном, зарубежных авторов, в которых используются нейросетевые структуры в данной предметной области [1-3]. Материалы, приведенные ниже, можно трактовать как результаты первых поисковых исследований по анализу целесообразности использования нейросетевой вычислительной архитектуры для описания механических свойств нанокомпозитов.

Нейросетевая вычислительная архитектура

Для исследования аппроксимационных возможностей ИНС при построении регрессионных зависимостей в качестве базовой модели выбран персептрон с одним скрытым слоем (ОСП), реализующий нелинейное преобразование входного пространства в выходное в соответствии с формулой

( \

q

y(w, х) = 2 vifc i= 1

bi + 2 WijX

j=1

ІП

+ bo, (1)

где х е Я п - входной вектор сети, составленный из значений ху ; q - количество нейронов

единственного скрытого слоя; w е Яв - вектор всех весов и порогов сети; Шц - нелинейно

входящий в модель вес между]-м входом и 7-м нейроном скрытого слоя; VI - вес нейрона выходного слоя, соответствующий 7-му нейрону скрытого слоя; Ь(, Ьо - пороги нейронов скрытого слоя и выходного нейрона; /а- функция активации (в нашем случае используется логистическая сигмоида). Входные сигналы, или

значения входных переменных, распараллеливаются и «движутся» по соединениям соответствующего входа со всеми нейронами скрытого слоя. При этом они могут усиливаться или ослабевать, что реализуется путем умножения на соответствующий коэффициент, называемый весом соединения. Сигналы, пришедшие в тот или иной нейрон скрытого слоя, суммируются и подвергаются нелинейному преобразованию с использованием так называемой функции активации (наиболее распространена функция Ферми). Далее они следуют к выходам сети, которых может быть несколько. При этом сигналы также умножаются на определенный вес. Сумма взвешенных значений выходов нейронов скрытого слоя и представляет собой результат функционирования нейросети. ИНС уже такой структуры обладают универсальной аппроксимационной способностью, т.е. позволяют приблизить произвольную непрерывную функцию с любой заданной точностью. Основным этапом в использовании ИНС для решения практических задач является обучение нейросетевой модели, которая представляет собой процесс итерационной подстройки весов сети на основе обучающего множества

(выборки) {хI, уг}, хг- е Яп, г = \,...,к, с целью минимизации ошибки работы сети - функционала качества

) = (w, г)), (2)

г=1

где w - вектор весов ИНС;

(w, г)) = г )2 - критерий качества работы ИНС на 7-м обучающем примере;

,г) = у(т,хг)- уг- ошибка на 7-м примере. Для решения задачи обучения могут быть использованы алгоритмы стохастической аппроксимации на основе обратного распространения ошибки либо численные методы безусловной оптимизации дифференцируемых функций.

Процесс обучения нейронной сети представляет собой изменение ее внутренних параметров таким образом, что выходные значения нейронной сети постепенно приближаются к требуемым. Обучение нейронной сети есть движение по поверхности ошибок, но аргументом поверхности ошибок является внутренняя структура нейронной сети. Выходом нейронной сети является поверхность, то есть она непрерывно определена для всего вещественного пространства входного множества. Искусственные нейронные сети представляют

собой мощный инструмент аппроксимации. Обычно в качестве целевой функции процесса обучения нейронной сети выступает суммарная квадратичная ошибка по выходам сети, аргументом которой является разность между полученным 8-м выходом сети и действительным значением, которое нам заранее известно. Такой способ определения целевой функции по известным заранее действительным значениям выходов сети позволяет, используя масштабирование входного и выходного множеств, добиваться заданного качества обучения нейронной сети.

Данный подход к использованию нейронной сети применим в основном к задачам обработки статистического множества и выявлению неизвестной заранее зависимости значений функции (выхода сети) от аргумента (входа сети). Собственно, это базовый подход к использованию ИНС. Основные положения этого подхода известны и изложены в многочисленных работах. При решении задач обучения ИНС необходимо добиваться хороших обобщающих свойств сети, т. е. способности сети предсказывать значения, не входящие в обучающую выборку. Таким образом, на этапе обучения ИНС фиксированной структуры возникает задача оценки некоего функционала качества работы ИНС, представляющего собой, как правило, суммарную квадратическую ошибку на заданной обучающей выборке и степень соответствия некоторой субъективной априорной информации о виде нейросетевой поверхности отклика. Это обуславливает необходимость регуляризации процесса обучения ИНС фиксированной структуры.

Для получения корректного решения задачи синтеза ИНС фиксированной структуры в отсутствие идеального и бесконечно большого обучающего множества необходима регуляризация процедуры обучения, направленная на предотвращение переобученности сети. При достаточном объеме экспериментальных данных проблема может быть с успехом решена методом контрольной кросс-проверки, когда часть данных не используется в процедуре обучения ИНС, а служит для независимого контроля результата обучения.

Включение в алгоритм обучения дополнительной информации о нейросетевой функции (ограниченность, гладкость, монотонность) приводит к модификации целевой функции и необходимости минимизации двух и более критериев при обучении. Известен байесовский подход для решения задач интерполяции зашумленных данных. Метод байе-

совской регуляризации основан на использовании субъективных предположений относительно исследуемой функции и может применяться как на этапе структурной оптимизации ИНС, так и на этапе обучения. Например, известен способ, когда регуляризация осуществляется путем представления целевой функции в виде свертки

Р = Р' Ео + а' Ещ, (3)

где Ео - суммарная квадратическая ошибка, Ещ - сумма квадратов весов сети.

Здесь основной акцент делается на проблеме определения корректных значений параметров целевой функции а и в, выбор которых определяет топологию нейросетевой ап-проксимационной функции. В то же время существует возможность модификации регуля-ризационного критерия в формуле (3), основанной на аналитическом определении кривизны аппроксимационной поверхности отклика. Введем энергетический фактор, кото-

рый для

{хг, уг Iг = 1, N

N

К = 2

г=1

(

V

э2 у

Эх2

г У

обучающего множества будет иметь вид

Проведенные в работах [4]

вычислительные эксперименты показывают, что если модель помимо точности приближения к имеющимся эмпирическим результатам будет обеспечивать еще и требуемое значение энергетического фактора, то адекватность нейросетевой аппроксимации имеющегося набора экспериментальных данных повышается.

Статистическая выборка и структура регрессионной факторной модели

Статистические данные представляют собой значения микротвердости Н композиционных покрытий Рех(А12О3)100-х, измеренные при различных значениях концентрации металлической фазы в композите см и различных нагрузках на композит К. Экспериментальное определение микротвердости проводилось по методу Кнупа [5]. В табл. 1 представлена матрица спектра плана эксперимента.

Анализируя имеющиеся экспериментальные данные, можно заметить, что, во-первых, нелинейная концентрационная зависимость микротвердости имеет множественные экстремумы, что свидетельствует, скорее всего, о стохастическом характере данной зависимости и, во-вторых, второй фактор (нагрузка К) имеет всего два уровня варьирования, что не поз-

воляет в данном случае исследовать нелинейную зависимость микротвердости от нагрузки и делает необходимым введение определенных процедур регуляризации при построении нейросетевой регрессионной модели.

Т аблица 1 Матрица спектра плана эксперимента

№ См, ат. %. К, Н Н, МПа

1 38,54 0.25 829

2 40,08 0.25 882

3 49,71 0.25 1090

4 55,87 0.25 1481

5 61,86 0.25 1421

6 66,28 0.25 1707

7 71,11 0.25 1668

8 76,09 0.25 1754

9 79,62 0.25 1726

10 82,76 0.25 1777

11 88,7 0.25 1702

12 92,1 0.25 1687

13 93,6 0.25 1708

14 94,2 0.25 1719

15 95,6 0.25 1475

16 38,54 0.5 670

17 40,08 0.5 750

18 49,71 0.5 950

19 55,87 0.5 1131

20 61,86 0.5 1303

21 66,28 0.5 1333

22 71,11 0.5 1363

23 76,09 0.5 1412

24 79,62 0.5 1443

25 82,76 0.5 1422

26 92,1 0.5 1365

27 93,6 0.5 1369

28 94,2 0.5 1282

29 95,6 0.5 1182

.о., искомая регрессионная зависимость Н = / (см, £) имеет две входные переменные (входной слой нейронов) - концентрация см ё[38.54,95.6] и нагрузка Р е[0.25Д5]- и выходной параметр (критерий) - микротвердость по Кнупу Н. Выберем в качестве структуры нейронной сети самую распространенную - персептрон с одним скрытым слоем. Предварительно примем 3 нейрона в скрытом слое.

Алгоритм настройки параметров нейросетевой модели

В рамках идеи обучения ИНС фиксированной структуры для получения поверхностей отклика минимальной кривизны и повышения робастных свойств разрабатываемой методики построения ИНС оптимальной структуры изложим алгоритм комбинированного обратного распространения ошибки (КОРО-КВР). Для иллюстрации выкладок рассмотрим функционирование ОСП с N нейронами в скрытом слое и одним выходом.

Выберем суммарную среднеквадратическую ошибку по внутренним точкам обучающей выборки г = 2,..., N -1 в качестве основной целевой функции обучения:

Е = — 2 (уг - )2 . В качестве дополнительной

2 г

целевой функции примем энергетический фак-

Г Л 2

1

тор: К = - 22 2 г в

Э 2 у

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ЭЙ Г

Представим целевые функции в виде сложных функций от параметров ОСП и рассчитаем все компоненты их градиентов по формулам для сложных функций. Итак, выход сети рассчитывается по формуле: у(хг ) = 2 ^>іаj (хг), где х - вектор входов, і -І

номер точки в обучающей выборке, с(х) -

функция активации, V■ - веса выходного

нейрона, / - номер нейрона в скрытом слое. В качестве функции активации возьмем логистическую сигмоиду (функцию Ферми):

• Здесь ЬІ - порог /-ш

а і (х) =

1 + е іу ’ і нейрона скрытого слоя, а

функция І і (х, Ьі )

ся в направлении антиградиента для энергетического фактора, причем для компонент градиентов целевых функций обучения легко получить аналитические выражения [6-8].

Разработанный алгоритм является модификацией алгоритма обратного распространения, являющегося по сути методом стохастической аппроксимации. Т.о., для обработки стохастического набора данных мы используем стохастический алгоритм аппроксимации.

Функционирование нейросетевой модели При обучении нейросетевой модели предполагалось, что диапазон изменения концентрации см е [0.4,0.95]. Параметры аппроксима-ционного персептрона, полученные с помощью алгоритма комбинированного обратного распространения, приведены в табл. 2.

Таблица 2

Параметры аппроксимационного персептрона

Номер нейрона] 1 2 3

Порог Ь, -0.2808 1.286004 -0.7161

Вес VI,- 1.77776 1.665117 -1.187429

Вес V2Í■ 0.02313 -0.02435 -0.004515

Вес 27.59365 49.49836 92.92243

Порог Ь0 88.7206

имеет вид: і і (х ,Ь і )= 2 Щі • хг - Ьі , где и>ц -

Таким образом, для хранения информации

о зависимости микротвердости от концентрации и нагрузки требуется всего 13 коэффициентов, способных, будучи организованы в нейросетевую вычислительную архитектуру, восстановить функциональный континуум Н = /(см, Р).

Ниже рассмотрено функционирование разработанного персептрона. Выход сети рассчитывается по формуле

веса нейронов скрытого слоя. Запишем развернутое выражение для слагаемых энергетического фактора:

Э 2

ТТ^у = 2 (а/ (хі, ь/)- 3а/2 (х і, ь/) + 2а/3 (х і, ь.

Э(х,. ) /

(4)

При обучении на каждой итерации (эпохе) будем корректировать параметры ИНС в направлении антиградиента целевых функций. Каждая эпоха будет состоять из двух этапов. На первом этапе шаги осуществляются в направлении -УЕ(у,w,Ь). Итерации первого этапа осуществляются по всем точкам обучающей выборки. Итерации второго этапа ведут-

у(х)= 2 гоіаі(х)- ь0

і=1

(5)

где х- вектор входов (в нашем случае двумерный (см, F)); а(х) - функция активации; Wj -

веса соединений выходного нейрона с /-м нейроном скрытого слоя; Ьо - порог выходного нейрона;/ - номер нейрона в скрытом слое.

В качестве функции активации используется логистическая сигмоида (функция Ферми)

1

а і (х) =

1 + ехр(- І і ^х

(- Іі(х, Ьі))'

(6)

Здесь bj — порог j-го нейрона скрытого слоя, а функция tj(x,bj) имеет вид

tj (x, bj )= Z VijXi - bj , (7)

i=l

где Vij — вес соединения j-го нейрона скрытого слоя с i-м входом.

При использовании параметров персеп-трона (таблица 2) входные переменные должны быть приведены в диапазон [0;1] согласно минимаксным формулам

xl = 1.818182 • cм - 0.7273 ; x2 = 4 • F -1. (S) Выход сети, рассчитанный по формуле (5), связан с искомым значением микротвердости соотношением

H = 0.0009528 • y (x ) - 0.6899 . (9)

Проведя элементарные вычисления, алгоритм (5)-(9) легко преобразуется в одну формулу

H = 28960.6

+ 51950.42 +97525.64

1 + exp(- 3.2323 • cм -0.09252 • F +1.03533)

____________________1______________________

1 + exp(- 3.027486 • cм + 0.0974 • F + 2.4727)

____________________1______________________

1 + exp(2.159 • cм + 0.01806 • F -1.584235)

- 92391.58.

На рисунке приведен сравнительный анализ результатов расчета по данной формуле и экспериментальных данных.

Концентрационные зависимости микротвердости при различных нагрузках (1- F=0.25 H, 2- F=0.5 H, сплошные

линии - расчет по нейросетевой зависимости)

Заключение

Полученная нейросетевая зависимость позволяет прогнозировать значения микротвердости нанокомпозитного покрытия Fe-Al2O3 в зависимости от концентрации металлической фазы и нагрузки в диапазонах изменения факторов - концентрация см е [40,95] ат. %.и нагрузка F е [0.25,0.5] Н.

Литература

1. Fathy A.,Megahed А.А. Prediction of abrasive wear rate of in situ Cu-Al2O3 nanocomposite using artificial neural networks//The International Journal of Advanced Manufacturing Technology. DOI: 10.1007/s00170-011-3861-x

2. Genel K., Kurnaz S.C., Durman M. Modeling of tribological properties of alumina fiber reinforced zinc-aluminum composites using artificial neural network. Mater. Sci. Eng. 263:203-210. 2003.

3. Rashed F.S., Mahmoud T.S. Prediction of wear behavior of A356/SiCp MMCs using neural networks. Tribol. Int. 42:642-648. 2009

4. Стогней В.Г., Кретинин А.В. Об адекватности факторных моделей на основе нейросетевых поверхностей отклика // Информационные технологии. 2004. № 12.С. 15-19.

5. Трегубов И.М., Каширин М.А., Стогней О.В. Исследование механических свойств наноструктурных покрытий из гранулированного композита (Fe)x(Al203)100-x // Вестник Воронежского гос. техн. ун-та. 2012.-Т. 8.-№ 9. С. 83-87

6. Кретинин А.В., Шостак А.В., Гуртовой А.А. Построение нейросетевых моделей агрегатов кислородно-водородного жидкостного ракетного двигателя // Известия вузов. Авиационная техника. 2005. № 1. С. 7274.

7. Использование нейросетевых конечных автоматов для моделирования функционирования агрегатов жидкостного ракетного двигателя / А.В. Кретинин, Д.В. Солдатов, А.А. Шалыто, А.В. Шостак // Информационные технологии. 2005. № 8. С. 47-53.

8. Кретинин А.В. Выбор оптимального количества нейронов в персептроне с одним скрытым слоем// Системы управления и информационные технологии. 2004. № 3. С. 27-29.

1

Воронежский государственный технический университет

DEFINITION OF NEURAL NETWORKS FACTORIAL MODEL BY RESULTS OF EXPERIMENTAL RESEARCHES OF NANOGRANULAR COMPOSITE COATING

S.G. Valyuhov, A.V. Kretinin, O.V. Stogneу

Results of experimental investigation of Fe-Al2O3 nanogranular composites microhardness have been approximated by the artificial neural networks. The neuronet dependence of the microhardness on metal phase fraction and loads value has been obtained. The algorithm of obtaining of the neural network parameters at the limited set of experimental data has been developed

Key words: microhardness, composit coating, artificial neural networks

i Надоели баннеры? Вы всегда можете отключить рекламу.