Научная статья на тему 'Вариант решения задачи прогнозирования признаков разрушения металлов с помощью нейронных сетей на основе данных вейвлет-анализа импульсов акустической эмиссии'

Вариант решения задачи прогнозирования признаков разрушения металлов с помощью нейронных сетей на основе данных вейвлет-анализа импульсов акустической эмиссии Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
382
46
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Аверин Павел Иванович, Мельников Борис Феликсович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Вариант решения задачи прогнозирования признаков разрушения металлов с помощью нейронных сетей на основе данных вейвлет-анализа импульсов акустической эмиссии»

Вариант решения задачи прогнозирования признаков разрушения металлов с помощью нейронных сетей на основе данных вейвлет-анализа импульсов акустической эмиссии

П.И. Аверин, СО «Тольяттинский государственный университет», аспирант, inerd-pavel@yandex.гы Б. Ф. Мельников, СО «Тольяттинский государственный университет», доктор физико-математических наук

B.Melnikov@tltsu. гы

Введение

Обработка различных экспериментальных данных с помощью нейронных сетей широко представлена в литературе [1,2]. Для практического применения особенно интересны различные задачи прогнозирования и распознавания [3-5]. Для решения этих задач очень важен требуемый уровень детализации, на нее влияет множество факторов: доступность и точность данных, стоимость анализа и предпочтения пользователей результатов прогнозирования. Обычно такое требуется в задачах прогнозирования основанных на анализе исторических данных. Вейвлет-анализ позволяет подобрать оптимальный уровень разрешения, выделить главные существенные компоненты в данных.

Важным при построении нейросетевой прогнозирующей системы является определение следующих параметров: периода прогнозирования, горизонта прогнозирования и интервала прогнозирования. Согласно [2-5]:

7. период прогнозирования - это основная единица времени, на которую делается прогноз;

8. горизонт прогнозирования - это число периодов в будущем, которые покрывает прогноз;

9. итервал прогнозирования - частота, с которой делается новый прогноз.

При этом часто интервал прогнозирования совпадает с периодом прогнозирования. Выбор периода и горизонта прогнозирования обычно диктуется условиями принятия решений в области, для которой производится прогноз. Выбор этих двух параметров является самым трудоемким процессом в прогнозировании. Для того чтобы прогнозирование имело смысл горизонт прогнозирования должен быть не меньше, чем время, необходимое для реализации решения, принятого на основе про-

гноза. В некоторых случаях время, требуемое на реализацию решения, не определено. Существуют методы работы в условиях подобной неопределенности, но они повышают вариацию ошибки прогнозирования. Поскольку с увеличением горизонта прогнозирования точность прогноза, обычно, снижается, в таких случаях можно улучшить процесс принятия решения, уменьшив время, необходимое на реализацию решения, с помощью этого мы можем добиться уменьшения горизонта и вероятности ошибки прогнозирования.

Общая постановка проблемы

Необходимо спрогнозировать время возникновения признаков неполадок или разрушение металлов на основе данных акустической эмиссии. Экспериментальные данные предварительно обрабатываются с помощью вейвлет-анализа.

Постановка задачи исследования: Необходимо подготовить данные для обучения и проверки данных полученных путем вейвлет-анализа, выбрать топологию нейронной сети, подобрать ее характеристики и параметры обучения и исследовать полученные данные на результат ошибки принятого решения прогнозирования.

Решение задачи и результаты исследования: Схему решения нашей задачи прогнозирования можно представить в виде последовательности этапов рассмотреных ниже.

Этап предварительных преобразований

Система является динамической, и временной ряд, который ею порождается на входе регистрирующей аппаратуры, характеризует ее поведение, но в самом временном ряде может присутствовать случайная составляющая. Поэтому на данном этапе выполняются предварительные преобразования исходных данных, позволяющие уменьшить ошибку прогнозирования.

При регистрации сигнала Акустической Эмиссии мы рассматриваем ее амплитуду колебания зависящую от времени. На рисунке можно увидеть, что диапазон амплитуды шума регистрирующего аппарата примерно колеблется до 0,2, а все остальное выходящее за рамки этого значения, рассматриваем как возникновение возможных признаков разрушения при деформации металла.

Для преобразования импульсов акустической эмиссии вейвлет анализом и экспериментов с нейросетью используется МАТЬЛВ (пакет прикладных программ для решения задач технических вычислений и одноимённый язык программирования), а так же собственная программа написанная на основе вейвлета Добеши и нейросети многослойный пер-септрон.

На рис. 1 показаны примеры частей импульса акустической эмиссии данные которых предварительно подвергаются обработке вейвлет-анализом, получая преобразованные коэффициенты подаем на вход нейронной сети.

600 400 200 0

0 500 1000 1500 2000 2500 3000 3500 4000 4500 АЕ 410 82.43

600 400 200 0

0 500 1000 1500 2000 2500 3000 3500 4000 4500

Рис. 1. Примеры динамик распространения импульсов акустической эмиссии диформированной пластинки чистой меди

Этап обучения нейронной сети

На этапе обучения нейронная сеть решает задачу интерполяции, для восстановления целевой функции по множеству наборов обучающей выборки. А на этапе получения прогноза нейронная сеть будет решать задачу экстраполяции для получения прогнозируемой величины при помощи восстановленной зависимости. Для решения нашей задачи прогноза решению задачи экстраполяции (как и задачи интерполяции) необходимо обеспечить инвариантность распределения значений ряда относительно момента времени - т.е. сохранить стационарность признаков временной го ряда. Поэтому нам необходимо продифференцировать временной ряд: x'i=xi+1—xi.

Для оптимизации качества и скорости обучения нейронной сети преобразуем входные данные к диапазону [-1,1], в нашем случае уменьшим диапазон данных. Для преобразования значения используем формулу:

■АЕ 210 36.16

Для каждого i-го примера выборки признака х в интервале [а,Ь], где Хщщ, хтах - минимальное и максимальное выборочные значения признака.

Из данного множества выделяются два непересекающихся подмно-

(х - X )

\ ШИ ПЫ1 /

жества, хронологически следующих одно за другим. Одно из них представляет обучающую выборку, на которой будет выполняться обучение нейронной сети. Другое подмножество представляет контрольную выборку, которая не предъявляется нейронной сети в процессе обучения и используется для проверки качества прогноза. Обучающая и контрольная выборки соотносятся как 2:1.

Этап структурного синтеза нейронной сети

На этапе синтеза нейросети производится выбор архитектуры сети и структура связей между нейронами. Для исследований в качестве топологии нейронной сети мы выбрали многослойный персептрон.

Многослойный персептрон представляет собой сеть, состоящую из нескольких последовательно соединенных слоев формальных нейронов МакКаллока и Питтса. На первом уровне последовательности нейронов находится входной слой нейронов, которые принимают информацию и распространяют ее по сети. Второй уровень представляет собой один или несколько скрытых слоев нейронов, в каждом скрытом слое, все нейроны имеют несколько входов, соединенных с выходоми нейронов предыдущего слоя (или непосредственно с входными сенсорами), XI... Хп входов и один выход. Нейрон отвечает за функцию вычисления взвешенной суммы его входов, с дальнейшим преобразованием их в выходной сигнал, для этого он обладает уникальным вектором весовых коэффициентов w, тогда матрицей W обозначим сформированные в матрицу веса всех нейронов слоя. Выходы нейронов выходного слоя описывают результат классификации У=У(Х).

Особенности работы персептрона состоят в следующем: каждый нейрон получает и суммирует поступающие к нему сигналы от нейронов предыдущего уровня иерархии - с весами, определяемыми состояниями синапсов, и формирует ответный сигнал (переходит в возбужденное состояние), если полученная сумма выше порогового значения. Персептрон переводит входной образ, определяющий степени возбуждения нейронов самого нижнего уровня иерархии, в выходной образ, определяемый нейронами самого верхнего уровня. Когда нейрон на последнем уровне находится в возбужденном состоянии, это означает, что входные данные относятся к одному из подходящих решений.

Для реализации персептрона мы используем так называемую модель с дискретной арифметикой, в которой синоптические связи характеризуются двумя булевыми переменными: активностью (0 или 1) и полярностью (-1 или +1), что соответствует трехзначной логике. Это делает возможным описать состояние нейронов одной булевой переменной и делает конфигурационное пространство состояний нейронной сети конечным.

Параметрический синтез нейросети и описание результатов

В качестве метода обучения нейронной сети мы используем алгоритм обратного распространения ошибки. Суть этого метода заключается в получении оценки ошибки для нейронов скрытых слоев, т.к. в большинстве случаев известные ошибки, делаемые нейронами выходного слоя, возникают вследствие неизвестных ошибок нейронов скрытых слоев. Чем больше значение синоптической связи между нейроном скрытого слоя и выходным нейроном, тем сильнее ошибка первого влияет на ошибку второго. Отсюда видно, что ошибки нейронов скрытых слоев можно получить в виде взвешенной суммы ошибок последующих слоев. В итоге мы получаем такую общую схему обработки информации внутри сети: на стадии обучения в нейросети происходит получение информации, вычисление синоптических коэффициентов м> и дальнейшее распространение по сети от первого слоя к последнему, а алгоритм оценки ошибок собирает взвешенные суммы ошибок слоев - в обратном направлении.

Процесс вычисления синоптических коэффициентов можно рассматривать как решение задачи оптимизации, т.к. мы используем методы обучения по образцам - на основе примеров, сгруппированных в обучаемом множестве. Ее целью является минимизации функции ошибки на обучающем множестве путем выбора значений синоптических коэффициентов м>.

Мы знаем, что метод обратного распространения ошибки использует дифференцируемую передаточную функцию нейронов, поэтому возьмем сигмоидальную функцию в качестве активационной функции нейронов скрытого слоя:

Сигмоидальная функция повышает устойчивость, скорость и хо-

рошую обучаемость нейронной сети за счет ограничения диапазона выходного сигнала нейронов в отрезке от 0 до 1; это соответствует формуле = S.

Описанную нейронную сеть удалось обучить для конкретной задачи: прогнозирования признаков разрушения металлов на основе обработанных данных вейвлет-анализом импульсов акустической эмиссии. При этом также удалось получить результаты прогнозирования на основе входящих данных вейвлет-анализа и данных поломок металлов на выходе.

Результатом работы данной нейронной сети является: ошибка прогнозирования превышает в среднем для всех обработанных случаев не более 4,13% с использованием пакета MATLAB и примерно около 5% - вероятность ошибки при использовании собственной программы. Если допустимое значение ошибки в 5% приемлемо, то мы можем считать задачу решенной - в противном случае можно попробовать получить приемлемое решение с помощью других вариантов вейвлетов и нейронных сетей.

Литература

1. Калан Р. Основные концепции нейронных сетей / Р. Калан. - М. : Вильямс, 2001. - 288 с.

2. Солдатова О.П., Семенов В.В. Применение нейронных сетей для решения задач прогнозирования // Электронный научный журнал «Исследовано в России». http://zhurnal.gpi.ru/artides/2006/136.pdf

3. Крисилов В.А., Чумичкин К.В., Кондратюк А.В. Представление исходных данных в задачах нейросетевого прогнозирования // Конференция «Нейро-информатика-2003». - М.: Научная сессия МИФИ, 2003.с184-191.

4. Гитис В.Б. Сопряжение информационных потоков нейросетевой системы нормирования времени механообработки деталей // «Искусственный интеллект». - 2005, №3, с.285.

http://iai.dn.ua/public/JournalAI_2005_3/Razdel4/05_Gitis.pdf

i Надоели баннеры? Вы всегда можете отключить рекламу.