Научная статья на тему 'АЛГОРИТМ СОЗДАНИЯ МОДЕЛИ ОСТАТОЧНОГО РЕСУРСА ЭЛЕКТРОДВИГАТЕЛЯ НА ОСНОВЕ ОБУЧЕННОЙ НЕЙРОННОЙ СЕТИ'

АЛГОРИТМ СОЗДАНИЯ МОДЕЛИ ОСТАТОЧНОГО РЕСУРСА ЭЛЕКТРОДВИГАТЕЛЯ НА ОСНОВЕ ОБУЧЕННОЙ НЕЙРОННОЙ СЕТИ Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
16
5
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ВЛИЯЮЩИЙ ФАКТОР (ВФ) / ОСТАТОЧНЫЙ РЕСУРС / НЕЙРОННАЯ СЕТЬ (НС) / КРОСС-ЭНТРОПИЯ / АЛГОРИТМ ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Суханкин Геннадий Владимирович, Герцен Николай Теодорович

В статье описана методика построения модели остаточного ресурса технического объекта на примере электродвигателя с помощью обучающейся нейронной сети и дан сравнительный анализ с аналогичной нейро-нечеткой сетью

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Суханкин Геннадий Владимирович, Герцен Николай Теодорович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «АЛГОРИТМ СОЗДАНИЯ МОДЕЛИ ОСТАТОЧНОГО РЕСУРСА ЭЛЕКТРОДВИГАТЕЛЯ НА ОСНОВЕ ОБУЧЕННОЙ НЕЙРОННОЙ СЕТИ»

УДК 621.313.333.2

АЛГОРИТМ СОЗДАНИЯ МОДЕЛИ ОСТАТОЧНОГО РЕСУРСА

ЭЛЕКТРОДВИГАТЕЛЯ НА ОСНОВЕ ОБУЧЕННОЙ НЕЙРОННОЙ СЕТИ

Г. В. Суханкин, Н.Т. Герцен

В статье описана методика построения модели остаточного ресурса технического объекта на примере электродвигателя с помощью обучающейся нейронной сети и дан сравнительный анализ с аналогичной нейро-нечеткой сетью.

Ключевые слова: влияющий фактор (ВФ), остаточный ресурс, нейронная сеть (НС), кросс-энтропия, алгоритм обратного распространения ошибки.

Порядок построения модели остаточного ресурса какого-либо технического объекта на основе нейронной сети не является чем-то особенным и включает в себя набор типовых шагов:

- исследование объекта моделирования и выявление основных факторов, влияющих на остаточный ресурс;

- постановка задачи;

- построение самой модели;

- расчет модели.

- тестирование модели.

В нашем случае расчет модели заменяется ее обучением. Необходимо заметить, что в настоящее время расчет или обучение модели происходит практически в автоматическом режиме, необходимо задать лишь исходные данные. Тем не менее, обучение модели может в реальном масштабе времени показать сам процесс обучения нейронной сети, минимизацию ее ошибки и т.д. В некотором смысле такая модель становится как бы реально существующей в виде блоков, узлов, перемещений сигналов и т.д.

Таким образом, в распоряжении исследователя после выполнения последнего пункта имеется аналитическое выражение п-го порядка с соответствующими коэффициентами при влияющих факторах. В нейронной сети роль коэффициентов играют так называемые веса.

Существуют НС однослойные и многослойные. Многослойные сети лучше обучаются и, как правило, более эффективны. В общем случае, многослойной НС, в которой каждый нейрон любого слоя связан со всеми нейронами предыдущего слоя называются полносвязными [1]. Например, 4-слойная, имеющая в каждом слое по 9 нейронов, полносвязанная сеть, имеет более 300 весов, что при обучении потребляет значительный вычислительный ресурс. Кроме того, слишком большое количество нейронов может обусло-ПОЛЗУНОВСКИЙ ВЕСТНИК № 4 2012

вить переобучение сети. С другой стороны недостаточное количество нейронов может привести к неточности [2]. Важным также является и то, чтобы передаточная функция нейронов являлась нелинейной, так как линейные сети ведут к линейному результату, что в большинстве случаев тривиально. Важный аспект при создании модели - количество наблюдений. Численное значение этого параметра является в достаточной мере неопределенным и в настоящий момент не существует четких аналитических выражений связывающий его и параметры НС. Правда некоторые эвристические правила увязывают число необходимых наблюдений с размерами сети (в частности, одно из них гласит, что число наблюдений должно быть на порядок больше числа связей в сети. С ростом количества входных ВФ количество требуемых наблюдений растет нелинейно, так что уже при довольно небольшом (например, пятьдесят) числе переменных может потребоваться огромное число наблюдений. Для большинства реальных задач бывает достаточно нескольких сотен или даже тысяч наблюдений. Для особо сложных задач может потребоваться еще большее количество, однако очень редко может встретиться простейшая задача, где хватило бы менее сотни наблюдений [3]. В [4] указывается, что баланс между размерностью сС входного диагностического вектора, числом регулируемых весов № в сети и количеством наблюдений (примеров) Р примерно определяется соотношением: W ЪтКШ)

Таким образом, в приведенном примере обучающая выборка составит более 104, что обеспечить экспериментально не всегда представляется возможным. Очевидно, что спроектированная НС должна быть упрощена, но таким образом, чтобы ее ошибка была приемлемой. В связи с этим, альтернативой

полносвязанной НС в этом аспекте может стать многослойная НС с ограниченным числом входов в нейроне. Суть такого ограничения заключается в исключении тех связей сети, которые имеют малые значения весов, а те которые меняются в небольших пределах заменить константами. Кроме того, ВФ соединяются таким образом, когда они менее зависимы друг от друга. Следовательно, необходимо иметь некий базовый нейрон с фиксированным числом входов и единой передаточной функцией с алгоритмами подключения входов в НС и генерации самой НС.

Обучение многослойной нейронной сети вручную трудоемкая задача. Однако после 1986 года разработано около сотни процедур по автоматической настройке сети. Среди основных ал-горитмов, несмотря на некоторые недостатки, известен так называемый метод обратного распространения ошибки, использующий антиградиентный спуск. Суть

метода сводится к изменению весов нейрона таким образом, чтобы на каждом шаге поиска (итерации) было обеспечено достижение минимума ошибки Е(№педа) в направлении - grad Е(№оИ). Таким образом, базовый нейрон, изображенный на рис. 1 имеет два входа (сС=2), обозначенные как и с соответствующими индексами и перемноженные на соответствующие веса. Смещения и0 являются константами и задаются один раз на период обучения НС. Эти сигналы могут инициироваться случайным образом. Все нейроны имеют одинаковую передаточную (сигмоидную) функцию, определяемую выражением:

f (х) = " ,

1 + е х

Алгоритм конфигурации НС изображенной на рис. 1 описан в работах [5, 6].

Рисунок 1 - Иерархическая система модели остаточного ресурса: пунктиром выделен базовый нейрон: х - умножитель, £ - сумматор, - передаточная нелинейная функция х), №11 -№42 - веса, и11 - и42, у11- у41, х11- х41, г- сигналы, и0- смещения, х1 - х9 - входной вектор ВФ

Поскольку характер связи между входными сигналами, представляющие собой ВФ изначально неизвестен, целесообразно оценить предсказуемость входов относительно друг друга. Это даст возможность подключить входной вектор в определенном порядке.

Предсказуемость случайного вектора У, обеспечиваемая знанием другой случайной

величины X, определяется по формуле [4]:

I(У, X) = Н (У) + Н (X) - Н (X, У) = Н (У) - Н (У | X),

где И(У) - энтропия (неопределенность) величины У, И(Х) - энтропия X, И(Х,У) - энтропия связи величин X и У, И(Х\У) - энтропия У, обеспеченная знанием Х.

ПОЛЗУНОВСКИЙ ВЕСТНИК № 4 2012

Чем больше I(Y, X), тем больше определенности вносит знание значения X в предсказание значения переменной Y [7].

По методу "box-counting" [4] энтропия приближенно оценивается по числу заполненных ячеек, на которые разбивается интервал ее возможных значений, т.е. энтропия есть логарифм эффективного числа заполненных ячеек (рис. 2):

/ (Y, X )= log

(1)

В рассматриваемом примере, на основе многолетнего опыта, авторами отобраны следующие диагностические параметры для оценки остаточного ресурса электродвигателей: х1 - ток холостого хода статора, х2 -воздушный зазор между ротором и статором, х3 - сопротивление изоляции статора, х4 -отклонение сопротивления обмоток статора, х5 - коэффициент абсорбции изоляции статора, х6 - коэффициент поляризации изоляции статора, х7 - модуль упругости изоляции статора, х8 - состояние подшипников, х9 -отклонение коэффициента мощности. Методика измерения этих параметров и их размерность приведены в [8-11] и поэтому здесь не рассматриваются. Необходимо заметить, что все признаки нормализуются: для вычисления кросс-энтропии - к диапазону 1-10, для подключения к НС - к диапазону 0-1. Пример расчета предсказуемости параметров х1 и х2 для вышедших из строя по разным причинам

100 (выборка) асинхронных электродвигателей серии 4А мощностью 3 кВт, приведен на рис. 2. Nx1 и Nx2 - количество столбцов и строк с данными, Nx1 х2 - общее количество клеток с данными, величина -1 указывает по одной пустой строке и столбцу маркированной области, которые нужно вычесть.

По данным результатов измерений ВФ в момент отказа диагностируемых объектов рассчитаны значения кросс-энтропий по (1), которые приведены в табл. 1.

8 9 10 XI

Рисунок 2 - Расчет предсказуемости параметров х1 и х2: цифры в клетках указывают на количество совпадений этих параметров при их измерении в момент отказа электродвигателей (в сумме дают выборку Р, равную 100)

Таблица 1 - Кросс-энтропия ВФ асинхронных электродвигателей серии 4А, мощностью 3 кВт

XI Х2 ХЗ Х4 Х5 хб Х7 XS ХЭ

XI 0,522879 0,425969 0,30103 0,425969 0,442359 0,405765 0,234083 0,359022

х2 0,5 225791 0,408117 0,330993 0,477121 0,422764 0,464887 0,273001 0,39794

хЗ 0,425969 0,4351171 0,338819 0,567298 0,535113 0,544068 0,30103 0,425969

Х4 0,30103 0,330993 0,3388191 0,352183 0,352183 0,322219 0,255273 0,30103

х5 0,425969 0,477121 0,567298 0,3521831 0,556303 0,544(1^8 0,30103 0,380211

Кб 0.442359 0,422764 0,535113 0,352183 0,55 63031 0,477121 0,227244 0,325854

х7 0,405765 0,464887 0,544068 0,322219 0,544068 0,4771211 0,322219 0,405765

х8 0,234083 0,273001 0,30103 0,255273 0,30103 0,227244 0,32221э| 0,234083

х9 0,359022 0,39794 0,425969 0,30103 0,380211 0,325854 0,405765 0,2340831

В общем виде вектор ВФ х(0, сформированный из к ДП:

х(/)=х1(0, х2(/),..., хк(Г), где М,2,..,Р.

В соответствии с табл. 1 по алгоритму [6] вектор ВФ, при к=9, получился таким:

х( 0=[х8( 0,х6( 0],[х4( 0,х1( 0],[х9( 0,х5( 0],[х7( 0,х2( 0],(х3( 0),

(2)

где ВФ, заключенные в квадратные скобки обозначают объединение в пары в 1 слое, неспаренный параметр х3, имеющий «наихудшие показатели» подается в 4 слой (рис 1).

Рассмотрим поведение входных данных х1,..., х9 с помощью самоорганизующихся карт, в английской аббревиатуре (БОМ). Целью метода, использующего БОМ является

проецирование пространства с большей размерности на меньшее. В рассматриваемом случае 9-мерный вектор ВФ преобразуется в двумерную квадратную карту, в узлах которой находятся нейроны, обучаемые в процессе подачи входного вектора. Вектор подается случайным образом. Основными параметрами нейронной карты являются координаты нейронов и их веса №. В отличие от обычной нейронной сети, где ее обучение производится в соответствии с предъявляемыми эталонами, самоорганизующиеся карты обучаются без учителя, только за счет входного вектора. Алгоритм обучения сводится к изменению весов нейронов карты:

V) = w¡« -1) + Н(1) • х(0 - w¡« -1), (3) где №¡^-1) - старое значение веса /-го нейрона, Л(/) - функция соседства [13].

Необходимо отметить, что количество итераций по (3) может быть ограничено по мере достижения, желаемой экспертом, величины ошибки.

Общий принцип работы карты заключается в определении нейрона-победителя, вес

которого наиболее близко соответствует входному вектору. При определении нейрона-победителя, веса его и соседей подстраиваются по алгоритму (3).

Мера соседства может определяться по формуле:

h(t) = a(t) ■ e2ст (t) , где a(t) - коэффициент скорости обучения, находящийся в пределах от 0 до 1, г - радиус, в котором находятся соседние нейроны, o(f) -монотонно убывающий коэффициент, уменьшающий количество соседей с итерациями.

Существуют и другие алгоритмы определения соседей, которые рассматриваются в соответствующей литературе. Необходимо также отметить, что часть коэффициентов в SOM [14] определяются самостоятельно экспертами.

На рис. 3 показаны раскраски в SOM ВФ х1 - x9 в момент выхода диагностируемых объектов из строя.

г\

0,00 0,15 0.30 О.Ф-

х4

т. I 1 1 0,00 0,11 I 1 1 е.Н' е.зз

0.00 0.19 0.37 0.56

I 1—I—1—I—Г"1—'—I

0.0 QA 0.5 0,7 1,0

i—'—i—1—:—1—I—1—I

0.0 0,2 0,5 0,7 1,0

I—'—I—1—1—!—1

0.0 0.3 0,5 0,7 1,0

" 00 0,30 0.59 0.S

0.00 0.26 0.52 0.78

0.00 0.11 0.22 0,33

Рисунок 3 - Самоорганизующаяся карта диагностических признаков, сформированная пробной

версией программы У1эсоуегу БОМте5

Интерпретация рис. 3, например, показывает, что признаки х1 и х2 практически совпадают по местонахождению на карте (уве-142

личенный ток холостого хода статора указывает на больший чем нужно воздушный зазор или на уменьшенное число витков статора) ПОЛЗУНОВСКИЙ ВЕСТНИК № 4 2012

[8], следовательно, они сильно предсказывают друг друга, поэтому должны во входном векторе максимально удалены друг от друга, что подтверждается расчетами кросс-энтропий и, соответственно (2). Анализ остальных семи карт также приводит к набору (2), однако это применительно только к одному типу электродвигателя соответствующей мощности. Таким образом, определение набора признаков является прерогативой эксперта, а расчеты кросс-энтропий и работу с БОМ можно рассматривать как полезную помощь. Не исключено, что после подобных исследований, некоторые ВФ могут исключаться из рассмотрения и вводится другие.

Перейдем к самой НС по определению остаточного ресурса электродвигателя. В отличие от БОМ эта система обучается не только на входных, но и на целевых векторах. В момент выхода из строя электродвигателя фиксируются ВФ, при этом известно время, в течение которого он эксплуатировался. Этот параметр становится целевым. Таким образом, обучение НС сводится к настройке ее коэффициентов, последовательно подавая вектора ВФ и остаточного ресурса на нее. Алгоритм генерации такой НС описан в [6]. НС является иерархической и многоуровневой. ВФ подаются парами на входы стандартных нейронов НС в соответствии с предыдущими рекомендациями, неспаренный признак, имеющий «наихудшие» параметры, подается на другой уровень.

1. Работа НС в прямом направлении.

Данные, поступающие от диагностируемых электродвигателей собираются в матрицу наблюдений в автоматическом или ручном режимах. Для автоматического ввода данных использовались системы сбора данных типа 1-са^ (в данной работе - 16- канальный АЦП £-783) [15]. 9-разрядный входной вектор, показывающий состояние электродвигателя, нормализовался по [16]. Наблюдения проводились до отказа технического объекта. Далее система автоматически производит подключение ВФ в соответствии с кросс-энтропией и производится запуск НС, при этом веса нейронов инициализируются случайным образом в пределах от 0 до 1.

2. Обучение или работа сети в обратном направлении (рис. 4).

На каждой шаге (эпохе) на вход сети поочередно подаются все обучающие наблюдения, выходные значения сети сравниваются с

целевыми значениями и вычисляется ошибка. Значение ошибки, а также градиента поверхности ошибок используется для корректировки весов, после чего цикл повторяется.

Оценка работы сети определяется как сумма квадратов расстояний от выходных сигналов сети до их требуемых значений по всей выборке:

E(w) =

Yj(z(t) — target(t))2

/2,

где z - выход последнего нейрона, target -требуемое значение выхода.

В приведенной формуле не производится суммирование по всем выходным нейронам, так как на выходе функционирует один нейрон, выходной вектор которого имеет размерность 1 и представляет собой остаточный ресурс.

Новое значение коэффициента wnew определяется как сумма старого значения w0ld и его вклада в общую ошибку сети:

W = w

ГУП PW ryr\

\+ПЕУ

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

гдеП - коэффициент скорости обучения, 0<П<1,

y - сигнал на выходе нейрона.

Выходная ошибка одного шага, которая распределяется по сети, изменяет веса нейронов:

Е = (target — z) y(l — y).

Так как производная сигмоидной функции dy/dx=y(1-y), следовательно, ошибка предпоследнего слоя изображенного на рис. 4:

Enext = dyEc old = У(1 — У)Ес old. dx

Далее процесс вычисления коэффициентов в предшествующих слоях происходит аналогично.

Обратное преобразование из нормализованного в абсолютное значение производилось по [16].

Всего настраиваемых коэффициентов сети - 32, из них 16 являются константами. Коэффициенты u0 являются константами и взяты такими, чтобы обучение было самым эффективным. Настраиваются в процессе обучения веса нейронов w11-w42 (рис. 1).

t=i

Enext, - ошибка, переходящая в предыдущий слой, u0 - смещение, F(x) - передаточная функция, L - сумматор, х - умножитель, target(t) - требуемый результат, п - скорость обучения, w0ld - старое значение веса, wnew - новое значение веса, z - нормализованный выход сети, N - преобразователь из нормализованного в абсолютное значение

Процесс обучения, связанный с ошибкой НС, изображен на рис. 5.

Сигналы и коэффициенты в них, соответствующие рис. 1, в результате обучения с помощью Microsoft Excel и Visual Basic for Applications приведены ниже. Сравнительный анализ нейронной и нейро-нечеткой сетей по определению остаточного ресурса асинхронных электродвигателей серии 4А, мощностью 3кВт приведен в таблице 2.

Таблица 2 - Сравнительный анализ нейронной и нейро-нечеткой сетей (ННС)

Рисунок 5 - Абсолютная ошибка определения остаточного ресурса - ЕАБС

у11 =

У12 =

у13 = У14 =

у 21 =

1 + е " (0,87х8+0,06х6) '

1

1 + е -(0,95х4+0,36х1) ,

1

1 + е -(0,52х9+0,76х5) '

1

1 + е-(0,05х7+0,59х2) 1

0,46

0,30

1 | 1+е-(0,87я8+0,06я 6) |+е-(0,95 х 4+0,36 х1)

У22 = -

1 + е

0,61

0,63

1+е"

-(0,52 х 9+0,76 х5) 1+е-(0,05х7+0,59х2)

у31=-

0,21

0,22

1 + е 1 г+е

1+е-(0,87х 8+0,06х6) 1+е-(0,95х4+0,36х1) | ^ |^-(0,52х9+0,76х5) ^-(0,05х 7+0,59х2)

Таким образом, модель остаточного ресурса электродвигателя серии 4А, мощностью 3кВт:

2 = у41 = ■

,+ -(0,87х 8+0,06х6) ,+ -(0,95х4+0,36х1) I I ,+ -(0,52х9+0,76х5) ,+ -(0,05х7+0,59х2)

0,00011+0,00011е 11+е 11+е 1+е 1 1+е 11+е 1+е /;+0,82х3

1 + е

Абсолютное значение ошибки НС по определению остаточного ресурса асинхронного электродвигателя серии 4а, 1,5 кВт составило -58 часов (2,9 % от полученного значения остаточного ресурса асинхронного электродвигателя - 2000 ч), что свидетельствует о высокой эффективности использования обученной НС при определении остаточного ресурса асинхронного электродвигателя.

СПИСОК ЛИТЕРАТУРЫ

1. Введение в процедуру обратного распространения [Электронный ресурс]. - Режим доступа :htt2://www.intuit.ru/deËartmeD!Zds^^

Ы.

2. Обучение, самоорганизация и эволюция как методы в искусственном интеллекте [Электронный ресурс]. - Режим доступа :http://wwWin^2tor.min^k.by/kg/2000/45/kg04514.h;t

т!

3. Нейронные сети [Электронный ресурс]. -Режим доступа: http://biology.krc.karelia.ru/misc/ stats/modules/stneunet.html

4. Ежов А. А., Шумский С. А. Нейрокомпьютинг и его применение в экономике и бизнесе. М.: -1998. - 222 с.

5. Безруков, Н.С., Еремин, Е.Л. Построение и моделирование адаптивной нейро-нечеткой системы в задаче медицинской диагностики [Текст] / Н.С. Безруков, Е.Л. Еремин // Медицинская информатика 2005. - № 2(10). - С 36-46 / [Электронный ресурс]. - Режим доступа: ics.khstu.ru/journal/articles/583.

6. Суханкин Г.В. Диагностическая система оценки состояния технического объекта на основе обучающейся нейронной сети. [Текст] / Г.В. Суханкин // Вестник алтайской науки. - № 2.- 2012. - С 143-147.

7. Отбор наиболее значимых входов / [Электронный ресурс]. - Электрон. дан. - М., [2012]. -Режим доступа: http://www. intuit.ru/department/

1

1

1

0,46

0,30

0,61

0,63

1

10,21

10,22

0,46

0,30

0,61

0,63

expert/neurocomputing/7/6.html. - Загл. с экрана.

8. Испытания электрических машин после ремонта / [Электронный ресурс]. - Электрон. дан. - М., [2012]. - Режим доступа: http://www.asp-electronics.ru/electromashini/electromashini65.html -Загл. с экрана.

9. Измерение сопротивления обмоток асинхронных электродвигателей при постоянном токе / [Электронный ресурс]. - Электрон. дан. - М., [2012]. - Режим доступа: http://leg.co.ua/info/ elektricheskie-ashiny/izmerenie-soprotivleniya-obmotok-asinhronnyh-elektrodvigateley-pri-postoyannom-toke.html - Загл. с экрана.

10. Трехфазные асинхронные двигатели с ко-роткозамкнутым ротором общепромышленного назначения / [Электронный ресурс]. - Электрон. дан. - М., [2012]. - Режим доступа: http://www.rts74.ru/katdvig/5a.php - Загл. с экрана.

11. Измерение параметров изоляции / [Электронный ресурс]. - Электрон. дан. - М., [2012]. -Режим доступа: http://www.sonel.ru/ru/biblio/measurement/measurem ent_mic/ - Загл. с экрана.

12. Эксплуатация асинхронных двигателей / [Электронный ресурс]. - Электрон. дан. - М., [2012]. - Режим доступа: http://www.induction.ru/library/book 003/9. html -Загл. с экрана.

13. Самоорганизующаяся карта Кохонена /

[Электронный ресурс]. - Электрон. дан. - М., [2012]. - Режим доступа:

http://ru.wikipedia.org/wiki/%D0%A1%D0%B0%D0%B C%D0%BE%D0%BE%D1%80%D0%B3%D0%B0%D 0%BD%D0%B8%D0%B7%D1%83%D1%8E%D1%89 %D0%B0%D1%8F%D1%81%D1%8F_%D0%BA%D0 %B0%D1%80%D1%82%D0%B0_%D0%9A%D0%BE %D1%85%D0%BE%D0%BD%D0%B5%D0%BD%D0 %B0 - Загл. с экрана.

14. Viscovery SOMine 5.2 / [Электронный ресурс]. - Электрон. дан. - М., [2012]. - Режим доступа: http://www.viscovery.net - Загл. с экрана.

15. Платы АЦП / ЦАП на шину PCI 2 / [Электронный ресурс]. - Электрон. дан. - М., [2012]. -Режим доступа: http://www.lcard.ru/l-783.php3- Загл. с экрана.

16. Суханкин Г.В. Нейронная модель остаточного ресурса электрической машины. [Текст] / Г.В. Суханкин // Вестник алтайской науки. - № 2.2012. - С 140-143.

Суханкин Геннадий Владимирович, к.т.н., директор информационно-издательского центра АлтГТУ им. И.И.Ползунова, Барнаул, Алтайский край, 656038, пр-т Ленина, 46, тел. 8(385-2) 29-07-44,E-mail: gen195@mail.ru

Герцен Николай Теодорович, к.т.н., ген. директор ОАО «Алтайский дом печати», тел. 26-04-98, E-mail: adp@adp.alt.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.