Научная статья на тему 'Прогнозирование технического состояния электронной техники нейронными сетями на основе машины опорных векторов'

Прогнозирование технического состояния электронной техники нейронными сетями на основе машины опорных векторов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
314
84
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭЛЕКТРОННАЯ ТЕХНИКА / ПРОГНОЗИРОВАНИЕ / НЕЙРОННАЯ СЕТЬ / ELECTRONIC UNITS / FORECASTING / NEURAL NETWORK

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Голоскоков Константин Петрович

В статье представлена категория универсальных сетей прямого распространения - так называемые машины опорных векторов (Support Vector Machine, SVM), предложенные Владимиром Вапником. Подобно многослойным персептронам и сетям на основе радиальных базисных функций, машины опорных векторов можно использовать для решения задач классификации и прогнозирования.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Голоскоков Константин Петрович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Electronic units working state forecasting: the neural networks approach based on the support vector machine

The technical state parameters forecasting of industrially manufactured electronic hardware products problem is investigated. An image recognition method based on a neural network construction using basic vectors machine approach is applied. The implemented algorithm meets the production process requirements and features high run time efficiency.

Текст научной работы на тему «Прогнозирование технического состояния электронной техники нейронными сетями на основе машины опорных векторов»

№ 1(19)2009

К. П. Голоскоков

Прогнозирование технического состояния электронной техники нейронными сетями на основе машины опорных векторов

В статье представлена категория универсальных сетей прямого распространения — так называемые машины опорных векторов (Support Vector Machine, SVM), предложенные Владимиром Вапником. Подобно многослойным персептронам и сетям на основе радиальных базисных функций, машины опорных векторов можно использовать для решения задач классификации и прогнозирования.

Качество электронной техники — в числе узловых проблем дальнейшего совершенствования продукции. Надежность изделий электронной техники, с уровнем которой связаны безотказность, долговечность, сохраняемость, ремонтопригодность, выступает как одна из основных характеристик качества.

Как электронные системы, так и средства управления ими в последнее время характеризуются значительной сложностью. Высокие требования к качеству и эффективности изделий электроники повлекли за собой разработку методов проверки, а также восстановления исправности, работоспособности и правильности функционирования и систем в целом, и их компонент.

Определение технического состояния изделий электронной техники и характера его изменений с течением времени становится основной задачей в управлении качеством продукции в области электроники.

Особые требования к изделиям электроники по стойкости к воздействиям внешних факторов, безотказности, долговечности и другим параметрам качества привели к увеличению трудоемкости испытаний и прогнозирования. Лишь на долю приемо-сдаточных испытаний на долговечность следует отнести 10% трудоемкости изготовления изделий электроники. Опыт показывает, что каждые пять лет объем испытаний возрастает в два-три раза. Так что назрела необходимость в автоматизации испытаний и прогнозирования технического состояния.

30 ^

Автоматизация позволяет:

• повысить техническую эффективность разработок объектов испытаний и уменьшить затраты на их разработку;

• сократить сроки испытаний образцов новой техники;

• повысить оперативность получения, обработки и использования информации о качестве изделий электронной техники.

Являясь составной частью автоматизированной системы управления качеством продукции, автоматизированная подсистема прогнозирования, как и автоматизированная подсистема испытаний, может рассматриваться в качестве подсистемы, выполняющей информационную функцию — обеспечение объективными данными о техническом состоянии изделий, т. е. качестве электронной техники.

Известно, что комплектующие электронной аппаратуры на определенных этапах их освоения характеризуются различными показателями надежности. Основные изменения интенсивности отказов происходят в период опытного производства. Поэтому возникает проблема раннего выявления и использования резервов качества электронной аппаратуры.

В связи с этим, в рамках автоматизированной подсистемы прогнозирования, необходимо разработать метод прогнозирования, позволяющий ускорить испытания изделий электронной техники. При этом возникает потребность в разработке теоретических аспектов прогнозирования технического состояния из-

№ 1(19)2009

делии электронной техники, а также адаптации их к подсистеме прогнозирования.

Данная статья посвящена разработке и исследованию алгоритмических методов прогнозирования технического состояния изделии электронной техники в рамках автоматизированной системы управления качеством. Изложенные здесь методы достаточно универсальны и применимы для целого ряда изделии электронноИ техники.

Общие принципы интеллектуальных нейронных сетей

Каждая из компонент изделия электронной техники имеет свои своИства и характер поведения в зависимости от собственного состояния и внешних условиИ. Если все возможные проявления изделия сводятся к сумме проявлении его компонент, то такое изделие является простым, несмотря на то что число его компонент может быть достаточно велико. Для описания простых изделиИ традиционно применяются методы анализа, состоящие в последовательном расчленении изделия на компоненты и построении моделей все более простых элементов. Таковым в своеИ основе является метод математического моделирования [3], в котором модели описываются в форме уравнениИ, а предсказание поведения изделия основывается на их решении.

Современные изделия электронноИ техники приближаются к такому уровню сложности, когда наблюдения их поведения не сводятся к простоИ сумме своИств отдельных компонент. При объединении компонент в систему возникают качественно новые своИства, которые не могут быть установлены посредством анализа своИств компонент.

Такие системы, в которых при вычленении компонент могут быть потеряны принципиальные своИства, а при добавлении — возникнуть качественно новые, будем называть сложными. Модель сложноИ системы, основанная на принципах анализа, будет неустранимо не-адекватноИ изучаемоИ системе, поскольку разбиение на составляющие здесь чревато поте-реИ ее качественных особенностеИ.

«о

I

Возможным выходом из положения является построение модели на основе синтеза компонент. Синтетические модели являются прак- Л тически единственноИ альтернативоИ. В по- е; следнее время синтетические информационные модели широко используются и при изучении технических и инженерных систем. В ряде приложениИ информационные и математические компоненты могут составлять единую модель (например, внешние условия описываются решениями уравнениИ математиче-скоИ физики, а отклик системы — информаци-онноИ моделью).

Основным принципом информационного моделирования является принцип «черного ящика». В противоположность аналитическому подходу, при котором моделируется внутренняя структура системы, в синтетическом методе «черного ящика» моделируется внешнее функционирование системы. С точки зрения пользователя модели, структура изделия спрятана в неком черном ящике, которыИ имитирует поведенческие особенности системы.

КибернетическиИ принцип «черного ящика» был предложен в рамках теории идентификации систем, в котороИ для построения модели системы предлагается широкиИ пара-метрическиИ класс базисных функциИ или уравнениИ, а сама модель синтезируется путем выбора параметров из условия наилучшего, при заданноИ функции ценности, соответствия решениИ уравнениИ поведению системы. При этом структура системы никак не отражается в структуре уравнениИ модели.

Функционирование системы в рамках син-тетическоИ модели описывается чисто информационно, на основе данных экспериментов или наблюдениИ над реальноИ системоИ. Как правило, информационные модели проигрывают формальным математическим моделям и экспертным системам по степени «объясни-мости» выдаваемых результатов, однако отсутствие ограничениИ на сложность моделируемых систем определяет их практическую значимость.

Пусть X — вектор, компоненты которого соответствуют количественным своИствам системы,X' — вектор количественных своИств внешних воздеИствиИ. Отклик системы может

31

№ 1(19)2009

«о о

8-

«о

■а

а &

с

0

3

1

а 3 а € ш «о о

55

0

а %

а

1

а €

I §

ш а

8 а

0

а §

1

ч

т §

I £

з §

«о

о &

3

о

быть описан некоторой (неизвестной) вектор-функцией 3:

У = Р(ХХ'), где У — вектор отклика.

Задачей моделирования является идентификация системы, состоящая в нахождении функционального отношения, алгоритма или системы правил в общей форме 7=6(Х, X'), ассоциирующей каждую пару векторов (X, X') с вектором 1 таким образом, что 1 и У близки в некоторой метрике, отражающей цели моделирования. Отношение 1 = в(Х, X'), воспроизводящее в указанном смысле функционирование системы 3, будем называть информационной моделью системы 3

Искусственная нейронная сеть (ИНС) является удобным и естественным базисом для представления информационной модели. Ней-росеть может быть достаточно формально определена [1] как совокупность простых процессорных элементов (часто называемых нейронами), обладающих полностью локальным функционированием и объединенных однонаправленными связями (синапсами). Сеть принимает некоторый входной сигнал из внешнего мира и пропускает его сквозь себя с преобразованиями в каждом процессорном элементе. Таким образом, в процессе прохождения сигнала по связям сети происходит его обработка, результатом которой является определенный выходной сигнал. В укрупненном виде ИНС выполняет функциональное соответствие между входом и выходом, и может служить информационной моделью в системы 3

Определяемая нейросетью функция может быть произвольной при легко выполнимых требованиях к структурной сложности сети и наличии нелинейности в переходных функциях нейронов [2]. Возможность представления любой системной функции 3 с заданной точностью определяет нейросеть как компьютер общего назначения. Этот компьютер сравнительно с «машиной фон Неймана» обладает принципиально иным способом организации вычислительного процесса. Он не программируется с использованием явных правил и ко-

дов в соответствии с заданным алгоритмом, а обучается посредством целевой адаптации связей (реже — их структурной модификацией и изменением переходных функций нейронов) для представления требуемой функции.

В гипотетической ситуации, когда известны функция системы 3 или алгоритм ее вычисления при произвольных значениях аргументов, «машина фон Неймана» представляется наилучшим средством моделирования, состоящем в вычислении Необходимые системе значения системной функции 3 получаются на основе экспериментов или наблюдений, которые проводятся лишь для конечного параметра X. При этом значения как У, так и X измеряются приближенно, подвергаясь ошибкам различной природы. Целью моделирования является получение значений системных откликов при произвольном изменении X. В этой ситуации может быть успешно применена информационная (статистическая) модель в исследуемой системы Г.

Информационные модели могут строиться на основе традиционных методов непараметрической статистики. Наука позволяет строить обоснованные модели систем при наличии набора экспериментальных данных (достаточного для доказательства статистических гипотез оха-рактере распределения) и при относительно равномерном их распределении в пространстве параметров. Однако при высокой стоимости экспериментальных данных, или невозможности получения достаточного их количества (как при построении моделей изделий электронной техники), их высокой зашумленности, неполноте и противоречивости, нейронные модели становятся наиболее предпочтительными. Нейронная сеть оказывается избирательно чувствительной в областях скопления данных и дает гладкую интерполяцию в остальных областях.

Эта особенность нейросетевых моделей основывается на общем принципе — кластеризации данных. Одной из первых сетей, обладающих свойствами кластеризации, была карта самоорганизации Тейво Кохонена [1], [2]. Задачей нейросети Кохонена является автоматизированное построение отображения набора входных векторов высокой размерности на карте кластеров меньшей размерности, и так, что

32

№ 1(19)2009

близлежащим кластерам отвечают близко расположенные входные векторы в исходном пространстве. Таким образом, при значительном уменьшении размерности пространства сохраняется топологическиИ порядок расположения данных. При замене всех векторов каждого кластера его центроидом достигается высокая степень сжатия информации при сохранении ее структуры в целом.

Карты Кохонена используются в основном в двух целях. Первая из них — наглядное упорядочение многопараметрическоИ информации. На практике обычно используются одномерные и двумерные карты. Кластеры, задаваемые узлами карты, содержат группы в некотором смысле похожих наблюдениИ, которым может быть приписан групповоИ семантиче-скиИ смысл. Одним из новых эффективных применениИ сети Кохонена является построение тематическоИ карты электронных сообщениИ в глобальных компьютерных сетях. Посредством такоИ карты пользователь получает возможность свободноИ навигации в бесконечном потоке сообщениИ сообразно собственным интересам. В применении к моделированию технических систем карты Кохонена могут использоваться для выявления различиИ в режимах их поведения, при этом могут выявляться аномальные режимы. Важно, что при этом могут быть обнаружены неожиданные скопления похожих данных, последующая интерпретация которых пользователем может привести к получению нового знания об исследуемоИ системе.

Вторая группа «технических применений» связана с предобработкоИ данных. Карта Кохонена группирует близкие входные сигналы X, а требуемая функция У = 6(Х) строится на основе применения обычноИ неИросети прямого распространения (например, многослоИного персептрона или линеИноИ звезды Гроссберга) к выходам неИронов Кохонена. Такая гибридная архитектура была предложена Р. Хехт— Нильсеном [1], [2], она получила название сети встречного распространения. НеИроны слоя Кохонена обучаются без учителя, на основе самоорганизации, а неИроны распознающих слоев адаптируются с учителем итерационными методами. При использовании линеИных выходных неИронов значения их весов могут

быть получены безытерационно, непосредственным вычислением псевдообратной матрицы по Муру—Пенроузу.

Сеть встречного распространения дает кусочно-постоянное представление модели Y = G(X), поскольку при вариации вектора X в пределах одного кластера на слое соревнующихся нейронов Кохонена возбуждается один и тот же нейрон-победитель.

В случае сильно зашумленных данных такое представление обладаетхорошими регуляризи-рующими свойствами. При этом процедура обучения сети встречного распространения идет заметно быстрее, чем, например, обучение многослойного персептрона стандартным методом обратного распространения ошибок [1].

Другой альтернативой традиционным многослойным моделям является переход к нейро-сетям простой структуры, но с усложненными процессорными элементами. В частности, можно рассмотреть машину опорных векторов.

Машина опорных векторов

Машина опорных векторов — это линейная система (linear machine), обладающая рядом привлекательных свойств. Описание работ таких машин следует начать с вопроса разделимости классов, возникающего при решении задач классификации. В этом контексте идея машин опорных векторов стоит в построении гиперплоскости, выступающей в качестве поверхности решений, максимально разделяющей положительные и отрицательные примеры. Это достигается благодаря принципиальному подходу, основанному на теории статистического обучения. Более конкретно, машина опорных векторов является аппроксимирующей реализацией метода минимизации структурного риска (Method of Structural Risk Minimization). Этот индуктивный принцип основан на том, что уровень ошибок обучаемой машины на данных тестирования (уровень ошибок обобщения) можно представить в виде суммы ошибки обучения и слагаемого, зависящего от измерения Вапни-ка—Червоненкиса (Vapnik—Chervonenkis dimension). В случае разделяемых множеств машина опорных векторов выдает «нуль» для первого слагаемого, минимизируя при этом второе.

I

о

33

№ 1(19)2009

«о о

Si

«о

■а

а §■

с

0

3

1

а 3 а €

«о о

55

0

а %

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

a

1

a € S

I §

a

ii a

>a

0

a §

1

4

rn

IS

il

5

»

a a

Поэтому машина опорных векторов может обеспечить хорошее качество обобщения в задаче классификации, не обладая априорными знаниями в предметноИ области конкретноИ задачи. Именно это своИство является уникальным для машин опорных векторов.

Понятие, лежащее в основе построения алгоритма обучения опорных векторов, — ядро скалярного произведения «опорных векторов» х, и вектора х, взятого из входящего пространства. Опорные векторы представляют со-боИ небольшое подмножество обучающих данных, отбираемых алгоритмом. В зависимости от метода генерации этого ядра можно построить различные обучаемые машины со своими собственными нелинеИными поверхностями решениИ. В частности, алгоритм настроИки опорных векторов можно использовать для построения следующих трех типов обучаемых машин (и не только них):

• полиномиальные;

• сети на основе радиальных базисных функциИ;

• двухслоИные персептроны (с одним скрытым слоем)

Это значит, что для каждоИ из этих сетеИ прямого распространения можно реализовать процесс обучения на основе алгоритма настроИки опорных векторов, использующего предложенным набор данных обучения для автоматического определения количества необходимых скрытых элементов. Другими словами, если алгоритм обратного распространения создан специально для обучения многослоИных персептронов, то алгоритм обучения опорных векторов носит более общиИ характер, поскольку имеет более широкую область применения.

Оптимальная гиперплоскость для линейных разделимых образов

Для начала предположим, что классы, представленные подмножествами di =+1и di =—1, линейно-разделимы. Уравнение поверхности решений в форме гиперплоскости, выполняющей это разделение, записывается следующим образом:

wTx + b=0, (1)

где x — входной вектор;

w — настраиваемый вектор весов; b — порог.

Далее можно записать:

wTxi + b=0 для di =+1;

wTx+ b <0 для d= —1. (2)

Допущение о нелинейной разделимости образов введено для того, чтобы доступно объяснить основную идею, положенную в основу машин опорных векторов.

Для данного вектора весов w и порога b расстояние между гиперплоскостью, задаваемой уравнением (1) и ближайшей точкой из набора данных, называется границей разделения (margin of separation) и обозначается символом p. Основной целью машины опорных векторов является поиск конкретной гиперплоскости, для которой граница разделения будет максимальной. При этом условии поверхность решения называется оптимальной гиперплоскостью.

Пустьw0 и b0 —оптимальные значения вектора весов и порога соответственно. Исходя из этого, оптимальную гиперплоскость, представляющую многомерную линейную поверхность решений в пространстве входных сигналов, можно описать уравнением:

w Tx+b0 =0,

(3)

Рассмотрим множество обучающих приме-

ров:

аналогичным (1). При этом дискриминантная функция

з §

«о

о §■

S3

о

{(х/, *)} ;=1,

где х, — входноИ образ для примера /;

* — соответствующиИ ему желаемыИ отклик (целевоИ выход).

g( x) = w lx+b

(4)

определяет алгебраическую меру расстояния от х до гиперплоскости, что можно наблюдать, если выразить х как:

34

№ 1(19)2009

™ 0

1к о

где хр — нормальная проекция точки х на оптимальную гиперплоскость; т—желаемое алгебраическое расстояние.

Величина тявляется положительной, еслих находится с положительной стороны оптимальной гиперплоскости, и отрицательной — в противном случае. По определению д(хр)=0, следовательно,

торами. Отсюда и название машины опорных векторов. Эти векторы играют решающую роль в работе обучаемых машин. Они являются теми точками данных, которые ближе всего к поверхности решений, а потому самые сложные для классификации. Как таковые они лучше всего указывают на оптимальное размещение поверхности решений.

Рассмотрим опорный вектор х(5), для которого ё(5) =+1. Тогда по определению:

I

о

Е=

д( х(

м ¡х(5) + Ьо = + 1

(7)

или

д( х) = м 0х+Ьо =т| о|

д( х)

У о

(5)

В частности, расстояние от начала координат (т. е. х=о) до оптимальной гиперплоскости

равно Ьо . Если Ьо >о, то начало координат

II м о ||

находится с положительной стороны гиперплоскости, если же Ьо <о, то с отрицательной.

Требуется найти параметры мо и Ьо оптимальной гиперповерхности на основе данного множества примеров 0={(х,,ё,)}. Пара(мо,Ьо) должна удовлетворять следующим ограничениям:

мТх, + Ь > 1

для ё, =+1;

для ё(5) = + 1.

Исходя из выражения (5), вычислим алгебраическое расстояние от опорного вектора х(5) до оптимальной гиперплоскости:

д( х

(5) '

м о

У о

(8)

У о

где отсутствие какого-либо знака означает расположение точки х(5) с положительной стороны от оптимальной гиперплоскости, а знак «минус» — с отрицательной.

Пусть р — оптимальное значение границы разделения между двумя классами, составляющими множество примеров Т. Тогда из уравнения (8) следует, что

р=2т = -

2

У о

(9)

мТх-, + Ь < 1

(6)

для ё, = —1.

Заметим, если выполняется уравнение (2), то множества являются линейно-разделимыми. В этом случае значения мо и Ьо можно масштабировать так, чтобы выполнялось условие (6). Такая операция масштабирования не влияет на соотношение (3).

Конкретные точки (х,, ё,), для которых первое и второе ограничение выполняются со знаком равенства, называются опорными век-

Соотношение (9) означает, что максимизация границы разделения между классами эквивалентна минимизации Евклидовой нормы вектора м

Подводя итог, отметим, что оптимальная гиперплоскость, определяемая уравнением (3), является единственной в том смысле, что оптимальный вектор весов мо обеспечивает максимально возможное разделение между положительными и отрицательными примерами. Такое оптимальное состояние достигается с помощью минимизации Евклидовой нормы вектора весов м

35

№ 1(19)2009

«о

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0

8

1

«о

■а

а §■

с о

3 а а

3 а € ш «о о

55

0 а а а

1

а €

а §

ш а

8

I € >а

0

а §

1

4

т §

I §

53

о

» а

I € ш

3 §

«о о

з

55

о

Результаты оценки состояний работоспособности радиотехнических систем

Задача оценки технического состояния работоспособности радиотехнических систем может быть поставлена следующим образом.

Пусть необходимо определить области работоспособности системы в различных условиях. Так, выделим шесть классов состояний: к1 — нормальные условия работы; к2 — после вибрации; к3 — после ударов; к4 — в тепле; к5 — в холоде;

к6 — после воздействия влаги. Необходимо построить разделяющие эти классы гиперповерхности, зная которые можно оценить степень работоспособности диагностируемого объекта.

Построение гиперповерхностей будем осуществлять по пяти параметрам:

х, — средняя мощность передатчика; х2 — средний коэффициент нелинейных искажений передатчика;

х3 — средняя чувствительность модуляционного входа передатчика;

х4 — средний коэффициент нелинейных искажений приемника;

х5 — средняя чувствительность приемника. В результате вычислений по методу машины опорных векторов получаем гиперповерхности, разделяющие классы состояний. Здесь и у — поверхность, разделяющая / и у классы.

Таким образом, получаем следующие границы классов:

и,2 = 0,95х, -+ 1,3х4 -и,3 =0,78х1 -+1,5 х 4 + и,4 =1,23х, Ч +1,7 х 4 + и15 = 1,41X1 Ч + 1,3X4 Ч и1б =0,93X1 -+ 1,4X4 +

и23 = 0,95х1 -+ 1,3х4 -

I- 1,3X2 1,1х5 -Ч 1,4X2 1,8 x5 -1,97 x2 1,7 x5 -

- 2,3x2 1,6x5 -

- 4,5 x2 1,3x5 -Ч 1,3X2 1,^ -

+ 1,3X3 -2,4=0; + 1,7X3 -3,5 = 0;

+1,6 Xз -

4,1=0; + 1,5X3 Н 3,7=0; + 1,4X3 -6,2 = 0; + 1,3X3 -2,4=0;

и24 = = 0,32 X! +1,4 X2 + 2,9 Xз +

Ч 1,5X 4 - 0,9 x5 +1,0=0;

и25 = =2,41X1 Ч -1,27 x2 + 3,7 x3 +

Ч -1,75X4 - -0,2 x5 + 0,9=0;

и» = = 0,76x1 Ч 0,9x2 + 0,9x3 +

Ч 094 Н Ь3А><'5 - 3,7=0;

^4 = = 0,34 X. + 0,7x2 + 0,8x3 -

- 0,7 X4 Ч - 4,2x5 - 3,8=0;

и35 = -2,4 X! + 0,4x2 + 0,3x3 +

Ч - 0^ Ч 36^5 -2,1 = 0;

и36 = -3,4 X! + 6,2 x2 + 0,4 x3 +

Ч - 3,14 + 1,75x5 -2,2=0;

и 45 = -1,7 x1 Н Ч 3,4x2 + 0,77x3 Ч

Ч 2,1x 4 + 3 x5 + 2,3 = 0;

и 46 = = -1,6X. - Ч 2,3 x2 + 1,71x3 +

Ч -1,5 X 4 + 2X5 -2,4=0;

и56 = -1,8 X, + 3,1X2 + 3,4 Xз

+ 4,1x 4 Ч x5 - 2,2 = 0.

Зная границы областей, можно построить матрицу переходных состояний, позволяющую принимать решения о состоянии системы. Эта матрица имеет вид:

№=

где и у =1при / = у.

Исходными данными для решения поставленной задачи стали результаты статистических испытаний, приведенные в табл. 1. Здесь все параметры нормированы.

Таблица 1

и и и 12 и 13 и 14 и 15 и^

и21 и22 и23 и,4 и25 и26

и31 и32 и33 и34 и35 и36

и 41 и 42 и 43 и 44 и 45 и 46

и51 и52 и53 и54 и55 и56

[и 61 и 62 и 63 и 64 и 65 и 66

*1 Х2 *3 Х4 Х5

Нормальные условия

1,20 1,00 3,27 0,35 4,43

1,40 5,00 3,27 0,35 4,43

1,40 5,00 3,27 0,35 4,43

1,33 5,00 3,20 0,32 4,83

1,33 5,00 3,20 0,32 4,83

1,46 5,00 3,43 0,30 4,17

1,46 5,00 3,43 0,30 4,17

36

№ 1(19)2009

*1 *2 *3 *4 *5

1,46 5,00 3,43 0,30 4,17

1,40 5,00 3,46 0,40 5,00

После вибрации

1,30 4,33 3,27 0,37 4,33

1,38 4,00 2,60 0,43 4,37

1,41 4,10 2,80 0,53 5,50

1,33 4,57 3,50 0,40 4,50

1,41 5,33 2,60 0,37 8,00

1,30 5,20 2,73 0,40 5,00

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1,46 4,43 3,43 0,46 4,40

1,24 4,00 3,50 0,43 3,67

1,26 4,10 4,23 0,56 4,43

1,36 4,60 3,17 0,40 4,00

1,21 3,00 3,30 0,50 4,70

1,22 3,00 3,20 0,56 4,00

После ударов

1,30 5,33 0,50 0,50 4,83

1,37 3,67 2,60 0,47 4,37

1,40 4,10 3,06 0,50 5,50

1,33 4,57 3,17 0,43 4,30

1,20 5,00 2,80 0,40 7,50

1,27 5,20 2,93 0,50 5,40

1,40 5,33 3,17 0,47 4,00

1,23 3,83 3,50 0,43 3,67

1,25 4,10 4,26 0,56 4,80

1,30 5,56 3,17 0,40 5,00

1,21 4,07 3,30 0,50 5,00

1,21 3,33 2,90 0,60 4,16

В тепле

1,30 4,67 3,37 0,30 3,67

1,28 4,20 2,80 0,60 4,00

1,41 4,00 3,10 0,53 4,50

1,33 4,00 4,00 0,40 4,00

1,28 5,40 2,80 0,60 5,00

1,27 5,30 3,10 0,57 5,40

1,40 5,33 3,00 0,30 3,00

1,21 4,00 4,30 0,53 4,40

1,30 4,00 3,70 0,70 4,67

1,30 5,35 3,83 0,37 5,00

1,19 6,00 3,40 0,80 6,00

1,21 4,33 3,37 0,57 4,70

В холоде

1,12 4,33 2,50 0,75 6,67

*1 *2 *3 *4 *5

0,90 9,33 5,00 1,00 11,00

1,22 5,96 3,50 0,75 6,67

1,00 8,00 6,00 1,00 11,00

1,28 6,00 2,80 0,90 9,33

1,06 6,00 3,60 0,73 5,93

0,80 10,0 6,00 1,10 10,0

1,08 9,33 3,80 0,87 7,00

1,20 7,00 4,53 0,70 6,60

0,90 10,0 5,00 1,20 10,0

1,12 8,30 3,00 0,83 10,0

1,13 5,67 3,13 0,77 6,83

При влажности

1,21 7,5 5,50 0,80 9,0

1,20 8,0 3,20 0,40 10,0

1,30 6,1 3,80 0,60 6,83

1,28 10,0 5,00 0,80 10,0

1,34 6,0 3,00 1,03 10,0

1,22 6,33 3,13 0,67 7,33

1,12 8,0 5,00 1,05 8,00

1,20 7,0 3,80 1,03 9,00

1,21 6,0 3,90 0,7 6,83

1,15 7,0 4,00 0,53 10,0

1,20 7,0 4,00 0,53 10,0

1,20 5,00 5,00 0,530 6,66

I

о

Е=

Результатом решения поставленноИ задачи стала модель, позволяющая определить степень работоспособности радиотех-ническоИ системы в различных условиях эксплуатации, а также определены границы областеИ работоспособности для установления степени нормального функционирования системы.

СПИСОК ЛИТЕРАТУРЫ

1. Хайкин С. НеИронные сети: полныИ курс. М.: ООО «И. Д. Вильямс», 2006.

2. СигвруО., МарзухиХ., РубияЮ. НеИроуправ-ление и его приложения / пер. с англ. М.: ИПРЖР, 2001.

3. Голоскоков К. П. Прогнозирование технического состояния изделиИ электронноИ техники. СПб.: ООО «ПаркКом», 2007.

37

i Надоели баннеры? Вы всегда можете отключить рекламу.