Научная статья на тему 'Алгоритм классификации с оценкой значимости признаков'

Алгоритм классификации с оценкой значимости признаков Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
278
37
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — В И. Дубровин, С А. Субботин

Разработан алгоритм, позволяющий осуществлять классификацию объектов и оценивать значимость их признаков. Описана нейросетевая интерпретация разработанного алгоритма. Приведены результаты экспериментов по апробации рассмотренного алгоритма.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The algorithm permitting to realize a classification of objects and to evaluate a significance of their features is developed. The neural network interpretation of the developed algorithm is described. The results of experiments on approbation of the considered algorithm are considered.

Текст научной работы на тему «Алгоритм классификации с оценкой значимости признаков»

АА:Б ^ й р БЬ1Р БЬ2Р й7 ,

БЪ\ ~ (^ й3), АА ^ (йъ )р й6 .

На следующей итерации процедуры возможно объединение элементов й^ , БЬ1 первой цепочки, так как подсистема рассматривается как элемент, и элементов (й^), й^ второй цепочки. В результате объединения (й4, й^), й§ статус нового элемента получает подсистема БЬ2 , что обозначается 1^2 . Образуются переходы ^^ ¿22 , к которым и от которых проводятся связи. Преобразованные цепочки на второй итерации приобретают вид

Наконец, на четвертой итерации в результате объединения элементов (й^, БЬ1), БЬ2 ) и й7 статус нового элемента

получает СТО, что обозначается как Б. Таким образом, преобразованные цепочки на четвертой итерации приобретают вид

Б~(((йх, 1Ь1), БЬ2 ), й7) , Щ ~ (й2, й3), Щ ~ ((й4, й5), й6),

что позволяет завершить процедуру построения математической модели ТСС, графическая иллюстрация которой была ранее показана на рисунке 3.

АА:Б й1, БЬ1)Р БЬ2Р й7 , БЬ1 ~ (й2, йз),

Щ ~ ((й4, й5), йб) .

На третьей итерации возможно объединение элементов

только первой цепочки. Объединяются элементы (й1, БЬ1)

и БЬ2 . В результате объединения и преобразования цепочки приобретают вид

АА :Б йх, БЬ1), Щ)Рй7 , БЬ1 ~ (й2, йз),

Щ ~ ((й4, й5), йб).

ПЕРЕЧЕНЬ ССЫЛОК

1. Product Design for Assembly. USA, 1991.

2. Технология и автоматизация производства радиоэлектронной аппаратуры: Учебник для вузов/ И.П. Бушминский, О.Ш. Даутов, А.П. Достанко и др.; Под ред. А.П. Достанко, И.М. Чабдорова. - М.: Радио и связь, 1989. - 624 с.

3. Николаев В.И., Брук В.М. Системотехника: методы и приложения.- Л.: Машиностроение, Ленигр. отд-ние, 1985. -199 с.

4. Питерсон Дж. Теория сетей Петри и моделирование систем.- М., 1984. - 264 с.

5. Гамаюн И.П. Имитационное моделирование динамики технологического процесса сборки // Электронное моделирование. - 2000. - №1. - С.100-106.

6. Гамаюн И.П. Эвристический алгоритм разборки-сборки сложной машиностроительной конструкции // Мехашка та машинобудування. - 1998. - №1. - С.146-149.

УДК 681.32:007.52

АЛГОРИТМ КЛАССИФИКАЦИИ С ОЦЕНКОЙ ЗНАЧИМОСТИ ПРИЗНАКОВ

В.И.Дубровин, С.А.Субботин

Разработан алгоритм, позволяющий осуществлять классификацию объектов и оценивать значимость их признаков. Описана нейросетевая интерпретация разработанного алгоритма. Приведены результаты экспериментов по апробации рассмотренного алгоритма.

Розроблено алгоритм, що дозволяв здтснювати класиф1-кац1ю об'ект1в та оцтювати значим1сть Чхтх ознак. Описано нейромережеву ттерпретащю розробленого алгоритму. Наведет результати експеримент1в з апробацп розглянутого алгоритму.

The algorithm permitting to realize a classification of objects and to evaluate a significance of their features is developed. The neural network interpretation of the developed algorithm is described. The results of experiments on approbation of the considered algorithm are considered.

ВВЕДЕНИЕ

В связи с требованиями к повышению качества приборов и механизмов и все возрастающим значением сложных и дорогостоящих систем весьма актуальной в настоящее время становится задача оценки состояния сложных систем в процессе их изготовления и эксплуатации.

Требования, предъявляемые к изделиям в современном производстве, обеспечиваются не только созданием высоконадежных изделий, но и организацией надлежащего контроля, осуществляемого при их эксплуатации. Основной задачей эксплуатационного контроля является поддержание работоспособного состояния контролируемых систем в течение заданного промежутка времени.

При разработке, изготовлении и эксплуатации объекта

принимаются разнообразные меры, направленные на обеспечение его безотказности. Однако полностью устранить возможность появления отказов не удается. Поэтому задача поддержания работоспособного состояния объекта заключается, прежде всего, в своевременном распознавании отказов и устранении причин их появления. Распознавание отказов необходимо и для того, чтобы предупредить аварийные ситуации, которые могут повлечь за собой тяжелые последствия.

Наиболее действенными методами оценки состояния объектов и прогнозирования его изменения во времени являются методы технической диагностики, которая решает задачи распознавания состояний системы, определения причин нарушения работоспособности, а также установления вида и места дефекта.

В настоящее время разработан большой арсенал методов технической диагностики, включающий статистические, вероятностные, логические [1], нечеткие и нейросетевые методы [2].

Статистические, вероятностные и логические методы характеризуются относительной простотой реализации, однако требуют достаточно большого объема экспериментальных данных и не позволяют получать высокоточные модели многомерных объектов и процессов.

В свою очередь нейросетевые методы и методы нечеткой логики позволяют строить более точные модели в условиях ограниченного набора обучающих данных, но при этом характеризуются относительной сложностью практической реализации и высокими требованиями к ресурсам ЭВМ.

Поэтому достаточно актуальной является разработка методов, обладающих относительной простотой реализации, характеризующихся относительно невысокими требованиями к ресурсам ЭВМ и при этом позволяющих строить достаточно точные модели многомерных нелинейных объектов и процессов. Подмножеством таких методов являются эвристические методы - методы не имеющие строгого теоретического обоснования, основанные на опыте и интуиции разработчика.

В настоящей работе для решения задачи диагностики предлагается использовать эвристический алгоритм, позволяющий не только осуществлять классификацию объектов, но и оценивать значимость признаков, характеризующих данные объекты.

1. АЛГОРИТМ ОЦЕНКИ ЗНАЧИМОСТИ

ПРИЗНАКОВ И РАСЧЕТА ПАРАМЕТРОВ

РЕШАЮЩЕГО ПРАВИЛА

Признаки, характеризующие моделируемый объект (процесс), будем условно делить на значимые и незначимые. К значимым будем относить те признаки, которые тесно связаны с выходным параметром и пренебрежение которыми может существенно ухудшить модель, к незначимым -те признаки, которые слабо связаны (или вообще не связаны) с выходным параметром и пренебрежение которыми не ухудшает модель, либо ухудшает, но не на много.

Традиционно для оценки степени связи параметров используют различные критерии, наиболее известным представителем которых является коэффициент корреляции. Однако коэффициент корреляции в основном применим лишь для оценки взаимосвязи вещественных параметров, в то время как во многих задачах диагностики необходимо получать оценку взаимосвязи вещественного (признак) и дискретного (номер класса) параметров. С другой стороны, при построении диагностических моделей желательно заранее знать, сколько потребуется разделяющих плоскостей для осуществления классификации, что нельзя оценить, исходя из коэффициента корреляции.

Объединяя вышеизложенные соображения, в качестве меры связи признака и выходного параметра (меры влияния признака на выходной параметр) будем использовать количество интервалов, на которые разбивается диапазон значений признака, таких, что экземпляры, со значением признака, попавшим в один интервал, относятся к одному и тому же классу, а экземпляры смежных интервалов относятся к разным классам. Очевидно, что такая мера позволит не только оценить значимость признака (чем меньше количество интервалов, тем больше значимость и наоборот), но и оценить необходимое количество разделяющих прямых для классификации по данному признаку. Одновременно с оценкой значимости признаков представляется возможным для каждого интервала найти граничные значения признака для экземпляров обучающей выборки, которые можно будет использовать при классификации.

Обобщая вышеизложенное, сформулируем алгоритм оценки значимости признаков и расчета параметров решающего правила

Шаг 1. Инициализация. Задать обучающую выборку экземпляров, представленную в виде массива данных р, в котором признаки линеаризованы по строкам, а экземпляры - по столбцам, а также соответствующий массив t, содержащий номера классов, сопоставленные экземплярам обучающей выборки (0 или 1). Создать массив пх, равный по размеру количеству признаков М, элементы которого будут содержать число интервалов для каждого признака. Установить пх(г) = 0, г = 1,...,^, где г - номер текущего признака. Занести количество экземпляров обучающей выборки в переменную ^ Установить номер текущего признака г=1.

Шаг 2. Если г < N, тогда перейти на шаг 3, в противном случае - перейти на шаг 12.

Шаг 3. Занести в буфер признака х вектор значений г-го признака из обучающей выборки: х(]') = р(г,]) , j=1,...,S; занести в буфер класса у копию массива ^ у(]') = t(]') ,

j=1,...,S.

Шаг 4. Отсортировать массивы х и у в порядке возрастания массива х (шаги 4.1-4.7 реализуют простейший алгоритм пузырьковой сортировки, который можно заменить на практике более быстродействующим алгоритмом).

Шаг 4.1 Установить номер текущего экземпляра обучающей выборки j=1.

Шаг 4.2 Если j < S, тогда перейти на шаг 4.3, в противном случае - перейти на шаг 5.

Шаг 4.3 Установить номер текущего экземпляра: к = ф + 1.

Шаг 4.4 Если к < S, тогда перейти на шаг 4.5, в противном случае - перейти на шаг 4.7.

Шаг 4.5 Если х(ф)>х(к), тогда установить: Шрх = х(ф), хф = х(к), х(к) = Шрх, тру = уф, у(ф) = у(к), у(к) = =тру, где Шрх и Шру - буферные переменные.

Шаг 4.6 Установить: к=к+1. Перейти на шаг 4.4.

Шаг 4.7 Установить:ф=/+1. Перейти на шаг 4.2.

Шаг 5. Установить: £ = 1, к = 1.

Шаг 6. Если £ < S, тогда установить tempa=x(s), где tempa - буфер для хранения левой границы к-го интервала г-го признака, и перейти на шаг 7, в противном случае -перейти на шаг 11.

Шаг 7. Пока (з<8) и (у(лО = у(л+1)) выполнять: £=£+1.

Шаг 8. Если (я = S) и (у(лО = у(£-1), тогда установить: Кх(г, к) = у(я), Ах(г, к) = tempa, Вх(г, к) = х(я), к = = к+1, £ = £+1, перейти на шаг 10. Здесь Кх(г,к) - номер класса сопоставленный экземплярам обучающей выборки, значение г-го признака которых попадает внуть к-го интервала; Ах (г, к) и Вх(г,к) - левая и правая границы к-го интервала г-го признака, соотвественно.

Шаг 9. Если (я < S) и (у(,у) Ф у(£+1)), тогда установить: Кх(г,к) = у(б), Ах(1,к) = tempa, Вх(г,к) = хЫ, к = к+1, £ = £+1, пх(г) = пх(г)+1, в противном случае -установить: Кх(г,к) = у(л0, Ах(г,к) = х(л0, Вх(г,к) = х(б), к = к+1, £ = £+1.

Шаг 10 Перейти на шаг 6.

Шаг 11 Установить: г=г+1, перейти на шаг 2.

Шаг 12 Останов.

В результате выполнения шагов 1-12 для обучающей пары {р^} мы получим массив пх, содержащий для каждого признака количество интервалов на которые он разбивается (для оценки информативности признаков необходимо принять NNx(i) = шш(пх)/пх(0, г=1,...,Ю, а также массивы Ах, Вх и Кх, содержащие информацию о границах интервалов и номерах классов, сопоставленных им для всех признаков. На основе этих массивов будем осуществлять классификацию.

2. АЛГОРИТМ КЛАССИФИКАЦИИ

Одномерную классификацию по г-му признаку будем осуществлять следующим образом. Найдем интервал, в который попадает значение признака и отнесем экземпляр по данному признаку к классу, номер которого сопоставлен интервалу, в который попало значение признака. Если

значение признака не попадает ни в один интервал из определенных в массивах Ах и Вх, тогда отнесем экземпляр по данному признаку к классу, сопоставленному экземплярам ближайшего интервала.

Произведя одномерные классификации экземпляра по всем признакам, отобразим результаты классификаций с интервала [0,1] на интервал [-1,1] и найдем их сумму, взвешенную с помощью коэффициентов NNx(i). Очевидно, что результаты одномерной классификации для значимых признаков в этом случае будут вносить больший вклад в сумму, чем результаты классификации по малозначимым признакам. Рассчитав взвешенную сумму, отобразим ее на интервал [0,1], что и будет итоговым результатом классификации экземпляра по всем признакам.

Для оценки относительной надежности классификации для нескольких экземпляров разделим модуль взвешенной суммы результатов классификации (без отображения на интервал [0,1]) на максимальное по модулю значение взвешенной суммы для данных экземпляров.

Обобщая вышесказанное, запишем алгоритм классификации.

Шаг 1. Инициализация. Задать массивы р, пх, Ах, Вх и Кх.

Шаг 2. Найти оценки значимости для признаков: Ш'х(г) = шш(пх(0)/пх(0, г=1,...^.

Шаг 3. Установить номер текущего экземпляра ф=1.

Шаг 4. Если ф < S, тогда перейти на шаг 5, в противном случае - перейти на шаг 15

Шаг 5. Установить значение взвешенной суммы результатов одномерных классификаций ф'-го экземпляра гф = 0, номер текущего признака ф'-го экземпляра: г=1.

Шаг 6. Если г < N, тогда перейти на шаг 7, в противном случае - перейти на шаг 12

Шаг 7. Установить результат классификации для ф'-го экземпляра по г-му признаку г(г')=0;

Шаг 8. Определить интервал, к которому относится ф-ый экземпляр по г-му признаку и номер класса, сопоставленный данному интервалу.

Шаг 8.1. Если р(г'ф)<Ах(г',1), тогда г(г)=Кх(г,1), перейти на шаг 9, в противном случае - перейти на шаг 8.2.

Шаг 8.2. Если р(гф)>Вх(г,пх(0+1), тогда установить г(г) = Кх(г,пх(г)+1) и перейти на шаг 9, в противном случае - перейти на шаг 8.3.

Шаг 8.3. Установить: к=1.

Шаг 8.4. Если к< пх(г)+1, тогда перейти на шаг 8.5, в противном случае - перейти на шаг 9.

Шаг 8.5. Если (р(гф >Ах(г,к)) и (р(гф) <Вх(г,к)), тогда установить г(г)=Кх(г,к) и перейти на шаг 9, в противном случае - перейти на шаг 8.6.

Шаг 8.6. Если (к<пх(0+1) и (р(г ф)>Вх(г\к)) и (р(г,])<Ах(г,к+1)), тогда перейти на шаг 8.7, в противном случае - перейти на шаг 8.8.

Шаг 8.7. Если (Ах(г\к+1)-р(гф))<(р(гф)-Ах(г,к+1)), тог-

да установить r(i) = Kx(i,k+1), в противном случае - установить r(i) = Kx(i,k).

Шаг 8.8. Установить: k=k+l, перейти на шаг 8.4

Шаг 9. Если r(i)>0, тогда установить r(i) = l, в противном случае установить r(i) = -l.

Шаг 10. Установить: rj = rj+(r(i).*NNx(i)).

Шаг 11. i=i+1, перейти на шаг 6.

Шаг 12. Установить pr(j)=rj, где pr(j) - массив, содержащий оценки относительной уверенности (надежности) классификации.

Шаг 13. Если rj>0, тогда установить t(j)=1, в противном случае - установить t(j)=0. Здесь t - массив результатов классификации.

Шаг 14. Установить: j=j+1, перейти на шаг 4.

Шаг 15. Установить: pr = pr|/max(pr|).

3. НЕЙРОСЕТЕВАЯ ИНТЕРПРЕТАЦИЯ

АЛГОРИТМА КЛАССИФИКАЦИИ

Рассмотренный алгоритм классификации является неитеративным и может быть использован для построения и настройки весов нейронной сети прямого распространения -многослойного персептрона [2].

Для этого функции активации для всех нейронов сети

следует задать как ^(х) =

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0, х < 0;

1,х > 0.

Весовой коэффициент д-го входа р -го нейрона | -го слоя установить в соответствии с формулой:

'NNx(i), ц = 6, р = 1, q = 2 i - 1; -NNx(i), ц = 6, р = 1, q = 2i; 0, ц = 6, р = 1, q = 0;

0, ц = 5, Vp, q = 0;

1, ц = 5, p = 2i - 1, q = 1; -1, ц = 5, p = 2 i, q = 1;

0, ц = 4, Vp, q = 0;

1, ц = 4, Vp, q > 0; 1, ц = 3, Vp, q = 1;

Kx(i, k), ц = 3, Vp, q = 0; — 1, ц = 2, Vp, q = 0; 1, ц = 2, Vp, q > 0; 1, ц = 1, p = 2i - 1, q = 1; -1, ц = 1, p = 2 i, q = 1; -Ax(i, k), ц = 1,p = 2i- 1, q = 0; ,Bx(i, k), ц = 1, p = 2i, q = 0.

w (ц-p) = )

q

£=1,..,ях(0; 1=1,...,N.

Схема персептрона, веса которого настроены по предложенной формуле представлена на рисунке 1.

Такая схема будет обеспечивать только жесткую классификацию, т.е. экземпляр может быть классифицирован только в том случае, если значения всех его признаков попадают в интервалы, значения классов для которых сопоставлены алгоритмом рачета параметров решающего правила.

Для того, чтобы осуществлять более гибкую классификацию перед созданием ее нейросетевой реализации для каждого признака следует найти все те интервалы, которым не сопоставлены номера классов, разделить эти интервалы пополам и изменить значения правой границы предыдущего и левой границы последующего смежных интервалов, которым сопоставлены номера классов, чтобы поглотить этот интервал. Например, если правая граница предыдущего интервала равна b, а левая граница последующего интервала равна а, тогда установить: b=b+(a-b)/2, a=a-(a-b)/2. После чего произвести построение нейросете-вой реализации.

4. ЭКСПЕРИМЕНТЫ И РЕЗУЛЬТАТЫ

Для предложенного алгоритма были разработаны процедуры на языке программного пакета Matlab5.2 фирмы Math Works Inc. Для исследования практической применимости разработанного метода на его основе решались различные задачи технической и медицинской диагностики, распознавания образов и прогнозирования. В частности, решались: задача диагностики изделий электронной техники по 15 признакам [3-5], задача классификации сельскохозяйственных растений на культурные и сорные по результатам дистанционного зондирования (55 признаков) [6-13], задача прогнозирования спортивного потенциала спортсменов по результатам биохимического контроля (18 признаков) [14,15], задача диагностики газотурбинных авиадвигателей (в разных экспериментах от 10000 до 100 признаков) [16-28], задача прогнозирования качества аудиохарактери-стик магнитных головок (5 признаков) [29,30].

Результаты проведенных экспериментов представлены в таблице 1.

Как видно из таблицы, разработанный алгоритм позволяет с достаточно высокой точностью строить модели многомерных объектов и процессов. Достаточно высокие средние показатели надежности классификации показывают, что классификация имеет неслучайный характер.

Выгодным отличием предложенного алгоритма является то, что он позволяет не только производить классификацию, но и оценивать ее относительную надежность. Также следует отметить, что важной особенностью данного алгоритма является то, что после построения модели можно не только оценить информативность признаков, но и исключить малозначимые признаки и при этом модель не нужно будет перестраивать.

Рисунок 1 - Схема персептрона

Таблица 1 - Результаты экспериментов

Задача распознавания Вероятность ошибки распознавания для обучающей выборки Уровень достоверности классификации для обучающей выборки

минимальный максимальный средний

диагностика изделий электронной техники 0 0.52 1 0.82

классификация растений 0 0.9849 1 0.9995

прогнозирование спортивного потенциала 0.035 0.075 1 0.553

диагностика авиадвигателей 0 1 1 1

прогнозирование качества аудиохарактеристик магнитных головок 0.045 0.15 1 0.633

ПЕРЕЧЕНЬ ССЫЛОК

1. Биргер И.А. Техническая диагностика.-М.: Машиностроение, 1978.-240 с.

2. Neural Network Toolbox User Guide / Beale M., Demuth H. -Natick: Mathworks, 1997. - 700 p.

3. Дубровин В.И., Субботин С.А.. Построение адаптивных систем классификации на основе нейронных сетей с латеральным торможением. // Радюелектрошка. ¡нформатика. Управлшня, 1999, №2,C. 110-114.

4. Дубровин В.И., Субботин С.А. Построение систем диагностики на основе карт самоорганизации Кохонена // Нейрокомпьютеры и их применение / Сборник докладов 6-ой Всероссийской конференции, Москва 16-18 февраля 2000.-М.:Издательское предприятие журнала "Радиотехника", 2000, С. 464-467.

5. Дубровин В.И., Корецкий Н.Х., Субботин С.А. Индивидуальное прогнозирование надежности изделий электронной техники на основе нейронных сетей // Труды VII Всероссийской конференции "Нейрокомпьютеры и их применение" НКП-2001 с международным участием, Москва, 14-16 февраля, 2001 г.- М.: ИПУ РАН, С. 228-231.

6. Морщавка С.В., Субботин С.А., Дубровин В.И., Пиза Д.М. Нейросетевая классификация растений по результатам дистанционного зондирования // 5-й Международный молодежный форум "Радиоэлектроника и молодежь в XXI веке". Сб. научных трудов. Ч.2. - Харьков: ХТУРЭ, 2001. -С.324-325.

7. Дубровин В.И., Морщавка С.В., Пиза Д. М., Субботин С.А. Применение радиально-базисных нейронных сетей для обработки данных дистанционного зондирования растений // Цифровая обработка сигналов и ее применение: 3-я Международная конференция и выставка. - М.: РНТОРЭС им.А.С. Попова, 2000.-С.48-53.

8. Дубровин В.И., Морщавка С.В., Пиза Д. М., Субботин С.А. Распознавание растений по результатам дистанционного зондирования на основе многослойных нейронных сетей // Математичн машини i системи, 2000, № 2-3, С. 113-119.

9. Дубровин В.И., Морщавка С.В., Субботин С.А., Пиза Д.М.

Нейросетевая идентификация растений // Современные проблемы радиоэлектроники / Сборник научных трудов / Под ред. А.В. Сарафанова. - Красноярск: ИПЦ КГТУ, 2000.-С. 198.

10. Dubrovin V.I., Subbotin S.A., Morshchavka S.V., Piza D.M. The plant recognition on remote sensing results by the feedforward neural networks // Smart Engeneering Systems Design: Neural Networks, Fuzzy Logic, Evolutionary Programming, Data Mining, and Complex Systems, ANNIE 2000: the 10-th Anniversary edition / ed. C. H. Dagli et al.-Missouri-Rolla:ASME Press, 2000, vol.10, P. 697-701.

11. Дубровин В.И., Морщавка С.В., Пиза Д. М., Субботин С.А. Нейросетевая идентификация объектов по спектрам // Труды международной конференции "Идентификация систем и задачи управления" SICPRO' 2000.-М.: ИПУ РАН, 2000.-С. 1190-1204 (CD-ROM).

12. Dubrovin V., Morshchavka S., Piza D., Subbotin S. Plant recognition by genetic algorithm based back-propagation // Proceedings, Remote Sensing 2000: from spectroscopy to remotely sensed spectra. Soil Science Society of America, Bouyocos Conference, Corpus Christi, Texas, October 22-25, 2000.-P. 47- 54.

13. Дубровин В.И., Морщавка С.В., Пиза Д.М., Субботин С.А. Нейросетевая классификация растений по коэффициентам спектральной яркости // Нейроинформатика и ее приложения // Материалы VlII Всероссийского семинара 68 октября 2000 года, Красноярск / Под общей ред. А.Н. Горбаня; Отв. за вып. Г.М. Цыбульский. - Красноярск:ИПЦ КГТУ, 2000.- С. 61-62.

14. Дубровин В.И., Колесник Н.В., Субботин С.А. Нейросетевое прогнозирование состояния функционально-метаболических систем у спортсменов высшей квалификации // Моделирование неравновесных систем-2000: Материалы III Всероссийского семинара / Под.ред. А.Н. Горбаня.-Красноярск: ИПЦ КГТУ, 2000.-С. 82-83.

15. Дубровин В.И., Колесник Н.В., Субботин С.А. Нейросетевая модель зависимости спортивного потенциала от данных биохимического контроля тренировочных нагрузок // Вестник новых медицинских технологий, 2000, № 3-4, С.39.

16. Адаменко В.А., Дубровин В.И., Субботин С.А. Диагностика

лопаток авиадвигателем по спектрам затухающих колебаний после ударного возбуждения на основе нейронных сетей прямого распространения // Нов1 матер1али i технологи в металургп та машинобудуванш, 2000, № 1, С.91-96.

17. Дубровин В.И., Субботин С.А. Нейросетевая диагностика лопаток энергетических установок // Датчики и преобразователи информации систем измерения, контроля и управления / Сборник материалов XII научно-технической конференции с участием зарубежных специалистов. Под ред. проф. В.Н. Азарова. М.: МГИЭМ, 2000.-С. 240-242.

18. Дубровин В.И., Субботин С.А. Нейросетевая диагностика газотурбинных лопаток // Оптические, радиоволновые и тепловые методы и средства контроля качества материалов, промышленных изделий и окружающей среды / Тезисы докладов VIII международной научно-технической конфе-ренции.-Ульяновск: УлГТУ, 2000.-С.121-124.

19. Дубровин В.И., Субботин С.А. Диагностика на основе эвристических алгоритмов в условиях ограниченного объема обучающей выборки // Proceedings of International conference "Soft computing and measurement" SCM-2000, 27-30 June 2000.-Saint-Petersburg: Saint-Petersburg State Electrotechnical University (LETI), 2000.-CD-R0M.

20. Адаменко В.А., Дубровин В.И., Жеманюк П.Д., Субботин С.А. Диагностика лопаток авиадвигателей по спектрам свободных затухающих колебаний после ударного возбуждения // Автоматика-2000. Мiжнародна конференшя з автоматичного управлшня, Львiв, 11-15 вересня 2000: Пращ у 7-ми томах.-Т. 5.-Львiв: Державний НД! шформацшно!' шфраструк-тури, 2000.- С. 7-13.

21. Адаменко В.А., Дубровин В.И., Субботин С.А. Нейросетевая диагностика деталей энергетических установок, работающих при циклических нагрузках // Новые технологии, методы обработки и упрочнения деталей энергетических установок: Тез. докл. Международной конференции "Новые технологии, методы обработки и упрочнения деталей энергетических установок" / Отв. ред. В.К. Яценко.-Запорожье: ЗГТУ, 2000.-С. 4-6.

22. Дубровин В.И., Субботин С.А. Выбор информативных признаков при диагностике лопаток ГТД // Новые технологии, методы обработки и упрочнения деталей энергетических установок: Тез. докл. Международной конференции "Новые технологии, методы обработки и упрочнения деталей

энергетических установок / Отв. ред. В.К. Яценко.-Запорожье: ЗГТУ, 2000.-С.25-27.

23. Дубровин В.И., Субботин С.А., Согорин А.А. Радиально-базисные нейронные сети в задачах технической диагностики // Ытернет, осв^а, наука / Друга мiжнарожна конференшя юН-2000. Збiрник матерiалiв конференций-Вiнниця:Унiверсум-Вiнниця, 2000.-С. 303-306.

24. Дубровин В.И., Субботин С.А. Нейросетевая подсистема диагностического программного комплекса // Нейрокомпьютеры: разработка и применение, 2001, №2, С. 55-62.

25. Адаменко В.А., Басов Ю.Ф., Дубровин В.И., Субботин С.А. Нейросетевая обработка сигналов в задачах диагностики газотурбинных авиадвигателей // Цифровая обработка сигналов и ее применение: 3-я Международная конференция и выставка.-М.:РНТОРЭС им. А.С. Попова, 2000.-С. 40-45.

26. Адаменко В.А., Дубровин В.И., Жеманюк П.Д., Субботин С.А. Диагностика усталостных трещин в деталях газотурбинных авиадвигателей // Надшнють машин та прогнозування ¿'х ресурсу / Доповщ мiжнародноí науково-техшчно!' конференцп.-В 2-х томах. Том 1.4вано-Франювськ: ^ДТУНГ-Факел, 2000.-С. 151 - 158.

27. Дубровин В.И., Субботин С.А. Нейросетевая диагностика в управлении качеством // Управление в технических системах - XXI век: сборник научных трудов III Международной научно-технической конференции. - Ковров: КГТА, 2000. -С.136-138.

28. Дубровин В.И., Субботин С.А. Прогнозирование отказов деталй ГТД в процессе эксплуатации // Моделирование неравновесных систем-2000: Материалы III Всероссийского семинара / Под.ред. А.Н. Горбаня.-Красноярск: ИПЦ КГТУ, 2000.-С. 84.

29. Dubrovin V., Subbotin S. Model of Magnetic Heads Audio Characteristics // The Experience of Designing and Application of CAD Systems in Microelectronics: Proceedings of the VI International Conference CADSM 2001.-Lviv: Publishing House of LPNU, 2001.-P. 232-233.

30. Дубровин В.И., Субботин С.А. Нейросетевая модель зависимости акустических характеристик магнитных головок от параметров сендастового сердечника // Вестник Хакасского государственного университета им. Н.Ф. Катанова. Вып. 4. Серия 1: Информатика.-Абакан: Издательство ХГУ им. Н.Ф. Катанова, 2001.-С. 25-28.

УДК 65.012.45:620.22

АВТОМАТИЗАЦИЯ ПРОЦЕССА ИДЕНТИФИКАЦИИ СТАНДАРТНЫХ ДЕТАЛЕЙ, ПОКУПНЫХ КОМПЛЕКТУЮЩИХ ИЗДЕЛИЙ И МАТЕРИАЛОВ

Ю.З.Житников, А.А.Фаткин, Т.В.Рулева

В работе рассматривается подход автоматизированной идентификации стандартных деталей, покупных комплектующих изделий и материалов на основе параметрического описания нормативной документации, регламентирующей их условное обозначение.

The approach of the automated identification of standard details, purchased products and materials is considered on the basis of the parametrical description of the normative documentation regulating their conditional designation.

В условиях мелкосерийного, многономенклатурного производства сдерживающим фактором быстрого перехода от выпуска одного изделия к другому является подготовка производства, время которой может превосходить время выпуска данного изделия.

Такие характерные особенности как:

- многономенклатурность изделий;

- разнообразие применяемых конструкционных материалов;

- новизна и сложность изготавливаемой продукции;

- сжатые сроки изготовления, а так же высокие требования

к качеству изделий в целом и к его отдельным элементам, что накладывает специфичные ограничения на внедрение следующих прогрессивных методов управления подготовкой производства.

Прогрессивные методы управления подготовкой производства представлены в интегрированных системах (ИСУП), разработанных как западными, так и отечественными производителями. Среди этих систем имеются как настроенные под определенный тип производства, так и универсальные. И в том и в другом случае требуется дополнительная подготовка предприятия-потребителя в части технического оснащения, формализации основной исходной информации, квалификации персонала, психологической подготовки, а также заинтересованности первого руководителя.

Проблематична, особенно в условиях единичного производства, задача по формализации исходной информации. Специфика производства, которую нужно сохранить для

i Надоели баннеры? Вы всегда можете отключить рекламу.