Научная статья на тему 'Построение и обучение многослойных перцептронов для моделирования напряженного состояния металлических конструкций грузоподъемных машин'

Построение и обучение многослойных перцептронов для моделирования напряженного состояния металлических конструкций грузоподъемных машин Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
135
24
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПЕРЦЕПТРОН / НЕЙРОН / СЛОЙ / ОБУЧЕНИЕ / НАПРЯЖЕНИЕ / КРАН / МЕТАЛЛОКОНСТРУКЦИЯ / ЭКСПЛУАТАЦИЯ / С++ / ВЕКТОР / C + + / FLOOD2 / PERCEPTRON / NEURON / LAYER / TRAINING / STRESS / CRANE / METAL WORK / OPERATION / VECTOR

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Якимов Артем Викторович, Озорнин Сергей Петрович

При проведении контроля технического состояния металлических конструкций грузоподъемных машин по существующим методикам учитывается лишь небольшой объем эксплуатационной информации, доступной в насто ящее время благодаря современному оборудованию кранов. Обработка большего количества информации з атруднительна ввиду высоких вычислительных затрат. В качестве решения проблемы авторами предложено использовать нейронные сети, основная функция которых заключается в преобразовании исходной эксплуатац ионной информации в данные о действующих в металлоконструкции напряжениях с последующим расчетом усталостного повреждения. Основное внимание уделено проблемам построения и обучения многослойных перцептронов разновидности нейронных сетей. Результаты исследования показали высокую эффективность работы перцептронов при выполнении назначенной им функции преобразования. Достоверность расчетных напряжений находится в прямой зависимости от качества проведения предварительных конечно-элементного анализа или тензометрии.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Якимов Артем Викторович, Озорнин Сергей Петрович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CONSTRUCTING AND TRAINING MULTILAYER PERCEPTRONS FOR STRESSED STATE SIMULATION OF HOISTING MACHINE METAL STRUCTURES

When controlling technical conditions of metal works of hoisting machines, the existing methods take into account only a small amount of operational information available at present due to modern equipment of cranes. Processing greater amount of information is difficult because of high computational cost. As a workaround, the authors propose to use neural networks, whose main function is to convert the original operational information into the data on the stresses acting in the metal works with subsequent calculation of fatigue damage. The article focuses on the problems of constructing and training multilayer perceptrons that present a kind of neural networks. The research results showed high efficiency of perceptrons when performing the converting function assigned for them. The reliability of calculated stresses is directly dependent on the quality of the preliminary finite-element analysis or strain gauging.

Текст научной работы на тему «Построение и обучение многослойных перцептронов для моделирования напряженного состояния металлических конструкций грузоподъемных машин»

полнении условия т2 — 0. Возможности преобразований основаны на введении и использовании понятия обобщенная пружина. По отношению к типовым элементарным звеньям в виде обычных звеньев (пружины, массоинерционные и др.) обобщенная пружина является блоком соединенных между собой типовых элементарных звеньев системы; вместо пружин могут быть использованы и другие элементы из расширенного набора элементов виброзащитных систем. Все необходимые преобразования для упрощения исходной расчетной схемы осуществляются на основе известных в теории колебаний приемов выделения парциальных систем и правил компоновки из них структурных моделей [2].

Заключение. Отметим, что в определении параметров динамического взаимодействия со стороны промежуточной структуры по координате у2 возникает несимметрия в значениях параметров обобщенных

пружин (см. выражения (15), (16)), что определяется не только особенностями структуры самой системы, но и, как показывает технология получения выражений (19) и (20), формированием различных динамических реакций в точках контакта промежуточной системы, то есть в точках (1) и (2).

Важным обстоятельством для обоснования метода упрощения является то, что возникающие несимметричные динамические реакции, связанные с появлениями действия соответствующих обобщенных пружин, «разносятся» по массам т и т3. Они входят в структуру парциальных систем т и т3 на тех же основаниях, что и пружины с упругостями к1 и к4 . Учет упомянутых особенностей очень важен, поскольку на его основе становится возможным решение задачи или развязка непланарных связей.

Библиографический список

1. Подураев Ю.В. Анализ и проектирование мехатронных систем на основе критерия функциональной структурной интеграции // Мехатроника, автоматизация и управление. №4. С. 6-12.

2. Мехатроника виброзащитных систем. Элементы теории / С.В. Елисеев [и др.]. Иркутск: ИрГУПС, 2009. 128 с. - Деп. в ВИНИТИ 27.11.09, №738-В 2009.

3. Елисеев С.В., Резник Ю.Н., Хоменко А.П. Мехатронные подходы в динамике механических колебательных систем. Новосибирск: Наука, 2011. 394 с.

4. Лойцянский Л.Г., Лурье А.И. Курс теоретической механики в 2-х т. Т.2: Динамика. М.: Наука, 1986. 638 с.

5. Елисеев С.В., Лонцих П.А. Влияние управляющей силы в структуре внешних возмущений // Вестник ИрГТУ. 2011. Вып. 4(51). С. 26-33.

6. Елисеев С.В., Белокобыльский С.В., Упырь Р.Ю. Обобщенная пружина в задачах динамики машин и оборудования // Сборник Полтавского национального технического университета. Полтава: ПолтНГУ, 2009. Вып. №3 (25). С. 79-89.

УДК 621.86/87

ПОСТРОЕНИЕ И ОБУЧЕНИЕ МНОГОСЛОЙНЫХ ПЕРЦЕПТРОНОВ ДЛЯ МОДЕЛИРОВАНИЯ НАПРЯЖЕННОГО СОСТОЯНИЯ МЕТАЛЛИЧЕСКИХ КОНСТРУКЦИЙ ГРУЗОПОДЪЕМНЫХ МАШИН

А.В.Якимов1, С.П.Озорнин2

Забайкальский государственный университет, 672039, г. Чита, ул. Александро-Заводская, 30.

При проведении контроля технического состояния металлических конструкций грузоподъемных машин по существующим методикам учитывается лишь небольшой объем эксплуатационной информации, доступной в настоящее время благодаря современному оборудованию кранов. Обработка большего количества информации затруднительна ввиду высоких вычислительных затрат. В качестве решения проблемы авторами предложено использовать нейронные сети, основная функция которых заключается в преобразовании исходной эксплуатационной информации в данные о действующих в металлоконструкции напряжениях с последующим расчетом усталостного повреждения. Основное внимание уделено проблемам построения и обучения многослойных перцеп-тронов - разновидности нейронных сетей. Результаты исследования показали высокую эффективность работы перцептронов при выполнении назначенной им функции преобразования. Достоверность расчетных напряжений находится в прямой зависимости от качества проведения предварительных конечно-элементного анализа или тензометрии. Ил. 2. Библиогр. 4 назв.

Ключевые слова: перцептрон; нейрон; слой; обучение; напряжение; кран; металлоконструкция; эксплуатация; С++; Flood2; вектор.

1Якимов Артем Викторович, аспирант, тел.: 79144812885, e-mail: artuomsci@gmail.com Yakimov Artyom, Postgraduate, tel.: +79144812885, e-mail: artuomsci@gmail.com

2Озорнин Сергей Петрович, профессор, доктор технических наук, директор научно -образовательного центра проблем транспорта и сервиса машин, тел.: 73022417316, e-mail: chitgu_atf@mail.ru

Ozornin Sergey, Professor, Doctor of technical sciences, Director of Research and Educational Center for the problems of transport and machinery service, tel.: 73022417316, e-mail: chitgu_atf@mail.ru

CONSTRUCTING AND TRAINING MULTILAYER PERCEPTRONS FOR STRESSED STATE SIMULATION OF HOISTING MACHINE METAL STRUCTURES A.V. Yakimov, S.P. Ozornin

Trans-Baikal State University, 30 Alexandrozavodskaya St., Chita, 672039.

When controlling technical conditions of metal works of hoisting machines, the existing methods take into account only a small amount of operational information available at present due to modern equipment of cranes. Processing greater amount of information is difficult because of high computational cost. As a workaround, the authors propose to use neural networks, whose main function is to convert the original operational information into the data on the stresses acting in the metal works with subsequent calculation of fatigue damage. The article focuses on the problems of constructing and training multilayer perceptrons that present a kind of neural networks. The research results showed high efficiency of perceptrons when performing the converting function assigned for them. The reliability of calculated stresses is directly dependent on the quality of the preliminary finite-element analysis or strain gauging. 2 figures. 4 sources.

Key words: perceptron; neuron; layer; training; stress; crane; metal work; operation; C + +; Flood2; vector.

Роль грузоподъемных машин (ГПМ) в современной промышленности, на транспорте и в строительстве исключительно велика. Повышение требований к надежности этих машин связано с увеличением интенсивности их использования для обеспечения механизации транспортно-технологических потоков во всех производственных сферах. Одной из серьезнейших проблем является детериорация состояния металлических конструкций ГПМ вследствие усталости металла. Точную оценку предполагаемого срока службы конструкции на этапе проектирования дать невозможно. Это связано с тем, что условия эксплуатации машин, в зависимости от области применения и опытности оператора, значительно отличаются. Применение регистраторов рабочих параметров позволяет тщательно анализировать работу ГПМ на протяжении всего срока службы. Однако до настоящего времени не разработано методик, позволяющих оценивать состояние металлических конструкций ГПМ и учитывающих весь спектр регистрируемой приборами информации. С целью более полной и эффективной обработки регистрируемых эксплуатационных данных авторами предлагается применять методику, основанную на использовании нейронных сетей.

При проведении исследований применены: С++ библиотека для работы с нейронными сетями Flood 2 и среда программирования Bloodshed Dev-C++. Анализировалась работа башенного и мостового кранов.

Нейронные сети - это адаптивные системы для обработки и анализа данных, которые представляют собой математическую структуру, имитирующую некоторые аспекты работы человеческого мозга и демонстрирующие такие его возможности, как способность к неформальному обучению, способность к обобщению и кластеризации неклассифицированной информации, способность самостоятельно строить прогнозы на основе уже предъявленных временных рядов. Главным их отличием от других, например экспертных, систем является то, что нейронные сети в принципе не нуждаются в заранее известной модели, а строят ее сами, только на основе предъявляемой информации. Именно поэтому нейронные сети и генетические алгоритмы вошли в практику всюду, где нужно решать задачи прогнозирования, классификации, управления - иными словами, в области человеческой деятельности,

где есть плохо алгоритмизируемые задачи, для решения которых необходимы либо постоянная работа группы квалифицированных экспертов, либо адаптивные системы автоматизации, каковыми и являются нейронные сети [1].

Основная задача аналитика, использующего нейронные сети для решения какой-либо задачи - создать наиболее эффективную архитектуру нейронной сети, т.е. правильно выбрать ее вид, алгоритм обучения, количество нейронов и виды связей между ними. Эта работа не имеет формализованных процедур, требует глубокого понимания различных видов архитектур нейронных сетей, включает в себя много исследовательской и аналитической работы и может занять достаточно много времени [1].

Выбор многослойного перцептрона для решения поставленной задачи (оценка состояния металлических конструкций ГПМ и учет всего спектра регистрируемой приборами информации) обусловлен результатами аналогичных исследований по изучению напряженного состояния различных конструкций, где успешно использовался данный тип сетей. Основные параметры перцептрона, которые необходимо определить: 1) количество входных нейронов; 2) количество выходных нейронов; 3) количество промежуточных нейронов; 4) количество промежуточных слоев; 5) типы активационных функций нейронов.

Для того чтобы обучить многослойный перцептрон решению определенной задачи, она должна быть сформулирована в терминах набора входных векторов и ассоциированных с ними эталонных выходных значений. Ниже перцептрон представлен в виде функции ^, определяющей вектор А по аргументу - вектору В:

А = ¥(В) , (1)

где А - вектор значений выходных нейронов; В -вектор значений входных нейронов.

Соответственно количество элементов векторов В и А определяется количеством входных и выходных нейронов, что зависит от поставленной задачи. Например, необходимо рассчитать величину растягивающего напряжения в одном из элементов пояса фермы моста мостового крана при различных поло-

жениях грузовой тележки и массах груза. В этом случае

видуального нейрона каждого слоя рассчитывается по формуле

B =

bi

J>2^

(2)

где b1 - вес груза, Н; b2 - расстояние от грузовой тележки до тупикового упора, мм.

А =[<71 ], (3)

где а1 - величина искомого растягивающего напряжения, МПа.

Выбор числа промежуточных нейронов состоит в том, чтобы установить, будет ли сеть сужающейся (количество элементов в промежуточном слое меньше, чем количество входных элементов) или расширяющейся (наоборот). Для задачи извлечения информации из входов с целью обобщения или снижения размерности массива данных необходимо использовать сужающуюся сеть. В противном случае работает принцип: чем выше требования к различению близких входных векторов, тем более расходящейся должна быть сеть и тем ниже ее обобщающая способность. Соответственно решение вышепоставленной задачи возможно при использовании расширяющегося типа нейронных сетей.

Активационная функция, также называемая характеристической, определяет выходной сигнал индивидуального нейрона. Выбор активационной функции определяется спецификой поставленной задачи либо ограничениями, накладываемыми некоторыми алгоритмами обучения. Наиболее распространены следующие типы характеристических функций: линейная, пороговая, логистическая, гиперболический тангенс. По умолчанию, Flood 2 устанавливает гиперболический тангенс для промежуточных нейронов и линейную функцию для выходных, что, как показали эксперименты, вполне соответствует нашим задачам.

Основу многослойного перцептрона в нашем случае составляют три слоя нейронов: входной, промежуточный и выходной (рис. 1). Сигнал (значение) инди-

nj =Z niwn + bjwj,

(4)

где wij - веса синаптических связей (задаются произвольно до обучения сети); bj - величина смещения

(устанавливается случайно до обучения сети в значение -1 или 1 ); nj - сигнал (значение) нейрона; i -

индекс индивидуального нейрона; j - индекс синап-тической связи индивидуального нейрона.

После того как рассчитан сигнал (значение) нейрона, необходимо выполнить его перерасчет по активационной функции fAKmue(nj) . Для нейронов

промежуточного слоя используем гиперболический тангенс, для выходных - линейную функцию.

Успех применения нейронных сетей во многом зависит от проведения процедуры их обучения, называемой также тренировкой, которая заключается в подстройке внутренних параметров сети под конкретную задачу. Существует большое количество алгоритмов тренировки, из которых наиболее распространены: случайного поиска, градиентного спуска, Ньютона, сопряженных градиентов, Квази-Ньютоновский и т.д. После проведения ряда опытов наиболее оптимальным в нашем случае выявлен Квази-Ньютоновский. Функция обучения в библиотеке Flood 2 работает до достижения одного из условий: 1) максимальное количество итераций; 2) максимальная продолжительность по времени; 3) минимальная величина ошибки; 4) минимальная величина шага уменьшения ошибки за одну итерацию; 5) норма градиента целевой функции меньше определенной величины. Нами использован критерий ограничения по минимальной величине шага уменьшения ошибки, равный 1.0*10-6.

Основой процесса обучения служат тренировочные данные. Для их подготовки было выделено несколько базовых этапов:

Y = F(X)

Промежуточный слой

Рис. 1. Структура трехслойного перцептрона

1) Классификация данных по типу. Каждый вход или выход нейронной сети может изменяться либо непрерывным образом, либо представлять набор дискретных значений. Тип каждой переменной необходимо идентифицировать. В нашем случае значения переменных изменяются непрерывным образом.

2) Вычисление глобальной статистики. С целью повышения эффективности процесса обучения использовалась функция оценки статистических характеристик используемых данных, имеющаяся в библиотеке Flood 2. Для непрерывных данных вычислялись: среднее значение, стандартное отклонение, максимум и минимум. Для дискретных данных определялось количество различающихся случаев (значений), которые может принимать каждая из переменных, или категорий, из которых они выбираются. Девяносто пять процентов данных, распределенных по нормальному закону, находятся внутри интервала, ограниченного удвоенным значением стандартного отклонения в окрестности среднего значения. Исключение из рассмотрения данных, находящихся вне указанного интервала, является простейшим способом удаления избыточной информации, что способствует более успешному обучению сети.

3) Определение количества тренировочных данных. Существует множество факторов, влияющих на количество данных, необходимых для тренировки сети. Один из главных - размерность. Чем больше переменных, тем больше данных требуется для тренировки сети. Эта проблема может быть решена либо увеличением набора данных, либо уменьшением их размерности [3]. Известен ряд эвристических правил, увязывающих число необходимых наблюдений с размерами сети (простейшее из них гласит, что число наблюдений должно быть в десять раз больше числа связей в сети). На самом деле это число зависит также от сложности (заранее неизвестной) того отображения, которое нейронная сеть стремится воспроизвести. С ростом количества переменных количество требуемых наблюдений растет нелинейно, так что уже при довольно небольшом (например, пятьдесят) числе переменных может потребоваться огромное число наблюдений. Эта трудность известна как "проклятие размерности" [2]. Эффективное количество данных определялось нами в ходе многочисленных экспериментов.

4) Проверка качества. Для построения хорошо сбалансированной модели важно, чтобы распределение тренировочных данных было гладким. Желательно также выполнить статистические тесты, чтобы убедиться в том, что данные содержат информацию, достаточную для решения поставленной задачи. На этом этапе использовалось программное обеспечение Advanced Grapher, с помощью которого выполнялась визуальная оценка качества тренировочных данных.

5) Понижение размерности. Нейронная сеть с большим количеством входных элементов содержит большое количество весовых коэффициентов (весов). Сеть с большим количеством весов требует (иногда экспоненциально) большого количества тренировоч-

ных данных. Аналогично теория дискретизации утверждает, что имеет место экспоненциальная зависимость между размерностью данных и количеством точек дискретизации для корректного описания данных. Уменьшение количества входов сети позволяет использовать меньше данных, обеспечивая приемлемый уровень сложности сети. Описанная проблема не возникала при решении нашего круга задач, т.к. наиболее сложная сеть для расчета напряжений в стойках башни башенного крана имела лишь три входных нейрона для значений следующих параметров: масса поднимаемого груза, угол поворота крана, положение грузовой тележки.

6) Шкалирование данных. Выходные данные должны быть шкалированы (преобразованы) к диапазону, который соответствует диапазону выходных значений сжимающей функции активации выходного слоя. Сигмоидальная функция, например, имеет диапазон выходных значений от 0 до 1. Часто бывает удобным привести входные данные к тому же диапазону. Другая причина для выполнения шкалирования данных или приведения к фиксированному диапазону состоит в том, что может иметь место ситуация, когда, например, одна переменная изменяется в диапазоне от 10000 до 100000, а другая - в диапазоне от 0,3 до 0,6. Очевидно, что ошибки, обусловленные влиянием первой переменной, будут сильнее влиять на тренировку, чем ошибки, обусловленные второй, изменяющейся в узких пределах. Обеспечив, чтобы каждая из переменных изменялась в пределах одного диапазона, мы обеспечим равное влияние каждой из переменных на изменение весов в процессе тренировки. Шкалирование может быть линейным или нелинейным, в зависимости от распределения данных. Наиболее часто используемые методы шкалирования - линейное, логарифмическое и "мягкое" (softmax). Можно также разделить данные на несколько диапазонов с различными факторами шкалирования. Шкалирование данных нами выполнено с помощью встроенных функций библиотеки Flood 2 [3].

Генерация тренировочных данных (рабочие параметры ГПМ и соответствующие им величины напряжений в критических элементах металлоконструкций) выполнена при помощи программного продукта конечно-элементного анализа Lisa 7. Возможны альтернативные варианты с использованием тензометрии на основе тензодатчиков, оптоволокна и пр. Ниже, на рис. 2, представлен блок данных тренировки перцеп-трона для расчета напряжений в стойках башни башенного крана, где первый столбец - угол поворота крана, второй - масса груза, третий - вылет каретки и последующие - определяют напряжения в стойках.

Таким образом, были получены конфигурации нейронных сетей для башенного крана соответственно: башня - 3-1/50-4 (3 входных нейрона, 1 промежуточный слой с 50 нейронами, 4 выходных нейрона); оголовок - 2-1/10-1; для стрелы используются две сети - 2-2/20-2 (2 промежуточных слоя по 20 нейронов) и 2-2/20-1. Для мостового крана сеть выглядит следующим образом: 2-1/15-4.

1 1800 50.0 -0.116 05E+0 9 -0.11913E+0 9 0.834 96E+08 0.88334E+08

1 1050 50.0 -0.910 82E+0 8 -0.92 8 4 0E+0 8 0.61858E+08 0.61831E+08

1 300 50.0 - 0.70414E+08 - 0.71646E+08 0.41595E+08 0.41563E+08

1 8700 22.5 -0.168 4 8E+0 9 -0.17 218E+0 9 0.13320E+09 0.13324E+09

1 4500 22.5 -0.117 02E+0 9 -0.11941E+0 9 0.84 915E+08 0.84906E+08

1 300 22.5 - 0.657 96E+08 - 0.66908E+08 0.36909E+08 0.36877E+08

1 8700 2.5 - 0.86438E+08 - 0.87 938E+08 0.49886E+08 0.49849E+08

1 4500 2.5 - 0.74679E+08 - 0.7594 6E+08 0.41937E+08 0.41902E+08

1 300 2.5 -0 •62980E+08 -0 •64 018E+0 8 0.3 4 052E+0 8 0.34019E+08

Рис. 2. Пример блока тренировочных данных перцептрона с входными и выходными значениями нейронов

Суммарное время обучения вышеуказанных сетей составляет 48 минут. Обработка данных за восьмичасовую рабочую смену при условии, что регистрация рабочих параметров проводилась с интервалом в 1 секунду, происходит в течение 9 секунд. При экспериментах использована ЭВМ: CPU CoreDuo 2 Ghz, RAM 1GB, OS WindowsXP.

Нейронные сети принадлежат классу коннекцио-нистских моделей обработки информации. Основная их черта - использование взвешенных связей между обрабатывающими элементами как принципиального средства запоминания информации. Обработка ведется одновременно большим числом элементов,

благодаря чему они терпимы к неисправностям и способны к быстрым вычислениям, что подтверждается представленными результатами хронометража [4]. Успешно апробирована способность нейронных сетей к моделированию сложных нелинейных зависимостей, в частности, напряжений в критических точках металлоконструкций ГПМ от их рабочих параметров. Полученные результаты позволяют сделать вывод о том, что применение нейронных сетей при разработке новых методик оценки состояния металлоконструкций ГПМ дает возможность более эффективно анализировать имеющуюся эксплуатационную информацию.

Библиографический список

1. Нейронные сети: варианты использования // Консалтинговая группа MD URL: http://md-it.ru/articles/html/article19.html (дата обращения: 26.02.12).

2. Нейронные сети // StatSoft URL: http://www.statsoft.ru/home/textbook/modules/stneunet.html (дата обращения: 26.02.12).

3. Математика\Neural Network Toolbox // MATLAB&Tollboxes URL:

http://matlab.exponenta.ru/neuralnetwork/book4/2.php#2_4 (дата обращения: 09.12.11).

4. Прогнозирование на основе аппарата нейронных сетей // StudyPort URL: http://studyport.ru/tehnika/prognozirovanie-na-osnove-apparata-neyronnyih-setey (дата обращения: 08.11.2011).

УДК 004.75

ИСПОЛЬЗОВАНИЕ ПАРАЛЛЕЛЬНЫХ ВЫЧИСЛЕНИЙ В КЛАСТЕРНОМ АНАЛИЗЕ ДЛЯ ФОРМИРОВАНИЯ КОМПЛЕКСНЫХ ДЕТАЛЕЙ

А

В.Н.Янчуковский1

Иркутский государственный технический университет, 664074, г. Иркутск, ул. Лермонтова, 83.

Рассматривается задача формирования комплексной детали из деталей, обрабатываемых на одной группе станков. Предполагается, что для выделения комплексной детали используется кластерный анализ. Для его реализации вводятся признаки, описывающие детали. Производится сравнение алгоритмов кластеризации. В связи с тем что в реальных условиях в данной задаче объем данных может быть значительным, сравнивалась работа нескольких методов кластеризации в параллельном и обычном режимах в среде МаАаЬ: иерархический алгоритм, алгоритм субтрактивной кластеризации, к-среднего и нечеткой кластеризации. На примере набора из 34 втулок, обрабатываемых на револьверном станке с применением групповой наладки, анализировалось время выполнения в последовательном и параллельном режимах. Ил. 5. Табл. 5. Библиогр. 5 назв.

Ключевые слова: кластерный анализ; параллельные вычисления; вычислительный эксперимент; нечеткий алгоритм.

USE OF PARALLEL COMPUTING IN CLASTER ANALYSIS TO FORM COMPLEX PARTS V.N. Yanchukovsky

Irkutsk State Technical University, 83 Lermontov St., Irkutsk, 664074.

1Янчуковский Владислав Николаевич, аспирант, тел.: 89501397468, e-mail: V.Yanchukovsky@gmail.com Yanchukovsky Vladislav, Postgraduate, tel.: 89501397468, e-mail: V.Yanchukovsky@gmail.com

i Надоели баннеры? Вы всегда можете отключить рекламу.