Научная статья на тему 'Принципы автоматизация технологической подготовки производства путем нейросетевого моделирования'

Принципы автоматизация технологической подготовки производства путем нейросетевого моделирования Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
173
32
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АВТОМАТИЗАЦИЯ / ТЕХНОЛОГИЧЕСКИЙ ПРОЦЕСС / ТЕХНОЛОГИЧЕСКАЯ ПОДГОТОВКА ПРОИЗВОДСТВА / НЕЙРОСЕТИ / МОДЕЛИРОВАНИЕ / ТЕХНОЛОГИЧЕСКИЕ ПАРАМЕТРЫ / ЦЕЛЕВЫЕ СВОЙСТВА / AUTOMATION / TECHNOLOGICAL PROCESS / TECHNOLOGICAL PREPARATION OF PRODUCTION / NEURAL NETWORKS / MODELING / TECHNOLOGICAL PARAMETERS / TARGET PROPERTIES

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Александров И.А.

Сформулированы основные принципы методологического обеспечения процесса автоматизации технологической подготовки производства изделий с позиции идентификации взаимосвязи технологических параметров переработки с целевыми свойствами изделия. Предложена архитектуры нейросетевой модели и сформулированы основные принципы ее построения.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Александров И.А.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Principles of technological preparation automation of production by neural network modeling

The basic principles of methodological support for the process of automation of technological preparation of production of products are formulated from the position of identifying the relationship of technological parameters of processing with the target properties of the product. The architecture of the neural network model is proposed and the basic principles of its construction are formulated.

Текст научной работы на тему «Принципы автоматизация технологической подготовки производства путем нейросетевого моделирования»

Принципы автоматизация технологической подготовки производства путем нейросетевого моделирования

И.А. Александров

Институт конструкторско-технологической информатики Российской академии наук (ИКТИ РАН)

Аннотация: Сформулированы основные принципы методологического обеспечения процесса автоматизации технологической подготовки производства изделий с позиции идентификации взаимосвязи технологических параметров переработки с целевыми свойствами изделия. Предложена архитектуры нейросетевой модели и сформулированы основные принципы ее построения.

Ключевые слова: автоматизация, технологический процесс, технологическая подготовка производства, нейросети, моделирование, технологические параметры, целевые свойства.

Интенсивный рост производительности технологических процессов в машиностроении происходит на фоне практически неизменной производительности процессов конструкторско-технологической подготовки производства. В результате разрыв между подготовкой производства и самим производством растет, что неблагоприятно сказывается на эффективности совокупности процессов проектирования и изготовления конечного продукта. Устранить разрыв можно путем автоматизации и существенной организационной перестройки системы конструкторско-технологического проектирования. Создание машиностроительного производства с высокой степенью автоматизации предполагает интеграцию трех основных этапов: конструирования изделия, технологической подготовки производства и производства изделия. Интеграция производства приобретает особую значимость при разработке агрегатированных технологических процессов, включающих различные методы обработки [1, 2].

Появление любого изделия мотивировано. Из совокупности причин, приводящих к формированию изделия доминирующей и обобщающей является потребность в удовлетворении требований конечного пользователя (потребителя). Обеспечение соответствия изделия требованиям потребителя

можно сформулировать как следствие процесса достижения соответствия целевых свойств заданным функциональным характеристикам, при этом состояние изделия удовлетворяющего требованиям потребителя может быть представлено в виде

где целевые свойства определяются совокупностью целевых характеристик 2г в виде

Значения целевых характеристик заготовок могут принимать различные значения, отличные от требуемых. Рассматривая целевые характеристики, определенные установленными целевыми свойствами, в качестве размерной величины с установленным полем допуска 8, обозначим критерий, определяющий положение характеристики изделий как

Первостепенной задачей идентификации технологических параметров переработки изделия является исследование возможности обеспечения перемещения в поле допуска требуемого значения целевой характеристики из выявленных первоначальных положений.

Принцип реализации метода обеспечения автоматизации процесса подготовки производства заключается в идентификации технологических параметров переработки, обеспечивающих формирование целевых характеристик изделия, которые соответствуют характеристикам заданных целевых свойств в пределах установленных полей допуска.

Реализации метода опирается на систему идентификации влияния целевых свойств на технологические параметры переработки (рис. 1). Ключевыми элементами системы являются технологические параметры

п

п

д=-(21; +8)

переработки, как объект поиска, а также целевые свойства изделия и свойства исходных компонентов как вводные данные.

Рис. 1 - Структура взаимосвязи ключевых элементов системы идентификации влияния целевых свойств на технологические параметры

переработки

Определяющим фактором повышения эффективности

функционирования технологического процесса является наличие оптимальной по структуре системы управления, адекватно отображающей протекающие в системе процессы [3]. Использование методов нейросетевого моделирования для построения системы идентификации влияния целевых свойств на технологические параметры, требует формирования базы данных результатов экспериментальных исследований [4, 5]. Наличие базы данных является обязательным условием обеспечения адекватного отображения процессов формирования свойств изделия.

Формирование архитектуры нейросетевой модели состоит в идентификации количества слоев каждого типа и количества нейронов в каждом из этих слоев. Входной слой имеет абсолютно любая нейронная сеть без исключений. Количество нейронов, содержащихся в этом слое полностью и однозначно определяется размерностью входного сигнала. Важно отметить,

что входной слой фактически не выполняет никаких вычислительных функций и может считаться слоем разделителей компонент входного сигнала. Выбор числа нейронов для выходного слоя схож подходом для входного слоя. Количество нейронов полностью определяется размерностью выходного сигнала [6 - 8].

В связи с тем, что задачи идентификации технологических параметров переработки и целевых свойств можно отнести к задачам прогнозирования, целесообразно будет рассмотреть построение нейросетевой модели прямого распространения. В этом случае входной сигнал будет распространяться строго от входного слоя к выходному, исключая распространение в обратном направлении.

Выбор параметров сети является ключевым этапом в построении многослойной нейронной сети прямого распространения. Определяющими параметрами сети является количество скрытых слоев и количество нейронов в них [9]. В настоящее время не установлены жесткие критерии выбора количества слоев и количества нейронов, однако существует ряд эмпирически подтверждённых утверждений [10 - 14]:

- если функция определена на конечном множестве точек, то трехслойный персептрон способен ее аппроксимировать;

- если функция непрерывна и определена на компактной области, то трехслойный персептрон способен ее аппроксимировать;

- прочие функции, которым могут быть обучены нейронные сети, могут быть аппроксимированы четырехслойным персептроном.

Следовательно, максимально приемлемое количество слоев - четыре (два скрытых слоя). Тем не менее, при решении реальных задач может использоваться большее количество слоев.

Оптимизация количества нейронов в скрытых слоях является фактором, определяющим качество решения задачи аппроксимации. В том

случае, если количество нейронов слишком мало - сеть не сможет обучиться. Слишком большое количество нейронов влечет за собой увеличение времени обучения сети. Кроме того, большое количество нейронов может привести к состоянию переобученной сети (оуегйИ^). Как следствие, сеть будет показывать стремящуюся к абсолютной сходимость на обучающей выборке, и неудовлетворительную сходимость тестовых примерах (рис. 2).

Целевое назначение Целевое назначение

Рис. 2 - Сходимость обученной оптимально (а) и переобученной (б) сети

Это связано с тем, что при избыточном количестве нейронов, при обучении сети происходит увеличение весов факторов, характерных лишь для обучающей выборки в одинаковом приоритете с факторами, являющимися значительными для данной задачи.

Существуют эвристические правила выбора количества нейронов в скрытых слоях, одним из которых является правило геометрической пирамиды (geometricpyramid rule) [9], в соответствии с которым, количество нейронов скрытого слоя в трёхслойном персептроне в виде:

k = л/ n • m ,

где k - количество нейронов в скрытом слое, n - количество нейронов во входном слое, m - количество нейронов в выходном слое.

Для четырехслойного персептрона количество нейронов вычисляется в

виде:

к, = т

л(з-)

т V У

г = 1.....2.

где кг - количество нейронов в первом и втором скрытом слое.

Процесс обучения нейронной сети представляет настройку параметров нейронной сети при помощи моделирования среды, в которую она встроена (рис. 3). В настоящее время можно выделить три направления в обучении нейронных сетей: с учителем, без учителя и смешанная [5]. В случае обучения с учителем, сети предоставляется выборка обучающих примеров, каждый пример подается на вход, а полученный выход сравнивается с имеющимся верным ответом. Далее вычисляется ошибка и перенастройка параметров нейронной сети в зависимости от выбранного алгоритма. В случае обучения без учителя на каждый пример обучающей выборке не нужно знания требуемого значения. В этом случае происходит распределение образцов по кластерам в соответствии с внутренней структурой данных или степенью корреляции между образцами. В третьем случае часть нейронов настраивается при помощи обучения с учителем, а вторая часть - на основе самообучения.

Рис. 3 - Структура процесса обучения нейронной сети

Процесс обучения нейронной сети можно представить в виде многоэкстремальной невыпуклой (т.к. функция может иметь произвольный вид обучения) задачи многомерной оптимизации, с наличием большой размерности, для решения которой применимы итерационные алгоритмы локальной оптимизации с вычислением частных производных первого и второго порядка, стохастические алгоритмы и алгоритмы глобальной оптимизации, решаемые с помощью последовательного поиска значений переменных, определяющих контрольную функцию.

В математическом представлении, процесс обучения нейронной сети можно описать в следующем виде. Реализуя функцию у = / (х), нейросеть формирует выходной сигнал у. Если архитектура сети однозначно определена, вид функции / определяется значениями смещения сети и синаптических весов. Если допустить, что функция у = Я(х), заданная параметрами (х1, у1), (х2, у2),..., (хп, уп), являющимися наборами пар данных

входа и выхода, является решением для у' = Я(х1), 1 = 1,2,■•■,п, то

справедливо положение о том, что обучение сети заключается в формировании функции Я, соответствующей функции / в поле допуска

функции ошибки Е, которая может иметь произвольный вид. Для случая, когда известна функция ошибки Е, а формулировка задачи предусматривает

наличие требуемого множества обучающих пар (х1, у1), задача обучения

нейронной сети является задачей многомерной оптимизации. При этом справедливой является постановка задачи обучения нейронной сети в задачах прогнозирования как задачи аппроксимации, для решения которой необходимо построить нейронную сеть, являющуюся аппроксимирующей

функций. Назначение нейронной сети, в этом случае, заключается в приеме и сопоставлении контрольных данных и данных, участвовавших в обучении, с заданной точностью. Следует отметить, что сопоставление данных, участвовавших в обучении является задачей приближенной интерполяции. В задачах аппроксимации каждому обучающем входному вектору соответствует обучающий выходной вектор. Иными словами, используется обучение с учителем.

Сети прямого распространения сигнала, примером которых являются многослойный персептрон и сети радиальных базисных функций, применимы для решения задач аппроксимации. При обучении многослойного персептрона, нашел оптимальное применение метод обратного распространения ошибки, используемый для численного определения градиента контрольной функции (суммы квадратов ошибок). Градиент контрольной функции позволяет использовать для обучения сети направленные методы спуска, в частности, метод наискорейшего спуска. Тем не менее, максимальную точность при наибольшей продолжительности вычислений обеспечивает метод последовательных приближений, который заключается в том, что изначально используется сеть с одним скрытым слоем с одним нейроном. Если ее применение обеспечивает достижение необходимого уровня ошибки, то можно считать процесс обучения законченным. В противном случае количество нейронов увеличивается, до тех пор, пока ошибка сети не станет приемлемой, либо не произойдет улучшение характеристик сети до приемлемого значения.

При разработке современных технологических, производственных, информационных и других систем возникают проблемы, меньше связанные с рассмотрением свойств и законов функционирования элементов, а больше - с выбором наилучшей структуры, оптимальной организации взаимодействия элементов системы, определения оптимальных режимов функционирования,

учетом влияния внешней среды и т.д [3]. Представленные в настоящей работе положения являются основополагающими при решении задачи автоматизации технологической подготовки производства с позиции влияния целевых свойств изделия на технологические параметры его переработки, средствами нейросетевого моделирования.

Литература

1. Силаев Н.С. Технология машиностроения: состояние и пути повышении эффективности в условиях радикальной экономической реформы. // Кузнечно-штамповочное производство. 1990. №1. С. 2-5.

2. Semenov A.B. et al. The modern market of blank productions in mechanical engineering and the problem of standardization of new materials and technological processes // Advanced materials & technologies. 2019. №. 1. doi: 10.17277/amt.2019.01.pp.003-011

3. Брюханов В.Н., Косов М.Г., Протопопов С.П., Соломенцев Ю.М Теория автоматического управления / Под ред. Соломенцева Ю.М. 3-е, стер. изд. М.: Высшая школа, 2000. 268 с.

4. Санников А.С., Нахушев Р.С., Глашев Р.М. Программное обеспечение для автоматизации и распределения задачи формирования обучающей выборки для нейросети из видеозаписей // Электротехнические и информационные комплексы и системы. 2018. Т. 14. №. 4. С. 48-53.

5. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. М.: Горячая линия-Телеком, 2002. 382 с.

6. Nguyen D., Widrow B. Improving the learning speed of 2-layer neural networks by choosing initial values of the adaptive weights // 1990 IJCNN International Joint Conference on Neural Networks. IEEE, 1990. pp. 21-26. doi: 10.1109/ijcnn.1990.137819

7. Кулакович А.Ю. Программная реализация однослойной нейронной сети для распознавания цифровых символов // Инженерный вестник Дона, 2018, №3. URL: ivdon.ru/ru/magazine/archive/n3y2018/5119.

8. Поляков С.В., Королева И.Ю., Авдеюк Д.Н., Павлова Е.С., Лемешкина И.Г. Представление нейронной сети матрицей оператора // Инженерный вестник Дона, 2019, №1. URL: ivdon.ru/ru/magazine/archive/ n1y2019/5561.

9. Grabusts P., Zorins A. The Influence of Hidden Neurons Factor on Neural Network Training Quality Assurance // Proceedings of the 10th International Scientific and Practical Conference. Volume III. 2015. Vol. 76. P. 81. doi: 10.17770/etr2015vol3.213

10. Papageorgiou E.I., Pocz^ta K.A two-stage model for time series prediction based on fuzzy cognitive maps and neural networks // Neurocomputing. 2017. Vol. 232. pp. 113-121. doi: 10.1016/j.neucom.2016.10.072

11. Stuart K.D., Majewski M. Intelligent opinion mining and sentiment analysis using artificial neural networks // International Conference on Neural Information Processing. Springer, Cham, 2015. pp. 103-110. doi: 10.1007/978-3-319-26561-2_13

12. Stuart K.D., Majewski M., Trelis A.B. Intelligent semantic-based system for corpus analysis through hybrid probabilistic neural networks // International Symposium on Neural Networks. Springer, Berlin, Heidelberg, 2011. pp. 83-92. doi: 10.1007/978-3-642-21105-8_11

13. Шумихин А.Г., Бояршинова А.С. Параметрическая идентификация систем управления с обратной связью на основе нейросетевого моделирования процессов их функционирования // Инженерный вестник Дона, 2018, №2. URL: ivdon.ru/ru/magazine/archive/n2y2017/4124.

14. Mozaryn J., Kurek J.E. Relative error indices for comparison of neural models of different robots // Recent Advances in Mechatronics. Springer, Berlin, Heidelberg, 2010. pp. 233-238. doi: 10.1007/978-3-642-05022-0_40

References

1. Silaev N.S. Kuznechno-shtampovochnoe proizvodstvo. 1990. №1. pp. 2-5.

2. Semenov A.B. et al. Advanced materials & technologies. 2019. №. 1. doi: 10.17277/amt.2019.01.pp.003-011

3. Bryukhanov V.N., Kosov M.G., Protopopov S.P., Solomentsev Yu.M. Teoriya avtomaticheskogo upravleniya [Automatic Control Theory]. Edited by Solomentsev Yu.M. 3-e, ster. izd. M.: Vysshaya shkola, 2000. 268 p.

4. Sannikov A.S., Nakhushev R.S., Glashev R.M. Elektrotekhnicheskie i informatsionnye kompleksy i sistemy. 2018. T. 14. № 4. pp. 48-53.

5. Kruglov V.V., Borisov V.V. Iskusstvennye neyronnye seti. Teoriya i praktika [Artificial neural networks. Theory and practice]. M.: Goryachaya liniya-Telekom, 2002. 382 p.

6. Nguyen D., Widrow B. IJCNN International Joint Conference on Neural Networks. IEEE, 1990. pp. 21-26. doi: 10.1109/ijcnn.1990.137819

7. Kulakovich A.Yu. Inzenernyj vestnik Dona (Rus), 2018, №3. URL: ivdon.ru/ru/magazine/archive/n3y2018/5119.

8. Polyakov S.V., Koroleva I.Yu., Avdeyuk D.N., Pavlova E.S., Lemeshkina I.G. Inzenernyj vestnik Dona (Rus), 2019, №1. URL: ivdon.ru/ru/magazine/archive/n1y2019/5561.

9. Grabusts P., Zorins A. Proceedings of the 10th International Scientific and Practical Conference. Volume III. 2015. Vol. 76. P. 81. doi: 10.17770/etr2015vol3.213

10. Papageorgiou E.I., Pocz^ta K. Neurocomputing. 2017. Vol. 232. pp. 113121. doi: 10.1016/j.neucom.2016.10.072

11. Stuart K.D., Majewski M. International Conference on Neural Information Processing. Springer, Cham, 2015. pp. 103-110. doi: 10.1007/978-3-319-26561-2_13

12. Stuart K.D., Majewski M., Trelis A.B. International Symposium on Neural Networks. Springer, Berlin, Heidelberg, 2011. pp. 83-92. doi: 10.1007/978-3-642-21105-8_11

13. Shumikhin A.G., Boyarshinova A.S. Inzenernyj vestnik Dona (Rus), 2018, №2. URL: ivdon.ru/ru/magazine/archive/n2y2017/4124.

14. Mozaryn J., Kurek J.E. Recent Advances in Mechatronics. Springer, Berlin, Heidelberg, 2010. pp. 233-238. doi: 10.1007/978-3-642-05022-0_40

i Надоели баннеры? Вы всегда можете отключить рекламу.