Научная статья на тему 'Теоретические вопросы создания нейронной модели терморегуляторов кристаллов полупроводниковых интегральных схем. Часть 1'

Теоретические вопросы создания нейронной модели терморегуляторов кристаллов полупроводниковых интегральных схем. Часть 1 Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
187
91
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НЕЙРОННАЯ МОДЕЛЬ / ТЕРМОРЕГУЛЯТОР / НЕЙРОННЫЕ СЕТИ / СИНТЕЗ КОНСТРУКТИВНО-ТЕХНОЛОГИЧЕСКИХ РЕШЕНИЙ / НОРМАЛЬНЫЙ ТЕПЛОВОЙ РЕЖИМ / ТЕМПЕРАТУРНАЯ СТАБИЛЬНОСТЬ / NEURAL MODEL / THERMOSTAT / NEURAL NETWORKS / THE SYNTHESIS OF STRUCTURAL AND TECHNOLOGICAL SOLUTIONS / NORMAL THERMAL CONDITIONS / TEMPERATURE STABILITY

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Гараев Денис Юрьевич

Рассматриваются вопросы создания нейронной модели терморегуляторов термостабильных РЭС на основе теории нейронных сетей с целью анализа физических температурных процессов, протекающих в устройстве. Методологической основой для анализа являются обзор литературы и типовые программы (пакеты программ) моделирования нейронных сетей, например “Mathematica”,С++, позволяющие “учить” нейронные сети с учетом их назначения. Рассмотрены основы теории нейронных сетей, позволяющие в дальнейшем обратиться к конкретным структурам, алгоритмам и идеологии практического применения сетей в компьютерных приложениях. Результаты являются исходными данными для синтеза конструктивно-технологических решений создания нейронной модели по обеспечению нормального теплового режима, заданной температурной стабильности РЭС.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THEORETICAL QUESTIONS OF NEURAL MODEL CREATION THERMOSTAT CRYSTALS OF SEMICONDUCTOR INTEGRATED CIRCUITS. PART 1

The article deals with the problems of creating neural thermostats models thermostable radio-electronic equipment (REE) based on the theory of neural networks to analyze the physical thermal processes occurring in the device. The methodological basis for the analysis is the literature review and standard programs (packages) modeling neural networks, such as «Mathematica», “C ++” which allows you to «teach» the neural network taking into account their purpose. It studies the basics of the neural networks theory, allowing further referring to specific structures, algorithms and ideology of practical network use in computer applications. The results are the initial data for the synthesis of structural and technological solutions in order to create a neural model to ensure the normal heating mode, the REE set point temperature stability.

Текст научной работы на тему «Теоретические вопросы создания нейронной модели терморегуляторов кристаллов полупроводниковых интегральных схем. Часть 1»

ISSN 2313-1160

ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ В СОЗДАНИИ СОВРЕМЕННОЙ ТЕХНИКИ

Гараев Д.Ю.

ТЕОРЕТИЧЕСКИЕ ВОПРОСЫ СОЗДАНИЯ НЕЙРОННОЙ МОДЕЛИ ТЕРМОРЕГУЛЯТОРОВ КРИСТАЛЛОВ ПОЛУПРОВОДНИКОВЫХ ИНТЕГРАЛЬНЫХ СХЕМ. ЧАСТЬ1.

Как показал анализ, существующие модели контроля и регулирования тепловых режимов радиотехнических устройств (РТУ) имеют множество недостатков: не объективные оценки и жесткая логика (отсутствие мышления) и формальный подход - свойственные простым моделям, наряду с относительно большими массо-габаритными параметрами и трудностью воплощения для сложных моделей.. Это приводит к недостаточной высокой точности приема, обработки и передачи сигналов в радиотехнических системах (РТС).

Возникла потребность в создании принципиально новой модели регулирования тепловых процессов.

Проведя обзор литературы, основываясь на приоритетном направлении развития РТС была выбрана модель базирующаяся на нейронных технологиях, в частности на нейронных сетях (НС).

Широкий круг задач, решаемый НС, не позволяет в настоящее время создавать универсальные, мощные сети, вынуждая разрабатывать специализированные НС, функционирующие по различным алгоритмам. Выбор структуры НС осуществляется в соответствии с особенностями и сложностью задачи. Для решения некоторых отдельных типов задач уже существуют оптимальные, на сегодняшний день, конфигурации, описанные, например, в [2],[3],[4] и других изданиях, перечисленных в конце статьи. Если же задача не может быть сведена ни к одному из известных типов, разработчику приходится решать сложную проблему синтеза новой конфигурации. При этом он руководствуется несколькими основополагающими принципами: возможности сети возрастают с увеличением числа ячеек сети, плотности связей между ними и числом выделенных слоев (влияние числа слоев на способность сети выполнять классификацию плоских образов показано на рис.4 из [5]); введение обратных связей наряду с увеличением возможностей сети поднимает вопрос о динамической устойчивости сети; сложность алгоритмов функционирования сети (в том числе, например, введение нескольких типов синапсов - возбуждающих, тормозящих и др.) также способствует усилению мощи НС. Вопрос о необходимых и достаточных свойствах сети для решения того или иного рода задач представляет собой целое направление нейрокомпьютерной науки. Так как проблема синтеза НС сильно зависит от решаемой задачи, дать общие подробные рекомендации затруднительно. В

38

Научно-практический журнал «Новые исследования в разработке техники и технологий» № 2/2015

большинстве случаев оптимальный вариант получается на основе интуитивного подбора.

Нами была предпринята попытка реализовать нейронную модель для решения задач термостабилизации РТУ.

1. Нейронные сети: основные положения

В последние десятилетия в мире бурно развивается новая прикладная область математики, специализирующаяся на искусственных нейронных сетях (НС). Актуальность исследований в этом направлении подтверждается массой различных применений НС. Это автоматизация процессов распознавания образов, адаптивное управление, аппроксимация функционалов, прогнозирование, создание экспертных систем, организация ассоциативной памяти и многие другие приложения. С помощью НС можно, например, предсказывать показатели биржевого рынка, выполнять распознавание оптических или звуковых сигналов, создавать самообучающиеся системы, способные управлять автомашиной при парковке или синтезировать речь по тексту. В то время как на западе применение НС уже достаточно обширно, у нас это еще в некоторой степени экзотика - российские фирмы, использующие НС в практических целях, наперечет [1].

Широкий круг задач, решаемый НС, не позволяет в настоящее время создавать универсальные, мощные сети, вынуждая разрабатывать специализированные НС, функционирующие по различным алгоритмам.

Модели НС могут быть программного и аппаратного исполнения. В дальнейшем речь пойдет в основном о первом типе.

Несмотря на существенные различия, отдельные типы НС обладают несколькими общими чертами.

Рис.1 Искусственный нейрон

Во-первых, основу каждой НС составляют относительно простые, в большинстве случаев - однотипные, элементы (ячейки), имитирующие работу нейронов мозга. Далее под нейроном будет подразумеваться искусственный нейрон, то есть ячейка НС. Каждый нейрон характеризуется своим текущим состоянием по аналогии с нервными клетками головного мозга, которые могут быть возбуждены или заторможены. Он обладает группой синапсов - однонаправленных входных связей, соединенных с выходами других нейронов, а также имеет аксон - выходную связь данного нейрона, с которой сигнал (возбуждения или торможения) поступает на синапсы следующих нейронов. Общий вид нейрона приведен на рисунке 1. Каждый синапс характеризуется величиной синаптической связи или ее весом wi, который по физическому смыслу эквивалентен электрической проводимости.

Текущее состояние нейрона определяется, как взвешенная сумма его входов:

39

ISSN 2313-1160

s = Z x • wi

i=1

Выход нейрона есть функция его состояния:

У = f(s)

Рис.2 а) функция единичного скачка; б) линейный порог (гистерезис); в) сигмоид — гиперболический тангенс; г) сигмоид — формула (3)

Нелинейная функция f называется активационной и может иметь различный вид, как показано на рисунке 2. Одной из наиболее распространеных является нелинейная функция с насыщением, так называемая логистическая функция или сигмоид (т.е. функция S-образного вида)[2]:

f ( х)

1

1 + e

При уменьшении a сигмоид становится более пологим, в пределе при a=0 вырождаясь в горизонтальную линию на уровне 0.5, при увеличении a сигмоид приближается по внешнему виду к функции единичного скачка с порогом T в точке x=0. Из выражения для сигмоида очевидно, что выходное значение нейрона лежит в диапазоне [0,1]. Одно из ценных свойств сигмоидной функции - простое выражение для ее производной, применение которого будет рассмотрено в дальнейшем.

f'(x) = a-f (x) •(1 - f (x))

Следует отметить, что сигмоидная функция дифференцируема на всей оси абсцисс, что используется в некоторых алгоритмах обучения. Кроме того она обладает свойством усиливать слабые сигналы лучше, чем большие, и предотвращает насыщение от больших сигналов, так как они соответствуют областям аргументов, где сигмоид имеет пологий наклон.

40

Научно-практический журнал «Новые исследования в разработке техники и технологий» № 2/2015

Рис.3 Однослойный перцептрон

Возвращаясь к общим чертам, присущим всем НС, отметим, во-вторых, принцип параллельной обработки сигналов, который достигается путем объединения большого числа нейронов в так называемые слои и соединения определенным образом нейронов различных слоев, а также, в некоторых конфигурациях, и нейронов одного слоя между собой, причем обработка взаимодействия всех нейронов ведется послойно.

В качестве примера простейшей НС рассмотрим трехней-ронный перцептрон (рис.3), то есть такую сеть, нейроны которой имеют активационную функцию в виде единичного скачка* . На n входов поступают некие сигналы, проходящие по синапсам на 3 нейрона, образующие единственный слой этой НС и выдающие три выходных сигнала:

Очевидно, что все весовые коэффициенты синапсов одного слоя нейронов можно свести в матрицу W, в которой каждый элемент wij задает величину i-ой синаптической связи j-ого нейрона. Таким образом, процесс, происходящий в НС, может быть записан в матричной форме:

Y=F(XW)

где X и Y - соответственно входной и выходной сигнальные векторы, F( V) - активационная функция, применяемая поэлементно к компонентам вектора V.

Теоретически число слоев и число нейронов в каждом слое может быть произвольным, однако фактически оно ограничено ресурсами компьютера или специализированной микросхемы, на которых обычно реализуется НС. Чем сложнее НС, тем масштабнее задачи, подвластные ей.

Выбор структуры НС осуществляется в соответствии с особенностями и сложностью задачи. Для решения некоторых отдельных типов задач уже существуют оптимальные, на сегодняшний день, конфигурации, описанные, например, в [2],[3],[4] и других изданиях, перечисленных в конце статьи. Если

41

ISSN 2313-1160

же задача не может быть сведена ни к одному из известных типов, разработчику приходится решать сложную проблему синтеза новой конфигурации. При этом он руководствуется несколькими основополагающими принципами: возможности сети возрастают с увеличением числа ячеек сети, плотности связей между ними и числом выделенных слоев (влияние числа слоев на способность сети выполнять классификацию плоских образов показано на рис.4 из [5]); введение обратных связей наряду с увеличением возможностей сети поднимает вопрос о динамической устойчивости сети; сложность алгоритмов функционирования сети (в том числе, например, введение нескольких типов синапсов -возбуждающих, тромозящих и др.) также способствует усилению мощи НС. Вопрос о необходимых и достаточных свойствах сети для решения того или иного рода задач представляет собой целое направление нейрокомпьютерной науки. Так как проблема синтеза НС сильно зависит от решаемой задачи, дать общие подробные рекомендации затруднительно. В большинстве случаев оптимальный вариант получается на основе интуитивного подбора.

Очевидно, что процесс функционирования НС, то есть сущность действий, которые она способна выполнять, зависит от величин синаптических связей, поэтому, задавшись определенной структурой НС, отвечающей какой-либо задаче, разработчик сети должен найти оптимальные значения всех переменных весовых коэффициентов (некоторые синаптические связи могут быть постоянными).

Этот этап называется обучением НС, и от того, насколько качественно он будет выполнен, зависит способность сети решать поставленные перед ней проблемы во время эксплуатации. На этапе обучения кроме параметра качества подбора весов важную роль играет время обучения. Как правило, эти два параметра связаны обратной зависимостью и их приходится выбирать на основе компромисса.

Обучение НС может вестись с учителем или без него. В первом случае сети предъявляются значения как входных, так и желательных выходных сигналов, и она по некоторому внутреннему алгоритму подстраивает веса своих синаптических связей. Во втором случае выходы НС формируются самостоятельно, а веса изменяются по алгоритму, учитывающему только входные и производные от них сигналы.

Существует великое множество различных алгоритмов обучения, которые однако делятся на два больших класса: детерминистские и стохастические. В первом из них подстройка весов представляет собой жесткую последовательность действий, во втором - она производится на основе действий, подчиняющихся некоторому случайному процессу.

Развивая дальше вопрос о возможной классификации НС, важно отметить существование бинарных и аналоговых сетей. Первые из них оперируют с двоичными сигналами, и выход каждого нейрона может принимать только два значения: логический ноль (“заторможенное” состояние) и логическая единица (“возбужденное” состояние). К этому классу сетей относится и рассмотренный

42

Научно-практический журнал «Новые исследования в разработке техники и технологий» № 2/2015

выше перцептрон, так как выходы его нейронов, формируемые функцией единичного скачка, равны либо 0, либо 1. В аналоговых сетях выходные значения нейронов способны принимать непрерывные значения, что могло бы иметь место после замены активационной функции нейронов перцептрона на сигмоид.

Еще одна классификация делит НС на синхронные и асинхронные[3]. В первом случае в каждый момент времени свое состояние меняет лишь один нейрон. Во втором - состояние меняется сразу у целой группы нейронов, как правило, у всего слоя. Алгоритмически ход времени в НС задается итерационным выполнением однотипных действий над нейронами. Далее будут рассматриваться только синхронные НС.

Рис.4 Двухслойный перцептрон

Сети также можно классифицировать по числу слоев. На рисунке 4 представлен двухслойный перцептрон, полученный из перцептрона с рисунка 3 путем добавления второго слоя, состоящего из двух нейронов. Здесь уместно отметить важную роль нелинейности активационной функции, так как, если бы она не обладала данным свойством или не входила в алгоритм работы каждого нейрона, результат функционирования любой p-слойной НС с весовыми матрицами W(i), i=1,2,...p для каждого слоя i сводился бы к перемножению входного вектора сигналов X на матрицу W(S)=W(1)xW(2) x...xW(p)

то есть фактически такая p-слойная НС эквивалентна однослойной НС с весовой матрицей единственного слоя W(S):

Y=XW(S)

Продолжая разговор о нелинейности, можно отметить, что она иногда вводится и в синаптические связи. Большинство известных на сегодняшний день НС используют для нахождения взвешенной суммы входов нейрона формулу (1), однако в некоторых приложениях НС полезно ввести другую запись, например:

s = £ х; ■ w,

i=1

или даже

S = Xi ■ Х((i+1)mod n) ' Wi 43

i=1

ISSN 2313-1160

Вопрос в том, чтобы разработчик НС четко понимал, для чего он это делает, какими ценными свойствами он тем самым дополнительно наделяет нейрон, и каких лишает. Введение такого рода нелинейности, вообще говоря, увеличивает вычислительную мощь сети, то есть позволяет из меньшего числа нейронов с “нелинейными” синапсами сконструировать НС, выполняющую работу обычной НС с большим числом стандартных нейронов и более сложной конфигурации[4].

Многообразие существующих структур НС позволяет отыскать и другие критерии для их классификации, но они выходят за рамки данной статьи.

Теперь рассмотрим один нюанс, преднамеренно опущенный ранее. Из рисунка функции единичного скачка видно, что пороговое значение T, в общем случае, может принимать произвольное значение. Более того, оно должно принимать некое произвольное, неизвестное заранее значение, которое подбирается на стадии обучения вместе с весовыми коэффициентами. То же самое относится и к центральной точке сигмоидной зависимости, которая может сдвигаться вправо или влево по оси X, а также и ко всем другим активационным функциям. Это, однако, не отражено в формуле (1), которая должна была бы выглядеть так:

^ = Е х< • wi- T

i=1

Дело в том, что такое смещение обычно вводится путем добавления к слою нейронов еще одного входа, возбуждающего дополнительный синапс каждого из нейронов, значение которого всегда равняется 1. Присвоим этому входу номер 0. Тогда

n

s = Z xi • wi

i=0

где w0 = -T, x0 = 1.

Очевидно, что различие формул (1) и (12) состоит лишь в способе нумерации входов.

Рис. 5 Однонейронный перцептрон

Из всех активационных функций, изображенных на рисунке 2, одна выделяется особо. Это гиперболический тангенс, зависимость которого симметрична относительно оси X и лежит в диапазоне [-1,1]. Забегая вперед, скажем, что выбор области возможных значений выходов нейронов во многом

44

Научно-практический журнал «Новые исследования в разработке техники и технологий» № 2/2015

зависит от конкретного типа НС и является вопросом реализации, так как манипуляции с ней влияют на различные показатели эффективности сети, зачастую не изменяя общую логику ее работы. Пример, иллюстрирующий данный аспект, будет представлен после перехода от общего описания к конкретным типам НС.

Какие задачи может решать НС? Грубо говоря, работа всех сетей сводится к классификации (обобщению) входных сигналов, принадлежащих n-мерному гиперпространству, по некоторому числу классов. С математической точки зрения это происходит путем разбиения гиперпространства гиперплоскостями (запись для случая однослойного перцептрона)

п

Xх-' 'wik = Tk > k=l...m

/ =1

Каждая полученная область является областью определения отдельного класса. Число таких классов для одной НС перцептронного типа не превышает 2m, где m - число выходов сети. Однако не все из них могут быть разделимы данной НС.

Например, однослойный перцептрон, состоящий из одного нейрона с двумя входами, представленный на рисунке 5, не способен разделить плоскость (двумерное гиперпространоство) на две полуплоскости так, чтобы осуществить классификацию входных сигналов по классам A и B (см. таблицу 1).

Уравнение сети для этого случая

X • wl + x2 • w2 = T

является уравнением прямой (одномерной гиперплоскости), которая ни при каких условиях не может разделить плоскость так, чтобы точки из множества входных сигналов, принадлежащие разным классам, оказались по разные стороны от прямой (см. рисунок 6).

Если присмотреться к таблице 1, можно заметить, что данное разбиение на классы реали-зу-ет логическую функцию исключающего ИЛИ для входных сигналов. Невозможность реализа-ции однослойным перцептроном этой функции получила название проблемы исключающего ИЛИ.

Функции, которые не реализуются однослойной сетью, называются

45

ISSN 2313-1160

линейно неразделимыми[2]. Решение задач, подпадающих под это ограничение, заключается в применении 2-х и более слойных сетей или сетей с нелинейными синапсами, однако и тогда существует вероятность, что корректное разделение некоторых входных сигналов на классы невозможно.

Наконец, мы можем более подробно рассмотреть вопрос обучения НС, для начала - на примере перцептрона с рисунка 3.

Рис. 6 Визуальное представление

Рассмотрим алгоритм обучения с учителем[2][4].

1. Проинициализировать элементы весовой матрицы (обычно небольшими случайными значениями).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2. Подать на входы один из входных векторов, которые сеть должна научиться различать, и вычислить ее выход.

3. Если выход правильный, перейти на шаг 4.

Иначе вычислить разницу между идеальным и полученным значениями выхода:

8 = Yr - Y

Модифицировать веса в соответствии с формулой:

w(t +1) = w(t) + v'8' xi

где t и t+1 - номера соответственно текущей и следующей итераций; n -коэффициент скорости обучения, 0<nJ1; i - номер входа; j - номер нейрона в слое.

Очевидно, что если YI > Y весовые коэффициенты будут увеличены и тем самым уменьшат ошибку. В противном случае они будут уменьшены, и Y тоже уменьшится, приближаясь к YI.

4. Цикл с шага 2, пока сеть не перестанет ошибаться.

На втором шаге на разных итерациях поочередно в случайном порядке

46

Научно-практический журнал «Новые исследования в разработке техники и технологий» № 2/2015

предъявляются все возможные входные вектора. К сожалению, нельзя заранее определить число итераций, которые потребуется выполнить, а в некоторых случаях и гарантировать полный успех.

В завершение хотелось бы отметить, что более подробно об этих и других применениях и реализующих их структурах НС можно прочитать в журналах Neural Computation, Neural Computing and Applications, Neural Networks, IEEE Transactions on Neural Networks, IEEE Transactions on System, Man, and Cybernetics и других.

Литература

1. Е. Монахова, “Нейрохирурги” с Ордынки, PC Week/RE, №9, 1995.

2. Ф.Уоссермен, Нейрокомпьютерная техника, М.,Мир, 2012.

3. Итоги науки и техники: физические и математические модели нейронных сетей, том 1, М., изд. ВИНИТИ, 2010.

4. Artificial Neural Networks: Concepts and Theory, IEEE Computer Society Press, 1992.

Richard P. Lippmann, An Introduction to Computing withNeural Nets, IEEE Acoustics, Speech, and Signal ProcessingMagazine, 2007.

47

i Надоели баннеры? Вы всегда можете отключить рекламу.