Научная статья на тему 'Использование искусственных нейронных сетей в экстраполяции недетерминированных широкополосных радиотехнических сигналов'

Использование искусственных нейронных сетей в экстраполяции недетерминированных широкополосных радиотехнических сигналов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
833
120
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭКСТРАПОЛЯЦИЯ / ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ / СИГНАЛ / МЕТОД / АЛГОРИТМ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Разумов Анатолий Алексеевич

В работе проанализировано и описано возможное применение искусственных нейронных сетей в вопросах технического прогнозирования. Радиотехнические науки с достаточной точностью могут определить вероятностное развитие сигнала, используя понятия экстраполяции. Доказательным и оптимальным является применение нейронных сетей в экстраполяции радиотехнических сигналов. Процесс модернизации и прогресс в науке провоцирует человека попытаться предсказать вероятностное развитие будущего. Целью настоящей работы является необходимость разобраться в аспектах нейронных сетей для определения успеха функционирования экстраполяции недетерминированных широкополосных радиотехнических сигналов на нейронных сетях. Проведено множество исследований в данных областях, которые свидетельствуют, что, в целом, искусственные нейронные сети хорошо справляются со сложной экстраполяцией, составляют высокую конкуренцию статистической обработке на основе теории вероятности. Внедрение искусственных нейронных сетей на сегодняшний день имеет интенсивный характер развития. С каждым годом это направление становится актуальнее, необходимость использовать искусственный интеллект возрастает, этого требует глобальная автоматизация процессов, используемых в обществе. В настоящее время существует множество методов прогнозирования. Некоторые из проанализированы и сравнены с искусственными нейронными сетями в настоящей работе. Так, например, показано, что прогнозирование с использованием метода статистической обработки, требует большой затраты сил, времени и денег. В отличие от нейронных сетей, которые исключают недостатки статистического метода и могут быть автоматизированы и интегрированы в любые системы обработки сигналов и эмпирических зависимостей. Искусственные нейронные сети широко используются в экстраполяции радиотехнических сигналов. В данной работе рассмотрены применяемые программные средства, алгоритмы и методы искусственных нейронных сетей.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Разумов Анатолий Алексеевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Использование искусственных нейронных сетей в экстраполяции недетерминированных широкополосных радиотехнических сигналов»

doi: 10.24411/2409-5419-2018-10094

ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ В ЭКСТРАПОЛЯЦИИ НЕДЕТЕРМИНИРОВАННЫХ ШИРОКОПОЛОСНЫХ РАДИОТЕХНИЧЕСКИХ СИГНАЛОВ

РАЗУМОВ АННОТАЦИЯ

Анатолий Алексеевич В работе проанализировано и описано возможное применение искусственных ней-

ронных сетей в вопросах технического прогнозирования. Радиотехнические науки с достаточной точностью могут определить вероятностное развитие сигнала, используя понятия экстраполяции. Доказательным и оптимальным является применение нейронных сетей в экстраполяции радиотехнических сигналов. Процесс модернизации и прогресс в науке провоцирует человека попытаться предсказать вероятностное развитие будущего. Целью настоящей работы является необходимость разобраться в аспектах нейронных сетей для определения успеха функционирования экстраполяции недетерминированных широкополосных радиотехнических сигналов на нейронных сетях. Проведено множество исследований в данных областях, которые свидетельствуют, что, в целом, искусственные нейронные сети хорошо справляются со сложной экстраполяцией, составляют высокую конкуренцию статистической обработке на основе теории вероятности.

Внедрение искусственных нейронных сетей на сегодняшний день имеет интенсивный характер развития. С каждым годом это направление становится актуальнее, необходимость использовать искусственный интеллект возрастает, этого требует глобальная автоматизация процессов, используемых в обществе.

В настоящее время существует множество методов прогнозирования. Некоторые из проанализированы и сравнены с искусственными нейронными сетями в настоящей работе. Так, например, показано, что прогнозирование с использованием метода статистической обработки, требует большой затраты сил, времени и денег. В отличие от нейронных сетей, которые исключают недостатки статистического метода и могут быть автоматизированы и интегрированы в любые системы обработки сигналов и эмпирических зависимостей.

Искусственные нейронные сети широко используются в экстраполяции радиотехнических сигналов. В данной работе рассмотрены применяемые программные средства, алгоритмы и методы искусственных нейронных сетей.

Сведения об авторе:

КЛЮЧЕВЫЕ СЛОВА: экстраполяция; искусственные нейронные сети; сигнал; метод; студент Южно-Уральского " ^ 3 " м

государственного университета, алгоритм.

г. Челябинск, Россия, [email protected]

Для цитирования: Разумов А. А. Использование искусственных нейронных сетей в экстраполяции недетерминированных широкополосных радиотехнических сигналов // Наукоемкие технологии в космических исследованиях Земли. 2018. Т. 10. № 4. С. 30-36. Сок 10.24411/2409-5419-2018-10094

Vol 10 No 4-2018, H&ES RESEARCH RF TECHNOLOGY AND COMMUNICATION

Каждый из нас хоть раз задумывался о будущем, начиная с предположения о том, какая погода будет следующим днем и заканчивая динамикой поведения сложных зависимостей на месяцы вперед, не говоря уже о возможных прогнозах модернизации технологий, заглядывая далеко в будущее. Предсказанием занимались испокон веков. Многие люди хотели узнать, что с ними произойдет, какие события их ожидают. Такое желание подталкивает людей анализировать происходящее и предвидеть грядущие явления. Тяготение человека к новому лежит в основании движущей силы процесса модернизации и прогресса, а конкуренция между друг другом выдвигает самый лучший вариант с высоким качеством использования. Таким образом, сам человек оказывается фундаментальным двигателем научно-технического прогресса.

Понимание предсказаний ограничивается разумными рамками, в которых есть место для собственного вложения и инноваций. На основании предшествующего поведения зависимостей выстраивается наиболее оптимальное и вероятностное изменение наблюдаемой величины, это и есть экстраполяция. Экстраполяция проводится на искусственных нейронных сетях (ИНС). На сегодняшний день направление «машинное обучение», в которое входят ИНС, имеет интенсивный характер развития. С каждым годом это направление становится актуальнее, необходимость использовать искусственный интеллект возрастает, т. к. происходит глобальная автоматизация процессов, где в наблюдении и контролировании человеком ситуации нет необходимости.

В настоящее время существует множество методов прогнозирования. Некоторые наиболее распространённые способы далее будут расценены, проанализированы и сравнены с ИНС. Если рассматривать прогнозирование с помощью статистической обработки, то затраты сил, времени, денег уходит намного больше, при этом необходимо иметь специалиста, разбирающегося в этом. С точки зрения корреляционной составляющей, рассматривать влияние каждой временной точки на другие и их дальнейших комбинаций нецелесообразно. Нейронные сети исключают недостатки статистического метода и могут быть автоматизированы и интегрированы в любые системы обработки сигналов и эмпирических зависимостей. Из этого можно сделать вывод, что под влиянием всех минусов, статистика уступает нейронным сетям.

Также используют прогнозирование на основе Фурье-преобразования, основываясь на спектральных характеристиках, которые могут в достаточной мере описывать предысторию сигнала. «Состав» и принцип работы искусственных нейронных сетей также будет описан в этой статье. Для реализаций нейро-сетевых вычислений существует множество специализированных программных средств. Все вычисления удобно производить в пакете прикладных

программ Matlab, либо в бесплатном программном обеспечении Python, предварительно загрузив все необходимые библиотеки. Кроме того, используют и другие программные обеспечения, однако всё упирается в наличие готовых библиотек с уже реализованными функциями.

Актуальность темы исследования несомненна, т.к. в настоящее время используется в разных областях. Применяется в предсказаниях погоды, в бизнесе, особенно распространено в финансовых сферах, в радиолокационных системах для сопровождения маневрирующих целей, в электронике для нелинейного моделирования и анализа отказа микросхем, автоматических управлениях летательных объектов, и т. д.

Современные исследования показывают, что анализировать случайный сигнал или некую зависимость предпочтительно спектральным методом. Некоторые исследователи делают упор на узкую полосу низкой частоты сигнала. Они считают, что глобальные перегибы сигнала важнее высокочастотных флуктуаций. Действительно, по наблюдаемому набору низкочастотных гармонических составляющих можно отследить динамику изменения сигнала, но не для каждой задачи данный метод является правильным решением, т. к. может быть необходимость наблюдать малейшие изменения, которые могут в себе нести косвенные воздействия внешних или каких-либо других факторов. Раскладывать изначальный сигнал на гармоники можно через фильтр низких частот. Разложив имеющуюся зависимость в спектр, набор более простых функций, их необходимо скомбинировать и разделить весь спектр на несколько частей от 3 до 5. Количество частей зависит от ширины спектра сигнала, если сигнал является широкополосным, то для точности весь спектр разбивается на большее число частей. Эти части подразделяются на низкочастотные, средней частоты, высокочастотные. В каждой из частей имеется набор функций, которые необходимо усреднить, т.е. посчитать математическое ожидание для каждой временной точки. Далее все расчеты проводятся с несколькими функциями, в зависимости от того, на сколько групп был разбит спектр.

Возможность экстраполировать дальние значения ограничена, т.к. будет возрастать ошибка, спрогнозированные точки будут сильно отклоняться от истинных. Поэтому дальность прогноза у групп разная, соответственно низкочастотный сигнал можно спрогнозировать на большее количество точек, чем высокочастотный. Как же после прогнозирования восстановить исходный сигнал вместе с экстраполяцией? Для этого необходимо высчитать среднеквадратическое отклонения функций средней и высокой частоты. Сложить все экстраполированные точки и наложить среднеквадратическое отклонение на интервалы, где точки функций средней и высокой частоты не прогнозировались. Тем самым, будет наблюдаться интервал,

в котором с доверительной вероятностью может находится истинное значение функции.

Искусственные нейронные сети используются для разных задач. Они были основаны на предположении о работе нейронов низшего уровня в мозге, но непосредственного отношения к нему не имеют, а позаимствовали только структуру и параллелизм. Нейронная сеть является нелинейной и представляет собой алгоритмический аппарат, функционирующий на квазинейронах, которые реализуют простейшие алгебраические действия с последующей их подстройкой. Основной механизм работы ИНС: во время обучения на вход подается сигнал, который посредством возбуждения нейронов изменяется таким образом, чтобы минимально отличаться от целевой функции, которая является последующими значениями входного сигнала. Под целевые значения или желаемый результат подгоняются входные — это процедура называется обучение с учителем.

Вид нейронной сети зависит от поставленной задачи, опытным путем выявлено, что для прогнозирования выгоднее применять двухслойные сети с задержками. В процессе исследования можно варьировать как количество нейронов в первом слое, так и задержку, начиная с нулевой. Количество нейронов в первом слое подбирается вручную, но слишком большое количество для данной задачи не приемлемо. Существуют определенные зависимости между числом входов (количество нейронов равняется числу входов) и размером обучающей выборки, однако эти отношения не использовались, но отдавалось предпочтение к использованию экспериментального метода с установлением оптимального соотношения «число входов — польза».

Разбиение обучающих данных также играет большую роль в продуктивности сети и влияет на некоторые аспекты, например, косвенно затрагивает алгоритм оценки качества, а именно способ накопление ошибок сети, оказывает прямое влияние на количество входов и выходов нейронной сети. Формирование обучающих выборок делится на три типа: последовательное, групповое, смешанное. В последовательном случае входы и целевой вектор обучающих выборок формируется в виде массива формата cell, т.е. массив ячеек с одной строкой, в котором каждый элемент хранит реализации для определенного момента времени. Каждый момент времени является динамической величиной и содержит в себе N реализаций или выборок, их количество задается вручную, например, 10 значений функции, но данные величины не являются последовательными в исходной функции, а определенными моментами времени в каждой из выборок. Допустим, если есть две выборки по два значения в каждой, то в последовательном виде в первой ячейке будет лежать первые значения из каждой выборки. В групповом случае входы и целевой вектор формируются в виде массива формата

double. Данный массив содержит временные последовательности для каждой реализации, разделенная функция на выборки остается неизменной. Размерность реализаций сугубо личный выбор.

Самая важная часть обучения нейронной сети — это тренировка, от неё напрямую зависит качество функционирования сети. Тренировка сети содержит в себе много настраиваемых параметров, каждый из которых необходимо выбрать и настроить, проанализировав всевозможные варианты. Первый шаг — инициализация сети — это расстановка значений весов синапсов и смещений, соответственно это и задает начальный курс, правильность выполнения задачи. Для каждого настраиваемого параметра существует значение по умолчанию, в инициализации стандартный вариант — случайная расстановка значений. Их значения выставляются небольшими, чтобы в процессе обучения не возникал паралич сети, вдобавок предотвращает ряд других некорректных случаев. Например, если выставить все значения одинаковые и большие, а функция имеет неравномерность распределения значений, то сеть не сможет правильно перестроить весовые коэффициенты. Также используют другие функции инициализации, они имеют ряд преимуществ, но не всегда являются наилучшими по сравнению со стандартной, возможно длительность обучения увеличиться на небольшое количество времени.

Второй шаг — это выбор глобального алгоритма минимизации ошибки. Исходя из вида обучающих данных накапливаются значения ошибок сети, ошибки сети характеризуются разностью целевых значений и полученных на выходе. Существует множество алгоритмов, их относят к трем группам, первого порядка с использованием градиента, второго порядка — методы Ньютона и Квази-ньютовы. В каждой из групп имеется набор алгоритмов, в которых присутствуют свои достоинства и недостатки. Мы рассмотрим алгоритм градиентного спуска первого порядка и квазиньютов алгоритм Левенберга-Марквар-да. Оба метода исследовались на двухслойной нейронной сети. Алгоритм градиентного спуска для поставленной задачи один из нескольких с самой быстрой сходимостью, но имеющий маленькую устойчивость во время обучения, проявляется это в отклонении от уменьшения ошибки, говоря другими словами, разность между выходными и целевыми значениями после нескольких итераций возрастает. Поэтому параметр максимального количества ошибок на проверочном множестве необходимо выставлять вручную побольше, чем по умолчанию, чтобы обучение не застряло в локальном минимуме. Также могут возникать случаи долгой сходимости в конце оптимизации — эта проблема должна быть решена самой нейронной сетью, при обнаружении «застревания» обучения, сеть «встряхивает» свои значения, добавляя в них случайную величину. Второй

Vol 10 No 4-2018, H&ES RESEARCH AVIATION, SPASE-ROCKET HARDWARE

метод Левенберга-Маркварда отличается высокой точностью аппроксимации на обучающем множестве, но время обучения довольно высоко и соответственно необходимо достаточное количество памяти, т.к. в процессе вычисления приходится хранить объемные матрицы Якоби и Гессе, а также производить с ними действия. Однако для экономии памяти можно настроить декомпозицию, которая позволяет хранить лишь части матрицы. Каждый из методов имеет внутри себя множество настраиваемых параметров, один из них — это метод одномерного поиска. Он обеспечивает поиск минимума вдоль заданного направления, на каждой итерации вычисляет величину шага исходя из минимума целевой функции, проделанные действия можно назвать задачей минимизации функции одной переменной. Для каждого из алгоритмов метод одномерного поиска установлен свой метод по умолчанию, но их можно менять и задавать, исходя из личных побуждений, начиная с простых, таких как метод золотого сечения, половинного деления и продолжая гибридными, которые содержат в себе комбинации более простых. Конечный результат оценивается своей функцией, он показывает отличие полученных данных от желаемых. Его также можно изменить, самые распространённые — это среднеквадратическое отклонение и среднее абсолютное отклонение. Вдобавок к полноценным алгоритмам имеется возможность подстраивать и варьировать величины, которые в удачном и правильном случае могут кардинально изменить ход обучения и повлиять на конечный результат. Такими параметрами являются, в случае градиентного спуска — это параметр скорости настройки, который используется для вычисления приращений весов синапсов, соответственно, чем больше его значение, тем выше приращение, такая величина сохраняется на протяжении как минимум двух итераций и автоматически пересчи-тывается. В случае алгоритма Левенберга-Маркварда—это параметр «мю», данная величина воздействует на скорость сходимости и в зависимости от значения переключается между двумя методами аппроксимации. Рекомендуется выставлять значения не слишком маленькие, в пределах от 0,5 и до 1. Перечисленные выше параметры имеют субъективный характер и не являются идеальным вариантом для реализации экстраполяции, поэтому стоит их использовать, а не оставлять по умолчанию.

Все эти основные параметры подстраивают нейронную сеть под определенную эмпирическую зависимость, делая всё, чтобы аппроксимированная функция в точности описывала целевые значения. Действительно, чем меньше разностная ошибка, тем лучше воспроизводиться функция на обучающем множестве, однако слишком точная аппроксимация ведет к невозможности прогнозировать будущие значения, для которых не подверглись подстройки синаптические коэффициенты — это называется переобучением. Действие переобучения распространяется

сугубо в рамках обучающей выборки. Поэтому, если количество исходных данных мало, то не стоит слишком точно их описывать. Возможное решение — это уменьшение количества нейронов в слое.

При достаточной размерности обучающей выборки стоит использовать алгоритм Левенберга-Маркварда, выходные данные более точно описывают поведение скачков функции, чем у градиентного спуска. Но оба варианта отражают динамику поведения сигнала и амплитуду локальных минимумов и максимумов. Убедиться в этом можно будет чуть дальше. Появляется дилемма, какие алгоритмы использовать в процессе обучения, определенно конкретный алгоритм отсутствует, необходимо исследовать скомбинированные внутренности сети для каждого нового сигнала и определить наилучший, единого стандарта для прогнозирования в целом не существует.

Постановка задачи и её решение. В качестве исходных данных был представлен массив значений сигнала с тысячью моментами времени. Данную выборку можно классифицировать как изменяющиеся двумерные координаты крылатой ракеты. Задачей является предсказать сигнал в последующие моменты. Обучающая выборка была стандартная с последовательным представлением данных, на каждые пятьдесят значений приходилось одно эталонное, с последующим перебором пятьсот значений и шагом в одно значение.

На рис. 1 представлен спрогнозированный сигнал на сто точек вместе с целевым и доверительным интервалом.

По рис. 1 можно отследить нарастание отклонения спрогнозированного сигнала (данная функция выделена маленькими окружностями) от истинных значений (функция с окружностями большего радиуса). Это обуславливается невозможностью прогноза далеких значений, поэтому примерное и возможное изменение дальнейших точек показывает доверительный интервал (сплошные линии), в котором с большой вероятностью должен колебаться «хвост» целевой функции. Таким образом, начиная с первой точки и по сороковую, можно считать, что визуальное совпадение сигналов является приемлемым, а последующие значения с нарастающей ошибкой компенсируются вычисленным доверительным интервалом.

На рис. 2 проиллюстрировано прогнозирование сигнала с двумя методами тренировки сети без использования спектрального метода.

В качестве примера на рис. 2 приведены сигналы с использованием двух выше описанных методов обучения. С визуальной точки зрения наименьшее отклонение от истинных временных промежутков имеет зависимость, обучаемая методом Левенберга-Маркварда, подтверждением является численное значение стандартного отклонения, что меньше величины отклонения методом градиентного спуска.

Т-I-г-г-1-1-1-1-г

Рис. 1. Спрогнозированный сигнал

Рис. 2. Сравнение результатов прогнозирования двумя методами

Рассмотренные моменты ИНС можно анализировать и менять в лучшую сторону, возможно, для таких задач нужно нормировать данные в другом диапазоне, использовать другую — собственную функцию ошибок, пробовать разные варианты и просчитывать оптимальный. Вероятно, эти изменения позволят улучшить результат прогнозирования. Т.е. существует направление, в котором можно двигаться. Ведь добиться идеальной архитектуры и «внутренности» искусственной нейронной сети — это только первый шаг, второй—это удачное обучение с подстройкой всех весовых

значений, которые позволят и обеспечат мгновенное прогнозирование в режиме реального времени.

Целью исследования было разобраться какие аспекты нейронной сети рассмотреть, чтобы убедиться в успехе функционирования экстраполяции недетерминированных широкополосных радиотехнических сигналов на нейронных сетях. Результаты проведенного исследования свидетельствуют, что, в целом, искусственные нейронные сети хорошо справляются со сложной экстраполяцией, составляют высокую конкуренцию статистической обработке на

Vol 10 No 4-2018, H&ES RESEARCH RF TECHNOLOGY AND COMMUNICATION

основе теории вероятности. Думаю, данный метод экстраполяции получит широкое распространение во всех инфраструктурах и будет совершенствоваться, пока не выйдет на лидирующий уровень.

Литература

1. Головко В. А. Нейронные сети: обучение, организация и применение. М.: Радиотехника, 2001. 256 с.

2. Гоноровский И. С. Радиотехнические цепи и сигналы. М.: Радио и связь, 1986. 512 с.

3. Медведев В.С., Потемкин, В. Г. Нейронные сети. М.: Диалог МИФИ, 2001. 630 с.

4. Осовский С. Нейронные сети для обработки информации: пер. с польск. М.: Финансы и статистика, 2002. 344 с.

5. Татузов А. Л. Нейронные сети в задачах радиолокации. М.: Радиотехника, 2009. 432 с.

6. Галушкин А. И. Теория нейронных сетей. М.: ИПРЖР, 2000. 416 с.

7. Галушкин А. И. Нейрокомпьютеры. М.: ИПРЖР, 2000. 532 с.

8. Гультяев А. К. Визуальное моделирование в среде MATLAB. СПб.: Питер, 2000. 432 с.

9. Battiti R. First and second order methods for learning: Between steepest descent and Newton's method // Neural Computation. 1992. Vol. 4. No. 2. Pp. 141-166.

10.Beale E. M. L. A Derivation of Conjugate Gradients // In Numerical Methods for Nonlinear Optimization / Edited by F. A. Lootsma. London: Academic Press, 1972. Pp. 39-43.

11. Hagan M.T., Menhaj M.Training feedforward networks with the Marquardt algorithm // IEEE Transactions on Neural Networks. 1994. Vol. 5. No. 6. Pp. 989-993.

12.Kohonen T. Self-Organization and Associative Memory.2nd ed. Berlin: Springer-Verlag, 1987. 235 p.

13. Kohonen T. Self-Organizing Maps, Second Edition. Berlin: Springer-Verlag, 1997. 501 p.

14.Moller M. F. A scaled conjugate gradient algorithm for fast supervised learning // Neural Networks. 1993. Vol. 6. Pp. 525-533.

15. Rumelhart D. E., Hinton G. E., Williams R.J. Learning representations by back-propagating errors // Nature. 1986. Vol. 323. Pp. 533-536.

USE OF ARTIFICIAL NEURAL NETWORKS IN EXTRAPOLATION OF NON-TERMINATED BROADBAND RADIO ENGINEERING SIGNALS

ANATOLIY A. RAZUMOV,

Chelyabinsk, Russia, [email protected]

ABSTRACT

This work analyzes and describes the potential application of artificial neural networks in the field of technical forecasting. Technical science with sufficient accuracy can determine the probabilistic development of the signal, using the concepts of extrapolation. Optimal is the use of neural networks in the extrapolation of radio signals. The process of modernization and progress in science provokes a person to try to predict the probabilistic development of the future. The purpose of this article is to understand the aspects of neural networks for determining the success of the operation of extrapolation of nondetermin-istic broadband radio-technical signals on neural networks. A lot of research has been carried out in these fields, which show that, in general, artificial neural networks are coping well with complex ex-

KEYWORDS: extrapolation; artificial neural network; signal; method; algorithm.

trapolation, they make a high competition for statistical processing based on probability theory.

The introduction of artificial neural networks today has an intensive development character. Every year this direction becomes more urgent, the need to use artificial intelligence increases, this requires global automation of processes used in society. Currently, there are many forecasting methods. In this article some of them we will analyze and compare with artificial neural networks. So, for example, we will show that forecasting using the statistical processing method requires a lot of effort, time and money. Unlike neural networks that eliminate the disadvantages of the statistical method and can be automated and integrated into any signal pro-

cessing and empirical dependencies.

Artificial neural networks are widely used in the extrapolation of radio engineering signals. In this article we will consider the software tools, algorithms and methods of artificial neural networks.

REFERENCES

1. Golovko V. A. Nejronnyeseti: obuchenie, organizacija i primenenie [Neural Networks: training, organization and application]. Moscow: Radiotehnika, 2001. 256 p. (In Russian)

2. Gonorovskij I. S. Radiotehnicheskie cepi i signaly [Radio circuits and signals]. Moscow: Radio isvjaz', 1986. 512 p. (In Russian)

3. Medvedev V.S., Potemkin V. G. Nejronnyeseti [Neural networks]. Moscow: DIALOG MIFI, 2001. 630 p. (In Russian)

4. Osovskij S. Nejronnye seti dlja obrabotki informacii: per. s pol'sk [Neural networks for information processing]. Moscow: Finansy i statistika, 2002. 344 p. (In Russian)

5. Tatuzov A. L. Nejronnyeseti vzadachahradiolokacii [Neural networks in radar-location]. Moscow: Radiotehnika, 2009. 432 p. (In Russian)

6. Galushkin A. I. Teorija nejronnyh setej [The theory of neural networks]. Moscow: IPRZhR, 2000. 416 p. (In Russian)

7. Galushkin A. I. Nejrokomp'jutery [Neurocomputers]. Moscow: IPRZhR, 2000. 532 p. (In Russian)

8. Gul'tjaev A. K. Vizual'noe modelirovanie v srede MATLAB. [Visual modeling in Mathlab]. St. Petersburg: Piter, 2000. 432 p. (In Russian)

9. Battiti R. First and second order methods for learning: Between steepest descent and Newton's method. Neural Computation. 1992. Vol. 4. No. 2. Pp. 141-166.

10. Beale E. M. L. A derivation of conjugate gradients. In Numerical Methods for Nonlinear Optimization. Edited by F. A. Lootsma. London: Academic Press, 1972. 231 p. (In English)

11. Hagan M.T., Menhaj M. Training feedforward networks with the Marquardt algorithm. IEEE Transactions on Neural Networks.1994. Vol. 5. No. 6. Pp. 989-993.

12. Kohonen T. Self-Organization and Associative Memory. 2nd ed. Berlin: Springer-Verlag, 1987. 235 p.

13. Kohonen T. Self-Organizing Maps. 2nd ed. Berlin: Springer-Verlag. 1997. 501 p.

14. Moller M. F. A scaled conjugate gradient algorithm for fast supervised learning. Neural Networks. 1993. Vol. 6. Pp. 525-533.

15. Rumelhart D. E., Hinton G. E., Williams R. J. Learning representations by back-propagating errors. Nature. 1986. Vol. 323. Pp. 533-536.

INFORMATION ABOUT AUTHOR:

Razumov A.A., student of the South Ural State University.

For citation: Razumov A.A. Use of artificial neural networks in extrapolation of non-terminated broadband radio engineering signals. H&ES Research. 2018. Vol. 10. No. 4. Pp. 30-36. doi: 10.24411/2409-5419-2018-10094 (In Russian)

i Надоели баннеры? Вы всегда можете отключить рекламу.