Научная статья на тему 'Структурно-параметрическая идентификация нечетких систем с использованием обобщенного критерия адекватности'

Структурно-параметрическая идентификация нечетких систем с использованием обобщенного критерия адекватности Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
102
36
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
нечеткие модели и системы / оценка адекватности / экспериментальные данные / Обучение / обобщенный критерий адекватности / базы знаний / Fuzzy models / fuzzy systems / estimation of adequacy / experimental dates / Teaching / aggregate measure of adequacy / base of knowledge

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Ковалев Сергей Михайлович, Лябах Николай Николаевич, Шабельников Александр Николаевич

Рассматривается подход к построению нечетких моделей по экспериментальным данным в контексте более общей проблемы, связанной с разработкой методологии оценки адекватности нечетких систем, сформированных на основе алгоритмов обучения. В основу метода обучения положен обобщенный критерий адекватности, одновременно учитывающий точность реализуемого нечеткой системой преобразования, компактность базы знаний и интерпретационную пригодность правил.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Ковалев Сергей Михайлович, Лябах Николай Николаевич, Шабельников Александр Николаевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

This article explores the approach of building of fuzzy models according to the experimental dates in the context of the more general problem, which is connected with the developing of the methodology of estimation of fuzzy systems adequacy, shaped on the base of teaching algorithms. Aggregate measure of adequacy is the base of teaching method. This measure at the same time takes into consideration the precision of transformation realized through fuzzy systems, compactness of base of knowledge's and interpretative applicability of the rules.

Текст научной работы на тему «Структурно-параметрическая идентификация нечетких систем с использованием обобщенного критерия адекватности»

УДК 519.816

СТРУКТУРНО-ПАРАМЕТРИЧЕСКАЯ ИДЕНТИФИКАЦИЯ НЕЧЕТКИХ СИСТЕМ С ИСПОЛЬЗОВАНИЕМ ОБОБЩЕННОГО КРИТЕРИЯ АДЕКВАТНОСТИ

© 2010 г. С.М. Ковалев, Н.Н. Лябах, А.Н. Шабельников

Ростовский государственный университет Rostov State Transport

путей сообщения University

Рассматривается подход к построению нечетких моделей по экспериментальным данным в контексте более общей проблемы, связанной с разработкой методологии оценки адекватности нечетких систем, сформированных на основе алгоритмов обучения. В основу метода обучения положен обобщенный критерий адекватности, одновременно учитывающий точность реализуемого нечеткой системой преобразования, компактность базы знаний и интерпретационную пригодность правил.

Ключевые слова: нечеткие модели и системы; оценка адекватности; экспериментальные данные; обучение; обобщенный критерий адекватности; базы знаний.

This article explores the approach of building of fuzzy models according to the experimental dates in the context of the more general problem, which is connected with the developing of the methodology of estimation of fuzzy systems adequacy, shaped on the base of teaching algorithms. Aggregate measure of adequacy is the base of teaching method. This measure at the same time takes into consideration the precision of transformation realized through fuzzy systems, compactness of base of knowledge's and interpretative applicability of the rules.

Keywords: fuzzy models; fuzzy systems; estimation of adequacy; experimental dates; teaching; aggregate measure of adequacy; base of knowledge.

Введение

В работе рассматривается один из возможных подходов к построению нечетких моделей по экспериментальным данным в контексте более общей проблемы, связанной с разработкой методологии оценки адекватности нечетких моделей и систем, сформированных на основе алгоритмов обучения.

Большинство исследований в этой области касается проблемы обучения нечетких систем (НС) с позиции точности реализуемых ими преобразований. Однако такой подход, направленный, по сути, на повышение аналитических и аппроксимирующих возможностей НС, не позволяет в полной мере реализовать основные достоинства НС, связанные, в первую очередь, с их обобщающими и интерпретационными возможностями, заключающимися в способности к воссозданию хороших качественных описаний сложных процессов или явлений при неполных или неточных исходных данных. Для решения этой проблемы задача обучения НС должна рассматриваться и решаться с учетом нескольких критериев, взаимоувязанных в общий показатель адекватности НС.

Постановка задачи

В качестве НС §: V ^ и рассматривается математическая модель, осуществляющая преобразование численных значений входных переменных V е¥ (V = (х, у,..., z), V = X х У х... х Z) в численные

значения выходных переменных и еП . Для простоты будем считать, что НС имеет одну выходную переменную П . Преобразование V ^ П , реализуемое НС, задано совокупностью нечетких правил «Если..., то ...» , описывающих вход-выходные зависимости

между системными переменными V и П , представленными с использованием нечетких термов, ассоциированных с лингвистическими значениями системных переменных. Преобразование V ^ П реализуется в НС с использованием стандартного механизма нечетко-логического вывода, основанного на интерпретации предусловий правил значениями входных переменных с последующим распространением нечетких ограничений на заключения правил, агрегированием нечетких заключений на шкале выходной переменной и дефаззификацией полученного нечеткого множества для получения четкого значения выходной переменной.

При фиксированном способе вывода характер преобразования, реализуемого НС, определяется двумя основными факторами - структурой нечетких правил, входящих в базу знаний (БЗ) НС, и видом функций принадлежности (ФП) нечетких термов, входящих в описания правил БЗ.

Задача структурно-параметрической идентификации НС в классической постановке формулируется как задача обучения. Располагая конечным множеством примеров реализации зависимости V ^ П (обучающей выборкой), требуется сформировать систему нечетких правил и определить параметры ФП нечетких термов, входящих в описания правил, таким образом, чтобы полученная НС в наиболее полной мере удовлетворяла заданному критерию обучения. При этом в качестве критерия обучения обычно рассматривается точность преобразования V ^ П , оцениваемая среднеквадратичным отклонением выходных значений П* (V), фактически сгенерированных НС, от требуемых выходных значений П(V), заданных в обучающей выборке.

Среднеквадратичный критерий оценки точности преобразования в настоящее время является доминирующим критерием, используемым не только при разработке алгоритмов обучения НС и оценке их адекватности, но и при построении многих других математических моделей, осуществляющих аппроксимацию многомерных данных и функций и, в частности, нейросетевых моделей.

Однако подход к проблеме обучения НС и оценки их адекватности, основанный лишь на использовании среднеквадратичного критерия, представляется не совсем верным по ряду причин.

Во-первых, среднеквадратичный критерий, хорошо применимый для аппроксимации больших объемов «средне зашумленных» данных, оказывается малоэффективным при обучении на небольших обучающих выборках или сильно зашумленных данных, что, например, характерно для задач, связанных с обработкой экспертных данных, полученных от нескольких экспертов. Во-вторых, подход к обучению НС с позиции точности реализуемых ею преобразований плохо согласуется с тем известным фактом, что для более-менее сложных процессов и систем, функционирующих в слабо структурированных предметных областях, принципиально невозможно получение точных преобразований, а поэтому неточность преобразований и нечеткость процессов принятия решений, связанных с этими преобразованиями, являются объективными свойствами НС, с которыми необходимо считаться при их построении. И, наконец, в-третьих, такой подход не отражает саму сущность нечетко-логического моделирования, заключающуюся в построении не столько точной аналитической модели процесса, сколько в построении эвристически адекватной модели, имитирующей способности человеческого мышления по выявлению в исследуемом процессе наиболее характерных качественных закономерностей и тенденций с целью последующего их использования для принятия решений.

Исходя из сказанного, в качестве альтернативы существующим подходам к обучению НС на основе критериев, оценивающих точность преобразования V ^ U, предлагается подход, в основе которого лежит идея формирования такой НС, которая при некотором допустимом уровне точности преобразования в наибольшей мере соответствовала бы современным представлениям об организации человеческого мышления и человеческой системы обработки информации.

Принципы формирования адекватной НС

Исследования в области ИИ позволяют в качестве основных принципов организации мышления эксперта рассматривать следующие принципы, которые можно положить в основу альтернативного подхода к построению НС с использованием механизмов обучения.

1. Принцип рациональности человеческого мышления [1, 2], согласно которому НС, как средство моделирования человеческих рассуждений, должна со-

держать минимальное число достаточно простых по своей структуре, легко интерпретируемых решающих правил, основанных на обобщенных значениях признаков, обеспечивающих релевантную в контексте поставленной задачи точность преобразования ВХОД-ВЫХОД. С целью повышения компактности и интерпретационной пригодности правил в описаниях правил используются обобщенные значения признаков, объединенные в классы дизъюнктивно-конъюнктивных выражений (ДКНФ), позволяющих описывать достаточно сложные закономерности в обучающих данных с использованием наиболее компактных и рациональных с вычислительной точки зрения формул.

2. Принцип иерархичности человеческого мышления [1], заключающийся в рациональном комбинировании сильно обобщенных значений признаков, используемых для аппроксимации данных «по-крупному» с целью выявления в них наиболее характерных качественных закономерностей и тенденций, и детализированных значений признаков, играющих роль уточняющих нечетких термов и используемых для представления в НС более тонких зависимостей между входными и выходными переменными, проявляющимися внутри или на границах областей признаковых пространств, описываемых обобщенными признаками. Детализированные значения признаков объединяются в специальные классы уточняющих описаний, играющих в БЗ НС роль, аналогичную той, которую выполняют пограничные правила, используемые экспертами при выработке сложных решений согласно теории подсознательных решающих правил Ларичева [1].

Число дополнительных уточняющих термов в НС определяется степенью вычурности аппроксимируемых областей признакового пространства. Однако если обучающая выборка содержит сильно искаженные помехами данные, то количество детализирующих термов, входящих в НС, соответственно возрастает, поскольку НС, «не зная» об этих искажениях, должна правильно работать на всех данных, входящих в обучающую выборку. Увеличение числа нечетких термов в НС в данном случае является той минимальной платой за несоизмеримо большее преимущество, которое приобретает НС, сохраняя свои хорошие обобщающие возможности на сильно зашумленных данных.

3. Принцип нелинейности мышления [3, 4], согласно которому при формировании сложных понятий эксперт оперирует не только прямыми, но и исключающими значениями признаков, что диктует необходимость использования в описаниях нечетких правил, входящих в БЗ НС, как прямых, так и инверсных нечетких переменных. Использование исключающих признаков в предусловиях правил обеспечивает возможность компактного представления ими достаточно сложных областей признаковых пространств, имеющих разрывы и вычурные границы, с использованием небольшого числа правил, благодаря чему удается обеспечить требуемый уровень детализации описаний

при сохранении ими хороших обобщающих возможностей.

Общий подход к обучению НС

Сформулированным выше принципам удовлетворяет рассматриваемый ниже подход к обучению, реализующий поэтапную стратегию структурно-параметрической идентификации НС. Поскольку задача структурно-параметрической идентификации НС с математической точки зрения представляет собой оптимизационную задачу в гетерогенном пространстве поиска, включающем структурное пространство продукционных правил и пространство параметров ФП, имеет смысл разбить ее на две относительно самостоятельные подзадачи. Первая заключается в выборе оптимального терм-множества, определение границ размещения термов на признаковых шкалах и формирование структур решающих правил в классе ДКНФ, а вторая - в оптимизации параметров ФП нечетких термов, входящих в описания нечетких правил, и параметров нечетких операций, добавленных в описания правил с целью повышения их выразительных возможностей по представлению исключающих и детализирующих признаков.

Концепция обучения реализуется в три этапа.

Этап. 1. Вначале осуществляется разбиение шкалы выходной переменной U, ограниченной минимальным UMIN = min(U (v) е O) и максимальным UMAX = max(U(v) е O) значениями выходной переменной, на относительно небольшое число k интервалов (k = 7 + 2), подобно тому как это делает эксперт, давая качественную оценку значению выходной переменной с использованием таких нечетких понятий, как «малое», «большое» и т.п. Разбиение выходной переменной U порождает разбиение входных обучающих данных на соответствующее число k классов, для описания которых в признаковом пространстве V = XхYх ...х Z формируются правильные прямоугольные области (гиперпрямоугольники), каждая из которых задает одно четкое классифицирующее «Если ..., то...» правило, описывающее факт принадлежности входных обучающих данных соответствующему классу разбиения. Классифицирующие правила являются прототипами нечетких правил, входящих в БЗ формируемой НС. При этом каждое классифицирующее правило однозначно задает структуру соответствующего нечеткого правила, а именно, стороны гиперпрямоугольника, входящего в описание условной части классифицирующего правила, задают нечеткие термы, входящие в описание предусловия нечеткого правила, проекции сторон на признаковые шкалы определяют интервалы локализации нечетких термов на признаковых шкалах, а номер класса разбиения, указанный в заключении классифицирующего правила вместе с соответствующим интервалом разбиения шкалы выходной переменной, задают соответственно нечеткое значение выходной переменной и интервал ее локализации на признаковой шкале.

Этап 2. С целью минимизации числа правил, входящих в БЗ формируемой НС, гиперпрямоугольники, описывающие классы разбиения входных обучающих данных, должны охватывать как можно большие области признакового пространства. Однако использование максимально обобщенных гиперпрямоугольников в классифицирующих правилах может привести к эффекту «переобобщения», т. е. создать ситуацию, когда некоторые примеры входных данных, принадлежащие разным классам разбиения, попадают в одну и ту же область, что в конечном итоге приведет к пересечению областей и нарушит правильность классификации обучающей выборки. Устранить нежелательный эффект от «переобобщения» данных оказывается возможным, если исходить из возможности использования в описаниях правил исключающих признаков и дополнить БЗ специальной группой детализирующих правил. Для реализации этих возможностей на втором этапе обучения в признаковом пространстве V формируются детализирующие области, находящиеся на пересечении гиперпрямоугольников, описывающих данные из разных классов разбиения. Детализирующие области в пространстве V представляют собой также прямоугольные области, на основе которых формируется группа детализирующих правил. Стороны гиперпрямоугольников задают уточняющие термы соответствующих нечетких детализирующих правил БЗ, а их проекции на признаковые шкалы - интервалы локализации нечетких термов. Уточняющие термы, будучи включенными в описания обобщенных классифицирующих правил в качестве исключающих признаков, устраняют эффект «переобобщения» и позволяют представлять в признаковом пространстве достаточно сложные области данных, принадлежащие разным классам разбиения, с использованием минимального числа обобщенных и детализирующих правил.

Поясняющий пример. Ниже на рис. 1 приведен пример разбиения двумерного признакового пространства с использованием обычных классифицирующих правил (рис. 1 а) и обобщенных классифицирующих правил (рис. 1 б), в которые добавлены исключающие признаки. Как видно, использование исключающих признаков позволяет сократить число правил, классифицирующих исходные данные, с 7 до 3. Обобщенные правила с использованием детализирующих отличительных признаков имеют вид:

(П1) а3& р3 ^ R1,

(П2) а2 & р2 & —(а3 & р3) ^ R2,

(П3) а1 & р1 & —(а2 & р2) ^ R3,

где R1, R2 и R3 характеризуют классы данных, показанные на рисунке в виде кружков без затемнения, со средним затемнением и с сильным затемнением соот-вественно.

Y А

ßi

■ ß2 ß3 .

a1 a2

Х

a3

Y

ß2 . i

ß3

ß3

1

• • «

о о о

о о ♦

« ♦

_L

Х

а1 —*-а2 —аз * а4 -

б

Рис. 1. Примеры разбиения признакового пространства с использованием двух типов правил

Этап 3. На заключительном третьем этапе обучения для всех нечетких термов, входящих в структуру БЗ НС, сформированную в результате реализации первых двух этапов, подстраиваются параметры ФП, с тем чтобы обеспечить более точное преобразование, реализуемое НС на границах и внутри интервалов локализации нечетких термов. На этом же этапе осуществляется подстройка параметров операции нечеткого отрицания, используемой для представления в описаниях правил исключающих признаков.

Таким образом, в результате реализации первых двух этапов обучения формируется структура БЗ НС, обеспечивающая преобразование V ^ П с точностью до «попадания» выходной переменной в установленные границы ее интервальных значений, а на третьем этапе осуществляется окончательная оптимизация параметров НС, чтобы обеспечить более точную подстройку реализуемого ею преобразования на границах и внутри интервалов.

Рассмотрим критерии, используемые при реализации описанной выше схемы обучения НС.

На первых двух этапах обучения критерием является минимизация общего числа классифицирующих правил, входящих в БЗ НС, при сохранении ими требуемого уровня интерпретационной пригодности.

Уровень интерпретационной пригодности правила зависит как от общего числа термов, входящих в описание правила, так и той его части, которая используется для описания отличительных признаков. Поэтому при оптимизации структуры БЗ дополнительно к критерию минимума общего числа решающих правил следует ввести ограничение на общее число термов, применяемых в описаниях правил, а также ограничение на количество инверсных термов, используемых для представления исключающих признаков. На третьем этапе в качестве критерия выступает среднеквадратичный критерий, характеризующий суммарное отклонение значений выходной переменной, сгенерированных НС, от требуемых значений, заданных в обучающей выборке.

Методы реализации общего подхода

Опишем кратко методы, лежащие в основе реализации приведенной выше схемы обучения.

Рассмотрим реализацию наиболее сложного первого этапа обучения НЛС.

В основу предлагаемого подхода положена идея использования для целей извлечения нечетких правил из данных специальных сетевых моделей, называемых гиперпрямоугольными сетями (ГПС) [5]. Предлагаемая гибридная сетевая модель (ГСМ) является модификацией и развитием ГПС на случай ее использования для извлечения нечетких правил в БЗ динамических НЛС с учетом особенностей темпоральных данных.

Первая особенность заключается в том, что все входные переменные определены на единой шкале числовых значений ВР, для их представления можно использовать единое терм-множество. Это обстоятельство позволяет в n раз сократить размеры терм-множеств, используемых для представления системных переменных в БЗ НЛС. Вторая особенность связана с введением дополнительной группы термов, используемых в качестве уточняющих для основных термов, с целью формирования более выразительных и гибких классификационных правил. И третья особенность заключается в принципиально новом подходе к нормализации текущей структуры ГСМ, заключающемся в использовании для целей устранения переобобщения вместо процедуры сжатия гиперпрямоугольных областей, как это делается в ГПС, процедуры дополнительного включения в эти области детализирующих подобластей, сформированных из отрицательных примеров.

Символическое представление двухуровневой ГСМ приведено на рис. 2, а ее математическое описание дано ниже:

OUT (x) = f (£ Outj (x) -л);

]

Outj (x) = f (netj (x));

n

netj (x) = X f (Mj - x)(xt - m}) - n ;

i=1

при f (z) = 1 при z > 0, f (z) = 0 при z < 0 .

а

ß

где mj,Mj е R - настраиваемые синаптические связи j -го скрытого нейрона, x = (x(t), x(t -1),..., x(t - n)) = = (xj,x2,...,xn) - входной образ, ^ - положительная константа меньше 1, Out j (x) - выходная функция j -го

скрытого нейрона, Out(x): Rn ^{0,1} - выходной сигнал ГСМ с J скрытыми нейронами.

OutJ (x)

Рис. 2. Структура ГСМ с J скрытыми нейронами

Заметим, что общее число синаптических связей ГСМ существенно меньше, нежели чем в ГПКНС, что достигается за счет использования для всех системных переменных НЛС единой признаковой шкалы, а следовательно, и единого множества нечетких термов. В результате скрытые нейроны ГСМ описывают в признаковом пространстве системных переменных не гиперпрямоугольные области, как это делается в ГПКНС, а прямоугольные многомерные области с равными сторонами, т. е. гиперкубы.

Алгоритм обучения предлагаемой ГСМ порождает последовательным образом структуру ГСМ путем добавления в нее скрытых нейронов по мере необходимости. Вначале все образы одного класса разбиваются на два подкласса: «положительных» и «отрицательных» примеров. Образ «зерно» используется как основа для начального обучения, имеет произвольно малый размер и выбирается случайным образом из положительного класса. Алгоритм обучения сводится к итерационному использованию двух последовательных процедур обобщения и нормализации. Обобщение направлено на расширение границ гиперкуба, с тем чтобы в него попадал следующий положительный образ. Затем применяется нормализация для исключения из вновь полученной расширенной области отрицательных образов. Процедура нормализации реализуется в два этапа. Вначале осуществляется попытка устранить переобобщение путем равномерного сжатия всех сторон гиперкуба. Если таким путем не удается исключить отрицательные образы из сформированного обобщенного гиперкуба, либо это сжатие приводит к исходному гиперкубу, сводя тем самым на нет обобщающий эффект предыдущей операции, то выполняется второй этап нормализации. Он заключается

в формировании для отрицательных образов, попавших в зону обобщения, специальной подобласти гиперкуба, полученной с использованием уточняющих термов. Эта подобласть формируется путем, аналогичным формированию обобщающих гиперкубов для положительных образов. Сформированные таким образом детализирующие подобласти для отрицательных образов впоследствии используются в обобщенных правилах классификационной модели в качестве исключающих признаков.

Блок-схема алгоритма обучения ГСМ приведена ниже на рис. 3.

Второй этап обучения реализуется с использованием технологии формирования понятий на основе растущих пирамидальных сетей (РПС), способных формировать обобщенные описания данных в классе ДКНФ с использованием как прямых, так и инверсных значений признаков [6]. Для этих целей предлагается РПС специального вида, рецепторами которой являются интервальные значения признаков, сформированные на первом этапе обучения, а ассоциативными элементами - всевозможные объединения интервальных значений признаков в конъюнктивные классы, которые формируются в РПС по мере поступления обучающих данных. Формирование оптимальных обобщенных описаний осуществляется путем обучения РПС в два приема. Вначале формируются всевозможные конъюнктивные классы термов, соответствующие классам разбиения исходных данных, из которых затем формируется результирующее описание в виде ДКНФ путем повторного обучения РПС по критерию минимума общего числа конъюнктов, входящих в результирующее описание. При этом в качестве ограничений выступают ограничения на число инверсных признаков, используемых в каждом из конъюнктов. Данная задача формулируется в виде задачи поиска минимального покрытия обучающих данных группами термов таким образом, чтобы каждая из групп покрывала только соответствующей ей класс данных, либо несколько разных классов, используя при этом в качестве исключающих признаков те группы термов, которые являются контрпримерами для формируемого класса [7].

Третий этап обучения реализуется с использованием инструментария гибридных нейро-нечетких сетей. В качестве нейро-нечеткой сети предлагается модифицированный вариант стандартной нейро-нечеткой системы, включающий несколько слоев для представления основных этапов нечетко-логического вывода, в которую добавлен дополнительный слой нейронов, реализующих операцию нечеткого отрицания. Связи между нейронами устанавливаются в процессе обучения путем соответствующей подстройки параметров операции нечеткого отрицания аналогично тому, как это делается при оптимизации НС по параметрам нечетких операций /-норм и /-конорм в [8].

Формирование «положительных» и «отрицательных» классов

1

Нет ^^

^^ Есть неучтенные

СТОП

Рис. 3. Блок-схема процедуры обучения ГПКНС

Выводы

Рассмотренный подход к формированию НС с использованием исключающих признаков и детализирующих правил расширяет общие возможности методов нечетко-логического анализа по моделированию сложных процессов и систем и, в частности, возможности моделирования при неполных или сильно искаженных данных.

Использование детализирующих правил и исключающих признаков в структуре правил привносит в

НС ряд принципиально новых качеств. Помимо повышения общих выразительных возможностей решающих правил, повышаются адаптационные свойства НС, связанные с появившейся возможностью адаптации параметров НС по параметрам операций, добавленных в описания правил с целью представления исключающих и детализирующих признаков. При этом в максимальной степени может быть использован весь полезный для моделирования потенциал, заложенный в операциях нечеткого отрицания сжимающего и разжимающего типа [8]. Кроме того, по-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

является возможность эффективного представления в НС единичных сильно искаженных данных, которые, при традиционных методах обучения, попадая не в свои классы разбиения, нарушают возможность их компактного описания. Использование же исключающих признаков и детализирующих правил дает возможность представлять в НС эти единичные «выбросы» в виде автономных единиц, которые по мере работы системы могут оперативно добавляться и исключаться из описания правил, сохраняя в целом высокие обобщающие возможности прямых обобщенных признаков, присутствующих в правилах.

Предложенный подход к формированию НС на основе обобщенного критерия адекватности, одновременно учитывающего точность реализуемого НС преобразования, компактность БЗ и интерпретационную пригодность правил, может быть положен в основу разработки общей методологии оценки адекватности НС, сформированных на основе алгоритмов обучения.

Работа выполнена при финансовой поддержке РФФИ (проект № 04-01-00277).

Поступила в редакцию

Литература

1. Ларичев О.И. Теория подсознательных решающих правил -новый взгляд на экспертное мышление // Тр. 8-й национальной конф. по искусственному интеллекту с междунар. участием. М., 2002. С. 1 - 14.

2. Осипов Г.С. Приобретение знаний интеллектуальными системами. М., 1997. 112 с.

3. Гладун В.П. Планирование решений. Киев, 1987.

4. Поспелов Д.А. Логико-лингвистические модели в системах управления. М., 1981. 231 с.

5. Mu-Chun Su, Ching-Tang Hsieh, Chieh-Ching Chin. A neure-fuzzy approach to speech recognition without time alignment // Fuzzy Sets and Systems. 1998, Vol. 98. P. 33 - 41.

6. Гладун В.П. Планирование решений. Киев, 1987.

7. Ковалев С.М. Формирование темпоральных баз знаний на основе аппарата растущих пирамидальных сетей // Интегрированные модели и мягкие вычисления в искусственном интеллекте : сб. науч. тр. III Междунар. науч.-практ. семинара. М., 2005. С. 351 - 357.

8. Батыршин И.З. Основные операции нечеткой логики и их обобщение. Казань, 2001. 102 с.

19 апреля 2010 г.

Ковалев Сергей Михайлович - д-р техн. наук, профессор, начальник центра интеллектуальных технологий на железнодорожном транспорте Ростовского филиала ОАО «НИИАС». Тел. 8(961)268-77-22. E-mail: ksm@rfniias.ru

Лябах Николай Николаевич - д-р техн. наук, профессор кафедры «Экономическая кибернетика», Южный федеральный университет.

Шабельников Александр Николаевич - д-р техн. наук, профессор, директор Ростовского филиала ОАО «НИИАС». Тел. 8(903)403-11-33. E-mail: shabelnikov@rfniias.ru

Kovaliov Sergey Michailovich - Doctor of Technical Scince, professor, Engineer of Joint Stock Company «De-sign&Research Institute for Information Technology, Signaling and Telecommunication on Railway Transport» Rostov Branch. Ph. 8(961)268-77-22. E-mail: ksm@rfniias.ru

Lyabakh Nikolay Nikolaevich - Doctor of Technical Scince, professor of departament economic cybernetician of Southern Federal University.

Shabelnikov Aleksandr Nikolaevich - Doctor of Technical Scince, professor, Director of Joint Stock Company «De-sign&Research Institute for Information Technology, Signaling and Telecommunication on Railway Transport» Rostov Branch. Ph. 8(903)403-11-33. E-mail: shabelnikov@rfniias.ru_

i Надоели баннеры? Вы всегда можете отключить рекламу.