Научная статья на тему 'Построение диагностических моделей на основе парадигмы отрицательного отбора с использованием принципа маскирования детекторов'

Построение диагностических моделей на основе парадигмы отрицательного отбора с использованием принципа маскирования детекторов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
137
61
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОТРИЦАТЕЛЬНЫЙ ОТБОР / МАСКИРОВАННЫЙ ДЕТЕКТОР / КРИТЕРИЙ ОСТАНОВА

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Зайцев С. А., Субботин С. А.

Получили дальнейшее развитие модель отрицательного отбора с использованием маскированных детекторов и метод ее обучения. Исследовались различные критерии останова для метода обучения модели. Разработан критерий останова, позволяющий выполнить своевременный останов процесса обучения, и таким образом ускорить данный процесс, а также сократить использование вычислительных ресурсов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Построение диагностических моделей на основе парадигмы отрицательного отбора с использованием принципа маскирования детекторов»

УДК 004.93

Зайцев С. А.1, Субботин С. А.2

1 Аспирант Запорожского национального технического университета 2 Канд. техн. наук, доцент Запорожского национального технического университета

ПОСТРОЕНИЕ ДИАГНОСТИЧЕСКИХ МОДЕЛЕЙ НА ОСНОВЕ ПАРАДИГМЫ ОТРИЦАТЕЛЬНОГО ОТБОРА С ИСПОЛЬЗОВАНИЕМ _______________ПРИНЦИПА МАСКИРОВАНИЯ ДЕТЕКТОРОВ___________________________________________

Получили дальнейшее развитие модель отрицательного отбора с использованием маскированных детекторов и метод ее обучения. Исследовались различные критерии останова для метода обучения модели. Разработан критерий останова, позволяющий выполнить своевременный останов процесса обучения, и таким образом ускорить данный процесс, а также сократить использование вычислительных ресурсов.

Ключевые слова: отрицательный отбор, маскированный детектор, критерий останова.

ВВЕДЕНИЕ

При решении задач технического и медицинского диагностирования возникает необходимость представления диагностической модели в виде продукционных правил вида «если-то». Это обусловлено тем, что продукционные правила отличаются простотой представления знаний и организации логического вывода [1]. На практике зачастую оказывается целесообразным описывать антецеденты правил в бинарном виде, где логическая единица определяет наличие признака у экземпляра, а логический ноль - его отсутствие.

Традиционно используемые для построения диагностических моделей подходы [2, 3] обладают рядом недостатков. Так, например, извлечение правил из искусственных нейронных сетей предполагает наличие дополнительного этапа вербализации [2]. Деревья решений облегчают процедуру генерации правил, однако при решении задач большой размерности получаемые в конечном итоге правила существенно усложняются [3].

Устранение этих недостатков возможно обеспечить при использовании искусственных иммунных систем. В частности, предлагается использовать парадигму отрицательного отбора, благодаря таким ее особенностям, как независимость от представления данных, прозрачность процесса обучения и возможность обучения на экземплярах только одного класса [4]. Однако в существующих реализациях моделей отрицательного отбора значительно снижается точность классификации при увеличении размерности задачи [5].

Для снижения размерности задачи предлагается выполнять отбор наиболее информативных признаков, что позволит повысить точность результатов, увеличит способность модели к обобщению, ускорит процесс обучения и улучшит интерпретируемость результатов.

Цель данной работы заключается в создании метода на основе принципов иммунокомпьютинга, позволяющего строить диагностические модели для случая двух классов и представлять результаты работы в виде про© Зайцев С. А., Субботин С. А., 2011

дукционных правил, а также осуществлять отбор наиболее информативных признаков.

1. ПОСТАНОВКА ЗАДАЧИ

Рассмотрим задачу построения диагностической модели для случая, когда все экземпляры описываются с помощью бинарных строк длиной I, где каждый разряд соответствует значению входного признака, характеризующего свойства экземпляра. Набор всех возможных I -битовых строк представляет собой пространство признаков и. Известно, что множество и можно представить в виде двух комплементарных подмножеств £ и N, описывающих «свои» и «чужие» экземпляры соответственно. Пусть нам дана обучающая выборка £', состоящая исключительно из «своих» экземпляров. Необходимо построить диагностическую модель, которую в терминах отрицательного отбора опишем набором детекторов Б , такую, чтобы на основании этого набора любой экземпляр х е и можно было однозначно отнести к классу «своих» или «чужих» экземпляров. Также необходимо, чтобы набор детекторов Б можно было преобразовать во множество продукционных правил вида «если-то», где антецеденты описывают наличие или отсутствие определенного признака у экземпляра, а кон-секвент определяет принадлежность экземпляра к множеству £ или N. Антецеденты правил должны учитывать наиболее информативные признаки.

2. ОТРИЦАТЕЛЬНЫЙ ОТБОР В ИММУНОКОМПЬЮТИНГЕ

Модель отрицательного отбора в искусственных иммунных системах была первой моделью, основанной на поведении биологической иммунной системы.

Основными компонентами модели отрицательного отбора являются детекторы и правила сопоставления. Детекторы способны определить, является ли неизвестный экземпляр экземпляром «чужого» класса, или нет.

Для этого к экземпляру x и детектору d применяется правило сопоставления match(d, x), которое возвращает значение «1», если детектор d активизировался при сопоставлении с экземпляром x, и «0» - в противном случае.

Принцип работы модели заключается в том, что модель содержит набор детекторов, которые толерантны к

«своим» экземплярам: match(d,s) = 0, Vs є S . Поскольку модель отрицательного отбора решает задачу двухклассовой классификации (каждый экземпляр может быть отнесен ко множеству S или N), и S u N = U, S n N = 0, то это предполагает, что детекторы будут реагировать на «чужие» экземпляры n є N .

Первый метод обучения такой модели был описан в [6] и состоял из следующих этапов.

1. Этап генерации детекторов. На этом этапе случайным образом формируется набор кандидатов в детекторы C , как правило, превышающий по объему число

экземпляров обучающей выборки S'.

2. Цензурирование. На данном этапе каждый кандидат в детекторы c є C сопоставляется с каждым «своим» экземпляром из обучающей выборки S'.

Если кандидат активизировался (значение правила сопоставления стало равным 1), то он уничтожается, поскольку не может обеспечить толерантность модели к «своим» экземплярам. Все оставшиеся кандидаты формируют набор детекторов D , который может быть использован для обнаружения «чужих» экземпляров.

Несмотря на очевидную ресурсоемкость данного метода, он получил дальнейшее развитие, что заключалось в разработке более оптимальных методов генерации набора детекторов (жадного метода, метода генерации детекторов за линейное время [7]).

3. МЕТОД ОТРИЦАТЕЛЬНОГО ОТБОРА С ПЕРЕСТАНОВКОЙ БИТОВ

Большинство реализаций модели отрицательного отбора обладают существенным недостатком - эффектом «дыр». «Дырами» называют такие экземпляры «чужого» класса, для которых не может быть сформирован ни один детектор, который оставался бы толерантным к «своим» экземплярам, и при этом реагировал на данный

«чужой» экземпляр: a є N , Vx є U , match(u,a),

3s є S , match(u, s).

Возможное решение данной проблемы описано в [В], при этом модель отрицательного отбора модифицирована таким образом, что каждый детектор представляется не только битовой строкой, а также маской перестановок битов. Эта маска служит для получения дополнительной битовой строки на основе исходной. Маска определяет порядковые номера битов, которые участвуют в перестановке, а также их новое смещение относительно начала строки. Таким образом, с помощью маски формируется вторичное представление детектора (так-

же в виде битовой строки). Например, если детектор представлен исходной битовой строкой ё1 = {0,1,1,0}, а маска перестановки имеет вид {3,2,1,4}, то вторичное представление детектора будет иметь вид ё = {1,1,0,0}.

На этапе обучения такие детекторы с множественным представлением подвергаются цензурированию (удаляются) только в случае, если Уя є £,

таїск(' ё1, я) = 1, і = 1,..., к , где к - число представлений детектора. Однако при проведении классификации экземпляра х, детектор считается активизированным, если хотя бы одно его представление активизировалось:

таїск(' ё1,х)= 1, і = 1,...,к .

Очевидно, что это увеличит область покрытия детектора, однако приведет к увеличению ошибки первого рода («чужие» экземпляры будут ошибочно относиться к классу «своих»).

Первоначально предполагалось, что маска перестановки битов является общей для всей модели, однако в модели Ы8У8 [9] было предложено использовать индивидуальные маски для каждого детектора в наборе. Применение маски перестановки битов в задаче обнаружения сетевых атак позволило обеспечить точность классификации на 32 % выше, по сравнению с базовым методом.

4. МАСКИРОВАНИЕ

Для уменьшения отрицательного влияния «дыр» на результаты классификации авторами предлагается модификация модели отрицательного отбора. Так же, как и в случае множественного представления детектора, в предлагаемой модели детекторы с маскированием характеризуются увеличенной областью покрытия.

Увеличение области покрытия достигается за счет использования замаскированных битов в строках, представляющих детекторы. Для этого алфавит О, на котором определена задача, должен быть дополнен специальным символом 2 , обозначающим маскирование: О = {0,1,2}.

Будем считать, что при вычислении правил сопоставления замаскированный бит строки совпадает с любым значением бита другой строки. С использованием замаскированных детекторов становится возможным применение полного соответствия строк в качестве меры подобия двух детекторов, что было затруднительным ранее [10].

Жизненный цикл детектора также предлагается модифицировать, дополнив генерацию и цензурирование итеративным обучением детектора. Это позволит сократить число сгенерированных детекторов.

Извлечение правил из замаскированных детекторов является тривиальной задачей и заключается в следующем. Каждый детектор представляет собой одно продукционное правило, антецедент которого включает в себя все незамаскированные биты детектора (рассматриваемые как наличие или отсутствие соответствующего при-

знака), а консеквент всегда определяет принадлежность к классу «чужих» экземпляров.

5. МЕТОД ОБУЧЕНИЯ МОДЕЛИ ОТРИЦАТЕЛЬНОГО ОТБОРА С ИСПОЛЬЗОВАНИЕМ МАСКИРОВАНИЯ ДЕТЕКТОРОВ

Для обучения модели отрицательного отбора с использованием маскирования детекторов предлагается применять описанный ниже метод.

1. Установить номер итерации: I = 0. Положить число детекторов, подвергнутых цензурированию: Nc = 0 . Задать: Б = 0 .

2. Сформировать замаскированный детектор d = ^}, где di - значение маски для п-го разряда. Для этого всем битам строки, описывающей детектор d , необходимо установить значение: Уп: di = 2. Увеличить номер итерации: I = I +1.

3. Если е £ : тМсИ^,«) = 1, тогда перейти к этапу

3, в противном случае - к этапу 6.

4. Выбрать произвольным образом бит di, i = 1,...,I,

di = 2 . Если такого бита не существует, тогда установить

Nc = Nc +1 и перейти к этапу 2, в противном случае -перейти к этапу 5.

5. Установить значение i -го бита детектора: di =—^ . Перейти к этапу 3.

6. Добавить детектор d в набор детекторов:

Б = Б и {}. Если выполняется критерий останова (который может быть основан на значениях Nc и I - данный вопрос подробнее рассмотрен в разделе 6), тогда перейти к этапу 7, в противном случае - перейти к этапу 2.

7. Останов.

Важно отметить, что обучение детектора является «жадным» по своей природе. Поэтому для нахождения оптимального набора детекторов рекомендуется во время обучения отбирать «свои» экземпляры в случайном порядке.

Качество полученной диагностической модели будем характеризовать точностью классификации Ф , которая определяется как отношение числа правильно распознанных экземпляров к общему числу экземпляров тестовой выборки.

Производительность работы метода можно повысить, добавив процедуру фильтрации набора детекторов Б на этапе 5. На данном этапе необходимо удалить дублирующиеся детекторы, а также детекторы, поглощенные другими детекторами с меньшей строгостью.

Строгость замаскированного детектора определим как:

т (d ) = £ [1\ dI * 2 }

i=1

Детектор d удаляется в результате цензурирования,

если Эd , Уi = 1,1, (di = 2) V (di = di) л (т^ ) <т^)).

При программной реализации данного метода рекомендуется хранить набор детекторов в виде связного списка, упорядочив его по убыванию строгости детектора.

6. КРИТЕРИИ ОСТАНОВА МЕТОДА ОБУЧЕНИЯ МОДЕЛИ ОТРИЦАТЕЛЬНОГО ОТБОРА

Предложенный метод генерирует вначале детекторы с меньшей строгостью, а затем заполняет получившиеся «дыры» более строгими детекторами. Поскольку заполнение «дыр» весьма несущественно сказывается на точности работы модели, то целесообразно прерывать обучение модели. Для этого необходим критерий останова, который позволит определить полноту покрытия пространства признаков детекторами из набора.

Рассмотрим критерии, на основе которых можно производить останов предложенного выше метода.

Наиболее простым с точки зрения вычислительной сложности является ограничение числа детекторов в популяции. Для этого требуется заранее оценить необходимое число детекторов для обеспечения требуемой точности классификации. Аналогичный подход применялся в [11], что позволило использовать заранее известное фиксированное число детекторов. Однако данный подход не пригоден для останова обучения маскированных детекторов, поскольку детекторы в наборе не являются однородными, а значит, их число не является показателем точности.

На рис. 1 представлен график, отображающий зависимость точности классификации Ф от числа детекторов NБ = \Б\ в серии вычислительных экспериментов с использованием предложенной модели отрицательного отбора, проведенных в рамках решения задачи диагностирования заболеваний сердца [12].

Из рис. 1 можно видеть, что с ростом числа детекторов NБ увеличивается точность классификации Ф . Таким образом, для обеспечения высокой точности диагностической модели на основе клональной селекции необходимо использовать число детекторов, сопоставимое с объемом обучающей выборки. В то же время для обеспечения обобщающих свойств диагностической

0.9 --1--1-1--1--1--1--1-1--1--

О I_____I__I__I___I__I I I_____I__

0 20 40 60 80 100 120140160 180 200

Рис. 1. График зависимости точности классификации Ф от числа детекторов NБ

модели необходимо, чтобы число детекторов было меньше объема обучающей выборки.

Вместо числа детекторов в наборе предлагается использовать в качестве критерия останова степень покрытия пространства детекторами. Под степенью покрытия пространства заданным набором детекторов будем подразумевать соотношение объема пространства, занятого детекторами из набора Б , к объему пространства, занятого «чужими» экземплярами:

P =

D

N

При этом считаем, что благодаря этапу цензурирования детекторы будут находиться только в «чужом» пространстве. Очевидно, что одиночный замаскированный детектор ё может покрыть до V (ё) «чужих» эк-

і

земпляров, где V(ё) = П {21 С = 2}.

і=1

Оценка покрытия группы детекторов не является тривиальной задачей. Так, например, два замаскированных

детектора й?1 и й?2 могут покрыть до

V(і) + V(і2)-V(с л ё2), где V( л й?2) - число «чужих» экземпляров, которые покрываются как детектором й?1 , так и детектором ^ . Для вычисления покрытия большего числа детекторов расчеты еще более усложняются.

Поэтому предлагается использовать приближенную оценку области покрытия детекторов.

В качестве оценки можно использовать число детекторов, которые подверглись цензурированию. Такие детекторы в результате обучения не содержат ни одного замаскированного бита и в то же время реагируют на какой-либо «свой» экземпляр. Логично предположить, что в процессе обучения число таких детекторов будет

а)

возрастать, а значит, его можно использовать в качестве критерия останова метода.

На рис. 2 приведены экспериментально полученные графики зависимости точности работы модели Ф (рис. 2, а) и числа отвергнутых на этапе цензурирования детекторов Nc (рис. 2, б) от числа итераций обучения модели

I, используемой при решении задачи диагностирования заболеваний сердца [12].

Из рис. 2, а следует, что с ростом числа итераций I наблюдается увеличение точности классификации Ф , а также числа детекторов, подвергнутых цензурированию Nc, что за счет исключения избыточных детекторов позволяет повысить обобщающие свойства диагностической модели на основе клональной селекции.

Также можно оценить степень покрытия пространства признаков детекторами с помощью метода, предложенного в [13]. Необходимо сгенерировать достаточно большое число случайных экземпляров в пространстве признаков и вычислить соотношение числа экземпляров, распознанных моделью как «чужие» к их общему числу. При таком подходе невозможно оценить абсолютную степень покрытия детекторами, однако можно анализировать ее динамику, и при снижении темпов роста выполнять останов.

Существенным недостатком такого подхода является необходимость создания, хранения и обработки слишком большого набора случайных тестовых данных. В связи с этим целесообразно осуществлять такую проверку не на каждой итерации, а с некоторым шагом.

Приближенную оценку степени покрытия предлагается определять следующим образом.

1. Сгенерировать случайную пробу t. Проба представляет собой замаскированный детектор высокой строгости, т. е. проба описывает несколько расположенных близко точек в пространстве признаков и , при этом число этих точек и их сгруппированность определяется строгостью пробы т(/). Предлагается задать строгость 0,2/.

б)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рис. 2. График зависимости точности классификации ф (а) и числа отвергнутых на этапе цензурирования детекторов Ыс (б)

от числа итераций I

*

2. Положить значение оценки покрытия e = 1.

3. Вычислить, насколько данная проба t распознается детекторами из набора D . Для этого для каждого детектора d е D необходимо выполнить подэтапы 3.1—3.4.

3.1. Положить: e = 0 .

3.2. Если 3/, dt Ф Z л ti Ф Z л dt Ф tt, то выбрать следующий детектор d е D и перейти к подэтапу 3.1.

3.3. Для всех dt = Z , положить: e = 2e.

3.4. Если e > e , тогда положить: e* = e . Выбрать следующий детектор d е D и перейти к подэтапу 3.1.

4. Останов.

В результате работы метода для пробы t значение

e* укажет, сколько точек, содержащихся в пробе, распознаются детекторами из набора D . Проанализировав данные о нескольких таких случайных пробах, можно судить об области покрытия детекторами модели.

Рекомендуется использовать вместо абсолютного *

значения e относительное значение:

*

, _ e

e= •

Это позволит использовать пробы различной строгости.

Останов процедуры обучения модели можно производить, если относительный показатель покрытия детекторов модели e остается неизменным на протяжении нескольких последовательных итераций.

7. ЭКСПЕРИМЕНТЫ И РЕЗУЛЬТАТЫ

Для проведения экспериментов предложенная модель отрицательного отбора и метод ее обучения были реализованы на языке Python.

Предложенная модель отрицательного отбора обучалась и тестировалась на выборке SPECT [12], которая содержит сведения о пациентах с заболеваниями сердца. Каждый экземпляр описан 22 бинарными признаками и может быть отнесен к одному из двух классов (здоров или болен). Точность классификации после обучения составила 95 %. Для обеспечения такой точности потребовалось сформировать 47 детекторов. Малый размер набора детекторов показывает хорошую обобщающую способность предложенной модели.

Также предложенная модель отрицательного отбора применялась для решения задачи диагностирования повторных респираторных заболеваний у детей [14]. Классификация проводилась на основании данных о 23 бинарных признаках, которыми были представлены экземпляры выборки. В результате работы модели на основе 34 детекторов был получен набор продукционных правил, позволяющий определить предрасположенность пациентов к повторным респираторным заболеваниям. Полученная точность работы диагностической модели составила 98 %.

Результаты проведенных экспериментов свидетельствуют о работоспособности разработанного метода и реализующего его программного обеспечения, а также позволяют рекомендовать их для использования при решении практических задач диагностирования.

ВЫВОДЫ

С целью решения актуальной проблемы автоматизации процесса диагностирования объектов, характеризуемых набором бинарных признаков, разработано математическое обеспечение, позволяющее синтезировать диагностические модели для определения класса состояний объектов диагностирования на основе парадигмы отрицательного отбора.

Научная новизна работы заключается в том, что получили дальнейшее развитие модель отрицательного отбора и метод ее обучения, которые модифицированы для использования маскированных детекторов, а также впервые предложен критерий останова метода обучения, что позволяет решать задачи диагностирования с использованием меньшего числа детекторов. Это повышает скорость обучения модели и позволяет снизить требования к вычислительным ресурсам. Также, благодаря маскированию битов в детекторе, учитываются только наиболее информативные признаки, и облегчается получение продукционных правил на основе набора детекторов.

Практическая ценность работы заключается в том, что разработана программная реализация модели отрицательного отбора с использованием маскированных детекторов, которая может использоваться для решения практических задач технического и медицинского диагностирования.

Работа выполнена в рамках госбюджетных тем «Информационные технологии автоматизации распознавания образов и принятия решений для диагностирования в условиях неопределенности на основе гибридных нечеткологических, нейросетевых и мультиагентных методов вычислительного интеллекта» (№ гос. регистрации 0109U007673), «Методы, модели и устройства принятия решений в системах распознавания образов» (№ гос. регистрации 0110U002031).

СПИСОК ЛИТЕРАТУРЫ

1. Субботін, С. О. Подання й обробка знань у системах штучного інтелекту та підтримки прийняття рішень: навч. посібник I С. О. Субботін. - Запоріжжя : ЗНТУ, 200В. - 341 с.

2. Нейроинформатика I [А. Н. Горбань, В. Л. Дунин-Бар-ковский, А. Н. Кирдин и др.]. - Новосибирск : Наука. Сибирское предприятие РАН, 199В. - 296 с.

3. Quinlan, J. R. C4.5: Programs for Machine learning I J.R. Quinlan. - Massachusetts : Morgan Kaufmann Publishers, 1993. - 302 p.

4. Ji, Z. Revisiting negative selection algorithms I Z. Ji, D. Dasgupta II Evolutionary Computation. - 2007. - № 15. -P. 223-251.

5. Stibor, T. On the Use of Hyperspheres in Artificial Immune Systems as Antibody Recognition Regions I T. Stibor, J. Timmis, C. Eckert II Artifical Immune Systems : 5 th international conference ICARIS-2006, Oeiras, 4-6 September 2006 : proceedings. - New York : Springer-Verlag, 2006. - P. 215-22В.

6. Forrest, S. Self-Nonself Discrimination in a Computer / S. Forrest, A. S. Perelson, R. Cherukuri, L. Allen // Research in Security and Privacy : IEEE Symposium, Oakland, 16-18 May 1994 : proceedings. - Los Alamitos: IEEE, 1994. - P. 202-212.

7. D 'haeseleer, P. An immunological approach to change detection: algorithms, analysis, and implications / P. D’haeseleer, S. Forrest, P. Helman // Computer Security and Privacy : IEEE Symposium, Oakland, 6-8 May 1996 : proceedings. - Los Alamitos: IEEE, 1996. - P. 110-119.

8. Hofmeyr, S. Architecture for an artificial immune system /

S. Hofmeyr, S. Forrest // Evolutionary Computation. - 2000. -№ 8. - P. 443-473.

9. Balthrop, J. Revisiting LISYS: parameters and normal behavior / J. Balthrop, S Forrest, M. Glickman // Evolutionary Computation: congress CEC’02, Honolulu, 12-17 May 2002 : proceedings. - Los Alamitos: IEEE, 2002. - P. 1045-1050.

10. Balthrop, J. Coverage and generalization in an artificial immune system / J. Balthrop, F. Es-ponda, S. Forrest, M. Glickman / / Genetic and Evolutionary Computation: conference GECC0-2002, New York, 9-13 July 2002 : proceedings . -San Francisco: Morgan Kaufmann, 2002. - P. 3 10.

11. Farmer, J. The immune system, adaptation, and machine learning / J. Farmer, N. Packard, A. Perelson // Physica D : Nonlinear Phenomena. - 1986. - № 2. - P. 187-204.

12. Frank, A. SPECT heart data set [Electronic resource] / A. Frank, A. Asuncion. - Irvine : University of California, 2010. - Access mode : http://archive.ics.uci.edu/ml/datasets/ SPECT+Heart.

13. Ji, Z. Negative selection algorithms: from the thymus to V-detector : dissertation ... doctor of philosophy / Z. Ji. -Memphis : The University of Memphis, 2006. - 337 p.

14. Герасимчук, Т. С. Использование искусственных иммунных систем для прогнозирования риска развития рекку-рентных респираторных инфекций у детей раннего воз-

УДК [519.674:519.688]:62-11

раста / Т. С. Герасимчук, С. А. Зайцев, С. А. Субботин // Діагностика та лікування інфекційно опосередкованих соматичних захворювань у дітей: міжрегіональна науково-практична конференція, Донецьк, 10-11 лютого 2011 : матеріали. - Донецьк : Норд-пресс, 2011. - С. 27-29.

Стаття надійшла до редакції 04.05.2011. Зайцев С. О., Суботін С. О.

ПОБУДОВА ДІАГНОСТИЧНИХ МОДЕЛЕЙ НА ОСНОВІ ПАРАДИГМИ НЕГАТИВНОГО ВІДБОРУ З ВИКОРИСТАННЯМ ПРИНЦИПУ МАСКУВАННЯ ДЕТЕКТОРІВ Дістали подальшого розвитку модель негативного відбору з використанням маскованих детекторів та метод її навчання. Досліджувалися різноманітні критерії зупину для методу навчання моделі. Розроблено критерій зупину, що дозволяє виконувати своєчасний зупин процесу навчання, і таким чином прискорити даний процес, а також скоротити використання обчислювальних ресурсів.

Ключові слова: негативна селекція, маскований детектор, критерій зупину.

Zaitsev S. A., Subbotin S. A.

THE DIAGNOSIS MODEL BUILDING ON THE BASIS OF NEGATIVE SELECTION PARADIGM USING THE PRINCIPLE OF DETECTOR MASKING

A new negative selection model using masked detectors with training method has been developed. Various stopping criteria for the training method have been investigated. The stopping criterion is proposed. It allows to terminate training procedure, to speedup training process and to reduce computational resources.

Key words: negative selection, masked detector, stopping criterion.

Чопоров С. В.

Магистр Запорожского национального университета

ПОСТРОЕНИЕ НЕРАВНОМЕРНЫХ ДИСКРЕТНЫХ СЕТОК ДЛЯ ФУНКЦИОНАЛЬНЫХ МАТЕМАТИЧЕСКИХ МОДЕЛЕЙ НА БАЗЕ ТЕОРИИ Я-ФУНКЦИЙ

В работе рассмотрена проблема математического моделирования геометрических объектов на базе теории ^-функций. Предложен подход к построению неравномерных сеток шестигранных элементов.

Ключевые слова: ^-функция, сетка, шестигранный элемент, математическая модель.

ПОСТАНОВКА ПРОБЛЕМЫ в пространстве занимают определенный объем. Напри-

мер, сложные инженерные конструкции, сооружения,

Исследование прочности и долговечности проекти-

машины, механизмы и прочее. По сути, речь идет о ре-

руемых инженерных конструкций является важной со-

шении так называемой обратной задачи аналитической

ставляющей современной техники. В настоящее время

геометрии, когда для имеющейся геометрической обла-

для этих целей широко применяется компьютерное мости строится ее аналитическое описание.

делирование, позволяющее заменить длительное и до- Множество физических объектов реального мира

рогостоящее испытание опытного образца изучением

можно определить как сплошные тела, геометрическое

соответствующих математических моделей. Следователь-

моделирование которых можно рассматривать как про-

но, актуальной является проблема построения матема-

цесс формализации представления геометрии существу-

тических моделей геометрических объектов, которые

© Чопоров С. В., 2011

i Надоели баннеры? Вы всегда можете отключить рекламу.