Научная статья на тему 'Дискретная нейронная сеть aдаптивной резонансной Tеории для решения задач подбора лекарственных препаратов'

Дискретная нейронная сеть aдаптивной резонансной Tеории для решения задач подбора лекарственных препаратов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
200
40
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ДИСКРЕТНАЯ НЕЙРОННАЯ СЕТЬ АДАПТИВНОЙ РЕЗОНАНСНОЙ ТЕОРИИ / ЗАДАЧА ПОДБОРА ЛЕКАРСТВЕННЫХ ПРЕПАРАТОВ / ДИСКРЕТНА НЕЙРОННА МЕРЕЖА АДАПТИВНОї РЕЗОНАНСНОї ТЕОРії / ЗАДАЧА ПіДБОРА ЛіКАРСЬКИХ ПРЕПАРАТіВ / DISCRETE NEURAL NETWORK TO ADAPTIVE RESONANCE THEORY / PROBLEM OF THE SELECTION MEDICINAL PREPARATION

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Дмитриенко В. Д., Поворозню О. А.

Предложена дискретная нейронная сеть адаптивной резонансной теории для решения задач подбора лекарственных препаратов. Сеть позволяет определять как одно, так и большее число возможных решений (если они существуют). Предложены способы выделения единственного решения из множества полученных, в том числе, и лучших решений на основе информации экспертов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Discrete neural network adaptive resonance theory for decision of the problem selection medicinal preparation

It is offered discrete neural network to adaptive resonance theory for decision of the problem selection medicinal preparation. The network allows to define as one, so and large number of the possible decisions (if they exist). The offered ways of the separation of the single decision from ensemble got, including, and the best decisions on base of information expert. Figs: 1. Refs: 13 sources.

Текст научной работы на тему «Дискретная нейронная сеть aдаптивной резонансной Tеории для решения задач подбора лекарственных препаратов»

УДК 681.513:620.1

В.Д. ДМИТРИЕНКО, д-р техн. наук, проф. НТУ "ХПИ" (г. Харьков),

О.А. ПОВОРОЗНЮК, аспирант НТУ "ХПИ" (г. Харьков)

ДИСКРЕТНАЯ НЕЙРОННАЯ СЕТЬ ДДАПТИВНОЙ РЕЗОНАНСНОЙ TЕОРИИ ДЛЯ РЕШЕНИЯ ЗАДАЧ ПОДБОРА ЛЕКАРСТВЕННЫХ ПРЕПАРАТОВ

Предложена дискретная нейронная сеть адаптивной резонансной теории для решения задач подбора лекарственных препаратов. Сеть позволяет определять как одно, так и большее число возможных решений (если они существуют). Предложены способы выделения единственного решения из множества полученных, в том числе, и лучших решений на основе информации экспертов.

Ключевые слова: дискретная нейронная сеть адаптивной резонансной теории, задача подбора лекарственных препаратов.

Постановка проблемы и анализ литературы. При реализации терапевтических процедур врачу необходимо решить задачу подбора лекарственных препаратов (сформировать терапевтический комплекс). В [1] формализована задача многокритериального подбора лекарственных препаратов пациенту с учетом диагноза и индивидуальных особенностей пациента и предложено решение указанной задачи с использованием искусственной нейронной сети (ИНС).

Для заданного развернутого диагноза Бк к-го пациента [2], с помощью информационной системы формируется множество необходимых терапевтических воздействий ЕБк для этого пациента, и на его основе -бинарный входной вектор X нейронной сети. Компоненты вектора X соответствуют элементам множества терапевтических воздействий = {/1, ...,/й}, которые могут применяться к множеству диагнозов Б = {Б1, ..., Б{}, в данной предметной области (например, в дерматологии [3]). При этом при каждом заболевании необходимы свои терапевтические действия, например, при лечении псориаза необходимыми являются: / - седативное, / - антистрессовое, / - транквилизирующее, / - дезинтоксикационное, / - вегето-тропное, / - гипосенсибилизирующее, / - антигистаминное, / - улучшающее периферическое кровообращение, / - гепатопротекторное, /1о - витамины, /л -иммунномодулирующее [3].

Единичными компонентами вектора X являются только те компоненты, которые соответствуют элементам подмножества ЕБк терапевтических воздействий, необходимых для к-го пациента. Выходным слоем ИНС является множество нейронов У = {У1, ..., Ут}, элементы которого соответствуют элементам множества возможных препаратов, применяемых в данной предметной области Упр = {у^р,...,у^р}, и которые обеспечивают покрытие

Fd. Например, при лечении псориаза часто применяются следующие лекарственные препараты [4] (в скобках указан 11 -разрядный двоичный код, соответствующий терапевтическим воздействиям f1,f11 при псориазе,

нумерация разрядов слева — направо): >,1пр — аевит (00000000010); у2пр -

реосорбилакт (01010001100); у^р - атоксил (00010000000); у^р - магния

сульфат (10001100000); у5Лр - адаптол (00100010000); у£р - лоратадин

(00000010000); у?р - глицисед (11000000000); у8пр - сондокс (10000000000);

у<Лр - циклоспорин (00000000001).

При этом каждый лекарственный препарат упр, il = 1т характеризуется вектором терапевтических действий Fyi1 = {f...,fah), где ilh — число

терапевтических действий препарата у1^, и вектором характеристик

Sfl = {s^ , ...,% }, компонентами которого silk (к = 1, r) являются:

эффективность, направленность, противопоказания, побочные эффекты, риск сенсибилизации, цена, бренд производителя, использование натуральных ингредиентов, время выведения из организма и т.д. [4].

В [5] авторами разработана структурная схема интеллектуальной системы поддержки принятия решений при назначении лекарственных препаратов на основе дискретной нейронной сети адаптивной резонансной теории АРТ-1 (или ART-1, Adaptive Resonance Theory — 1) [6 — 8]. Однако модули нейронной сети APT-1 не обеспечивают получения нескольких решений, которые возникают при подборе комплекса препаратов. Например, седативное терапевтическое действие может осуществляться тремя препаратами

(У4пр, У5пр, У8пр), антистрессовое — двумя препаратами (у!Лр, у^р) и т.д. Кроме того, получаемые решения могут иметь различное значение вектора характеристик Sil и являются неравноценными при экспертной оценке Si, поэтому желательно иметь возможность их каким-либо образом упорядочивать, например, с помощью набора весовых коэффициентов, заданных экспертом.

Целью статьи является разработка дискретной нейронной сети адаптивной резонансной теории, позволяющей определять одно или большее число решений в задачах распознавания или классификации и осуществлять выбор единственного решения из множества полученных.

Исследования и результаты. Архитектура "классической" нейронной сети АРТ-1 приведена на рисунке в прямоугольнике, нарисованном пунктирной линией. Сеть APT-1 имеет три поля или слоя нейронов: S - слой входных бинарных нейронов, воспринимающих входную информацию в виде

черно-белых изображений или бинарных входных векторов; X - слой бинарных интерфейсных нейронов; У - слой непрерывных распознающих нейронов. Кроме этого, имеются еще два управляющих нейрона 01 и 02 и решающий нейрон Я. Архитектура нейронной сети и алгоритмы ее функционирования детально описаны в работах [6, 9].

Рис. Архитектура дискретной нейронной сети АРТ для поиска нескольких решений в задачах распознавания

Сеть APT-1 относит входной вектор к одному из запомненных классов только в случае, если он достаточно похож на прототип этого класса, хранящийся в весах связей нейронной сети. Если такое свойство, установленное с помощью параметра сходства p между двумя векторами, имеет место в режиме обучения, то найденный прототип модифицируется,

чтобы стать более похожим на предъявленный сети входной вектор. В режиме распознавания параметры сети не меняются, а только фиксируется класс, к которому относится входной вектор. При отсутствии достаточного сходства между входным вектором и прототипами всех имеющихся классов, он запоминается сетью как прототип нового класса. Это возможно благодаря тому, что информация об векторе-прототипе хранится в весах связей одного распознающего Y-нейрона, и сеть имеет значительное число неиспользуемых распознающих нейронов, избыток которых уменьшается по мере поступления новой входной информации. Наличие избыточных распознающих нейронов является принципиальной особенностью сетей APT, поскольку при их отсутствии новые входные вектора просто теряются [6 - 1O].

Связи с весовыми коэффициентами w! (i = І, n; j = І, m), 0 < Wl < І

передают сигналы с выхода каждого Z-элемента на входы каждого Y-нейрона, и определяют значения выходных сигналов Y-нейронов при предъявлении

входного вектора. Бинарные связи с весовыми коэффициентами W;2 (j = l, m ;

i = l, n) связывают выход каждого распознающего нейрона с входом каждого интерфейсного нейрона и задают бинарный прототип класса. На входы каждого Z-элемента по связям с единичными весовыми коэффициентами поступает также сигнал с выхода бинарного управляющего нейрона G1. Сигналы с выходов всех Z-элементов по связям с единичными весовыми коэффициентами поступают на входы решающего нейрона R. Такими же связями выходы всех распознающих нейронов соединены со входами нейрона G1 , а их входы - с выходами нейронов G2 и R.

Нейроны слоев Z и Y переходят в активное состояние по правилу "два из трёх", то есть при наличии возбуждающих сигналов из двух различных источников. Y-нейроны переходят в активное состояние только при наличии единичных сигналов как от Z-нейронов, так и от управляющего нейрона G2; Z-нейроны переходят в активное состояние при наличии либо единичных сигналов от S-нейронов и управляющего нейрона G1, либо единичных сигналов от элементов входного слоя S и выходного слоя Y нейронной сети.

Для обучения дискретных нейронных сетей обычно используется метод быстрого обучения, при котором равновесные веса связей нейронов определяются за одно предъявление входного вектора [6 - 1O].

Недостаток нейронной сети APT-1 состоит в том, что при предъявлении входного вектора сеть определяет близость этого вектора к вектору-прототипу, который хранится в весах связей победившего Y-нейрона, и тем самым определяет принадлежность входного вектора к одному из классов. Остальные возможные варианты решения задачи распознавания теряются.

Для расширения возможностей дискретной нейронной сети APT и получения всех возможных вариантов решения задачи распознавания в работе [11] к базовой архитектуре APT-1 добавлен еще один управляющий нейрон

Я1, инвертирующий выходные сигналы нейрона Я, и слой регистрирующих нейронов у1 (у = 1, от). Вход каждого нейрона У1 связан однонаправленной бинарной связью (у = 1,т) с выходом соответствующего распознающего

нейрона У у. Перед началом режима распознавания нейроны Уу (у = 1, т), как и другие нейроны сети, переводятся в пассивное состояние по цепям связей, не показанным на рисунке. Нейроны У1 (у = 1, т) переходят в активное

состояние по правилу "два из трех" - при наличии единичных сигналов на выходе нейронов У и управляющего нейрона Я1. Единичный сигнал с

выхода нейрона У1 по цепи обратной связи фиксирует выходной сигнал

элемента У 1 и затормаживает нейрон-победитель У . После этого в сети

начинается поиск нового нейрона-победителя. Процесс поиска продолжается до тех пор, пока все распознающие распределенные нейроны не окажутся заторможенными. При этом на выходах нейронов слоя У1 может не оказаться ни одного единичного сигнала, так как входной вектор не похож ни на один из прототипов, хранящихся в весах связей сети. Либо на выходах нейронов слоя

У 1 может быть один или несколько единичных сигналов, указывающих на принадлежность входного вектора к одному или нескольким классам изображений (векторов).

Получение нескольких решений - несомненное достоинство рассмотренной нейронной сети, получившей название АЯТ-^. Однако, наличие нескольких решений порождает задачу определения одного решения из множества имеющихся, которую возможно решить одним из следующих способов.

1. Случайным выбором одного из возможных решений, когда на выходах нейронов дополнительного слоя остается единственный единичный сигнал, а все остальные выходные сигналы равны нулю. Такой подход целесообразно использовать в тех случаях, когда отсутствует какая-либо информация о тех или иных предпочтениях при выборе единственного решения из множества найденных. Этот способ получения решений приводит к, так называемому жесткому решению, при котором теряется информация об остальных решениях.

2. Другим способом выделения жесткого решения является выделение решения с помощью эксперта.

3. Решение определяется с помощью модифицированной нейронной сети

АЯТ-^, отличающейся использованием в слое нейронов У1 элементов, способных запоминать любые положительные сигналы со значениями в интервале [0, 1], и дополнительной информации, представленной экспертами. Например, экспертами задаются предпочтения выбора одного из п1

определенных возможных решений с помощью набора неотрицательных

п1

весовых коэффициентов gj > 0, ^ gj = 1, где gj - весовой коэффициент,

у=1

соответствующий частоте выбора (или предпочтению выбора) у -го решения. Без потери общности рассуждений можно полагать, что все коэффициенты gj различны и расположены в порядке убывания их величин, а решения выделяются с помощью нейронов УД, УД,...,уП. Если задать между нейронами слоев У и У1 веса связей пропорциональными указанным весовым коэффициентам: = g1, Ж232 = g2, ..., Жп31,п1 = gn1, то на выходах нейронов

слоя У1 будут получены сигналы, пропорциональные весовым коэффициентам экспертов. Такой способ получения решения приводит к, так называемому, мягкому решению, когда при выборе единственного решения, соответствующего максимальному выходному сигналу (или любому другому сигналу) на выходе нейронов слоя У1, не теряется информация об остальных решениях. Однако решение, определенное с помощью максимального весового коэффициента, "страдает болезнью жадности" [12], так как оно не меняется при заданном наборе весовых коэффициентов gJ■ (у' = 1, п1) при

повторном предъявлении входного вектора, что при небольшом отличии коэффициентов g ■ выглядит алогичным. Этот недостаток устраняется в

следующем способе выделения единственного решения.

4. Этот способ выделения единственного решения также использует экспертную информацию в виде множества весовых коэффициентов gj

(у' = 1, п1), соответствующих п1 возможным решениям. Однако коэффициенты соответствуют вероятностям, с какими веса связей могут стать единичными. Если один из весов связей определяется как единичный, то все остальные веса связей становятся равными нулю. Этот подход избавляет от "замораживания" решений и позволяет получать различные решения с вероятностями,

определяемыми весовыми коэффициентами gj (у = 1, п1).

Поскольку искусственная нейронная сеть обычно реализуется не аппаратно, а программно, то возможно ведение архива принятых решений и подсчет числа тех или иных решений, а также расчет новых весовых коэффициентов ду (у = 1, п1), которые могут использоваться как для коррекции, так и для замены ранее заданных коэффициентов.

Одним из возможных способов коррекции коэффициентов gJ (у = 1, п1)

с помощью новых коэффициентов ду (у = 1, п1), когда значимость

коэффициентов g j и q j различна, например, из-за того, что они получены на

выборках различной длины, или из-за того, что данным за последний период использования нейронной сети придается больший (либо меньший) вес, может быть следующий:

gnjew = (gj + aqj )/(1 + a), j = 1, nl, (1)

где gnjew - скорректированные или новые значения весовых коэффициентов; а - весовой коэффициент, учитывающий неравнозначность весов g j , q j

(j = ini).

Пример. Пусть nl = 3, g = 0,5; g2 = 0,3; g3 = 0,2; q1 = 0,6; q2 = 0,2; q3 = 0,2; а = 0,3. ^гда по соотношениям (1) имеем: gl™ = 0,523;

g’new = 0,277; g3new = 0,200^

Еще одним способом получения коэффициентов gj или qj (j = 1, nl)

может быть метод анализа иерархий [13], хотя он и является довольно трудоемким и поэтому обычно проводится однократно или через значительные интервалы времени, когда вектор характеристик лекарственных препаратов существенно меняется.

Выводы. Tаким образом, разработана дискретная нейронная сеть адаптивной резонансной теории, позволяющая определять одно или большее число решений (если они существуют) в задачах распознавания или классификации. Предложены способы выделения единственных решений из множества полученных, в том числе, и лучших решений на основе информации экспертов. Перспективой дальнейших исследований является совершенствование интеллектуальной системы поддержки принятия решений при назначении лекарственных препаратов.

Список литературы: 1. ДмumpueH^ В.Д., noBopo-знюк О.А. Система оптимального подбора лекарственных средств в дерматологии II Aвтоматика-2008: доклады XV международной конференции по автоматическому управлению, 23 - 26 сентября 2008 г. - Одесса: ОНMA. - С. 159 - 1б1. 2. Весненш А.И., nonoBА.А., Праненкю М.И. ^по-типология структуры развернутого клинического диагноза в современных медицинских информационных системах и технологиях // Кибернетика и системный анализ. - 2002. - № 6. - С. 143 - 154. 3. Pаціональна діагностика та лікування в дерматології та венерології I За ред. І.І. MaBpoBa // "Довідник лікаря Дерматолог -Венеролог". - К.: ТОВ "Доктор-Mедіа", 2007. - 344 С. (Серія “Бібліотека "Здоров’я України"). 4. Компендиум 2007 - лекарственные препараты / Под ред. В.Н. ^валеню], А.П. Bu^c^o^a. Электронный ресурс. Pежим доступа: http:IIwww.compendium.com.ua. 5. ^umpueHrn> В.Д., Пoвoрoзнюк О.А. Применение нейронных сетей в задаче оптимального подбора лекарственных препаратов // Вестник НГУ "ХПИ". - Харьков: ШУ "ХПИ". - 2008. - N° 49. - С. 56 - бЗ. б. Дмumрuенкo В.Д., KopcyHoB Н.И. Основы теории нейронных сетей. - Белгород: БИИMMAП, 2001. - 159 с. 7. Grossberg S. Competitive learning: from interactive activation to adaptive resonance // Cognitive Science. - 1987. - Vol. 11. - P. 23 - бЗ. S.^umpueHrn>В.Д., Пoвopoзнюк О.А. Новые алгоритмы обучения одно- и многомодульных дискретных нейронных сетей APT II Вестник ШУ "ХПИ". - Харьков: ШУ "ХПИ". - 2008 - N° 24. - C. 51 - б4. 9. Mоделирование и оптимизация

систем управления и контроля локомотивов / Hoc^B В.И., Дмumpuенкo В.Д., Зanoлoвcкuй Н.И., Леoнoв С.Ю. - Х.: ХФИ Tранспорт Украины, 2003. - 248 с. 10. Carpenter G.A., Grossberg S. A massively parallel architecture for selforganizing neural pattern recognition machine // Computing, Vision, Graphics and Image Processing. - 1987. - Vol. З7. - P. 54 -115. 11. Дмumpuенкo В.Д., В.И., Хавта И.П. Вычислительная сеть для решения задач распознавания с несколькими решениями II Вестник ШУ "ХПИ". - 2007.- N° 19. - С. 58 - бЗ.

12. Хайкын С. Нейронные сети: полный курс. - M.: Издательский дом "Вильямс", 2006. - 1104 С.

13. Дмumpuенкo В.Д., Пoвopoзнюк О.А. Mногокритериальная оценка лекарственных препаратов // Доклады ІХ Mеждународной конференции контроль и управление в сложных системах (КУСС-2008), 21 - 24 октября 2008 г. - Винница: ВШУ - С. 262.

УДК 681.513:620.1

Дискретна нейронна мережа адаптивної резонансної теорії для розв'язання задач підбору лікарських препаратів / Дмитрієнко В.Д., Поворознюк О.А. II Вестник ШУ "ХПИ". Tематический выпуск: Информатика и моделирование. - Харьков: ШУ "ХПИ". - 2009. - № 13. -С. б1 - б8.

Запропонована дискретна нейронная мережа адаптивної резонансної теорії для розв'язання задач підбору лікарських препаратів. Mережа дозволяє визначати як одне, так і велике число можливих рішень (якщо вони існують). Запропоновано способи виділення єдиного рішення з множини отриманих, у тому числі, і кращих рішень на основі інформації експертів. Іл.:1. Бібліогр.: 13 назв.

Ключові слова: дискретна нейронна мережа адаптивної резонансної теорії, задача підбора лікарських препаратів.

UDC б81.513:б20.1

Discrete neural network adaptive resonance theory for decision of the problem selection medicinal preparation / Dmitrienko V. D., Povoroznyuk O. A. // Herald of the National Technical University "KhPI". Theme issue: Information science and Modelling. - Kharkov: NTU "KhPI". - 2009. -№. 13. - P. б1 - б8.

It is offered discrete neural network to adaptive resonance theory for decision of the problem selection medicinal preparation. The network allows to define as one, so and large number of the possible decisions (if they exist). The offered ways of the separation of the single decision from ensemble got, including, and the best decisions on base of information expert. Figs: 1. Refs: 13 sources.

Key words: discrete neural network to adaptive resonance theory, problem of the selection medicinal preparation.

Пocmynuлa в pедaкцuю 15.04.2009

i Надоели баннеры? Вы всегда можете отключить рекламу.