рекомендуемых профилактических мероприятий показало целесообразность использования разработанной биомедицинской системы в практических целях. Применение системы в лечебно-оздоровительных центрах позволяет не только формировать лечебно-профилактические мероприятия и осуществлять коррекцию программы лечения, но и систематизировать информацию, касающуюся здоровья, как матери, так и ее ребенка.
Использование комплекса знаний о факторах риска дает возможность создать устойчиво функционирующую систему управления факторами риска, которая может стабилизировать ситуацию с состоянием здоровья детей раннего и дошкольного возраста
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Бриллюэн Л. Термодинамика-кибернетика-жизнь // Кибернетика. Современное состояние. - М.: Наука, 1980. - С.8-27.
2. Рао С.Р. Линейные статистические методы и их применения. -М.: Наука, 1968. - 547 с.
3. Нейлор К. Как построить свою экспертную систему. - М.: Энергоатомиздат, 1991. - 286 с.
4. Гергет О.М., Янковская А.Е. Нечеткое принятие решения в интеллектуальной медицинской системе // Интегрированные модели и мягкие вычисления в искусственном интеллекте. - Коломна, 2003. - С.369-376.
А.В. Дмитриев
РАСПОЗНАВАНИЕ ДЕРМАТОГЛИФИЧЕСКИХ ПРИЗНАКОВ НА ОСНОВЕ НЕЙРОННЫХ СЕТЕЙ
Узоры гребешковой кожи и рисунок волосяного покрова издавна используются эмбриологами и тератологами для изучения морфогенеза, т.е. исследования диф-ференцировки органов и тканей. Для обозначения дисциплины, изучающей этот рисунок, Камминс в 1926 году ввел элегантный термин "дерматоглифика".
Сформулированы ключевые свойства дерматоглифики в изучении морфогенеза человека:
- обеспечение простого измерения качественных и количественных биологических признаков, отражающих размер и форму волярных подушечек плода;
- сформировавшиеся признаки дерматоглифики не изменяются при дальнейшем росте и развитии плода, ребенка и взрослого человека;
- дерматоглифика включает в себя наиболее наследуемые характеристики и одновременно отражает эффекты пола, расы, генных мутаций, хромосомных дефектов и тератогенных воздействий;
- признаки дерматоглифики могут быть использованы в изучении воздействий внешней среды в пренатальном развитии путем изучения различий рисунка у монозиготных, дизиготных близнецов и сибсовых пар одного пола;
- дерматоглифика может отражать нарушения пренатального развития при отсутствии других клинических симптомов этого нарушения;
- дерматоглифика обеспечивает измерение соматической симметрии или гемидистрофии ранних стадий развития эмбриона и плода;
Для автоматизации обработки ладонных параметров, разработана компьютерная система распознавания папиллярных узоров ладонной поверхности и дистальных фаланг пальцев.
Исследования показали, что основными признаками для диагностики являются: общий гребневой счёт, ориентация пальцевого узора, ладонный угол atd и тип узора проксимальных фаланг пальцев.
Задача диагностики заболевания относится к классу задач распознавания образов. Методы распознавания образов принято делить [1] на две основные категории: методы основанные на теории решений и структурные методы. Первая категория имеет дело с образами, описанными с помощью количественных дескрипторов. Вторая категория методов ориентирована на образы, для описания которых лучше подходят качественные дескрипторы. В последнее время для решения задач распознавания образов успешно используются искусственные нейронные сети. Нейронные сети превосходят последовательные машины в решении тех же задач, в которых машину превосходит человек.
Рассмотрим возможный подход к решению задачи распознавания на основе дерматоглифических признаков с использованием качественных дескрипторов. Исходным образом является отпечаток пальца, который рассматривается как двумерная функция Дх, у), где х и у - координаты в пространстве, а значение f в любой точке (х, у) определяет интенсивность или яркость изображения в этой точке. Координатное описание контура представляется комплексным числом
где п - номер очередной пары координат, описывающих образ. Для их обработки будем использовать дискретное преобразование Фурье в виде
для к = 1, 2, ..., М - 1, где М означает количество точек описания структуры. Отдельные компоненты преобразования Фурье образуют вектор Б.
Этот вектор также определяет структуру образа, но в другом пространстве параметров. Компоненты этого описания позволяют легко преобразовывать данные независимо от их положения, масштаба, угла поворота, а также от выбранной начальной точки и их количества. Знание составляющих вектора Б достаточно для полного восстановления формы кривой с помощью обратного преобразования Фурье.
Нулевой компонент Б0 преобразования Фурье представляет собой среднее значение измерительных выборок (х1, у) поскольку
Если приравнять это выражении к нулю, то образ, представленный вектором Б, перемещается на стандартную позицию относительной системы координат, не зависящую от фактического первоначального расположения в пространстве данных. Следовательно, вектор Б после такого преобразования имеет вид
инвариантный относительно смещения.
Использование в преобразовании Фурье различного количества оригинальных выборок (х1, у|) отражается на размерности формируемых векторов Б. Для унификации процесса обработки данных количество наиболее значимых компонентов этого преобразования устанавливается априорно. Согласно теории преобразования Фурье наиболее значимыми для отображения структуры компонентами считаются пары координат Б! и БМ-1 следующими - Б2 и БМ-2 и т.д. При определении К таких пар формируется редуцированное представление вектора
7(п) = Х(п) + Іу(п),
М-1
1 ТГ
Б = [Бо, Бі, ..., Бм - і].
1 М-1
Бху = [0, Б1, Б2, ..., БМ - 1],
Бху = [0, Б1, Б2, ..., БК, БМ - К, БМ-2, БМ - 1], которое независимо от количества измерительных выборок, использованных в преобразовании Фурье, имеет одну и ту же установленную размерность (2К + 1).
Инвариантность относительно масштаба образа можно обеспечить нормированием всех высших компонент разложения Фурье, амплитудой компоненты, соответствующей паре Б1 и БМ-1. Коэффициент масштабирования КБ можно определить выражением
К =
Б
В этом случае нормализация компонент Бк вектора Р определяется отношением
Б = ^
ь
При таком преобразовании данных полученная форма вектора Р не зависит от размера образа.
Для обеспечения неизменности измерительных данных относительно угла их поворота следует нормализовать положение этой оси. Коэффициент нормализации угла поворота может быть определен выражением
Кг = ехрНМ!)
где уБ1 и уР2 - это углы степенного представления комплексных чисел Б1 и БМ-1 соответственно. Нормализация данных, обеспечивающая их инвариантность относительно угла поворота, основана на умножении каждой компоненты вектора преобразования Фурье Бк на коэффициент Кг
Бкг = КгБк.
После такого преобразования вектор характеристик образа, подаваемый на вход нейронной сети, не будет зависеть от угла поворота этого образа. Последовательное выполнение описанных преобразований применительно к исходным компонентам вектора Р обеспечивает полную инвариантность относительно перемещения, поворота и масштабирования. Компоненты, преобразованного таким образом вектора, являются дескрипторами образа.
Сигналы в виде последовательности компонент дескрипторов Фурье после преобразования, обеспечивающего инвариантность к перемещению, повороту и масштабированию, становятся входными сигналами для многослойной нейронной сети, играющей роль системы распознавания образов и одновременно выполняющей их классификацию. Количество входных узлов сети равно количеству дескрипторов Фурье, учитываемых при классификации.
Для распознавания образа чаще всего используются либо нейронная сеть с прямой передачей сигнала и обратным распространением ошибки, имеющая сигмоидальную функцию активации, либо радиальные нейронные сети.
Функции активации, или передаточные функции нейрона, преобразуют каждый элемент п1 вектора входа нейрона в элемент а1 вектора выхода:
а1 = Дп1).
Если рассматривать слой нейронов в многослойной сети с прямой передачей сигнала, то выражение функции активации через параметры слоя может быть записано в следующей векторной форме:
ат = ^тат-1 + Ьт) = ^(пт),
2
~т ^ от 1 лт^т
где а - вектор выхода нейронов размера ь х1 для слоя т; W - матрица весовых коэффициентов размера ЬтхЬт 1 для слоя т; Ьт - вектор смещений размера Ьт х1 для слоя т; fт - функция активации нейронов слоя т; пт - век-
от Л0 „
тор входа нейронов для слоя т; Ь - число нейронов слоя; а = р- вектора входа сети размера Ь0 х1, Ь0 = К и К - число элементов вектора входа сети. Логистическая функция
1
1о§ (п) =
применяется очень часто для многослойных перцептронов и других сетей с непрерывными сигналами. Гладкость, непрерывность функции — важные положительные качества. Непрерывность первой производной позволяет обучать сеть градиентными методами (например, метод обратного распространения ошибки). Функция симметрична относительно точки (п=0, 1ogsig(n)=1/2), это делает равноправными значения п=0 и п=1, что существенно в работе сети. Тем не менее диапазон выходных значений от 0 до 1 несимметричен, из-за этого обучение значительно замедляется. Данная функция — сжимающая, т. е. для малых значений п коэффициент передачи K=1ogsig(n)/n велик, для больших значений он снижается. Поэтому диапазон сигналов, с которыми нейрон работает без насыщения, оказывается широким. Значение производной легко выражается через саму функцию. Быстрый расчет производной ускоряет обучение.
Рис. Логистическая функция активации
Для обучения нейронной сети часто используются алгоритмы вБМ и вБЛ, а также вБХ (это совмещение алгоритмов вБМ и вБЛ).
Алгоритм вБМ или алгоритм градиентного спуска с возмущением предназначен для настройки и обучения сетей прямой передачи сигнала. Этот алгоритм позволяет преодолевать локальные неровности поверхности ошибки и не останавливаться на локальных минимумах. С учётом возмущения метод обратного распространения ошибки реализует следующие соотношения для приращения вектора настраиваемых параметров: Л'к = тсЛ'к-1 + (1 - тс)1^к, где Л'к- приращение вектора весов; тс- параметр возмущения, 1г- параметр скорости обучения, gk - вектор градиента функционала на к-й итерации. Если параметр возмущения равен 0, то изменение вектора настраиваемых параметров определяется только градиентом, если параметр равен 1, то текущее приращение равно предшествующему как по величине, так и по направлению.
п
Алгоритм вБЛ, или алгоритм градиентного спуска с выбором параметра скорости настройки, использует эвристическую стратегию изменения этого параметра в процессе обучения. Эта стратегия заключается в следующем. Вычисляются вход и погрешность инициализированной нейронной сети. Затем на каждом цикле обучения вычисляется новые значения настраиваемых параметров и новые значения выходов и погрешностей. Если отношения нового значения погрешности к прежнему превышает величины тах_рге^шс (по умолчанию 1,04), то новые значения настраиваемых параметров во внимание не принимаются. При этом параметр скорости настройки уменьшается с коэффициентом 1r_dec (по умолчанию 0,7). Если новая погрешность меньше прежней, то параметр скорости настройке увеличивается с коэффициентом 1г_1пс (по умолчанию 1,05).
Особое семейство образуют сети с радиальной базисной функцией, в которой скрытые нейроны реализуют функции, радиально изменяющиеся вокруг выбранного центра и принимающие ненулевые решения только в окрестности этого центра [2]. Подобные функции, определяемые в виде <р(х) = <р(||х - с||), где х - вектор входных переменных, называются радиальными базисными функциями. Широко используется гауссовская форма радиальной функции. В этом случае задается значение стандартного отклонения 81, зависящее от разброса выбранных случайным образом центров с1:
для 1 = 1,2, ..., К, где d обозначает максимальное расстояние между центрами с1.
В таких сетях роль скрытого нейрона заключается в отображении радиального пространства вокруг одиночной заданной точки либо вокруг группы таких точек, образующих кластер. Суперпозиция сигналов, поступающих от всех скрытых нейронов, которая выполняется выходным нейроном, позволяет получить отображение всего многомерного пространства. В радиальных сетях отсутствует необходимость использования большого количества скрытых слоев. Структура типичной радиальной сети включает входной слой, на который подаются сигналы, описываемые входным вектором х, скрытый слой с нейронами радиального типа и выходной слой, состоящий из нескольких линейных нейронов. Функция выходного нейрона сводится исключительно к взвешенному суммированию сигналов, генерируемых скрытыми нейронами.
Радиальные нейронные сети относятся к той же категории сетей, обучаемых с учителем, что и многослойный персептрон. По сравнению с многослойными сетями, имеющими сигмоидальные функции активации, они отличаются некоторыми специфическими свойствами, обеспечивающими более простое отображение характеристик моделируемого процесса. важное достоинство радиальных сетей -значительно упрощенный алгоритм обучения. В них можно отделить этап подбора параметров базисных функций от подбора значений весов сети, что сильно упрощает и ускоряет процесс обучения сети.
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Р. Гонсалес, Р. Вудс. Цифровая обработка изображений. - М., Техносфера, 2005. - 1072 с.
2. Оссовский С. Нейронные сети для обработки информации // Пер. с польского И.Д. Ру-динского. - М.: Финансы и статистика, 2004. - 344 с.
V
У