Научная статья на тему 'Использование рейтинговых оценок для выбора структуры нейросетевого классификатора в джоульметрических системах распознавания состояния биологических объектов'

Использование рейтинговых оценок для выбора структуры нейросетевого классификатора в джоульметрических системах распознавания состояния биологических объектов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
111
50
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Геращенко С. И., Мартынов И. Ю., Янкина Н. Н., Геращенко С. М.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Использование рейтинговых оценок для выбора структуры нейросетевого классификатора в джоульметрических системах распознавания состояния биологических объектов»

Геращенко С.И. , Мартынов И.Ю. , Янкина Н.Н. , Геращенко С.М. ИСПОЛЬЗОВАНИЕ РЕЙТИНГОВЫХ ОЦЕНОК ДЛЯ ВЫБОРА СТРУКТУРЫ НЕЙРОСЕТЕВОГО КЛАССИФИКАТОРА В ДЖОУЛЬМЕТРИЧЕСКИХ СИСТЕМАХ РАСПОЗНАВАНИЯ СОСТОЯНИЯ БИОЛОГИЧЕСКИХ ОБЪЕКТОВ

Применение джоульметрических методов [1] при исследовании биометрических объектов дает возможность получения информации об их состоянии. В исследуемый объект вводятся электроды, и система «электрод-объект-электрод» превращается в датчик, способный характеризовать свойства среды. Метод позволяет формировать устойчивые информативные признаки.

Одним из направлений применения джоульметрии являются биомедицинские исследования, связанные с определением границ резекции органов, при удалении из них во время операции новообразований. Значительное упрощение задачи при определении границы резекции достигается, исходя из условий распознавания конкретного органа, имеющего участки здоровой и пораженной ткани, и возможности доступа диагностического датчика в зону резекции. Такой подход позволяет использовать методы нейросетевой классификации объектов. Участки, находящиеся на удалении от капсулы опухоли и вблизи ее, выступают соответственно в качестве «эталонов» для классов «норма» и «патология». Граница резекции находится с помощью общего для двух классов признакового пространства и определения принадлежности к одному из них с помощью нейросетевого классификатора.

В джоульметрических системах распознавания состояния возникает проблема выбора структуры нейросетевого классификатора в связи с тем, что джоульметрический метод можно применять для исследования различных органов и патологий, обладающих совершенно разными свойствами и характеристиками, где значения параметров классов могут колебаться на порядки, а также может значительно меняться число параметров, до 100 и выше.

Из-за того, что снятие достаточного числа параметров для исследования нейросетей представляется технически сложным вопросом, для исследования джоульметрических систем реализуется математическая модель: имеются 2 класса (a - норма и b - патология), с набором измеряемых

признаков. Этих признаков у каждого класса - N. Среднее значение признака для класса a - Ma и среднее значение признака для класса b - Mb, а разброс - о. Признаки имеют нормальное распределение и перекрываются.

Задача нейросетевого классификатора состоит в следующем: на основе вектора из N признаков

идентифицировать класс a или b. Качество обучения связано с результатами интерпретации значений, полученных на выходе нейросети, т.е. с процентом ошибок распознавания на серии контрольных данных. Он отражает процент ошибок распознавания для входных данных, с которыми впоследствии будет работать нейросеть.

Для реализации нейросетевого классификатора весьма практичным решением будет использование математических пакетов (например MatLab Neural Network, Statistica Neural Networks), которые имеют множество готовых конфигураций нейросетей, функций обучения и активации. Но основной нерешенной проблемой использования математических пакетов на их современном этапе развития является проблема выбора оптимальной конфигурации, когда известна задача, которую должна решать нейросеть.

В практическом решении задач конфигурация нейросети не отделима от применяемых функций обучения и параметров обучения. Часто в литературе по нейросетям объединяются вместе и архитектура, и функция обучения нейросети. САФП (Совокупность Архитектуры нейросети, Функции обучения и Параметров обучения) имеет большое практическое значение, так как это совокупность характеристик и параметров нейросети, которую уже можно практически применять в математический программных пакетах.

Критериями для выбора оптимальной САФП для решения данной являются: а) минимальный процент

ошибок распознавания на различных наборах входных данных б) стабильная работа нейросети на различных наборах входных данных (сеть работает стабильно, если она не дает отказов при обучении и полученные результаты держатся на различных наборах входных данных). Есть несколько особенностей выбора оптимальной САФП, которые препятствуют однозначному выбору:

На разных наборах входных данных, полученных с помощью одной математической модели, нейросеть может выдавать разные результаты. Например, на одном наборе входных данных одна САФП покажет отличный результат, а другая - посредственный.

Прерывание обучения - используются способы предотвращения явления переобучения нейросети [2]. Из-за того, что происходит резкое прерывание обучения на разных стадиях, процедура обучения проделывает разное число итераций на разных наборах входных данных, и поэтому появляется разброс выходных значений. Таким образом, одна САФП может показать более лучший или худший результат на разных наборах входных данных.

Использование случайных чисел в алгоритмах обучения

Для решения поставленной задачи была выбрана нейросеть, обучаемая с помощью алгоритма обратного распространения ошибки с одним входным, одним промежуточным и одним выходным слоем с 2-мя выходами. Сеть обучалась таким образом, чтобы для идентификации класса a на выходе выдавалась комбинация [-1, 1], а для класса b - комбинация [1, -1] . Для интерпретации выходных данных был

выбран знаковый интерпретатор значений на выходе нейросети, работающий следующим образом: обозначим значение на выходе нейросети парой [a1, a2]. После обучения нейросети производилась следующая дополнительная обработка выходных данных: если a1<0 и a2>0, то это класс a, если a1>0 и a2<0, то это класс b. В случае, если (a1>0 и a2>0) или (a1<0 и a2<0), появляется неопределенная ситуация и засчитывается ошибка распознавания.

Адекватный выбор количества нейронов и слоев — серьезная и нерешенная проблема для нейронных сетей. Основным способом выбора остается прямой перебор различного количества слоев и определение лучшего варианта [4]. Приведем способ приблизительного выявления числа нейронов в промежуточном слое. Для этого был использован следующий метод: формула для оценки необходимого числа

синаптических весов Nw в многослойной сети с сигмоидальными передаточными функциями [3]:

где ^ - размерность выходного сигнала, N - число элементов обучающей выборки, N - размерность входного сигнала. Оценив необходимое число весов, можно рассчитать число нейронов в скрытых слоях. Например, число нейронов в двухслойной сети составит:

N =------*—

N + Ку

Оценка числа слоев для данной задачи дала следующий результат: 2<^24. Это дало основание для выбора числа нейронов в промежуточном слое, которое было взято даже больше, для более широкого охвата. В эксперименте использовалось число слоев от 1 до 25 6. Было взято 11 чисел, обозначающих число нейронов в промежуточном слое. Это число достаточно полно охватывает диапазон, так что более частое распределение было бы избыточным. Особенно был заполнен диапазон от 2-х то 2 4-х, из-за значительности влияния числа нейронов на работу нейросети.

Итак, в результате вводных исследований, обнаружились 10 (функций обучения) * 4 (функции

активации для 2-х слоев) * 11 (настроек числа нейронов) = 4 4 0 САФП.

Выявлен следующий устойчивый критерий сравнения двух САФП, заключающийся в следующем: для

САФП1 обозначим сумму средних процентов ошибок распознавания контрольных групп объектов класса A и класса B за Eспф1, а ту же величину для САФП2 обозначим за Eспф2. Обозначим за P(s) вероятность появления события s среди всего множества исходов. Выдвигаем 2 гипотезы: P (Eспф1i > Eспф2i) > 0.5 и

P(Eспф1i > Eспф2i) < 0.5 - гипотезы неоднородности двух выборок Eспф1i и Eспф2i. Здесь (1=1, ..., п) -

номер наборов контрольных групп объектов класса A и класса B. Для проверки этих гипотез (гипотез неоднородности) был применен критерий анализа повторных парных наблюдений с помощью знаковых ранговых сумм Уилкоксона [5]. Перейдем к Zi = Eспф1i - Eспф2i. Статистическое исследование выборки Zl, ..., Zn для различных пар САФП показало, что эти случайные величины близки к непрерывному и одинаковому распределению, что дало основание применению именно этого критерия. Исследование множества пар САФП по критерию Уилкоксона подтвердило неоднородность выборок Eспф1i и Eспф2i , (для 1=1, ..., п) для разных наборов пар САФП из всего множества. Таким образом, на основании

вышесказанного, можно сравнивать две САФП, и если P (Eспф1i > Eспф2i) > 0.5, то можно считать САФП1

хуже САФП2, если P(Eспф1i > Eспф2i) < 0.5, то САФП1 лучше САФП2, а если P(Eспф1i > Eспф2 1) = 0,5, то они

равноценны (для 1=1, ..., п).

Действие критерия на разнообразных входных данных можно объяснить тем, что факторы, которые позволяют одним методам проникать в локальные минимумы глубже, чем другим, остаются постоянными на различных наборах входных данных для каждой САФП. Критерий дает уверенность в действенности предложенного метода рейтинга, так как метод рейтинга по своей сути близок к методу знаковых ранговых сумм Уилкоксона, но сравниваются не две САФП, а все доступные.

Один набор входных данных подаем на все САФП. Сортируем все САФП по возрастанию суммарного среднего процента ошибок для классов a и Ь. Выстроив САФП таким образом, получаем значение рейтинга для каждой записи, которое есть порядковый номер записи в таблице, или, если значение среднего процента ошибок одинаково для нескольких записей, то значение для этих записей берется как среднее порядковых номеров для серии записей с одинаковым значением.

Таблица 1 Пример построения рейтинга

Рейтинг Средний процент ошибок распознавания класса а Средний процент ошибок распознавания класса Ь Суммарный средний процент ошибок

1 5,8 4,3 10,1

2.5 6 4,8 10,8

2.5 6,7 4,1 10,8

4 6,8 4,2 11

6 6,9 4,2 11,1

6 6,9 4,2 11,1

6 6,8 4,3 11,1

Таким образом, подаем все наборы входных данных на все САФП. Затем подсчитываем среднее

значение рейтинга каждой САФП для всех наборов данных, выстраивая по возрастанию которого, имеем

вверху таблицы лучшие САФП.

Ниже приводятся две положительные стороны метода рейтинга:

Метод рейтинга приближается к естественной оценке потому, что испытание можно проводить на

разнородных данных и происходит выбор той конфигурации, которая всегда побеждает во всех испытаниях среди всех своих конкурентов. Появление метода мотивируется самой сутью поставленной задачи - выбор лучшей САФП.

Рейтинг дает более четкую оценку, когда в одном наборе средних ошибок распознавания большие по величине ошибки распознавания встречаются наряду с ошибками небольшого порядка.

Таблица 2 Полученные результаты (первые 6 записей в таблице рейтинга конфигураций)

Позиция в таблице рейтинга Средний процент ошибок Средний рейтинг функция активации слоя 1 Число нейронов в промежуточном слое функция активации слоя 2 метод обучения

1 7,9076 16,32 риге11п 4 риге11п ^а1п1т

2 7,90125 16,48 риге11п 1 риге11п ^а1псдЬ

3 7,91282 16,60 риге11п 24 риге11п ^а1п1т

4 7,84743 16,91 риге11п 1 риге11п trainbfg

5 7,923076 17,18 риге11п 4 риге11п ^а1пЬг

6 7,93974 17,42 риге11п 8 риге11п ^а1п!т

Здесь использованы следующие обозначения методов обучения, взятые из программы Matlab: trainlm - Левенберга-Марквардта, trainbfg - квазиньютонов алгоритм Бройдена, Флетчера, Гольдфарба и Шано, traincgb - метод сопряженного градиента Пауэлла-Биелле, ^а^Ьг - Левенберга-Марквардта с регуляризацией по Байесу. Средний рейтинг - это среднее значение рейтинга САФП для всех заданных наборов входных данных.

Достаточно действенной является следующая оптимизация данного алгоритма: введение условий

выхода САФП из участия в рейтинге. Первым условием является общий сбой в обучении сети, то есть неспособность обучаться. Эта ситуация может возникнуть в силу нескольких причин, основными из которых являются а) неспособность метода обучения решить данную задачу б) недостаточность ресурсов памяти компьютера в) недостаточная производительность и слишком большая продолжительность обучения (часто это напрямую связано с производительностью). Можно заметить, что сама практика отсекает непригодные САФП при достаточно большом наборе входных данных. Вторым условием является ограничение на процент ошибок. Опыт показывает, что если сеть хотя бы один раз дала средний процент ошибок распознавания одного из классов, больший 15, то эту конфигурацию можно исключить из дальнейшего участия в рейтинге, так как она уже не сможет занять лидирующего места. При применении данного метода оптимизации число испытываемых САФП сокращается в 2 раза.

Поскольку в таблице рейтинга находится большое число САФП, идущих в порядке возрастания, возникает вопрос определения числа САФП, которое бы адекватно отражало лучшие САФП в рейтинге с учетом того, что на результат влияет случайный фактор. Используем вышеупомянутый способ сравнения двух САФП , чтобы сравнивать первую САФП (ее принимаем за эталон) с нижеследующими на основании критерия Уилкоксона, который хорошо работает с методом рейтинга из-за большого сходства этих двух методов. В рейтинге оставляем только те САФП, для которых не отвергается гипотеза о равенстве нулю медиан (т.е. разностей Еспф11 - ЕспфШ1), где САФП1 - первая САФП в рейтинге, САФПт - одна из нижеследующих. Это делается так: с помощью критерия Уилкоксона вычисляются р-значения, которые

затем сравниваются с 1-а (где а - выбранный уровень значимости, который можно взять из число стандартных, например 0.95), и в рейтинге оставляются те САФП, для которых р-значения > 1-а.

После выполнения данной процедуры в рейтинге осталось около 10 САФП.

_____Таблица 3 Сравнение по критерию Уилкоксона 1-го рейтинга с несколькими__________________________

№ в рейтинге 1 3 5 10 15 20

САФП Purelin 4 Purelin 24 Purelin 4 Purelin 32 Purelin 16 Purelin 2

purelin purelin purelin purelin purelin purelin

trainlm trainlm trainbr trainlm trainlm trainbfg

Средний рейтинг 16,3205 16,6025 17,1794 19,8589 24,1538 30,5769

p-значение 0,999994 0,765178 0,248352 0,0452212 0,019694

Среди оставшихся САФП можно провести выбор, но на основании уже других критериев, например: выбрать сеть

с меньшим числом нейронов, с меньшим временем обучения

и др.

В результате проведенных испытаний метод рейтинга показал способность выявлять и отсекать нестабильно работающие САФП, неправильно выбранные параметры настройки и отбрасывать те САФП, которые не способны решить поставленную задачу из-за недостаточности

производительности компьютера, памяти и времени обучения. Метод автоматизирует выбор оптимальной САФП без прямого вмешательства пользователя. Однако, необходимо большое время работы из-за того, что приходится многократно заново переобучать нейросети.

ЛИТЕРАТУРА

1. Геращенко С. И. Джоульметрия и джоульметрические

системы: теория и приложение: монография. - Пенза:

Изд-во Пенз. Гос. Ун-та, 2000.

2. Потемкин В.Г., Медведев В.С. Нейронные сети.

Matlab 6.- Изд-во: Диалог-МИФИ., 2002

3. Widrow B., Lehr M.A. 30 years of adaptive neural networks: perceptron, madaline, and backpropagation // Proceedings of the IEEE, vol. 78, No. 9, September, 1990, p. 1415-1442.

4. Копосов А.И., Щербаков И.Б., Кисленко Н.А.,

Кисленко О.П., Варивода Ю.В. и др., «Отчет по научноисследовательской работе "Создание аналитического обзора информационных источников по применению нейронных сетей для задач газовой технологии"».-

ВНИИГАЗ, 19 95.

5. Тюрин Ю.Н., Макаров А.А. Статистический анализ данных на компьютере. - Изд-во: «Инфра-М»., 19 97 г.

Блок-схема работы метода рейтинга

Синтез математической модели системы

Получить все доступные САПФ

Построить рейтинг САПФ

Отсечь худшие САПФ критерием Уилко ксона

i Надоели баннеры? Вы всегда можете отключить рекламу.