Научная статья на тему 'Энтропийные методы оценки уровня анестезии по ээг-сигналу'

Энтропийные методы оценки уровня анестезии по ээг-сигналу Текст научной статьи по специальности «Математика»

CC BY
1487
206
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ЭНТРОПИЙНЫЕ МЕТОДЫ ИССЛЕДОВАНИЯ / УСЛОВНАЯ ЭНТРОПИЯ ШЕННОНА / ЭНТРОПИЯ КОЛМОГОРОВА / АВТОМАТИЧЕСКИЙ АНАЛИЗ ЭЭГ-СИГНАЛА / РАСПОЗНАВАНИЕ СТАДИЙ НАРКОЗА / ENTROPY METHODS / SHANNON CONDITIONAL ENTROPY / KOLMOGOROV ENTROPY / AUTOMATED EEG ANALYSIS / ANESTHESIA STAGES ASSESSMENT

Аннотация научной статьи по математике, автор научной работы — Немирко Анатолий Павлович, Манило Людмила Алексеевна, Калиниченко Александр Николаевич, Волкова Светлана Сергеевна

Рассмотрены возможности применения энтропийных характеристик ЭЭГ-сигнала, вычисляемых во временной области, в задаче автоматического распознавания стадий анестезии. Обсуждаются методики вычисления условной и аппроксимированной энтропии, вопросы выбора информативных параметров, а также результаты их анализа для нескольких состояний, связанных с применением анестезирующих средств и отличающихся уровнями активности головного мозга.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Немирко Анатолий Павлович, Манило Людмила Алексеевна, Калиниченко Александр Николаевич, Волкова Светлана Сергеевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Entropy methods of anesthesia depth estimation based on EEG analysis

Possibilities of EEG based time-domain entropy characteristics used for the anesthesia stages recognition are discussed. Conditional and approximated entropy techniques, as well as the results of their use for the analysis of several stages of anesthesia related to different levels of human brain activity, are considered.

Текст научной работы на тему «Энтропийные методы оценки уровня анестезии по ээг-сигналу»

X управление в медицине и биологии

УДК 004.383.3

энтропийные методы оценки уровня анестезии по ээг-сигналу

А. П. Немирко,

доктор техн. наук, профессор Л. А. Манило, доктор техн. наук, доцент А. Н. Калиниченко,

доктор техн. наук, старший научный сотрудник С. С. Волкова,

магистрант

Санкт-Петербургский государственный электротехнический университет «ЛЭТИ»

Рассмотрены возможности применения энтропийных характеристик ЭЭГ-сигнала, вычисляемых во временной области, в задаче автоматического распознавания стадий анестезии. Обсуждаются методики вычисления условной и аппроксимированной энтропии, вопросы выбора информативных параметров, а также результаты их анализа для нескольких состояний, связанных с применением анестезирующих средств и отличающихся уровнями активности головного мозга.

Ключевые слова — энтропийные методы исследования, условная энтропия Шеннона, энтропия Колмогорова, автоматический анализ ЭЭГ-сигнала, распознавание стадий наркоза.

Введение

Решение задачи автоматического анализа глубины наркоза по сигналу электроэнцефалограммы (ЭЭГ) в настоящее время, безусловно, актуально, так как способствует более точной оценке текущего физиологического состояния пациента и дает возможность адекватно управлять процессом анестезии. Как известно, изменение уровня функциональной активности головного мозга вызывает характерные изменения, наблюдаемые в ЭЭГ-сигнале [1]. Высокий уровень активности мозга связан с повышением автономной активности отдельных нейронов. Это, в свою очередь, вызывает выраженную десинхронизацию в их работе и сопровождается шумоподобным ЭЭГ-сигналом. При снижении степени функциональной активности повышается уровень синхронизации нейронов во времени, что отражается на ЭЭГ появлением регулярных низкочастотных колебаний достаточно высокой амплитуды. Это состояние, характерное для стадии глубокого наркоза, соответствует меньшей информационной содержательности процессов суммарной электрической активности головного мозга.

Такое представление об особенностях ЭЭГ-сигнала, связанных с разными уровнями актив-

ности головного мозга, позволяет исследовать целый комплекс временных и частотных методов, предназначенных для анализа сложных сигналов, содержащих детерминированные, стохастические и хаотические компоненты. В качестве математической модели ЭЭГ-сигнала в разных стадиях наркоза можно рассматривать временной ряд, заданный последовательностью дискретных отсчетов, в котором степень регулярности находится в прямой зависимости от текущего уровня активности головного мозга. Наиболее адекватными данной модели являются методы анализа биосигнала, основанные на исследовании информационных характеристик, в частности, на оценке энтропийных параметров.

Методы вычисления энтропийных характеристик

Энтропия связана с оценкой степени беспорядка (хаотичности) в динамической системе и может быть использована для анализа сложности (непредсказуемости) ЭЭГ-сигнала и распознавания состояний, сопровождающих процесс анестезии: до начала подачи наркоза, глубокий наркоз, выход из наркоза, стадия окончательного

пробуждения. В случае полностью регулярного и предсказуемого ЭЭГ-сигнала, характерного для состояния глубокого наркоза, энтропия имеет малое значение. В состоянии же высокой активности головного мозга ЭЭГ-сигнал характеризуется большой сложностью и имеет более высокие значения энтропии.

Существуют различные способы вычисления энтропии сигнала, которые применимы для решения задач автоматического анализа ЭЭГ. Во временной области рассматривают, например, энтропию Шеннона или аппроксимированную энтропию (ар-proximate entropy) [2-4]. В частотной области может быть вычислена спектральная энтропия, которая позволяет оценивать вклад в энтропию спектральных составляющих ЭЭГ-сигнала в области выбранного частотного диапазона [5]. В настоящей работе в целях определения глубины наркоза исследуются возможности применения параметров условной энтропии и энтропии Колмогорова, которые могут быть вычислены в процессе автоматического анализа фрагментов ЭЭГ-сигнала.

Первый способ анализа степени регулярности дискретных сигналов во временной области основан на вычислении условной энтропии. Эта характеристика в среднем оценивает потерю информации, связанную с появлением последнего символа в цепочке длиной L при условии получения всей подцепочки предшествующих символов длиной L - 1. В начале вычислений задаются два параметра: L — длина последовательности отчетов, Е — число интервальных оценок дискретных отсчетов сигнала {x(i)}, i = 1, 2, ..., N в диапазоне (xmin, xmax}. Процедура нахождения этого показателя предполагает выполнение следующей последовательности шагов.

1. Формирование для заданной выборки отсчетов {x(i)}, i= 1, 2, ..., N множества (L - 1)-мер-ных последовательностей:

{XL-1 (i) = x(i), x(i +1),..x(i + L-2)},

i = 1,2,...,(N - L + 2),

где N — длина выборки.

2. Представление их в виде цепочек символов вида

Zl-i (i), i = 1,2,., (N - L + 2),

получаемых посредством операций квантования и кодирования элементами из произвольного алфавита A = {ap}, p = 1, ..., Е. Величина Е определяется числом уровней квантования сигнала (обычно Е = 6...8) .

3. Вычисление значения безусловной энтропии:

E(L-1 = -^ PL-1 log PL-1 ’

L-1

где pL _ 1 — вероятность появления конкретной цепочки событий длиной L - 1 (в практических

расчетах оценкой вероятности является частота попадания цепочек символов в соответствующую ячейку фазового пространства).

4. Переход к оценке энтропии для L-точечных последовательностей. Повторение шагов 1-3 для выборок отсчетов длиной L. В результате выполнения этих преобразований формируется множество

{XL (і) = x(i), x(i +1),., x(i + L -1 )}, i = l, 2,..., (N-L + І)

и после представления дискретных последовательностей в виде цепочек символов длиной L вычисляется соответствующая оценка безусловной энтропии E(L) = -^ pL log pL.

L

5. Вычисление величины условной энтропии E(L/L - 1) в виде приращения, получаемого безусловной энтропией E(L) при переходе от последовательности событий длиной (L - 1) к последовательности длиной L:

E(L IL -1) = E(L) - E(L -1) =

= -^ PL log PL + ^ PL-l log PL-l ■

L L-1

Этот показатель является эффективным индикатором появления последовательностей с хаотическими свойствами [6], что может быть использовано и при решении задачи анализа ЭЭГ в условиях анестезии. Условная энтропия стремится к нулю с увеличением L для процессов с выраженной регулярной составляющей и принимает постоянное положительное значение для чисто случайных процессов.

Второй способ основан на вычислении и анализе приближенной оценки энтропии Колмогорова (K-энтропии), что позволяет исследовать свойства ЭЭГ-сигнала с позиций теории нелинейной динамики. В качестве меры хаотичности дискретного сигнала в работе [3] предложено использовать аппроксимированную энтропию (ApEn). Эта характеристика применима для анализа последовательностей конечной длины, что делает возможным реализацию обработки ЭЭГ-сигнала в режиме непрерывного контроля состояния пациента. Процедура вычисления ApEn, а также исследование ее свойств подробно описаны в работах [7, 8].

Методику вычисления этой характеристики коротко можно представить следующим образом. Задаются значения двух параметров: m — длины анализируемых последовательностей отсчетов (m = 2) и r — величины порога, определяющего размеры ячеек фазового пространства (г = 0,2 • SDX, где SDX — стандартное отклонение исходной выборки данных). Для дискретного сигнала {x(i)}, i = 1, 2, ..., N осуществляются следующие преобразования.

1. Формируются последовательности длиной m

X(i) = [x(i), x(i +1),..., x(i + m — 1)], i = 1,..., (N — m +1).

2. Определяется расстояние между X(i) и X(j) в виде d[X(i), X(j)] = max [|x(i + k) — x(j + k)|].

k=0,...,(m—1)

3. Вычисляется С? (i) = Nm (i)/(N — m + 1), где

Nm(i) — количество значений d[(X(i), X(j)], удовлетворяющих условию d[X(i), X(j)] < r(j = 1, ..., (N - m + 1)). 1 N-m+l

4. Находится 0m (r ) =-------- ^ ln Cm (i).

N — m + 1 r=i

5. Значение m увеличивается на 1, повторяются шаги 1-4 и находятся значения C^+^ii), Qm+l(r).

6. Находится оценка ApEn(m) = [9m(r) -- 9m + !(r)].

Как следует из пп. 2, 3 и 4, процедура вычислений реализует адаптивный механизм формирования ячеек фазового пространства. Это свойство аппроксимированной энтропии принципиально отличает ее от условной энтропии. Показано, что аппроксимированная энтропия применима как для распознавания регулярных (детерминированных) и стохастических сигналов, так и для анализа детерминированных хаотических процессов [3]. Показатель ApEn(2) отражает степень сложности сигнала: чем выше его регулярность, тем меньше значение этой величины. Более полное представление о свойствах сигнала можно получить при анализе ряда значений ApEn(m), m = 1, ..., 6 [7, 8].

Анализ параметров энтропии ЭЭГ-сигнала в разных стадиях анестезии

Рассмотренные выше энтропийные характеристики применялись для анализа свойств ЭЭГ-сигнала в разных стадиях анестезии и оценки возможности распознавания стадии глубокого наркоза.

На рис. 1, а—г показаны четыре фрагмента ЭЭГ-сигнала, зарегистрированного на одном пациенте в разных стадиях проводимой анестезии. Частота дискретизации ЭЭГ-сигнала составляет 500 Гц, длительность фрагментов — 10 с. Для этих сигналов рассчитаны рассмотренные выше энтропийные показатели, причем длительность анализируемых фрагментов выбрана равной 5 с.

Пример расчета условной энтропии при заданном числе уровней квантования отсчетов сигнала x(i) в диапазоне (xmin, xmax), равном 6, приведен на рис. 2, I, а—г; рис. 2, il, а—г иллюстрирует результат вычисления аппроксимированной энтропии при значении r = 0,2 • SDx. Как видно из рисунков, в начальной области изменения пара-

а^> EEG: 030609

100 50 0

-50

01 23456789 10

б)

50 0

-50

0123456789 10

б)

50 0

-50

0123456789 10

г)

50

0

-50

01 23456789 10

■ Рис. 1. Фрагменты ЭЭГ-сигнала при разных стадиях анестезии: а — до начала анестезии; б — глубокий наркоз; в — выход из анестезии; г — окончательное пробуждение

метров L и т кривые имеют явные отличия при разных функциональных состояниях головного мозга.

В качестве параметров оценивания уровня анестезии выбраны E(L/L - 1), L = 3 и АрЕп(т), т = 2, т. е. значения условной и аппроксимированной энтропии, вычисляемые для коротких последовательностей отсчетов ЭЭГ при увеличении длины анализируемых выборок от 2 до 3 отсчетов.

Этот выбор обусловлен в первую очередь тем, что при анализе выборок большой длины возрастает число одиночных последовательностей, и из-за их нулевого вклада в оцениваемые показатели энтропии возникает эффект ложной регулярности сигнала. При выбранных значениях L = 3 и т = 2 надежность показателей энтропии значительно выше. Как следует из анализа численных значений энтропийных характеристик (см. рис. 2), оцениваемые параметры более чем в 2 раза уменьшают свои значения при переходе от активного состояния к стадии глубокого наркоза. Кроме того, выход из наркоза и переход к окончательному пробуждению сопровождается постепенным возрастанием значений Е(3/2) и АрЕп(2).

Для приведения показателей энтропии к шкале (0-100) предлагается использовать нормировку по величине абсолютной энтропии: E(L/L - 1), L = 1 и АрЕп(т), т = 0 для условной и аппроксимированной энтропии соответственно. В этом случае следует ожидать значений энтропии, близких к 100, для сигнала ЭЭГ, зарегистрированного

а)

в

а

в

б)

9 10 £

г)

Е (Ь/Ь - 1)

II

■ Рис. 2. Условная Е(Ь/Ь - 1) (I) и аппроксимированная АрЕп(т) (II) энтропия для двух фрагментов сигналов ЭЭГ, соответствующих разным стадиям анестезии: а — до начала анестезии; б — глубокий наркоз; в — выход из наркоза; г — пробуждение

до начала анестезии и в стадии полного пробуждения. При глубоком наркозе, очевидно, энтропийные показатели будут иметь довольно малые значения.

Результаты вычисления этих показателей для выборки ЭЭГ-сигналов (64 реализации длиной 5 с каждая), зарегистрированных у восьми пациентов в 4 стадиях анестезии, представлены на рис. 3 в графическом виде как разброс точек на вертикальных линиях. Каждая точка — это результат вычисления энтропийной характеристики для одной 5-секундной реализации ЭЭГ, зарегистрированной у пациента во время проведения операции в одной из четырех стадий анестезии. Точечные оценки условной и аппроксимированной энтропии отображены на графике в удобной для восприятия шкале (0-100). Как видно из рисунка, на линиях 1 и 2 образованы слабопересекаю-щиеся множества объектов для условной и непе-ресекающиеся — для аппроксимированной энтропии. Очевидно, что при пороговом значении величины аппроксимированной энтропии на уровне 0,45 можно для исследуемой выборки данных решить задачу распознавания стадии глубокого наркоза. Стадии 3 и 4 образуют группы точек, занимающие промежуточное между состояниями 1 и 2 положение, что соответствует существующему представлению о процессе выхода из наркоза.

Сравнение эффективности рассмотренных способов вычисления показателей энтропии проводилось путем нахождения величины относительного разброса их нормированных значений для двух следующих друг за другом состояний (1 ^ 2, 2 ^ 3, 3 ^ 4). В качестве показателя эффективности выбран критерий J, широко используемый в теории линейного дискриминантного анализа при решении задач распознавания клас-

■ Рис. 3. Отображение параметров условной (а) и аппроксимированной (б) энтропии на направления Ь, соответствующие четырем состояниям анестезии: 1 — до начала анестезии; 2 — глубокий наркоз; 3 — выход из наркоза; 4 — окончательное пробуждение

■ Оценка показателя разброса энтропийных параметров

Метод оценки Параметр энтропии Показатели разброса ^ ь + р Ь = 1, 2 3

'11, 2 '12, 3 4

Условная энтропия Е(3/2)/Е(1) 2,85 0,77 0,54

Аппроксими- рованная энтропия АрЕп(2)/АрЕп(0) 3,07 0,78 0,47

сов объектов. Данный критерий принимает максимальное значение в условиях наилучшей классификации двух состояний и определяется в виде

I 2

\ш; -т+л]

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

¿и 1+1 = ' „2 ~2 , 1 = 12,3,

si + ^+1

где тЬ и тЬ + 1 — средние значения вычисляемого параметра энтропии для двух смежных состояний анестезии Ь и Ь + 1; §? =^ (у — т;)2 —величина разброса для спроецированных на ось решений выборок у; в2 + — полный разброс вну-

три классов.

Всего в ходе эксперимента были проанализированы ЭЭГ 31 пациента. Сигналы ЭЭГ зарегистрированы во время проведения операций и идентифицированы в соответствии со стадиями проводимой анестезии. В таблице представлены значения показателя Ji Ь + 1, Ь = 1, 2, 3, полученные в результате обработки 124 реализаций ЭЭГ длительностью 10 с каждая.

Оценка энтропийных параметров проводилась по коротким 5-секундным фрагментам ЭЭГ-сигнала для двух смежных состояний: 1, 2 — до начала анестезии, глубокий наркоз; 2, 3 — глубокий наркоз, выход из анестезии; 3, 4 — выход из анестезии, полное пробуждение.

Как следует из анализа данных, приведенных в таблице, метод оценки аппроксимированной энтропии предпочтителен при распознавании двух альтернативных состояний: до начала анестезии (1) и глубокий наркоз (2). Параметр АрЕп(2)/АрЕп(0) отличается большим по сравнению с Е(3/2)/Е(1) значением J1 2. В то же время метод оценки условной энтропии имеет небольшое преимущество по показателю J3 4.

Заключение

Полученные результаты свидетельствуют о возможности распознавания по вычисляемым во временной области энтропийным характеристикам двух уровней функциональной активности головного мозга: высокая степень активности и глубокий наркоз. Это дает основу для дальнейшего ис-

следования энтропийного подхода в задаче распознавания стадий анестезии. Экспериментальный анализ рассмотренных в работе методов на представительной выборке ЭЭГ-сигналов позволит получить надежные оценки их эффективности, скорректировать оцениваемые показатели энтропии и выработать рекомендации по их использо-

1. Зенков Л. Р. Клиническая электроэнцефалография (с элементами эпилептологии) / ТРТУ. — Таганрог, 1996. — 358 с.

2. Bruhn J. et al. Shannon entropy applied to the measurement of the electroencephalographic effects of des-flurane // Anesthesiology. 2001. Vol. 95. P. 30-35.

3. Nonlinear Biomedical Signal Processing. Vol. 2: Dynamic Analysis and Modelling / Ed. by Metin Akay. — N. Y.: IEEE, 2001. — 341 p.

4. Bruhn J., Ropcke H., Hoeft A. Approximate entropy as an electroencephalographic measure of anesthetic drug effect during desflurane anesthesia // Anesthesiology. 2000. Vol. 92. P. 715-726.

5. Viertio-Oja H. et al. Description of the Entropy™ algorithm as applied in the Datex-Ohmeda S/5TM Entropy Module // Acta Anaesthesiol. Scand. 2004. Vol. 48. P. 154-161.

ванию в задаче распознавания стадий наркоза в режиме непрерывного контроля состояния пациента.

Работа выполнялась при финансовой поддержке РФФИ (гранты: 09-01-00501, 10-01-00604) и Федерального агентства по науке и инновациям (гос-контракт от 10.03.09 г. № 02.522.11.2020).

6. Manilo L. A. Detection of biocological signals with chaotic properties through assessment of conventional entropy // Pattern Recognition and Image Analysis: New Information Technologies (PRIA-9-2008): Proc. of the 9th Intern. Conf. N. Novgorod, 2008. Vol. 2. P. 11-14.

7. Манило Л. А., Зозуля Е. П. Автоматическое распознавание мерцательной аритмии с использованием оценок аппроксимированной энтропии // Информа-ционно-управляющие системы. 2006. № 1. С. 21-27.

8. Манило Л. А., Немирко А. П. Аппроксимация энтропии Колмогорова при анализе хаотических процессов на конечных выборках // Математические методы распознавания образов (ММРО-14): Сб. докл. 14-й Всерос. конф., Владимирская обл., г. Суздаль, 21-26 сентября 2009 г. — М.: МАКС Пресс, 2009. — С. 405-407.

уважаемые читатели!

Журнал «Информационно-управляющие системы» выходит каждые два месяца. Стоимость годовой подписки (6 номеров) для подписчиков России — 3600 руб., для зарубежных подписчиков — 4200 руб., включая НДС 18 % и почтовые расходы.

На электронную версию нашего журнала вы можете подписаться на сайте РУНЭБ (http://www.elibrary.ru).

Подписку на печатную версию журнала можно оформить в любом отделении связи по каталогам:

«Роспечать»: № 48060 — годовой индекс, № 15385 — полугодовой индекс;

«Пресса России» — № 42476, а также используя услуги посредников:

«Издательский дом «Экономическая газета»:

Москва, тел.: (499) 152-88-51, 661-20-30, e-mail: [email protected], [email protected];

«Северо-Западное Агентство «Прессинформ»»:

Санкт-Петербург, тел.: (812) 335-97-51, 337-23-05, факс: (812) 337-16-27, e-mail: [email protected], [email protected], сайт: http://www.pinform.spb.ru;

Подписное агентство «МК-Периодика» (РФ + 90 стран): тел.: (495) 681-91-37, 681-87-47, факс: (495) 681-37-98, e-mail: [email protected], сайт: http://www.periodicals.ru;

«Информнаука» (РФ + ближнее и дальнее зарубежье):

тел.: (495) 787-38-73 (многоканальный), факс: (495) 152-54-81, e-mail: [email protected], сайт: http://www.informnauka.com;

«Артос-Гал»:

Москва, тел.: (495) 603-27-28, 603-27-33, 603-27-34, факс: (495) 603-27-28, сайт: http://www.artos-gal.mpi.ru/index.html;

«Интерпочта»:

Москва, тел.: (495) 500-00-60, 580-95-80,

e-mail: [email protected], сайт: http://www.interpochta.ru и др.

i Надоели баннеры? Вы всегда можете отключить рекламу.