Научная статья на тему 'Негэнтропия и информативность'

Негэнтропия и информативность Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
752
84
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНФОРМАЦИЯ / ИНФОРМАТИВНОСТЬ / ЭНТРОПИЯ / НЕГЭНТРОПИЯ / КОЛИЧЕСТВО ИНФОРМАЦИИ / ДИАГНОСТИКА / ЦИФРОВОЕ ИЗОБРАЖЕНИЕ / INFORMATION / INFORMATION CONTENT / ENTROPY / NEGENTROPY / AMOUNT OF INFORMATION / DIAGNOSTICS / DIGITAL IMAGE

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Номоконов Иван Борисович

Статья посвящена методу оценки информативности цифрового изображения и ориентирована на лучевую диагностику. Информативность цифрового рентгеновского изображения рассматривается как основа диагностики. Для ее определения рекомендуется применение метода оценки негэнтропии. Он основан на сравнении эталона и анализируемого изображения. Описаны методы фильтрации цифрового изображения как средство его улучшения. Описан подход с применением энтропии и показаны его недостатки. Вводится понятие информативности цифрового изображения

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Negentropy and informative

The article explores the evaluation of information content of the digital image, and relates to the field of radiation diagnosis. Informative digital X-ray image is regarded as the basis of diagnosis. The article shows the feasibility of the method of estimation of negentropy for informative assessment. Assessment is based on a comparison of the standard and the analyzed image. This article describes methods of filtering a digital image to improve it. This article describes an approach to the use of entropy and showing his shortcomings. The article introduces the concept of information content of the digital image

Текст научной работы на тему «Негэнтропия и информативность»

19. Номоконова О. Ю. Опыт врача как когнитивный информационный ресурс // Славянский форум. 2015. № 3 (9) С. 200-209.

20. Цветков В. Я. Информационные модели объектов, процессов и ситуаций // Дистанционное и виртуальное обучение 2014. №5. С. 4-11.

21. Цветков В.Я. Дескриптивные и прескриптивные информационные модели // Дистанционное и виртуальное обучение. 2015. № 7. С. 48-54.

22. Номоконова О. Ю. Интуиция специалиста как неявное знание // Славянский форум. 2015. № 2 (8) С. 216-223.

23. Tsvetkov V. Yа. Opposition information analysis // European Journal of Technology and Design. 2014. Vol. 6. Iss. 4. P. 189-196.

24. Номоконова О. Ю. Тринитарная диагностика // Славянский форум. 2016. № 2 (12). С. 196-204.

25. Цветков В. Я. Рецепция информации // Образовательные ресурсы и технологии. 2016. № 1 (13). С. 121-129.

26. Некрашевич С. П., Божко Д. В. Представление данных в Интернет на основе семантических сетей // Искусственный интеллект. 2006. № 1. С. 57-59.

27. Чазов Е. И., Царегородцев Г. И., Кротков Е. А. Опыт философско-методологического анализа врачебной диагностики // Вопросы философии. 1986. № 9. С. 65-85.

28. Цветков В. Я. Имплицитные и тацитные знания // Международный журнал прикладных и фундаментальных исследований. 2016. № 5 (часть 1). С. 140-141.

30. Полани М. Личностное знание. На пути к посткритической философии / Пер. с англ. под ред. В. А. Лекторского и В. И. Аршинова. - М.: Прогресс, 1985. 343 с.

Tacit knowledge in medical diagnostics

Ol'ga Yur'evna Nomokonova, Therapists pulmonary department; doctor allergist-immunologist consultative and diagnostic clinics. Irkutsk Regional Hospital

The article describes a study tacit knowledge as an objective factor in medical diagnostics. The article reveals the contents of modern medical diagnostics. The article shows that in some cases, tacit knowledge hinder diagnosis and require their removal. In other cases, tacit knowledge is an additional resource for medical diagnostics. This article describes the diagnostic process as a complex dynamic system. The article reveals the contents of two types of high-quality diagnostic problems.

Keywords: medical diagnostics, tacit knowledge, information technology, reproductive diagnostic tasks, scientific diagnostic tasks.

УДК 001.8

НЕГЭНТРОПИЯ И ИНФОРМАТИВНОСТЬ

Иван Борисович Номоконов, зав. отделением лучевой диагностики e-mail: [email protected] ОГБУЗ Иркутская районная больница http://www.crbirk.ru/employees

Статья посвящена методу оценки информативности цифрового изображения и ориентирована на лучевую диагностику. Информативность цифрового рентгеновского изображения рассматривается как основа диагностики. Для ее определения рекомендуется применение метода оценки негэнтропии. Он основан на сравнении эталона и анализируемого изображения. Описаны методы фильтрации цифрового изображения как средство его улучшения. Описан подход с применением энтропии и показаны его недостатки. Вводится понятие информативности цифрового изображения.

Ключевые слова: информация; информативность; энтропия; негэнтропия; количество информации; диагностика; цифровое изображение.

Введение Ш1: 10.21777/2312-5500-2017-1-55-63

Существует ряд работ в области обработки изображений, в которых понятие информативности цифрового изображения связывают с понятием энтропии, не принимая во внимание то, что энтропия - мера неопределенности и информация, которая получается как разность энтропий, характеризует уменьшение неопределенности, а не увеличение содержательности. На наш взгляд, информативность является содержательной характеристикой, поэтому ее надо связывать с негэнтропией и негэнтро-пийным подходом. Негэнтропия связана с энтропией и для ее понимания необходимо рассмотреть особенности энтропии. Энтропия характеризует в первую очередь неопределенность, разнообразие и хаос. Рост неопределенности информационной ситуации характеризуется ростом энтропии. Увеличение по- А

рядка в информационной ситуации характеризуется ростом негэнтропии. Увеличение негэнтропии вызывает уменьшение И.Б. Номоконов энтропии и наоборот. Однако эти величины изменяются в системе по самостоятельным закономерностям и используют разные типы информации.

Материал и методы исследования. В качестве материала использовались существующие изображения и модели изображений. В качестве теории использовалась теория энтропии и негэнтропии. В качестве инструментария использовались методы моделирования и методы обработки цифровых изображений.

Результаты исследования

Отношения энтропии, негэнтропии и информации. Цифровая обработка изображений, в частности обработка рентгеновских снимков [1], связана с компьютерной обработкой [2] и со статистическим анализом [3-5]. При отсутствии компьютерной обработки врач осуществляет диагностику, опираясь на когнитивные методы [6, 7], рецепцию информации [8-10] и экспертное оценивание. Во многих случаях статистические методы приводят к использованию понятия энтропии. Энтропию применяют для определения количества информации [11], которое это понятие позволяет вычислять.

Рассмотрение энтропии как меры хаоса требует пояснения, что понимают под хаосом. Энтропия в термодинамике - это величина, обозначающая функцию состояния термодинамической системы. Она определяет меру необратимого рассеивания энергии. В статистическом ансамбле это выражается в том, что температура в такой системе выравнивается и наступает состояние равновесия между элементами статистического ансамбля. Это приводит к пониманию того, что термин энтропия сопоставляют с понятием термодинамического или статистического равновесия. В статистике равновесие описывает распределение случайной величины. Понятие равновесия и хаос не являются синонимами. Увеличение энтропии приближает информационную или статистическую ситуацию к естественной и приближает распределение некой величины к случайному распределению.

Увеличение негэнтропии отдаляет информационную ситуацию от естественной среды. Негэнтропия создает разрыв между естественным и искусственным. Негэнтропия поддерживает жизнедеятельность искусственной системы, выделяя ее из «хаоса» или равновесия естественной окружающей системы.

Энтропию применяют как меру неопределенности [12] некоторой ситуации, которая может переходить в разные состояния. Соответственно, переходы в разные состояния характеризуются разным количеством информации [11]. Другой интерпретацией этого понятия является информационная емкость системы или сообщения [13]. Для информационной энтропии существует ряд разных определений. В математической теории коммуникации дают следующее определение: информационная энтропия - неопределенность появления какого-либо символа алфавита. При переносе этого понятия в область информационного моделирования получаем: информационная энтропия -

мера неопределенности или непредсказуемости информационной ситуации. Близким понятием энтропии в статистической теории будет тенденция стремления случайной величины к ее естественному распределению. Чаще всего это распределение Гаусса.

На основе анализа можно сделать вывод о том, что в информационной области энтропию целесообразно связывать с информационной ситуацией, в которой находится объект исследования. В качестве объекта исследования будем рассматривать цифровое изображение, или цифровой снимок. Его можно рассматривать как естественную и искусственную систему [14].

Искусственная система обычно закрыта, систематизирована и упорядочена [15]. Большинство систем обладают системными свойствами и имеют четкую структуру, а также внутреннюю иерархию [16]. Информационная ситуация открыта, более вариабельна и в большей степени подвержена воздействию внешней среды.

Особенностью энтропийного подхода является наличие разных видов информации, вытекающих их этого похода. Одним из первых видов является информация Хартли [17]. В 1928 году Р. Хартли предложил определить количество информации в теории коммуникации при передаче сообщения длины N при использовании алфавита из M символов. Он ввел логарифмическую меру для Н - количества информации:

H = log2 M N, (1)

Эта величина называется хартлиевским количеством информации, или мерой Хартли. Она была введена за 20 лет до работы К. Э. Шеннона, который предложил оценку количества информации через разницу энтропий между состояниями, характеризующими неопределелнность. Информационная энтропия для независимых случайных событий x с n возможными состояниями (от 1 до n) с вероятностью этих состояний рi рассчитывается по формуле

Н(х) = - lA-log^ (2)

Эта величина называется средней энтропией сообщения. С этой функцией связаны понятия собственная информация (self-information), взаимная информация и др. Собственная информация (self-information) символа Xj определяется количеством информации I, доставляемым самим символом, то есть его информационной емкостью. Она определяется как

Щ) = loga [1/p(xj)] = - loga pij (3)

Выражение (3) есть self-information, или частная энтропия состояния. Согласно выражению (3) информация в символе измеряется логарифмом величины, обратной вероятности его появления. Эта вероятность определяется количеством знаков алфавита и особенностями конкретного языка. В каждом из языков существуют свои частоты появления символов. Поскольку 0 < p(xy) < 1, то согласно (3) собственная информация всегда положительна. Это означает, что рассматриваемые в теории энтропии информационные объекты имеют информационный объем, куда можно «что-то разместить».

Негэнтропия является мерой упорядоченности, структуризации системы или искусственной информационной ситуации [18]. При положительном развитии системы увеличивается негэнтропия. О негэнтропии написано много, но принципов ее оценки обычно не приводят. Большинство статей сводятся к выводу: «рост негэнторопии - хорошо».

Негэнтропия, в отличие от энтропии, имеет множество синонимических значений: отрицательная энтропия, синтропия, экстропия. Понятие «отрицательная энтропия» было введено Эрвином Шредингером в 1944 г. в книге «Что такое жизнь?» [19]. При этом следует подчеркнуть, что термин «отрицательная энтропия» имел смысл не в знаке негэнтропии, а в направлении ее действия, противоположном действию энтропии.

Позже Л. Бриллюэн укоротил термин «отрицательная энтропия» до «негэнтропия» [20]. Основная его идея состояла в переносе понятия на природу и живые системы. В настоящее время негэнтропия используется биологами в качестве основы иссле-

дования цели или направления в жизни, включая кооперативное поведение

Этот краткий экскурс показывает, что негэнтропия имеет более широкий спектр применения в сравнении с энтропией. Она имеет больше единиц измерения в системе единиц СИ в сравнении с энтропией. Негэнтропия применяется и в информационной области.

Существуют разные подходы к ее оценке и нахождению. Выше отмечалась связь энтропии с распределением Гаусса. Рост энтропии отражает стремление элементов системы или ситуации к случайным величинам, которые подчиняются или соответствуют распределению случайной величины. Это определило дифференциальный метод нахождения негэнтропии как выделение разницы между распределением случайной величины и фактическим распределением величины px, характеризующей статистический ансамбль или систему.

При дифференциальном методе негэнтропию J(px) определяют как разницу между случайным гауссовским распределением S(<x) и распределением в реальной ситуации S(px) [21]:

J(px) = S<) - S(px). (4)

Функция S(<x) есть дифференциальная энтропия гауссовой плотности с тем же средним и дисперсией, как px.. Функция S(px) есть дифференциальная энтропия распределения величины px с тем же средним и дисперсией, как px Такой подход привел к появлению термина «негауссовость» (Non-Gaussianity). С этих позиций метод оценки J(px) зависит от метода измерения негауссовости (Measures of Non-Gaussianity) [21].

Метод основывается на таких рассуждениях. Распределение Гаусса соответствует распределению случайной величины. Распределение случайной величины характеризует статистическое равновесие среды. То, что отличается от статистического равновесия среды, характеризует негэнтропию. Выделение признаков отличия ситуации от статистического равновесия есть характеристика негэнтропии.

Данный метод требует предварительного определения характера распределения случайной величины, в силу того что существуют разные распределения случайных величин. Поэтому применению метода состоит в нахождении информационного соответствия между распределением случайной величины и реальной ситуацией.

В молекулярной биологии и термодинамике негэнтропия J состояния определяется как разница между максимальной энтропией Smax и энтропией этого состояния S:

J = Smax — S. (5)

Применение энтропии определяет информацию как статистическую меру снятия неопределенности (другими словами, уменьшение незнания), равную разности энтро-пий двух состояний [11]. Это информация по К. Э. Шеннону.

По Н. Винеру «Информация - это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспосабливания к нему наших чувств» [22]. Такое определение информации означает приращение знания.

На основе проведенного анализа можно сделать вывод, что информативность как обозначение содержания информации на неком носителе информации ближе к негэн-тропии, чем к энтропии. Информативность следует связывать со смыслом, а не с информационным объемом.

Рассмотрим неполный пример из [23]. Рассмотрим два информационных сообщения, которые характеризуют два состояния (S1, S2) информационной ситуации. Разница между состояниями определяет информацию.

S1: Казнить, нельзя помиловать.

S2: Казнить нельзя, помиловать.

По К. Э. Шеннону информация между этими сообщениями равна нулю, поскольку количество символов в ситуации S1 тождественно количеству символов в ситуации S2. Энтропии для обеих ситуаций равны.

По Н. Винеру состояния диаметрально противоположны. Информация между состояниями 51, 52 не равна нулю, она весьма существенна. В реальной жизни живут по Н. Винеру, а не по К. Э. Шеннону. Поэтому информативность следует определять по Н. Винеру. Можно, используя определение информации Н. Винера, ввести определение информативности цифрового снимка (изображения).

Информативность цифрового снимка (изображения) - это обозначение содержания информации, которая хранится на данном снимке на основе нашего приспособления к нему с учетом решаемых по снимку задач и существующих методов интерпретации содержания цифрового снимка.

Эксперимент. При проведении эксперимента используют информационное моделирование [24, 25] и визуальное моделирование [26]. Информационные модели позволяют отображать объекты, процессы и ситуации [27], что играет интегрирующую роль при проведении комплексных исследований [28].

Рис. 1. Эталонное изображение с нормальной ха- Рис. 2. Эталонное изображение с фильтром, рактеристической кривой отсекающим 30% светлого, и выравниванием

контраста

На рис. 1 приведен тест-объект с разными типами объектов и разными плотностями объектов. Он включает 18 точечных объектов, включая линейку, и два ареальных объекта, по 20 единичных объектов каждый. Внизу дано упрощенное значение характеристической кривой, передающей интенсивность и ее отображение (плотность)

На рис. 2 приведен визуальный объект, сформированный из исходного тест-объекта, путем фильтрации, отсекающей 30% светлой части плотности изображения, с последующим выравниванием контраста. Последнюю процедуру делают для качественного визуального восприятия.

При сравнении рис.1 и 2 видно исчезновение ряда объектов с низкой плотностью. Осталось 10 точечных объектов. Один ареальный объект исчез. Другой сократился до 6 пикселей. Высокие плотности ослаблены. Пропала половина линейки с эталонами плотностей.

На рис. 3 и 4 приведены изображения, полученные из тест-объекта с применением других фильтров.

Рис. 3. Эталонное изображение с контрастным фильтром, отсекающим 30% светлого и 30% темного, и выравниванием контраста

Рис. 4. Эталонное изображение с фильтром, отсекающим 40% темного, и выравниванием контраста

Рис. 3 получился за счет формирования порога контрастности контрастным фильтром, отсекающим 30% светлого и 30% темного, с выравниванием контраста. Такую процедуру делают при необходимости выделения границ. Осталось 10 точечных объектов. Один ареальный объект исчез. Другой ареальный объект сократился до 6 пикселей. Высокие плотности существенно приподняты. Пропала половина линейки с эталонами плотностей.

На рис. 4 приведен визуальный объект, сформированный из исходного тест-объекта путем фильтрации, отсекающей 40% темной части плотности изображения, с последующим выравниванием контраста. Количество объектов сохранилось, но плотность их увеличилась за счет исключения темных зон и выравнивания плотностей оставшейся части. Можно говорить об улучшении качества изображения.

На рис. 5-8 приведены распределения плотностей для объектов, представленных на рис. 1-4. По вертикали отложена плотность. По горизонтали - распределение вероятности.

-За -2а - 1а 1а 2а За

Рис. 5. Распределение плотности Б для эталонного объекта. - максимальное значение плотности

для данного распределения

Рис. 6. Распределение плотности Б для фильтрованного объекта с рис. 2. 0,3Ds - максимальное значение плотности для данного распределения относительно объекта с рис. 5

Рис. 7. Распределение плотности Б для фильтрованного объекта с рис. 3. 0,76Б« - максимальное значение плотности для данного распределения относительно объекта с рис. 5

Распределение на рис. 8 выделяется на фоне трех предыдущих.

1.2 Оэ \

-2с - 1(7 1(7 2а

Рис. 8. Распределение плотности Б для фильтрованного объекта с рис. 4. 1,2Б« - максимальное значение плотности для данного распределения относительно объекта с рис. 5

Увеличилась плотность при уменьшении ее разброса. Это характеризует эффект улучшения качества изображения. Однако к информативности эти графики отношения не имеют. Они могут характеризовать емкость. Наибольшая емкость на рис. 8, затем на рис. 5, затем на рис. 7 и самая низкая - на рис. 6. Для определения негэнтропии и информативности необходимо использовать сравнительный метод. Для сравнительного метода необходим эталон применительно к решаемой задаче.

На рис. 9. приведен пример практического эталона, применяемого при лучевой диагностике.

Рис. 9. Стилизованный пример нормы рентге- Рис. 10. Стилизованный пример рентгеновско-новского снимка го снимка с патологией

Стилизованный пример получается при практической обработке снимка путем его улучшения и поднятия контуров. На рис. 10 приведен пример патологии пациента.

Области C, D нормы сравнивают с областями A, B. Алгоритм сравнения простой:

For Sit (A, C): if [C(D(x, y), Sc)] ~ [A(D(x, y), Sa)] then NormA, else PatA;

For Sit (b, D): if [b(d(x, y), Sb)] ~ [D(D(x, y), Sd)] then NormB, else PatB.

Здесь: Sit (A, C) - информационная ситуация при сравнении области A пациента и соответствующей области C эталона. Сравнение происходит по пространственному распределению плотности (потемнения) D(x, y) и площадей: области А - Sa и области С - Sc. Результат сравнения - информационная ситуация нормы NormA или информационная ситуация патологии PatA. Сравнение происходит относительно пациента, то есть относительно области А. Аналогично происходит сравнение областей D и B.

На рис. 11 показан разрез или сечение плотности областей С и А. По вертикали -распределение плотности по координате х - D(x). По горизонтали - координата х.

Видно, что максимальное значение плотности нормы Dnmax меньше максимального значения плотности на снимке у пациента Dpmax (Dpmax = 1,2Dnmax). Площадь сечения области А - Sa больше площади сечения области С - Sc. Это дает основание отнести ситуацию на снимке 10 по области А к патологии.

Дискуссия. Негэнтропийный подход основан на сравнении реального объекта с другим реальным объектом. Результаты исследования показывают, что для оценки информативности с помощью негэнтропийного подхода нет необходимости говорить о какой-то неопределенности. Ее показывают рис. 4-8, но к диагнозу она отношения не имеет. Недостатком негэнтропийно-го подхода является необходимость создания эталона нормы для проведения сравнения. Эта норма должна быть стилизована и статистически обоснована как результат обследования десятков пациентов.

Заключение. Информативность, основанная на методе негэнтропии, служит основой для диагностики. Применение фильтров позволяет изменять качество цифрового изображения путем смещения плотности в темную или светлую

Рис. 11. Сечение областей А и С в широ- сторону и путем контрастирования ег°. Цифро-кой части рис. 10 и рис. 9 вые методы обработки изображения позволяют

проводить объективное сравнение разных изображений при приведении их в границы одинаковых плотностей. Цифровые методы позволяют выявлять различия, которые человеческим глазом слабо различимы, особенно на исходных снимках невысокого качества. Для оценки различия эффективно применение математических алгоритмов типа метода разделяющей гиперплоскости, который четко различает патологию и норму.

Литература

1. Номоконов И. Б. Цифровая обработка рентгеновских изображений // Славянский форум. 2015. № 4 (10). С. 244-251.

2. Юрпольская Л. А., Макаренко В. Н., Бокерия Л. А. Лучевая диагностика врожденных пороков сердца и сосудов. Этапы эволюции от классической рентгенологии до современных методов компьютерной томографии // Детские болезни сердца и сосудов. 2007. № 3. С. 17-28.

3. Аникина Г. А., Поляков М. Г., Романов Л. Н., Цветков В. Я. О выделении контура изображения с помощью линейных обучаемых моделей // Известия АН СССР. Техническая кибернетика. 1980. № 6. С. 36-43.

4. Номоконов И. Б., Цветков В. Я. Статистическая диагностика по рентгеновским снимкам // Славянский форум. 2016. № 1 (11). С. 119-124.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

5. Номоконова О. Ю. Вероятностный метод диагностики // Славянский форум. 2016. № 1 (11). С. 112-118.

6. Номоконов И. Б. Когнитивные методы при лучевой диагностике: монография. - М.: МАКС Пресс, 2016. 60 с.

7. Номоконова О. Ю. Опыт врача как когнитивный информационный ресурс // Славянский форум. 2015. № 3 (9) С. 200-209.

8. Цветков В. Я. Рецепция информации // Образовательные ресурсы и технологии. 2016. № 1 (13). С. 121-129.

9. Rozenberg I. N. Information reception in information and cognitive systems // European Journal of Technology and Design. 2015. Vol. 10. Iss. 4. P. 140-148.

10. Номоконова О. Ю. Рецепция информации при медицинской диагностике // Славянский форум. 2015. № 4 (10). С. 238-243.

11. Мартин Н., Ингленд Дж. Математическая теория энтропии. - М.: Мир, 1988. 350 с.

12. Цветков В. Я. Информационная неопределенность и определенность в науках об информации // Информационные технологии. 2015. № 1. С. 3-7.

13. Хелд Г. Технологии передачи данных. 7-е изд. - СПб.: Питер, 2003. 720 с.

14. Цветков В. Я. Естественное и искусственное информационное поле // Международный журнал прикладных и фундаментальных исследований. 2014. № 5 (часть 2). С. 178-180.

15. Кудж С. А. Системный подход // Славянский форум. 2014. № 1 (5). С. 252-257.

16. Кудж С. А. Многоаспектность рассмотрения сложных систем // Перспективы науки и образования. 2014. № 1. С. 38-43.

17. Hartley R. V. L. Transmission of Information // Bell System Technical Journal. July 1928. P.535-563.

18. Tsvetkov V. Ya. Dichotomic Assessment of Information Situations and Information Superiority // European researcher. Series A. 2014. Vol. 86. Iss. 11-1. P. 1901-1909.

19. Schrödinger E. What is Life - the Physical Aspect of the Living Cell. - Cambridge University Press, 1944.

20. Brillouin L. Negentropy Principle of Information // J. of Applied Physics. 1953. Vol. 24. Iss. 9. P. 1152-1163.

21. Measures of Non-Gaussianity. http://fourier.eng.hmc.edu/e161/ lectures/ica/node4.html.

22. Винер Н. Человек управляющий. Человеческое использование человеческих существ. Кибернетика и общество. - СПб.: Питер, 2001.

23. Иванников А. Д., Тихонов А. Н., Цветков В. Я. Основы теории информации. - М.: МАКС Пресс, 2007. 356 с.

24. Номоконов И. Б. Информационное моделирование при лучевой диагностике // Международный журнал прикладных и фундаментальных исследований. 2016. № 3 (часть 1). С. 87-90.

25. Номоконов И. Б. Информационное моделирование при лучевой диагностике. - Saarbrücken, Germany: LAP Lambert Academic Publishing, 2016. 120 с.

26. Цветков В. Я., Номоконов И. Б. Визуальное моделирование при медицинской диагностике // Славянский форум, 2015. № 3 (9) С. 288-293.

27. Цветков В. Я. Информационные модели объектов, процессов и ситуаций // Дистанционное и виртуальное обучение. 2014. № 5. С. 4-11.

28. Номоконов И. Б. Моделирование в лучевой диагностике // Образовательные ресурсы и технологии. 2016. № 3 (15). С. 47-58.

Negentropy and informative

Nomokonov Ivan Borisovich, Head of the Department of beam diagnostics, OGBUZ Irkutsk Regional Hospital, Irkutsk Russia

The article explores the evaluation of information content of the digital image, and relates to the field of radiation diagnosis. Informative digital X-ray image is regarded as the basis of diagnosis. The article shows the feasibility of the method of estimation of negentropy for informative assessment. Assessment is based on a comparison of the standard and the analyzed image. This article describes methods of filtering a digital image to improve it. This article describes an approach to the use of entropy and showing his shortcomings. The article introduces the concept of information content of the digital image.

Keywords: information, the information content, entropy, negentropy, the amount of information, diagnostics, digital image.

i Надоели баннеры? Вы всегда можете отключить рекламу.