Научная статья на тему 'АНАЛИЗ ВЕСОВОЙ МОДЕЛИ ДЛЯ СЖАТИЯ ИЗОБРАЖЕНИЙ НА ОСНОВЕ ВЕЙВЛЕТ-ПРЕОБРАЗОВАНИЯ'

АНАЛИЗ ВЕСОВОЙ МОДЕЛИ ДЛЯ СЖАТИЯ ИЗОБРАЖЕНИЙ НА ОСНОВЕ ВЕЙВЛЕТ-ПРЕОБРАЗОВАНИЯ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
201
18
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОБРАБОТКА ИЗОБРАЖЕНИЙ / АНАЛИЗ ИЗОБРАЖЕНИЙ / ВЕЙВЛЕТ-ПРЕОБРАЗОВАНИЕ ИЗОБРАЖЕНИЙ / ВЕСОВАЯ МОДЕЛЬ ИЗОБРАЖЕНИЙ / СЖАТИЕ ИЗОБРАЖЕНИЙ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Ляшева Стелла Альбертовна, Морозов Олег Геннадьевич, Шлеймович Михаил Петрович

В работе предложен новый метод сжатия изображений на основе кратно - масштабного вейвлет - преобразования. В результате его выполнения формируются данные, которые содержат информацию о размерах изображения, начальном уровне преобразования, аппроксимирующие коэффициенты, карты значимости детализирующих коэффициентов и значимые детализирующие коэффициенты. Карты значимости содержат бинарные значения, определяющие необходимость использования соответствующих им детализирующих коэффициентов для восстановления изображения. Алгоритм построения карт значимости содержит следующие шаги: кратно - масштабное вейвлет - преобразование, оценивание по детализирующим коэффициентам величины энергии перепада в каждом пикселе на всех уровнях многомасштабного представления, вычисление весовых значений для детализирующих коэффициентов на каждом уровне с точки зрения их вклада в восприятие изображения с учетом взаимосвязи между масштабными уровнями, пороговая обработка весов. В качестве значимых детализирующих коэффициентов на каждом уровне выбираются те, веса которых превышают заданное пороговое значение. Предложенный метод позволяет сократить объем изображения за счет отбрасывания незначимых детализирующих коэффициентов. Для повышения эффективности сжатия выполняется энтропийное кодирование элементов карт значимости и значимых детализирующих коэффициентов с использованием адаптивного метода Хаффмена. Предложенный метод позволяет получить характеристики сжатия и восстановления, сопоставимые и для тестовых изображений превышающие по качеству соответствующие характеристики популярных форматов представления изображений. Для сокращения времени на анализ изображений и принятие решений предложенный метод предусматривает возможность параллельной реализации; выполнение прогрессивного сжатия и восстановления.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Ляшева Стелла Альбертовна, Морозов Олег Геннадьевич, Шлеймович Михаил Петрович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

WEIGHT MODEL ANALYSIS FOR IMAGE COMPRESSION BASED ON WAVELET TRANSFORM

A new method of image compression based on multi - resolution wavelet transform is proposed. As a result of its execution, data is generated that contains information about image sizes, the initial transform level, approximating coefficients, maps of the significance of detail coefficients, and significant detail coefficients. Maps of the significance contain binary values that determine the need for corresponding detailed coefficients for image recovery. The algorithm for constructing significance maps contains the following steps: multi - resolution wavelet transformation, estimation of the difference energy value in each pixel at all levels of the multiscale representation using the detailing coefficients, calculation of weight values for the detailing coefficients at each level in terms of their contribution to image perception, taking into account the relationship between the scale levels, and threshold weight processing. As a significant detailing coefficient at every level are selected, the weight of which is greater than a predetermined threshold value. The proposed method reduces the image size by discarding insignificant detail coefficients. To increase the compression efficiency, entropy encoding of elements of significance maps and significant detailing coefficients is performed using the adaptive Huffman method. The proposed method allows you to obtain compression and recovery characteristics that are comparable and higher in quality for test images than the corresponding characteristics of popular image presentation formats. To reduce the time spent on image analysis and decision - making, it provides the possibility of parallel implementation and performing progressive compression and recovery.

Текст научной работы на тему «АНАЛИЗ ВЕСОВОЙ МОДЕЛИ ДЛЯ СЖАТИЯ ИЗОБРАЖЕНИЙ НА ОСНОВЕ ВЕЙВЛЕТ-ПРЕОБРАЗОВАНИЯ»

ИНФОРМАТИКА, ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА И УПРАВЛЕНИЕ

СИСТЕМНЫЙ АНАЛИЗ, УПРАВЛЕНИЕ И ОБРАБОТКА ИНФОРМАЦИИ

УДК 004.932

АНАЛИЗ ВЕСОВОЙ МОДЕЛИ ДЛЯ СЖАТИЯ ИЗОБРАЖЕНИЙ НА ОСНОВЕ ВЕЙВЛЕТ-ПРЕОБРАЗОВАНИЯ

Статья поступила в редакцию 28.05.2020, в окончательном варианте — 15.09.2020.

Ляшева Стелла Альбертовна, Казанский национальный исследовательский технический университет им. А.Н. Туполева-КАИ, 420111, Российская Федерация, Республика Татарстан, г. Казань, ул. К. Маркса, 10,

кандидат технических наук, доцент, ORCID https://orcid.org/0000-0002-2199-3924, РИНЦ AuthorlD 701461, e-mail: salyasheva@kai.ru

Морозов Олег Геннадьевич, Казанский национальный исследовательский технический университет им. А.Н. Туполева-КАИ, 420111, Российская Федерация, Республика Татарстан, г. Казань, ул. К. Маркса, 10,

доктор технических наук, профессор, заведующий кафедрой радиофотоники и микроволновых технологий, ORCID https://orcid.org/0000-0003-4779-4656, РиНц AuthorlD 388026, e-mail: ogmorozov@kai.ru

Шлеймович Михаил Петрович, Казанский национальный исследовательский технический университет им. А.Н. Туполева-КАИ, 420111, Российская Федерация, Республика Татарстан, г. Казань, ул. К. Маркса, 10,

кандидат технических наук, доцент, заведующий кафедрой автоматизированных систем обработки информации и управления, ORCID https://orcid.org/0000-0002-3021-5139, РИНЦ AuthorlD 700796, e-mail: mpshleymovich@kai.ru

В работе предложен новый метод сжатия изображений на основе кратно-масштабного вейвлет-преобразования. В результате его выполнения формируются данные, которые содержат информацию о размерах изображения, начальном уровне преобразования, аппроксимирующие коэффициенты, карты значимости детализирующих коэффициентов и значимые детализирующие коэффициенты. Карты значимости содержат бинарные значения, определяющие необходимость использования соответствующих им детализирующих коэффициентов для восстановления изображения. Алгоритм построения карт значимости содержит следующие шаги: кратно-масштабное вейвлет-преобразование, оценивание по детализирующим коэффициентам величины энергии перепада в каждом пикселе на всех уровнях многомасштабного представления, вычисление весовых значений для детализирующих коэффициентов на каждом уровне с точки зрения их вклада в восприятие изображения с учетом взаимосвязи между масштабными уровнями, пороговая обработка весов. В качестве значимых детализирующих коэффициентов на каждом уровне выбираются те, веса которых превышают заданное пороговое значение. Предложенный метод позволяет сократить объем изображения за счет отбрасывания незначимых детализирующих коэффициентов. Для повышения эффективности сжатия выполняется энтропийное кодирование элементов карт значимости и значимых детализирующих коэффициентов с использованием адаптивного метода Хаффмена. Предложенный метод позволяет получить характеристики сжатия и восстановления, сопоставимые и для тестовых изображений превышающие по качеству соответствующие характеристики популярных форматов представления изображений. Для сокращения времени на анализ изображений и принятие решений предложенный метод предусматривает возможность параллельной реализации; выполнение прогрессивного сжатия и восстановления.

Ключевые слова: обработка изображений, анализ изображений, вейвлет-преобразование изображений, весовая модель изображений, сжатие изображений

Графическая аннотация (Graphical annotation)

WEIGHT MODEL ANALYSIS FOR IMAGE COMPRESSION BASED ON WAVELET TRANSFORM

The article was received by the editorial board on 28.05.2020, in the final version — 15.09.2020.

Lyasheva Stella A., Kazan National Research Technical University named after A.N. Tupolev-KAI, 10 K. Marx St., Kazan, 420111, Republic of Tatarstan, Russian Federation,

Cand. Sci. (Engineering), Associate Professor, ORCID https://orcid.org/0000-0002-2199-3924, RISC AuthorID 701461, e-mail: salyasheva@kai.ru

Morozov Oleg G., Kazan National Research Technical University named after A.N. Tupolev-KAI, 10 K. Marx St., Kazan, 420111, Republic of Tatarstan, Russian Federation,

Doct. Sci. (Engineering), Professor, Head of the Department for Radio-Photonics and Microwave Technologies, ORCID https://orcid.org/0000-0003-4779-4656, RISC AuthorID 388026, e-mail: ogmoro-zov@kai.ru

Shleymovich Mikhail P., Kazan National Research Technical University named after A.N. Tupolev-KAI, 10 K. Marx St., Kazan, 420111, Republic of Tatarstan, Russian Federation,

Cand. Sci. (Engineering), Associate Professor, Head of the Department for Automated Systems for Information Processing and Control, ORCID https://orcid.org/0000-0002-3021-5139, RISC AuthorID 700796, e-mail: mpshleymovich@kai.ru

A new method of image compression based on multi-resolution wavelet transform is proposed. As a result of its execution, data is generated that contains information about image sizes, the initial transform level, approximating coefficients, maps of the significance of detail coefficients, and significant detail coefficients. Maps of the significance contain binary values that determine the need for corresponding detailed coefficients for image recovery. The algorithm for constructing significance maps contains the following steps: multi-resolution wavelet transformation, estimation of the difference energy value in each pixel at all levels of the multiscale representation using the detailing coefficients, calculation of weight values for the detailing coefficients at each level in terms of their contribution to image perception, taking into account the relationship between the scale levels, and threshold weight processing. As a significant detailing coefficient at every level are selected, the weight of which is greater than a predetermined threshold value. The proposed method reduces the image size by discarding insignificant detail coefficients. To increase the compression efficiency, entropy encoding of elements of significance maps and significant detailing coefficients is performed using the adaptive Huffman method. The proposed method allows you to obtain compression and recovery characteristics that are comparable and higher in quality for test images than the corresponding characteristics of popular image presentation formats. To reduce the time spent on image analysis and decision-making, it provides the possibility of parallel implementation and performing progressive compression and recovery.

Keywords: image processing, image analysis, image wavelet transform, image weight model, image compression

Введение. В настоящее время практически во всех сферах человеческой деятельности находят применение технологии компьютерного зрения, базирующиеся на программно-аппаратных средствах обработки и анализа изображений. Данные технологии используются для обнаружения и распознавания объектов в системах дистанционного зондирования Земли [12], управления технологическими процессами [1], контроля безопасности движения транспортных средств [4], навигации беспилотных летательных аппаратов [8], биометрической идентификации человека [5] и др.

Согласно общепринятой концепции, процедуры обработки и анализа изображений можно классифицировать по виду входных и выходных данных на три класса [9, 2]:

• процедуры низкого уровня, для которых входные и выходные данные представляют собой совокупности, обычно имеющие вид матриц, скалярных значений яркости или векторных значений цвета пикселей (атрибуты пикселей);

• процедуры среднего уровня, для которых входные данные - это совокупности атрибутов пикселей, а выходные данные - маркеры или дескрипторы пикселей или их областей;

• процедуры высокого уровня, для которых входные данные - это маркеры или дескрипторы пикселей или их областей (возможно, вместе с атрибутами пикселей), а выходные данные - метки образов на изображении.

В качестве примеров процедур низкого уровня можно указать геометрические преобразования изображений (поворот и масштабирование) и удаление шума на изображениях. Примерами процедур среднего уровня являются сегментация и вычисление признаков изображений. Примеры процедур высокого уровня - обнаружение заданных объектов на изображениях и контекстный поиск изображений в коллекциях.

Среди других процедур среднего уровня в системах, использующих технологии компьютерного зрения, часто необходимо реализовать процедуры сжатия изображения [3, 11]. Это связано с тем, что изображения представляют собой данные сравнительно больших объемов. Например, одно полутоновое изображение размера 1920 х 1080 пикселей (разрешение Full HD, один байт на пиксель) в несжатом виде будет иметь объем примерно 2 Мб. При этом часто необходимо записывать в память или передавать по сети серии изображений, например, при управлении беспилотным транспортным средством или мониторинге охраняемой территории. Также часто требуется обеспечить сохранение и/или передачу изображений в реальном времени. Применение процедур сжатия позволяет повысить эффективную емкость устройств хранения и эффективную скорость работы устройств передачи изображений без значительного увеличения их стоимости.

Несмотря на то, что разработано и применяется на практике большое количество эффективных методов сжатия изображений, научно-исследовательские работы в данной сфере не прекращаются. Это связано, в первую очередь, с объективными потребностями и прогрессом в области создания новых программно-аппаратных средств компьютерного зрения, предназначенных для обработки больших объемов видеоинформации в реальном времени.

Таким образом, создание новых методов сжатия изображений является актуальной и практически значимой задачей. Ее решение позволяет обеспечить эффективные программно-аппаратные реализации для систем обработки информации и управления на базе систем компьютерного зрения.

Методы сжатия изображений. Практически все применяемые на практике подходы к сжатию изображений могут быть представлены с помощью общей схемы, содержащей следующие три шага [10]:

1) снижение межэлементной избыточности;

2) квантование данных;

3) кодирование.

Сжатие данных основано на выявлении и сокращении избыточности, которая в значительной степени связана с корреляцией между элементами изображения. Для снижения ее влияния можно применить какое-нибудь декоррелирующее преобразование. Получить изображение с полностью декоррелированными элементами можно с помощью преобразования Карунена - Лоэва [10, 11]. Однако его практическое применение затруднено из-за отсутствия быстрых вычислительных алгоритмов и необходимости иметь статистические данные для построения ковариационной матрицы и вектора математических ожиданий пикселей изображения. Поэтому вместо преобразования Карунена - Лоэва применяют преобразования, позволяющие получить его приближения. Среди различных дискретных преобразований, имеющих быстрые алгоритмы вычислений, наилучшее приближение к преобразованию Карунена - Лоэва применительно к обработке изображений дает дискретное косинусное преобразование [10, 11]. Кроме этого, часто применяют методы предсказания. В них предусмотрено вычисление коэффициентов полинома заданного порядка, с помощью которого по атрибутам опорных пикселей изображения предсказываются атрибуты оставшихся пикселей. После этого формируются разницы между предсказанными и фактическими значениями, которые менее коррелированны по сравнению с исходными значениями.

Снижение межэлементной избыточности позволяет получить элементы, которые влияют на восприятие изображения независимо друг от друга. Тогда можно оценить их значимость с точки зрения изображения в целом, т.е. можно оценить наиболее значимую часть информации об изображении. Для этой цели используют методы скалярного и векторного квантования [22]. При скалярном квантовании элементы обрабатываемого набора данных квантуются независимо друг от друга. При векторном квантовании данные представляются в виде упорядоченных наборов - векторов. В этом случае определяют некоторое правило, по которому каждому вектору исходного

пространства конечной размерности ставится в соответствие некоторый кодовый вектор из того же пространства, принадлежащий определенному ограниченному множеству, которое носит название кодовой книги. Далее вместо исходного вектора дальнейшей обработке подвергается номер соответствующего ему кодового вектора.

На последнем шаге общей схемы сжатия выполняется кодирование элементов данных, полученных на предыдущих шагах. Здесь часто применяют методы кодирования Хаффмена, арифметического кодирования и кодирования длин серий [2, 21, 22].

Наиболее полно представленная общая схема реализуется в сжатии по стандарту JPEG, в котором применяются цветовые преобразования, прореживание цветовых координат, разбиение элементов данных на блоки, дискретное косинусное преобразование, квантование частотных коэффициентов, кодирование длин серий, кодирование Хаффмена [7, 13].

Сжатие по описанной схеме относится к сжатию с потерями. Для обеспечения сжатия без потерь на первом шаге должны применяться полностью обратимые декоррелирующие преобразования, а шаг квантования элементов данных пропускается. Несмотря на то, что при сжатии без потерь восстановленное и исходное изображения полностью совпадают, на практике большей популярностью пользуются методы сжатия с потерями. Причина - они позволяют получить оптимальные соотношения (с точки зрения решаемых задач) между показателями качества сжатия и восстановления. К настоящему времени разработано множество подходов, обеспечивающих требуемые характеристики процедур сжатия [25].

Многие эффективные методы сжатия изображений базируются на применении различных вейвлет-преобразований [21, 22]. Одним из самых известных здесь является сжатие по стандарту JPEG2000 [18]. Схема этого сжатия для цветных изображений похожа на схему сжатия по стандарту JPEG и содержит операции разбиения изображений на тайлы, сдвиг основания данных и преобразования цветового пространства (для полутоновых изображений последняя операция не требуется), дискретное вейвлет-преобразование, квантование и арифметическое кодирование.

В общем случае выделяют два подхода к сжатию изображений на основе вейвлет-преобразования - внутриподдиапазонный и межподдиаппазонный. Внутриподдиапазонные методы (EBCOT, SPECK, SWEET и др.) основаны на устранении корреляции между соседними вейвлет-коэффициентами в каждом из поддиапазонов по отдельности. Межподдиапазонные методы (EZW, SPIHT и др.) основаны на устранении корреляции между вейвлет-коэффициентами, принадлежащими к разным поддиапазонам.

Применительно к задачам космического, медицинского и военного характера активно исследуется метод SPIHT, базирующийся на разложении множества вейвлет-коэффициентов по иерархическим деревьям (нуль-деревьям, пространственно ориентированным деревьям) [19, 20]. Основная идея здесь заключается в следующем. Вейвлет-преобразование разлагает изображение на высокочастотные (содержат детализирующую информацию) и низкочастотные поддиапазоны (содержат аппроксимирующую информацию). При этом основная часть энергии изображения концентрируется в низкочастотных поддиапазонах; имеется пространственное подобие между поддиапазонами, и детализирующая информация значительно изменяется при переходе от одного поддиапазона к другому.

Одной из важных особенностей алгоритма SPIHT является возможность прогрессивного сжатия. Его основная цель состоит в получении и сохранении/передаче наиболее важной части информации об изображении. Это позволяет постепенно улучшать изображение при восстановлении по мере передачи по сети или чтении из памяти дополнительной (детализирующей) информации. Применение такого подхода позволяет остановить сжатие и/или восстановление изображения при достижении заданного соотношения между показателями сокращения избыточности и качества восстановления информации.

Основной задачей при создании подобных методов является анализ значимости вейвлет-коэффициентов и обеспечении сохранения/передачи информации о результатах этого анализа.

Весовая модель изображений. В данной работе рассматривается метод сжатия изображений на основе вейвлет-преобразования и анализа значимости детализирующих вейвлет-коэффициентов.

Методы на основе вейвлет-преобразований относятся к классу многомасштабных методов. Они естественным образом связаны с представлением на изображениях объектов реального мира, восприятие которых, как правило, имеет иерархическую природу (например, на одном уровне восприятия объекты различаются, а на другом - представляют собой единую сливающуюся область). Кроме того, эффективность этих методов базируется на том, что они позволяют смоделировать процессы анализа информации в биологическом зрении. Исследования в этой области показали сходство между зрением и многомасштабной обработкой изображений. Было признано, что

рецептивные поля клеток зрительной коры млекопитающих можно охарактеризовать как пространственно локализованные, ориентированные и полосовые (селективные по структуре в различных пространственных масштабах) [16].

К достоинствам вейвлетных методов можно отнести такие возможности:

• локализации особенностей изображений в пространственной и частотной областях;

• организации многоуровневой обработки изображений для уточнения характеристик;

• выбора наилучшего представления изображений для вычисления их характеристик;

• реализации быстрых алгоритмов вычисления характеристик изображений.

Различают непрерывные и дискретные вейвлет-преобразования [17]. К дискретным вейвлет-преобразованиям относятся также кратно-масштабные вейвлет-преобразования. При таких преобразованиях изображение представляется в виде матрицы аппроксимирующих коэффициентов и набора матриц детализирующих коэффициентов.

На основе кратно-масштабных вейвлет-преобразований можно построить процедуры анализа детализирующих коэффициентов, позволяющие локализовать изменения значений яркости или цвета на изображениях. На рисунке 1 показаны тестовые изображения и результаты их преобразования. В качестве тестовых изображений выбраны стандартные полутоновые изображения размера 512 х 512 пикселей, взятые из коллекции USC-SIPI [24]. В правой части рисунка в верхнем ряду слева направо приведены изображения boat, cameraman и house, в среднем ряду слева направо -jetplane, lake и livingroom, в нижнем ряду слева направо - mandril, peppers и pirate. В левой части рисунка в соответствующих местах приведены результаты трехуровневого кратно-масштабного ортогонального вейвлет-преобразования Хаара указанных изображений. При этом значения аппроксимирующих коэффициентов отмечены точками копий исходных изображений, а значения детализирующих коэффициентов отмечены градациями серого - более темные «яркости» соответствуют большим абсолютным значениям коэффициентов. Из рассмотрения рисунка видно, что изменение значений яркости на исходных изображениях наблюдается в точках, соответствующих относительно большим абсолютным значениям детализирующих вейвлет-коэффициентов.

Рисунок 1 - К преобразованию изображений. Слева - исходные тестовые изображения. Справа - кратно-масштабное ортогональное вейвлет-преобразование Хаара исходных изображений

Для определения точек, в которых наблюдается значительный перепад яркости, можно воспользоваться моделью энергетических признаков [14, 15, 23]. В рамках данной модели рассматриваются оценки вклада пикселей в общую энергию изображения на основе анализа значений детализирующих вейвлет-коэффициентов на различных уровнях разложения от начального уровня у0 до конечного уровня J -1. Число J определяется по формуле:

J = ^2 N , (1)

где N - количество строк и столбцов изображения.

При анализе уровня j вейвлет-разложения энергию перепада ДЕ, (т, п) в точке с координатами (т, п) можно оценить с помощью выражения:

ДЕ; (т, п) = LH2 (т, п) + НЬ2} (т, п) + НН;2 (т, п), (2)

где LHj (т, п), HLj (т, п), НН, (т, п) - детализирующие коэффициенты с координатами (т, п) на уровне j . В случае применения кратно-масштабного ортогонального преобразования Хаара указанные коэффициенты вычисляются следующим образом:

ЬЬу+1 (2т,2п) + ЬЬу+1 (2т + 1,2п) - ЬЬу+1 (2т,2п +1) - ЬЬу+1 (2т + 1,2п +1)

LH j (m, n) = -

HLj (m, n) =

HH. (m, n) =

LLj+1 (2m,2n) - LLj+1 (2m + 1,2n) + LLj+1 (2m,2n +1) - LLj+1 (2m + 1,2n +1)

4

LLj+1 (2m,2n) - LLj+1 (2m + 1,2n) - LLj+1 (2m,2n +1) + LLj+1 (2m + 1,2n +1)

(3)

(4)

. (5)

В выражениях (3)-(5) LLj+х обозначает матрицу аппроксимирующих коэффициентов уровня j +1. Значения аппроксимирующих коэффициентов - это значения яркости копии исходного изображения на соответствующем уровне. Таким образом, при кратно-масштабном вейвлет-преобразовании каждый детализирующий коэффициент уровня j связан с четырьмя пикселями копии изображения уровня у +1, что определяет взаимосвязь между пикселями различных уровней представления изображения (рис. 2). Для рассмотренного преобразования Хаара это четко видно из выражения для вычисления аппроксимирующих коэффициентов:

ЬЬу+1 (2т,2п) + ЬЬу+1 (2т + 1,2п) + ЬЬу+1 (2т,2п +1) + ЬЬу+1 (2т + 1,2п +1)

ЬЬ, (т, п) ■

■> 4

и выражений для обратного преобразования:

ЬЬ , (т, п) + ЬН , (т, п) + НЬ, (т, п) + НН, (т, п) ЬЬу+1 (2т,2п) =-^---^-—-^---^-- ,

ЬЬ, (т, п) + ЬН (т, п) - НЬ(т, п) - НН (т, п) ЬЬ3+1 (2т + 1,2п) =-^---^-—-^---^-- ,

ЬЬ (т, п) - ЬН (т,п) + НЬ(т, п) - НН (т, п) ЬЬ3+1 (2т,2п +1) = —^---^-—-^---^-- ,

ЬЬ (т, п) - ЬН (т, п) - НЬ (т, п) + НН (т, п) ЬЬ3+1 (2т + 1,2п +1) = —Ь-^-Ь-> -Л-^-Л-^.

(6)

(7)

(8) (9)

(10)

LLj-\2m.Zii_ LLj-\2nt+l2n

,2iM+1.2n+l

Рисунок 2 - Взаимосвязь копий изображений на различных уровнях кратно-масштабного вейвлет-преобразования

Исходя из приведенных рассуждений, всем пикселям, всем точкам с координатами (т, п) на уровне j можно поставить в соответствие оценки энергии перепада яркости как этого уровня, так и всех уровней от у0 до j -1. Поэтому в рамках представления изображения на основе модели энергетических признаков для его анализа можно определить функцию вычисления весовых значений:

w, (т,п) = Т,(ДЕ, (т,п),...,ДЕ,(т,п)), (11)

где ^, (т, п) - вес точки с координатами (т, п) представления изображения на уровне у . Этот вес отражает значимость точки в отношении вклада в общую энергию изображения; Т(•) - функция вычисления весов на уровне у ; ДЕуо(т,п), ..., ДЕ,(т,п) - оценки энергии в точке с координатами (т, п), полученные на уровнях , ..., у .

На основе весовых значений всех уровней можно построить весовую модель исходного изображения, а также весовые модели его представлений на различных уровнях. Весовые модели для тестовых изображений показаны на рисунке 3, где более темные яркости соответствуют большим значениям весов.

Рисунок 3 - Иллюстрация использования весовых моделей исходных изображений

Из сравнения рисунков 1 и 3 видно, что анализ весовых моделей позволяет выявить характерные особенности изображений, значимые с точки зрения восприятия. Это, в свою очередь, можно использовать для анализа значимости изменений яркости в точках изображения, представленного в виде совокупности коэффициентов вейвлет-преобразования. Поскольку локализация изменений яркости на изображении связана со значениями детализирующих коэффициентов, то весовые модели позволяют определить их значимость для обратного преобразования.

Сжатие изображений с использованием весовой модели. Рассуждения относительно использования весовой модели для анализа значимости коэффициентов вейвлет-преобразования могут быть положены в основу метода сжатия изображений. Для иллюстрации влияния детализирующих вейвлет-коэффициентов на объем сжатого и качество восстановленного изображений на рисунке 4 показаны результаты обратного преобразования тестового изображения boat с отбрасыванием их части. В верхнем ряду слева направо показаны восстановленные изображения без использования детализирующих коэффициентов уровней выше 0, 1 и 2, в среднем ряду - уровней выше 3, 4 и 5, в нижнем ряду - уровней выше 6, 7 и 8 соответственно.

Представленные на рисунке 4 копии исходного изображения можно также интерпретировать как «последовательное добавление» к аппроксимирующим коэффициентам уровня «0» детализирующих коэффициентов старших уровней. При этом видно, что при формировании копий более высоких уровней их качество повышается. Для получения представления о влияния сокращения количества детализирующих коэффициентов на объем сжатого изображения в таблице 1 приведены объемы показанных на рисунке 4 копий изображения boat в формате JPEG, PNG и TIFF. В несжатом виде в формате BMP все указанные копии имеют одинаковые объемы, равные 257,1 Кб.

Таблица 1 - Объемы копий изоб

зажения boat в формате JPEG

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Уровень 0 1 2 3 4 5 6 7 8

JPEG, Кб 5,02 5,1 5,15 5,26 5,48 5,87 8,45 54,8 73,6

PNG, Кб 2,12 3,57 6,35 10,7 19,5 35,8 63,7 49,6 102,8

TIFF, Кб 5,87 6,81 8,71 11,1 17,5 27,7 45,5 68,6 109,9

Рисунок 4 - Обратное преобразование тестового изображения boat

Таким образом, можно поставить задачу определения оптимального набора детализирующих вейвлет-коэффициентов, необходимых для представления изображения. Представление изображения в виде множества аппроксимирующих коэффициентов и некоторого количества детализирующих коэффициентов существенно сокращает его объем и может быть положено в основу процедуры его сжатия. Она показана в общем виде на рисунке 5 (предполагается, что вейвлет-преобразование уже выполнено).

Рисунок 5 - Общая схема сжатия изображений с использованием весовой модели

Максимальное число уровней весовой модели равно максимальному числу уровней вейвлет-преобразования J, которое вычисляется по формуле (1). Начальный уровень .0 выбирается из отрезка [0, J — 1]. Выбор .0 определяется требованиями к качеству восстановленного изображения и качеству сжатия - чем меньше начальный уровень, тем ниже качество восстановленного изображения и тем выше качество сжатия (в данном случае под качеством сжатия понимается отношение между объемами исходного и сжатого изображений). Исходя из рассуждений, приведенных выше, выбор начального уровня задает начальное приближение к исходному изображению. При этом, чем меньше начальный уровень, тем меньше используется аппроксимирующих коэффициентов и тем «грубее» будет начальное приближение к исходному изображению. Кроме того, чем меньше начальный уровень, тем больше детализирующих коэффициентов можно отбросить. За счет этого сокращается объем сжатого изображения, что, однако, приводит к ухудшению качества восстановленного изображения.

Функции вычисления весов могут быть заданы различными способами, исходя из эвристических соображений и требований к удобству реализации. Например, можно применить следующий способ:

^(т, п) = ДЕЛ1(ш, п), (12)

(т, п) = —1(т/2, п/2)/4 + ДЕ. (т, п),} = ;0,3 — 1. (13)

Пороговые значения должны вычисляться исходя из требований к качеству восстановленного изображения и качеству сжатия. Например, их можно задавать в виде значения определенной порядковой статистики, вычисляемого по гистограмме весов точек изображения соответствующего уровня. Для упрощения построения гистограммы весовые значения можно привести к заданному

диапазону, например к отрезку [0, 255].

Выполнение пороговой обработки весов детализирующих коэффициентов на каждом уровне позволяет определить наиболее значимые из них. Тем самым на каждом уровне создается множество бинарных значений, представляющее собой карту значимости. Это множество будет содержать большое количество нулей и некоторое число единиц, что обеспечивает хорошую статистику для энтропийных методов кодирования.

В общем случае значимые детализирующие коэффициенты могут быть разного знака и принадлежать отрезку [—255, +255]. Это может затруднить последующее кодирование каким-либо энтропийным методом. Поэтому значения значимых детализирующих коэффициентов целесообразно нормализовать. Нормализация заключается в последовательном выполнении следующих шагов:

1) привести значение детализирующего коэффициента к диапазону [—128, +127] с помощью квантования - например, делением пополам;

2) сместить квантованное значение для приведения к диапазону [0, 255] с помощью сложения со значением 128.

Нормализация помимо указанной цели обеспечивает дополнительное улучшение статистики для последующего кодирования за счет дополнительного сокращения множества кодируемых элементов.

Для кодирования элементов карт значимости и нормализованных детализирующих коэффициентов целесообразно использовать какой-нибудь эффективный по сжатию и быстродействию метод энтропийного кодирования. Одним из таких методов является адаптивный метод Хаффмена [6].

Для энтропийных методов важным понятием является вероятностная модель. Под ней понимается совокупность частот символов алфавита элементов данных, на основе которых будет осуществляться их кодирование. Алгоритм кодирования в этом случае реализует два почти независимых друг от друга процесса - моделирование и кодирование. Процесс моделирования заключается в построении и поддержки модели данных, а процесс кодирования - в присвоении кодов обрабатываемым символам данных.

При выполнении кодирования Хаффмена предполагается, что строится кодовое дерево, у которого из каждой внутренней вершины (узла) выходят ровно два ребра, помеченные двоичными символами 0 и 1. Листья кодового дерева (терминальные вершины) соответствуют кодируемым символам, а внутренние (нетерминальные) вершины - дополнительным символам, образованным из пар символов в процессе кодирования (на каждом шаге из пары символов с наименьшими частотами образуется новый символ с суммарной частотой).

Адаптивный метод Хаффмена предусматривает, что сначала кодер (программа или устройство кодирования) строит пустое дерево Хаффмена на основе модели, в которой частоты кодируе-

мых символов равны нулю. Первый входной символ кодируется следующим образом. Сначала к нему спереди приписывается специальный служебный символ. Затем его частота увеличивается на единицу (произойдет обновление модели), он помещается на дерево и ему присваивается код Хаффмена. Если он встретится в следующий раз, то будет выдан его текущий код Хаффмена, его частота опять будет увеличена на единицу (опять произойдет обновление модели), а дерево Хаффмена, при необходимости, перестроено. Таким образом, в разные моменты времени одному и тому же символу могут быть присвоены различные коды. Для восстановления закодированных данных декодер (программа или устройство декодирования) должен строить и изменять модель и дерево Хаффмена по тем же правилам, что и кодер.

Достоинством адаптивных методов кодирования вообще и адаптивного метода Хаффмена в частности является «однопроходность» - построение вероятностной модели и кодирование выполняются по мере обработки входных данных за один проход. При этом в адаптивных методах предусматривается нормализация модели - синхронное уменьшение частот всех кодируемых символов. Нормализация нужна в первую очередь для того, чтобы не было переполнения счетчиков частот. Но, кроме того, она позволяет сократить количество одновременно рассматриваемых символов, что обеспечивает минимизацию длины кода и повышение качества сжатия.

Сжатое изображение будет иметь структуру, общий вид которой показан на рисунке 6, где N -размер изображения; у0 - начальный уровень разложения; LLj - множество аппроксимирующих

коэффициентов; , ..., _1 - карты значимости в закодированном виде на уровнях у0, ..., J-1; LH'j , НН^ , НН'^ , ..., LH'J_1, ИИ_1 _1, HH'J_1 - множества значимых детализирующих коэффициентов в закодированном виде на уровнях ]0, ., J -1.

N

Jo

LL

LH'

HL\

НН'

LH^

HL'jt

Рисунок 6 - Структура сжатого файла

На рисунке 7 приведены примеры восстановления тестовых изображений boat, cameraman и house при сохранении различного количества детализирующих коэффициентов. Для анализа качества восстановленного изображения воспользуемся критерием пикового соотношения сигнала к шуму PSNR:

PSNR = 20lgU1m^|, (14)

ч RMSE у

где 1тах - максимальное значение яркости в исходном изображении I; RMSE - среднеквадрати-ческая ошибка между исходным изображением I и восстановленным изображением I' с размерами М х N пикселей (в нашем случае 512 х 512):

1 M -1N-1 2

RMSE =7 J s 2 \l(m,n) -I'(m,n)|2 . MN^m=o n=o

(15)

Рисунок 7 - Примеры восстановленных тестовых изображений boat, cameraman и house

Значения PSNR для восстановленных изображений на рисунке 7 равны: boat (слева направо) -32,8; 33,5 и 34,2; cameraman (слева направо) - 35,4; 36,5 и 37,7; house (слева направо) - 36,1; 37,3 и 38,5. Восстановленные изображения, расположенные по вертикали, были получены из тестовых изображений, сжатых с одинаковыми параметрами. Из рисунка 7 видно, что качество восстановления в значительной мере зависит от особенностей сжимаемых изображений - для cameraman заметны артефакты, для boat артефакты заметны в меньшей степени, а для house артефакты вообще зрительно не обнаруживаются. Кроме того, это показывает возможность регулирования параметров сжатия для обеспечения требуемых показателей качества.

Предложенный метод сжатия и структура сжатого изображения (рис. 6) позволяют обрабатывать данные каждого уровня по отдельности. Это дает возможность организовать прогрессивное сжатие и восстановление - сначала сохранять/передавать или восстанавливать информацию о представлении изображения в виде грубой копии, а затем сохранять/передавать или восстанавливать уточняющие детали об изображении. Как уже было сказано, прогрессивное сжатие обеспечивает возможность прерывания процесса восстановления при достижении приемлемого качества с точки зрения конечного пользователя. Это, в свою очередь, обеспечивает сокращение времени на передачу и анализ изображений.

Кроме того, предложенный метод сжатия допускает параллельную реализацию, которая может значительно сократить время сжатия и восстановления, что опять же позволяет повысить скорость анализа изображений и принятия решений по его результатам. Такая реализация возможна благодаря тому, что при сжатии (после вейвлет-преобразования) и восстановлении (до обратного вейвлет-преобразования) изображения данные различных уровней могут обрабатываться независимо друг от друга.

В системах, использующих технологии компьютерного зрения, осуществляется анализ изображений, по результатам которого принимаются управляющие решения. Например, на основе анализа изображений, полученных на борту беспилотного летательного аппарата и переданных на наземный пункт управления, может быть принято решение относительно предотвращения последствий некоторой критической ситуации (пожар, дорожно-транспортное происшествие, дефекты дорожного покрытия и т.д.). Поэтому сокращение времени на сжатие, передачу и восстановление изображений обеспечивает также и сокращение времени на их анализ и принятие решений.

В таблице 2 показаны результаты для сжатия и восстановления при реализации предложенного метода для стандартных полутоновых изображений размера 512 х 512 пикселей. При этом использовались следующие параметры:

• формат исходных изображений: BMP;

• вид преобразования: ортогональное кратно-масштабное преобразование Хаара;

• максимальное число уровней преобразования J = 9 ;

• начальный уровень преобразования: j0 = 7 ;

• уровни преобразования: 7, 8;

• пороговые весовые значения: Д7 = p50, Д8 = p80,

где p50 и p80 - 50-й и 80-й процентили упорядоченных наборов весов соответствующих уровней.

В таблицах 2 и 3 для сравнения приведены характеристики тестовых изображений (рис. 1) в предложенном формате WEIGHTS (рис. 6) и популярных растровых форматах JPEG, PNG, TIFF, которые часто используются на практике. Объем каждого тестового изображения в формате BMP равен 263222 байтов.

Таблица 2 - Характеристики сжатия и восстановления для реализации предложенного метода

Изображения Отношение объемов исходного и сжатого изображений Пиковое соотношение сигнала к шуму Время сжатия, с Время восстановления, с

boat 4,025 35,724 0,016 0,011

cameraman 4,461 40,819 0,013 0,008

house 4,968 42,169 0,012 0,009

jetplane 4,136 39,002 0,015 0,009

lake 3,893 34,792 0,016 0,011

livingroom 4,152 34,999 0,015 0,009

mandril 4,028 29,851 0,015 0,009

peppers 3,851 36,578 0,016 0,011

pirate 4,029 36,046 0,014 0,009

Таблица 3 - Сравнение объемов изображений в различных форматах (в байтах)

Изображения WEIGHTS JPEG PNG TIFF

boat 65392 104143 324516 389120

cameraman 59011 62222 254183 148938

house 52983 45023 202391 111390

jetplane 63639 77034 277300 316366

lake 67615 109389 329132 384722

livingroom 63400 103133 322913 262750

mandril 65347 107724 349977 262750

peppers 68343 100589 210487 309918

pirate 65330 99142 320518 262750

Для проведения экспериментов использовался персональный компьютер на базе четы-рехядерного процессора Intel(R) Core(TM) Í5-8300H CPU@2.30 GHz, обеспечивающего многопоточную работу (до 8 потоков), с оперативной памятью 8 Гб под управлением операционной системы Microsoft Windows 10. Эксперименты выполнялись с помощью 64-разрядной программной реализации, выполненной на языке C++ в среде программирования Microsoft Visual Studio 2017 с использованием библиотеки компьютерного зрения OpenCV 3.4.9.

Заключение. На основе приведенных результатов можно сделать вывод, что предложенный метод позволяет получить для тестовых изображений характеристики сжатия и восстановления, сопоставимые и в большинстве случаев превышающие по качеству соответствующие характеристики популярных форматов представления изображений.

Предложенный метод позволяет также обеспечить прогрессивное сжатие и восстановление изображений. Он также допускает возможность параллельной программно-аппаратной реализации, что имеет большое практическое значение с точки зрения сокращения времени на анализ изображений и принятие управляющих решений в системах, использующих технологии компьютерного зрения.

Таким образом, предложенный подход может быть эффективно применен для сжатия изображений при их передаче и/или сохранении в различных системах обработки информации и управления.

Библиографический список

1. Визильтер Ю. В. Обработка и анализ изображений в задачах машинного зрения: Курс лекций и практических занятий / Ю. В. Визильтер, С. Ю. Желтов, А. В. Бондаренко, М. В. Ососков, А. В. Моржин. -Москва : Физматкнига, 2010. - 672 с.

2. Гонсалес Р. Цифровая обработка изображений / Р. Гонсалес, Р. Вудс. - Москва : Техносфера, 2012. -1104 с.

3. Дворкович В. П. Цифровые видеоинформационные системы (теория и практика) / В. П. Дворкович, А. В. Дворкович. - Москва : Техносфера, 2012. - 1008 с.

4. Клетте Р. Компьютерное зрение. Теория и алгоритмы / Р. Клетте. - Москва: ДМК Пресс, 2019. - 506 с.

5. Кухарев Г. А. Методы обработки и распознавания изображений лиц в задачах биометрии / Г. А. Ку-харев, Е. И. Каменская, Ю. Н. Матвеев, Н. Л. Щеголева ; под ред. М. В. Хитрова. - Санкт-Петербург : Политехника, 2013. - 388 с.

6. Мастрюков Д. Алгоритмы сжатия информации. Часть 1. Сжатие по Хаффмену / Д. Мастрюков // Монитор. - 1993. - № 7-8. - С. 14-20.

7. Мастрюков Д. Алгоритмы сжатия информации. Часть 7. Сжатие графической информации / Д. Мастрюков // Монитор. - 1994. - № 6. - С. 12-17.

8. Обработка изображений в авиационных системах технического зрения / под ред. Л. Н. Костяшкина, М. Б. Никифорова. - Москва : Физматлит, 2016. - 238 с.

9. Потапов А. С. Распознавание образов и машинное восприятие: общий подход на основе принципа минимальной длины описания / А. С. Потапов. - Санкт-Петербург : Политехника, 2007. - 547 с.

10. Умняшкин С. В. Математические методы и алгоритмы цифровой компрессии изображений с использованием ортогональных преобразований : дис. ... д-ра физ.-мат. наук / С. В. Умняшкин. - Москва, 2001. - 383 с.

11. Чобану М. Многомерные многоскоростные системы обработки сигналов / М. Чобану. - Москва : Техносфера, 2009. - 480 с.

12. Шовенгердт Р. А. Дистанционное зондирование. Модели и методы обработки изображений / Р. А. Шовенгердт. - Москва : Техносфера, 2013. - 592 с.

13. Hosseini M. A survey of data compression algorithms and their applications / M. Hosseini // Conference: Applications of Advanced Algorithms. - 2012. - P. 1-14.

14. Kostyukhina G. V. Edge detector based on wavelet transform energy attributes / G. V. Kostyukhina, S. A. Lyasheva, M. P. Shleymovich // Proc. SPIE. - 2019. - Vol. 11146, 111460L.

15. Lyasheva S. A. Contours detection in the images using energy characteristics of wavelet transform / S. A. Lyasheva, M. V. Medvedev, M. P. Shleymovich // Proc. SPIE. - 2018. - Vol. 10774, 1077417.

16. Ma J. The Curvelet Transform / J. Ma, G. Plonka // IEEE Signal Processing Magazine. - 2010. - Vol. 27, № 2. - P. 118-133.

17. Mallat S. A Wavelet Tour of Signal Processing / S. Mallat. - Academic Press, 2009. - 832 p.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

18. Marcellin M. W. An Overview of JPEG-2000 / M. W. Marcellin, M. J. Gormish, A. Bilgin, M. P. Boliek // Proc. of IEEE Data Compression Conference. - 2000. - P. 523-541.

19. Pearlman W. A. Set Partition Coding: Part I of Set Partition Coding and Image Wavelet Coding Systems / W. A. Pearlman, A. Said // Foundations and Trends in Signal Processing. - 2008. - Vol. 2, № 2. - P. 95-180.

20. Pearlman W. A. Image Wavelet Coding Systems: Part II of Set Partition Coding and Image Wavelet Coding Systems / W. A. Pearlman, A. Said // Foundations and Trends in Signal Processing. - 2008. - № 3. - P. 181-246.

21. Salomon D. Handbook of Data Compression / D. Salomon, G. Motta. - Springer, 2010. - 1384 p.

22. Sayood K. Introduction to Data Compression / K. Sayood. - Morgan Kaufmann Publisher, 2018. - 790 p.

23. Shleymovich M. P. Image analysis in unmanned aerial vehicle on-board system for objects detection and recognition with the help of energy characteristics based on wavelet transform / M. P. Shleymovich, M. V. Medvedev, S. A. Lyasheva // Proc. of SPIE. - 2017. - Vol. 10342-1034210.

24. The USC-SIPI Image Database. - Режим доступа: http://sipi.usc.edu/database/database.php, свободный. -Заглавие с экрана. - Яз. англ. (дата обращения: 20.01.2020)

25. Uthayakumar J. A survey on data compression techniques: From the perspective of data quality, coding schemes, data type and applications / J. Uthayakumar, T. Vengattaraman, P. Dhavachelvan // Journal of King Saud University - Computer and Information Sciences. - 2018. - Режим доступа: https://www.sciencedirect.com /science/article/pii/S1319157818301101, свободный. - Заглавие с экрана. - Яз. англ.

References

1. Vizilter Yu. V., Zheltov S. Yu., Bondarenko A. V., Ososkov M. V., Morzhin A. V. Obrabotka i analiz izo-brazheniy v zadachakih mashinnogo zreniya: Kurs lektsiy i prakticheskikh zanyatiy [Image processing and analysis in machine vision applications: Course of lectures and practical classes]. Moscow, Fizmatkniga Publ., 2010. 672 p.

2. Gonzalez R., Woods R. Tsifrovaya obrabotka izobrazheniy [Digital Image Processing]. Moscow, Techno-sphera Publ. 2012. 1104 p.

3. Dvorkovich V. P., Dvorkovich A. V. Tsifrovye videoinformatsionnye sistemy (teoriya i praktika) [Digital video information systems (theory and practice)]. Moscow, Technosphera Publ., 2012. 1008 p.

4. Klette R. Kompyuternoe zrenie. Teoriya i algoritmy [Computer vision. Theory and algorithms]. Moscow, DMK Press Publ., 2019. 506 p.

5. Kukharev G. A., Kamenskaya E. I., Matveev Yu. N., Shchegoleva N. L., Khitrov M. V. (ed.) Metody obrabotki i raspoznavaniya izobrazheniy lits v zadachakh biometrii [Methods of processing and recognition of facial images in biometrics problems]. Saint Petersburg, Politechnika Publ., 2013. 388 p.

6. Mastrukov D. Algoritmy szhatiya informatsii. Chast 1. Szhatie po Xaffmenu [Data compression algorithms. Part 1. Huffman compression]. Monitor [Monitor], 1993, no. 7-8, pp. 14-20.

7. Mastrukov D. Algoritmy szhatiya informatsii. Chast 7. Szhatie graficheskoy informatsii [Data compression algorithms. Part 7. Compression of graphic information]. Monitor [Monitor], 1994, no. 6, pp. 12-17.

8. Kostyashkin L. N., Nikiforov M. B. (eds.) Obrabotka izobrazheniy v aviatsionnykh sistemakh tekhnich-eskogo zreniya [Image processing in aviation vision systems]. Moscow, Fizmatlit Publ., 2016. 238 p.

9. Potapov A. S. Raspoznavanie obrazov i mashinnoe vospriyatie: obshhiy podkhod na osnove printsipa min-imalnoy dliny opisaniya [Pattern recognition and machine perception: a general approach based on the principle of minimum description length]. Saint Petersburg, Politechnika Publ., 2007. 547 p.

10. Umnyashkin S. V. Matematicheskie metody i algoritmy tsifrovoy kompressii izobrazheniy s ispolzovaniem ortogonalnykh preobrazovaniy [Mathematical methods and algorithms for digital image compression using orthogonal transformations]. Moscow, 2001. 383 p.

11. Tchobanou M. Mnogomernye mnogoskorostnye sistemy obrabotki signalov [Multidimensional multirate systems for signal processing]. Moscow, Technosphera Publ., 2009. 480 p.

12. Schowengerdt R. A. Distantsionnoe zondirovanie. Modeli i metody obrabotki izobrazheniy [Remote Sensing. Models and Methods for Image Processin]. Moscow, Technosphera Publ., 2013. 592 p.

13. Hosseini M. A survey of data compression algorithms and their applications. Conference: Applications of Advanced Algorithms, 2012, pp. 1-14.

14. Kostyukhina G. V., Lyasheva S. A., Shleymovich M. P. Edge detector based on wavelet transform energy attributes. Proc. SPIE, 2019, vol. 11146, 111460L.

15. Lyasheva S.A., Medvedev M.V., Shleymovich M.P. Contours detection in the images using energy characteristics of wavelet transform. Proc. SPIE, 2018, vol. 10774, 1077417.

16. Ma J., Plonka G. The Curvelet Transform. IEEE Signal Processing Magazine, 2010, vol. 27 (2), pp. 118-133.

17. Mallat S. A Wavelet Tour of Signal Processing. Academic Press, 2009. 832 p.

18. Marcellin M. W., Gormish M. J., Bilgin A., Boliek M. P. An Overview of JPEG-2000. Proc. of IEEE Data Compression Conference, 2000, pp. 523-541.

19. Pearlman W. A., Said A. Set Partition Coding: Part I of Set Partition Coding and Image Wavelet Coding Systems. Foundations and Trends in Signal Processing, 2008, vol. 2, no. 2, pp. 95-180.

20. Pearlman W.A., Said A. Image Wavelet Coding Systems: Part II of Set Partition Coding and Image Wavelet Coding Systems. Foundations and Trends in Signal Processing, 2008, vol. 2, no. 3, pp. 181-246.

21. Salomon D., Motta G. Handbook ofData Compression. Springer, 2010. 1384 p.

22. Sayood K. Introduction to Data Compression. Morgan Kaufmann Publisher, 2018. 790 p.

23. Shleymovich M. P., Medvedev M. V., Lyasheva S. A. Image analysis in unmanned aerial vehicle on-board system for objects detection and recognition with the help of energy characteristics based on wavelet transform. Proc. of SPIE, 2017, vol. 10342, 1034210.

24. The USC-SIPI Image Database. Available at: http://sipi.usc.edu/database/database.php (accessed 20.01.2020).

25. Uthayakumar J., Vengattaraman T., Dhavachelvan P. A survey on data compression techniques: From the perspective of data quality, coding schemes, data type and applications. Journal of King Saud University - Computer and Information Sciences, 2018. Available at: https://www.sciencedirect.com/science/article/pii/S1319157818301101.

УДК 004.021

ИНФОРМАЦИОННЫЕ МОДЕЛИ ПРОЦЕССА ОРГАНИЗАЦИИ ИТОГОВОЙ ГОСУДАРСТВЕННОЙ АТТЕСТАЦИИ В ВУЗЕ

Статья поступила в редакцию 20.03.2020, в окончательном варианте - 23.05.2020.

Бестаева Наталия Викторовна, Астраханский государственный университет, 414056, Российская Федерация, г. Астрахань, ул. Татищева, 20а,

магистрант, e-mail: nat.bestaeva@yandex.ru

Окладникова Светлана Владимировна, Астраханский государственный университет, 414056, Российская Федерация, г. Астрахань, ул. Татищева, 20а,

кандидат технических наук, доцент, e-mail: chelle@mail.ru

В статье рассматриваются информационные модели процесса организации государственной итоговой аттестации в вузе для построения информационной системы на примере организации данного процесса в Астраханском государственном университете. На основе анализа процесса подготовки к государственной итоговой аттестации были выделены четыре основных этапа, составляющих этот процесс. Также было сформулировано общее описание этапов и представлены диаграммы для каждого из них. Обосновано, что для автоматизации процессов подготовки к государственной итоговой аттестации целесообразно использовать модель этого процесса и информационную систему для поддержки выполнения необходимых операций. С использованием нотации UML были построены диаграммы, которые отображают взаимодействие модулей информационной системы друг с другом; входные и выходные данные и исполнителей для каждого из процессов. Кроме того, в статье представлена диаграмма потоков данных - она отображает все важные направления передачи входных и выходных данных в рассматриваемой системе. Современные требования к управлению процессом подготовки к государственной итоговой аттестации в рамках учебного подразделения приводят к определённым затруднениям при использовании традиционных подходов. Причины: большие потоки данных, множество участников процесса и, соответственно, большое количество разнообразной документации. Поэтому представленная модель процесса подготовки к государственной итоговой аттестации и информационная система имеют практическое значение. С одной стороны, они делает данный процесс проще, а с другой - являются одним из этапов создания (реализации) типовой модели бизнес-процессов университета.

Ключевые слова: университет, образование, цифровизация образования, государственная итоговая аттестация, информационная модель, UML-диаграмма

INFORMATION MODEL OF THE PROCESS OF ORGANIZATION OF THE FINAL STATE CERTIFICATION IN THE UNIVERSITY

Bestaeva Natalia V., Astrakhan State University, 20а Tatishchev St., Astrakhan, 414056, Russian Federation,

master student, e-mail: nat.bestaeva@yandex.ru

Okladnikova Svetlana V., Astrakhan State University, 20а Tatishchev St., Astrakhan, 414056, Russian Federation,

Cand. Sci. (Engineering), Associate Professor, e-mail: chelle@mail.ru

The article was received by the editorial board on 20.03.2020, in the final version — 23.05.2020.

The article considers information models of the process of organization of the final state certification in the university for the construction of the information system on the example of this process at the Astrakhan State University. On the basis of an analysis of the preparatory process for the final appraisal, four main stages of the process were identified. A general description of the steps and diagrams for each were also provided. Using UML notation, diagrams were constructed that display the interaction of information system modules with each other, input and output, and performers for each of the processes. In addition, the article presents a diagram of data flows - it shows all

i Надоели баннеры? Вы всегда можете отключить рекламу.