Научная статья на тему 'К вопросу разработки метода компактного представления графических изображений'

К вопросу разработки метода компактного представления графических изображений Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
120
40
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «К вопросу разработки метода компактного представления графических изображений»

УДК 519.24

С.Ю. ГАВРИЛЕНКО, канд. техн. наук, НТУ “ХПИ”,

А.Н. ПАНТЕЛЕЙМОНОВ

К ВОПРОСУ РАЗРАБОТКИ МЕТОДА КОМПАКТНОГО

ПРЕДСТАВЛЕНИЯ ГРАФИЧЕСКИХ ИЗОБРАЖЕНИЙ

Було проаналізовано різні алгоритми стиску даних. При цьому розглянуті класичні, такі як групове кодування, LZW стиск, кодування по Хаффману, та відносно новий алгоритм JPEG, виявлені їх переваги і недоліки. Обґрунтована необхідність розробки нового методу стиснення зображень, основою якого є розкладання зображень по базисам всплесків, та запропоновано алгоритм. Проведено порівняння алгоритмів компресії зображень і питання побудови заходів оцінки втрат якості зображення. Промодульована робота алгоритму стиснення зображень, заснованого на використанні модифікації технології wavelet - її кластерізаціїї. Зроблено аналіз ефективності одержаного методу стиснення, порівняно із стандартом стиснення зображень JPEG.

Different algorithms of data compression were analyzed. Thus considered classic such as a group code, LZW compression, coding of Haffman, and relatively new algorithm JPEG, their advantages and failings are exposed. The grounded necessity of development of a new method of compression of images by the basis of which is decomposition of images on to the bases of splash and offered algoritm. Conducted comparison algorithms of compression of images and question of construction of measures of estimation of losses of quality of image. Design work compression algorithm of images, based on the use of modification technology of wavelet, it's clasterisation. The analysis of efficiency of the got method of compression is done, it is comparative with the standard of compression of images JPEG.

Постановка проблемы. Алгоритмы, построенные на основе дискретнокосинусного преобразования Фурье (ДКП), которое используется в кодеках JPEG, MPEG-1, имеют ряд недостатков: возможность осуществлять сжатие только с потерями (сжатие без потерь не разглашается), неустойчивость к ошибкам, возникающим при передаче изображения по сети, отсутствие масштабируемости разрешения, невозможность обрабатывать отдельные участки изображения, низкая скорость сжатия.

Возникла необходимость заменить этот этап, использующий ДКП, на wavelet-преобразование (всплеск-разложение). Разложение по базисам всплесков заключается в том, что от сигнала отщепляется октавным фильтром его высокочастотная часть. Низкочастотная и высокочастотная часть слабо коррелированны между собой. При анализе нестационарных сигналов за счет свойства лояльности вейвлеты получают существенное преимущество перед преобразованием Фурье, которое дает нам только глобальные сведенья о частотах (масштабах) исследуемого сигнала, поскольку используемая при этом система функций (синусы, косинусы) определены на бесконечном интервале.

Анализ литературы. При разработке методов сжатия выделяют два подхода: сжатие с потерями и сжатие без потерь. Сжатие с потерями включает

ЗІ

в себя два процесса: выделение сохраняемой части информации с помощью модели, зависящей от цели сжатия и особенностей источника и приемника информации, и собственно сжатие без потерь [1].

Идея вейвлет-сжатия изображений заключается в следующем: сначала к изображению применяется прямое вейвлет-преобразование (ВП), а затем из данных преобразованного изображения удаляются некоторые коэффициенты. К оставшимся коэффициентам может быть применено кодирование [2]. Сжатое изображение восстанавливается путем декодирования коэффициентов, если это необходимо, и применением обратного преобразования к результату [3]. Предполагается, что в процессе удаления части коэффициентов преобразования теряется не слишком много информации [4].

В настоящее время ведутся работы по оптимизации всех этапов сжатия: преобразования, квантования, кодирования [5].

Было доказано, что любую функцию можно представить в виде суперпозиции вейвлетов, и существует устойчивый численный алгоритм определения коэффициентов при таком разложении [6]. Вейвлет-базис задается с помощью итерационного алгоритма с изменением масштаба и сдвигом единственной функции. В результате преобразования создается некоррелированный ряд чисел, называемый трансформантами. При этом число относительно больших трансформант невелико, в связи с чем трансформанты могут быть закодированы гораздо эффективнее, чем информация о самом изображении [7].

Искажения в реконструированном сигнале, возникающие в результате квантования, можно сделать сравнительно небольшими даже при весьма заметном сжатии. Поскольку та часть сигнала, которая при этом не воспроизводится, часто является шумом [8].

Последний этап сжатия - оптимальное (энтропийное) кодирование. Идея, состоит в том, чтобы вместо кодирования всех символов одинаковым числом бит, кодировать символы, которые встречаются чаще, меньшим числом бит, чем те, которые встречаются реже [9].

Но прямой переход от математики к компьютерным программам зачастую требует индивидуального подхода к изучаемой задаче. Как правило, в качестве вейвлета берутся непериодические, локализованные в пространстве функции [10].

Цель статьи. Исследовать использование для сжатия графической информации двумерного вейвлет-преобразования (ДВП), с последующим квантованием, энтропийным кодированием, модифицируемым за счет добавления кластеризации, а также выполнить сравнительный анализ эффективности сжатия графических данных, используя кластеризацию (разбиение на группы) алгоритма кодирования, и сжатие по алгоритму JPEG.

ДВП применяет одномерное ВП к каждой строке, а затем одномерное ВП к каждому столбцу результирующей информации, после чего получается множество трансформант. Каждый этап ДВП можно представить как

суперпозицию фильтра низких частот ФНЧ (Н) и фильтра высоких частот ФВЧ (Ь). ФНЧ пропускает информацию, передаваемую на низких частотах (малое количество деталей), блокируя информацию, передаваемую на высоких частотах (большое количество деталей), а ФВЧ - наоборот.

Четверть коэффициентов ДВП является результатом действия ФВЧ на строки, а затем его действия на результирующие столбцы информации (блок НН). Другая четверть коэффициентов является результатом действия ФНЧ на столбцы матрицы, которые уже прошли через ФВЧ (блок ЬН). Блок НЬ является результатом НЧ обработки строк, с последующей ВЧ обработкой столбцов. Левый верхний угол схемы подразделен на меньшие блоки, показывая, что операция ВП последовательно воздействует на все меньшее количество коэффициентов, вплоть до последнего коэффициента в левом верхнем углу, к которому применялся только ФНЧ (рис. 1).

Из ЬИз ЬИ2 Ші

ИЬз ИИз

ИЬ2 ИИ2

ни ННі

Рис. 1. Схема двумерного ВП как последовательности фильтров

Предложен метод энтропийной кластеризации трансформант ВП, применение которого позволяет повысить эффективность статистических кодеков, например кодек по Хаффману.

Суть метода заключается в разбиении трансформант на кластеры, элементы которого обладают одинаковыми энтропийными свойствами. При этом каждый кластер отвечает за соответствующий уровень детализации изображения.

Во время кодирования для каждого кластера в отдельности строится своя адаптивная статистическая модель, что позволяет работать статистическому кодеку в режиме локальной адаптивности. С учетом независимости элементов трансформант ВП можно принять, что элементы кластеров формируются отдельным источником со своим алфавитом. В этом случае общая энтропия трансформанты оказывается меньше, чем в случае модели с одним, общим для всей трансформанты источником.

В качестве ВП использовалось двумерное преобразование Хаара. Получены следующие коэффициенты сжатия: 3 ^ 5 - для высоконасыщенных изображений, 6^8- для средненасыщенных и более 9 - для низконасыщенных изображений.

Тестируемые изображения имели размерность 640x480 точек с 24 битовой глубиной цвета. Общее среднее время обработки изображения (на Celeron 1.6) составило: преобразование 50 мс, квантование 35 мс, кодирование 70 мс, восстановление - 110 мс. Исследовалось средне-квадратическое отклонение с (СКО), характеризующее погрешность восстановленного изображения. Сравнительный результат отображен на рис. 2.

ско%

4,2

0,8

0.6

0.4

0

1 2 3 Классы

изображений

Рис. 2. СКО Wavelet и JPEG при обработке различных классов изображений

Алгоритм сжатия, опирающийся на разложение по базисам всплесков, во многом похож, но отличие состоит в том, что вместо базисов косинусов и синусов он использует локализованный базис всплесков.

При вычислении коэффициентов разложения по базису всплесков наиболее тонким моментом является борьба с краевыми эффектами. Самый простой вариант учета краев - их ликвидация при помощи периодизации изображения, основанной на склейке противоположных краев.

Выводы. Вейвлеты обладают существенными преимуществами по сравнению с преобразованием Фурье, потому что с их помощью можно легко анализировать прерывистые, нестационарные сигналы либо сигналы с острыми всплесками. Кроме того, вейвлеты позволяют анализировать данные согласно масштабу, на одном из заданных уровней (мелком или крупном). Уникальные свойства вейвлетов позволяют сконструировать базис, в котором

представление данных будет выражаться всего несколькими ненулевыми коэффициентами. Небольшие коэффициенты разложения могут быть отброшены в соответствии с выбранным алгоритмом без особой потери качества упакованных данных.

Предложен метод энтропийной кластеризации трансформант ВП, применение которого позволяет повысить эффективность статистических кодеков: арифметического, кодека по Хаффману и других, что привело к более компактному представлению и хранению больших объемов графической информации. Это может быть применено в научных исследованиях, в коммерческих целях, а также широким кругом пользователей, занимающихся различной обработкой, преобразованием, хранением и восстановлением изображений.

Список литературы: 1. Lewis A.S. and Knowles G. Image compression using the 2-d wavelet transform // IEEE Trans. - April 2002. - P. 244-250. 2. Кочетков М.Е., Умяшкин С.В. Многопотоковая реализация алгоритма арифметического кодирования. - М.: МГИЭТ, 2001. - 21 с. 3. Кочетков М.Е., Умняшкин С.В. О сравнении критериев для оценки эффективности декоррелирующих преобразований. - М.: МГИЭТ, 1998. - 34 с. 4. Умняшкин С.В. Оценка эффективности унитарных преобразований для кодирования дискретных сигналов // Информатика и связь. - М.: МИЭТ, 1997. - С. 73 - 78. 5. Прэтт У. Цифровая обработка изображений. - М.: Мир, 1982. - Кн.1 и 2. - 312, 480 с. 6. Дмитриев В.И. Прикладная теория информации. - М.: Высш. шк., 1989. - 320 с. 7. Ахмед Н., Рао К.Р. Ортогональные преобразования при обработке цифровых сигналов. - М.: Связь, 1980. -248 с. 8. Ватолин Д., Ратушняк А., Смирнов М., Юкин В. Методы сжатия данных. Устройство архиваторов, сжатие изображений и видео. - М.: ДИАЛОГ - МИФИ, 2002. - 384 с. 9. Бондарев В.Н, Трестер Г., Чернега В.С. Цифровая обработка сигналов: методы и средства. - Х.: Конус, 2001. -398 с. 10. Королев А.В., Бохан К.А., Сальник Ю.П. Зонально-пороговая селекция коэффициентов быстрого двумерного преобразования Хаара // Системы обработки информации. - Х.: НАНУ, ПАНМ, ХВУ. - 2004. - Вып. 4. - С. 109 - 113.

Поступила в редакцию 15.04.2005

i Надоели баннеры? Вы всегда можете отключить рекламу.