НЕЧЕТКО-МОРФОЛОГИЧЕСКИЙ ПОДХОД К ПРОБЛЕМЕ СКАЛЯРИЗАЦИИ ИНФОРМАЦИОННОЙ МОДЕЛИ В ЗАДАЧАХ КОНТЕКСТНОЙ КОМПРЕССИИ ТРАНСФОРМАНТ СУБПОЛОСНОГО РАЗЛОЖЕНИЯ
Володин А.Б.
Государственный университет аэрокосмического приборостроения 1. Введение
На рис. 1. представлена структура современной системы сжатия многокомпонентных изображений на основе адаптивной контекстной классификации трансформант субполосного разложения.
Высшие
Рис. 1. Структура системы сжатия неподвижных изображений на основе контекстной классификации субполосных трансформант.
Специфичными для систем контекстной компрессии являются модуль формирования векторной контекстной модели и модуль скаляризации контекстов и разделения потоков.
Исходя из практики контекстного кодирования субполосных трансформант могут быть выделены следующие источники информации о контексте:
Таблица 1.
Источники информации о контексте
Номер п/п Источник информации Контест
1 Соседние коэффициенты на том же пространственно-частотном поддиапазоне Локальный
2 Коэффициенты, занимающие то же пространственное положение, но на других пространственно-частотных диапазонах, как правило, высших и соседних Пространственно-частотный
3 Коэффициенты, занимающие то же пространственно-частотное положение, но на другой цветовой компоненте Цветокомпонентный
В результате обработки каждой из представленных источников информации в соответствующих блоках формируются скалярные информационные модели, соответствующие методы формирования которых выходят за рамки данной работы. Однако, поскольку источников информации несколько, то на вход модуля анализа и контекстного разделения информации поступает векторная информационная модель.
Процедура принятия решения состоит из двух этапов: на первом происходит скаляризация полученной векторной модели, а на втором этапа - собственно, принятие решения о принадлежности данного символа к тому или иному контексту. Необходимо отметить, что в отдельных схемах модуль анализа контекстной информации и принятия решения определяет и общее количество контекстов.
Данная работа построена следующим образом: во втором пункте дается описание классического (статистического) метода скаляризации контекстной информационной модели на основе множественной линейной регрессии; в третьем пункте рассматривается подход к скаляризации контекстной информации на основе квантования контекстов. Предлагаемый метод скаляризации контекстной модели на основе предлагаемой автором концепции нечетко-морфологического представления субполосных трансформант представлен в пункте четыре. В пятом пункте изложены результаты экспериментального сравнения обсуждаемых методов.
2. Использование множественной линейной регрессии по соседям для скаляризации контекстной информационной модели
В качестве метода скаляризации контекстной информационной модели в ряде современных работ (например, [6], [8]) предлагается использовать множественную линейную регрессию по энергии соседних коэффициентов.
В общем случае, суть построения контекстной информационной модели сводится к следующему:
1. Выбирается некоторая совокупность 0 из Т скалярных источников информации о контексте
2. Путем использования математического аппарата множественной линейной регрессии находится совокупность из Т коэффициентов1 {аг }Т=1. Информационная модель Мг ё для пространственно-частотного поддиапазона ё, таким образом, будет иметь вид:
Т
МI =Т,аАс*А (1)
г=1
Естественно, что найденные коэффициенты должны передаваться в выходном информационном потоке.
Замечено [6], что прирост эффективности использования новых источников информации при построении скалярной информационной модели резко уменьшается при увеличении числа таких источников. Это объясняется тем, что в регрессионную модель добавляются все менее информативные источники, корреляционные связи с которыми малы.
В качестве иллюстрации обратимся к рис. 3, где представлены зависимости взаимной информации I(С | М(С)) от числа соседних коэффициентов, участвовавших в построении скалярной информационной модели (через множественную линейную регрессию). Здесь и далее С обозначает кодируемый поток, а М - скалярную контекстную модель. Номера коэффициентов, которые добавлялись на каждом конкретном шаге, указанные, таким образом, на оси абсцисс, представлены на рис. 2.
При вычислении взаимной информации используется приведение алфавита 0(М) модели к алфавиту О(С) исходного (кодируемого) информационного потока, что обозначено верхним индексом (С) у М. В противном случае мы получили бы неоправданно завышенную оценку количества взаимной информации.
Сю с 11 с 7 с 12
с9 св С3 с 13
сз с5 С1 X
Рис. 2. Нумерация соседей, использовавшаяся при построении контекстных информационных моделей рис. 3.
1 Из Т, а не Т+1 коэффициентов потому что математическое ожидание трансформанты вэйвлет-разложения равно нулю и, следовательно свободный член так же должен быть равен нулю.
1(С|М(с))
бит/сиивол
0.Д2 |-
0.4 -0.38 -0.36 -0.34 -0.32 -0.3 -0.28 -0.26 -
0.24-1-'-'-1-1-1-
2 4 6 8 10 12 14 .
ноиер I
добавленного соседа
Рис. 3. Зависимость взаимной информации между кодируемым потоком и контекстной информационной моделью от состава коэффициентов для трансформант вертикальной ориентации первого уровня вэйвлет-разложения тестового изображения Bride. При разложении использовался целочисленный вэйвлет «2/10» [11]. Без квантования.
3. Использование квантования контекстов для сокращения размерности контекстной информационной модели
В некоторых случаях, если контекстная модель не скалярна, то для ее скаляризации либо для сокращения ее размерности прибегают к квантованию.
Если взять в качестве примера векторной контекстной информационной модели совокупность коэффициентов, участвовавших в построении линейной регрессионной модели, то тогда, изначально, мы имеем такое количество возможных контекстов, сколько всевозможных сочетаний этих коэффициентов можно составить. Понятно, что учитывая динамический диапазон коэффициентов (даже если принять во внимание то, что мы берем их абсолютное значение), получается огромное число контекстов. В силу ограничений, накладываемых на контекстные информационные потоки адаптивными энтропийными кодерами - см. выражения (2) и (3) - мы не можем иметь такое количество контекстов, и вынуждены прибегнуть к квантованию.
П(Лk) <<Q (2)
п(Лк) >> 0.(Лк) (3)
где Q - алфавит исходного сообщения
0(Лк ) - алфавит к-ого контекстного потока
п(Л к ) - число символов в k-м контекстном потоке
То есть, согласно (2) алфавит каждого контекстного потока должен быть как можно меньшим, по сравнению с алфавитом исходного информационного потока, и, согласно (3) число символов в контекстном потоке должно быть много больше алфавита этого потока
[5], [9]. Последнее необходимо для того, чтобы успели проявиться адаптивные свойства энтропийного кодера.
Квантование контекстов или, что то же самое, квантование векторной информационной модели представляет собой процедуру резкого сокращения числа возможных комбинаций символов, входящих в состав модели - например, квантуют каждый коэффициент, входящий в состав модели всего на два уровня.
Однако, с точки зрения теории информации такая операция приводит к резкой потери взаимной информации I| © ) между текущим коэффициентом и его
контекстом. Очевидно, что
lim ¡(с» i® i,d) = lim(H (Ci,d) - h (Ci,d |® i,d)) = 0 (4)
Na^0 Na^0
так как
lim h (C,di® i,d) = h (C,d) (5)
N
где Nл - число контекстов
Соответственно, падает и эффективность контекстного разделения.
Причина этого заключается в том, что определение контекста как совокупности «соседей» коэффициента является естественным только для текста - метод квантования контекстов наследован из систем компрессии текстовой информации. В случае изображений аналогом соседних букв текста является морфологическая информация -такая как, например, вертикальный или горизонтальный градиент, яркость - для работы в домене изображений, или энергия и знак трансформанты - при работе в домене субполосного разложения. Именно это определение соседства было бы естественным для изображений. Именно морфологические признаки, а не соседние коэффициенты (пиксели) нужно квантовать в случае работы с изображениями.
4. Концепция представления контекстной информации как совокупности нечетких морфологических признаков
Выдвинутая в конце предыдущего пункта гипотеза о квантовании морфологических признаков взамен квантования совокупности «соседей» - равно как в домене изображения, так и в домене трансформанты нашла отражение в разработанной нами концепции нечетко-морфологического подхода к представлению контекстной информации. Скажем сразу, в рамках данной статьи мы ограничимся рассмотрением вопроса только в области трансформанты. Однако - мы нисколько не сомневаемся в этом - концепция справедлива (и может найти свою реализацию) и в области изображения (отсчетов яркости).
4.1. Субполосное разложение как фазификация морфологических признаков
Как известно, коэффициенты двумерного дискретного вэйвлет-разложения имеют тенденцию объединяться в группы. Причем единственной характеристикой объединения является энергия (то есть корреляция существует только по энергии).
В подходе, изложенном автором в [1] и [2], являвшемся развитием метода МЯЖО -морфологичекого представления вэйвлет-данных [10], [13], [14], предлагалось использовать объектно-ориентированное морфологическое разделение всего лишь на два контекста следующим образом: Если абсолютная величина текущего коэффициента выше некоторого порогового значения, то этот и все 8-связанные с ним соседние коэффициенты относились к первому (объектовому) контексту. В противном случае коэффициент был классифицируем как принадлежащий ко второму (поточному) контексту.
Очевидно, что в этом подходе уже фигурирует квантование морфологических признаков. В данном случае в качестве морфологического признака выступала энергия коэффициента, а квантование на два уровня производилось по факту превышения (или непревышения) некоторого заданного порога.
Анализируя этот подход с новых позиций, можно сказать, что каждому коэффициенту приписывалась принадлежность к некоторому чёткому множеству «значимых»2 коэффициентов:
1, С,, I >1
I , I '
или
порог
С
8-связ. сосед.
> I
порог
№ значимый (С у ) |
[0, в противном случае (6)
где С8-_вяя^3 СОСдд - кто-либо из 8-связанных уже закодированных соседей коэффициента.
Чёткость этого множества (возможно лишь два положения) накладывало жесткие ограничения на число контекстов. Префиксность перехода от одного контекста к другому (маркером перехода от одного контекста к другому внутри потока являлся специальный служебный символ) также приводило к нарастающей потере эффективности контекстного
3
разделения в случае введения дополнительных контекстов .
Предлагаемый далее метод контекстного разделения, базирующийся на введении нечетких морфологических признаков, является естественным развитием подхода, предложенного автором в работах [1] и [2].
Суть подхода заключается в рассмотрении субполосного разложения как фазификации морфологического признака «локальный градиент».
Более полно это может быть раскрыто следующим образом: физическим смыслом коэффициентов вэйвлет-разложения можно считать4 локальный градиент - чем больше перепад яркости в том же пространственно-частотном положении, тем выше абсолютное значение соответствующего коэффициента.
Таким образом, можно сказать, что абсолютное значение коэффициента есть не что иное как значение функции принадлежности к некоторому нечеткому множеству А:
с (*) С У
= Мл (с) (7)
2 То есть обладающих большой энергией.
3 А ещё сильно снижало эффективность контекстного разделения, если число обособленных объектов значимых коэффициентов на поддиапазоне было велико.
4 Несмотря на то, что этот физический смысл на самом деле - не более чем побочный эффект проецирования изображений на пространство скейлинг-функций.
где А = [0, max( с(ё)у )] - нечеткое множество морфологического признака «локальный
градиент», определенное, в общем случае5, на динамическом диапазоне абсолютных значений трансформанты поддиапазона ё.
Таким образом, локальные пространственно-частотные соседи (представители локального контекста) становятся носителями нечеткого морфологического признака.
Совершенно аналогичным образом могут быть представлены кросс-частотные и цветокомпонентные контексты - как носители соответствующих нечетких энергетических признаков «низкочастотный градиент» и «кросс-компонентный градиент».
4.2. Т-конорма как аппарат скаляризации нечетких морфологических признаков
Очевидно, что как и в классическом подходе, для построения более простой системы принятия решения будет необходима скаляризация контекстной информации - в данном случае объединение нечетких морфологических призанков.
Один из подходов к операторам объединения в теории нечетких множеств заключается в определении их в терминах треугольных конорм (Т-конорм). В общем случае треугольной конормой называется двуместная действительная функция Б: [0, 1] х [0, 1] ^ [0, 1], обладающая следующими свойствами:
1. £(1,1) = 1; £(/А ,0) = /иА; £(0, /иА) = /иА - ограниченность
2. £(/А, /в > £(/с, /ив ), если /А > /с, /в >/в - монотонность
3. £ (/А, /в ) = £ (/в,/А ) - коммутативность
4. £ (/А, £ (/в, /с )) = £ (£ (/А, /в ), /с ) - ассоциативность (8)
Ниболее часто встречающейся формой треугольной нормы является max(/A, /ив ).
Под скаляризацией нечетких морфологических признаков мы будем понимать отображение нескольких нечетких морфологических признаков в один, что совершенно аналогично парадигме скаляризации контекстной информационной модели, рассмотренной выше.
Воспользуемся максимумом значений двух функций принадлежности, как наиболее простой и физически интерпретируемой формой треугольной конормы:
М А (/ , /,.../п ) = тах(/ /,.../п ) (9)
в противовес вычислительно экспрессивной классической статистике - множественной линейной регрессии.
5 Теория нечетких множеств позволяет определять нечеткие множества на любом упорядоченном множестве, а не только [0, 1].
5. Сравнение эффективности классического (статистического) и предлагаемого (нечеткого) подходов к скаляризации контекстной информации
Сравним эффективность классического, основанного на множественной линейной регрессии, и предлагаемого, основанного на вычислении Т-конормы, подходов к скаляризации контекстной информации.
Для этого над большим количеством тестовых изображений были проведены эксперименты, аналогичные представленным на рис. 3. То есть, были исследованы зависимости взаимной информации I(C | M(C-1) от числа соседних коэффициентов, участвовавших в построении скалярной информационной модели через множественную линейную регрессию и через Т-конорму. Номера коэффициентов, которые добавлялись на каждом конкретном шаге, указанные, таким образом, на оси абсцисс, представлены на рис. 2.
Типичные варианты кривых представлены на примере тестового изображения Lena на рис. 4-7. Как видно из этих рисунков, взаимная информация между текущим значением энергии коэффициента и информационной модели, построенной на вычислении Т-конормы нечетких множеств больше чем для случая множественной линейной регрессии. Это справедливо для всех частотных уровней субполосного разложения.
Более того, в случае квантования коэффициентов разрыв между предлагаемой и статистической информационными моделями еще более увеличивается - см. рис. 5 и 7, что свидетельствует об эффективности использования предложенной концепции в реальных схемах.
1(С|М(с))
бит/сии вол
0.2 |-,-,-,-,-,-,-
2 4 6 8 10 12 14 .
ноиер I
добавленного соседа
Рис. 4. Зависимость взаимной информации между кодируемым потоком и контекстной информационной моделью от состава коэффициентов для трансформант горизонтальной ориентации первого уровня вэйвлет-разложения тестового изображения Lena. Пунктир -нечеткая модель, сплошная линия - множественная линейная регрессия. Без квантования.
Рис. 5. Зависимость взаимной информации между кодируемым потоком и контекстной информационной моделью от состава коэффициентов для трансформант горизонтальной ориентации первого уровня вэйвлет-разложения тестового изображения Lena. Пунктир -нечеткая модель, сплошная линия - множественная линейная регрессия. Шаг квантования £=10; dz=7.
Рис. 6. Зависимость взаимной информации между кодируемым потоком и контекстной информационной моделью от состава коэффициентов для трансформант горизонтальной ориентации второго уровня вэйвлет-разложения тестового изображения Lena. Пунктир -нечеткая модель, сплошная линия - множественная линейная регрессия. Без квантования.
1(С|М(с))
бит/си II вол
0.23
0.22 0.21 0.2 0.19 0.18 0.17 0.16 0.15
0.1Д1-'-'-'-1-'-'-
2 4 6 8 10 12 14
ноиер I
добавленного соседа
Рис. 7. Зависимость взаимной информации между кодируемым потоком и контекстной информационной моделью от состава коэффициентов для трансформант горизонтальной ориентации второго уровня вэйвлет-разложения тестового изображения Lena. Пунктир -нечеткая модель, сплошная линия - множественная линейная регрессия. Шаг квантования 5=10; dz=7.
Превосходство нечетко-морфологического подхода над статистическим с первого взгляда может показаться невероятным. Однако, все дело в том, что информационный и статистический подходы различны не только по своему инструментарию, но и по своим критериям. Множественная линейная регрессия дает оптимальное решения в смысле минимума ^2-нормы, что совершенно не гарантирует максимума взаимной информации.
Для подтверждения последнего тезиса обратимся к таблице 2, в которой проведено сравнение метода скаляризации контекстной информации на основе множественной линейной регрессии и на основе вычисления T-конормы. В качестве параметров сравнения выступают СКО(С,М) - среднеквадратическое отклонение между контекстом и скалярной информационной моделью и - соответствующая взаимная
информация. Измерения проводились трансформант первого и второго частотного уровней для яркостных компонент двух тестовых изображений Bride и Kitten. При разложении использовался целочисленный вэйвлет «2/10», без квантования.
Как видно из таблицы 2, меньшее значение СКО всегда соответствует методу скаляризации на основе множественной линейной регрессии, а большее значение взаимной информации - методу скаляризации на основе вычисления T-конормы, что количественно свидетельствует о преимуществе нечеткого (информационного) подхода над статистическим.
Те же параметры, но в случае наличия квантования представлены в таблице 3. Как можно убедиться, квантование не только не снижает эффективности предлагаемого метода, но даже несколько повышает его.
Существует и физическая трактовка полученных экспериментальных данных. Для того, чтобы дать ее, проведем следующий уникальный эксперимент: построим гистограммы зависимостей взаимной информации I(C10) от абсолютной величины трансформанты С для каждой из трех конфигураций локального контекста 0 = Clefi,
0 = Cup и 0 = Cleftup. Соответствующие зависимости приведены на рис. 8. В качестве
примера использовались те же трансформанты горизонтальной ориентации первого пространственно-частотного уровня вэйвлет-разложения тестового изображения Lena. При разложении использовался целочисленный вэйвлет «2/10» [11]. Без квантования. Динамический диапазон энергий трансформант, подвергавшихся анализу [0, 40]. Для целочисленного вэйвлета «2/10» это 96% от общего числа трансформант.
Таблица 2
Сравнение методов скаляризации контекстной информации при отсутствии квантования
Изображение Под- Множ. лин . регрессия Т-конорма
диапазон СКО(С,М) I(C|M(C)) СКО(С,М) I(C|M(C))
sd1 0.0095 0.3279 0.0139 0.3393
ds1 0.0101 0.3352 0.0161 0.3409
dd1 0.0078 0.4749 0.0133 0.4755
sd2 0.0446 0.4574 0.0638 0.5249
ds2 0.0468 0.4509 0.0713 0.5129
Bride dd2 0.0444 0.3055 0.0665 0.3575
sd3 0.1280 0.8193 0.1862 0.9299
ds3 0.1241 0.7332 0.1957 0.8438
dd3 0.1233 0.5796 0.1869 0.6984
sd4 0.3501 1.3075 0.5149 1.4882
ds4 0.3207 1.1957 0.4862 1.4022
dd4 0.3664 1.1527 0.5466 1.3849
dd1 0.0163 0.3789 0.0239 0.4166
sd1 0.0211 0.3982 0.0318 0.4134
ds1 0.0252 0.4407 0.0373 0.4502
sd2 0.0429 0.3250 0.0638 0.3900
ds2 0.0443 0.3355 0.0680 0.3800
Kitten dd2 0.0536 0.3555 0.0786 0.3940
sd3 0.1208 0.5079 0.1823 0.6206
ds3 0.1313 0.5632 0.2026 0.6861
dd3 0.1438 0.5202 0.2138 0.6656
sd4 0.3962 1.1183 0.6012 1.4796
ds4 0.3877 0.9204 0.5973 1.3333
dd4 0.4528 1.1269 0.6647 1.5656
Таблица 3
Сравнение методов скаляризации контекстной информации при наличии квантования
S=10, dz=7
Изображение Под- Множ. лин . регрессия Т-конорма
диапазон СКО(С,М) I(C|M(C)) СКО(С,М) I(C|M(C))
sd1 0.0011 0.1229 0.0015 0.1460
ds1 0.0012 0.0895 0.0018 0.1234
dd1 0.0013 0.0630 0.0019 0.0823
sd2 0.0049 0.2200 0.0069 0.2540
ds2 0.0052 0.1635 0.0078 0.2185
Bride dd2 0.0049 0.1350 0.0074 0.1560
sd3 0.0140 0.2826 0.0197 0.3297
ds3 0.0137 0.2253 0.0212 0.2458
dd3 0.0137 0.1782 0.0202 0.2376
sd4 0.0376 0.3957 0.0536 0.4301
ds4 0.0365 0.2237 0.0530 0.3183
dd4 0.0391 0.2667 0.0564 0.3699
dd1 0.0020 0.1177 0.0028 0.1912
sd1 0.0024 0.1317 0.0036 0.1921
ds1 0.0028 0.1998 0.0040 0.2425
sd2 0.0050 0.1315 0.0073 0.1800
ds2 0.0052 0.1250 0.0077 0.1665
Kitten dd2 0.0062 0.1435 0.0088 0.1865
sd3 0.0142 0.1516 0.0206 0.1823
ds3 0.0151 0.1925 0.0223 0.2089
dd3 0.0164 0.1516 0.0234 0.1905
sd4 0.0442 0.1892 0.0648 0.2151
ds4 0.0436 0.1118 0.0643 0.1462
dd4 0.0501 0.1290 0.0711 0.1720
(в)
Рис. 8. Гистограммы зависимостей взаимной информации I(С 10) от абсолютной величины трансформанты С для каждой из трех конфигураций локального контекста 0 = С1ф (а), 0 = Сир (б) и 0 = С1фир (в).
Полученные данные говорят о том, что чем больше абсолютная величина трансформанты (значение функции принадлежности к нечеткому множеству «локальный пространственно-частотный градиент» в терминах нашей концепции), тем выше его информативность в смысле взаимной информации. Из этого следует, что принятое определение Т-конормы, как максимума значений функций принадлежности, действительно дает самое информативное решение.
Возвращаясь к экспериментам Рис. 4-7, необходимо отметить характер зависимости взаимной информации между кодируемым потоком и контекстной информационной моделью от состава коэффициентов. Если для множественной линейной регрессии кривая во всех случаях имела насыщающийся характер, что объясняется, во-первых, все большей удаленностью добавляемых в модель трансформант [6], а, во-вторых, - добавим уже от себя - с добавлением новых удаленных коэффициентов частично разрушается информативность модели вследствие «оттягивания на себя» такими коэффициентами части общей энергии модели, то для нечетко-морфологического подхода кривая в общем случае имеет более или менее отчетливо выраженный максимум.
Это объясняется тем, что несмотря на то, что гистограммы зависимостей взаимной информации I(О | 0) от абсолютной величины трансформанты С, носят возрастающий характер, количество взаимной информации, содержащейся в удаленных трансформантах, гораздо ниже, нежели чем в близлежащих. Поэтому, беря максимальную по абсолютной величине трансформанту, мы вовсе не обязательно возьмем самую информационную.
Количество локальных соседей, входящих в состав нечеткой информационной модели ограничено величиной 4-5, а их состав определятся пространственно-частотным положением поддиапазона.
Метод сохраняет свою эффективность и при скаляризации общей информациной модели.
6. Заключение
Предложен новый подход к скаляризации контекстной информационной модели, работающий на основе концепции нечетко-морфологического представления субполосной информации.
Основным достоинством предложенного метода, помимо возросшей эффективности является очень низкая вычислительная сложность, а так же отсутствие необходимости в передаче с выходным потоком какой-либо дополнительной информации.
7. Литература
1. Контекстное сжатие статических изображений, основанное на морфологическом представлении вэйвлет-данных / Володин А. Б.; Санкт-Петербургский государственный университет аэрокосмического приборостроения. С.-Пб., 2000. - 19 с. - Рус. - Деп в ВИНИТИ 08.11.00, № 2804-B00
2. Морфологическая компрессия вэйвлет-данных в задачах сжатия статических изображений / Володин А. Б.; Четвертая научная сессия аспирантов ГУАП: Сб. докл.: В 2 ч. Ч I. Технические науки / СПбГУАП. СПб., 2001. 362 с.: ил. ISBN 5-8088-0062-5
3. X. Wu, «Effcient lossless compression of continuous-tone images via context selection and quantization» IEEE Trans. Image Processing, vol. IP-6, pp. 656-664, May 1997.
4. X. Wu and N. D. Memon «Context-based, adaptive, lossless image coding» IEEE Trans. Commun., vol. 45 (4), pp. 437-444, Apr. 1997
5. T. Bell, J. Cleary, I. Witten. Text Compression. Prentice Hall, Englewoods Cliffs, NJ, 1990.
6. C^hrysaphis Wavelet Image Compression Rate Distorsion Optimisations and Complexity Reductions, PhD Thesis, Faculty of the graduate school university of Southern California, 2000
8. C. Chrysafis and A. Ortega. Efficient Context-based Entropy Coding for Lossy Wavelet Image Compression. In Proc. IEEE Data Compression Conference, pages 241-250, Snowbird, Utah, 1997.
9. Mark Nelson, «The Data Compression Book», web:
http://dx3cmd.inp.nsk.su/cmd2/manuals/programming/compression/ewtoc.html
10. S. Servetto K. Ramchandran M. Orchard Image Coding Based on a Morphological Representation of Wavelet Data. To appear in the IEEE Transactions on Image Processing, 1999.
11. M.J. Gormish, Nekka Matsuura, and Takahiro Yagashita «An Adaptive Transform for Compression of Mixed Con-tone and Graphics» Picture Coding Symposium, Portland, OR, April, 1999.
12. R. Klette and P. Zamperoni. Handbook of Image Processing Operators. John Wiley & Sons, 1997.
13. S. Servetto, K. Ramchandran, and M. Orchard. Morphological Representation of Wavelet Data for Image Coding. In Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing, Detroit, MI, 1995.
14. S. Servetto, K. Ramchandran, and M. Orchard. Wavelet Based Image Coding via Morphological Prediction of Significance. In Proceedings of the IEEE International Conference on Image Processing, Washington D.C., 1995.