Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А.А., Дрюченко М.А.
ОБОБЩЁННЫЕ АЛГОРИТМЫ СЖАТИЯ ИЗОБРАЖЕНИЙ НА ФРАГМЕНТАХ ПРОИЗВОЛЬНОЙ ФОРМЫ И ИХ РЕАЛИЗАЦИЯ С ИСПОЛЬЗОВАНИЕМ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ
А.А. Сирота, М.А. Дрюченко
Воронежский государственный университет, Воронеж, Россия
Аннотация
Рассматривается задача сжатия изображений на фрагментах произвольной формы. Теоретически обосновываются возможности построения гетероассоциативных и автоассоциативных сжимающих преобразований фрагментов реализаций случайных полей с использованием нейронных сетей.
Ключевые слова: сжатие информации, нейронные сети, обработка изображений, цифровые водяные знаки.
Цитирование: Сирота, А.А. Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы и их реализация с использованием искусственных нейронных сетей /
А.А. Сирота, М.А. Дрюченко // Компьютерная оптика. - 2015. - Т. 39, № 5. - С. 751-761. - DOI: 10.18287/0134-2452-2015-39-5-751-761.
Введение
При обработке сигналов и изображений часто используются различного рода линейные и нелинейные преобразования данных, обеспечивающие их сжатие. Так, при обработке случайных полей (изображений) возникает задача понижения размерности и выделения главных информационных компонентов [1 - 4] в интересах реализации эффективных способов их передачи и хранения, а также построения процедур классификации объектов. Другое применение алгоритмов сжатия изображений реализуется в системах компьютерной стеганографии для создания цифровых водяных знаков в интересах защиты электронных объектов, создания радиочастотных меток повышенной скрытности, хранения конфиденциальной информации и т.п. Здесь широкое распространение получили методы, основанные на использовании свойств избыточности видеоинформации и ориентированные на выполнение процедур сжатия [5, 6].
При отсутствии априорной информации построение сжимающих преобразований сигналов и изображений удобно осуществлять в рамках нейросетевого подхода [2, 4, 6, 7]. В его основе лежит применение искусственных нейронных сетей (НС), обучаемых по совокупности реализаций случайных векторов, отображающих взаимосвязи временных и пространственных фрагментов анализируемых процессов и полей. Например, в [8] приведены примеры использования аппарата НС для определения пространственных связей при обучении по эталонным фрагментам реальных изображений, что фактически позволяет решать задачу восстановления их регрессионных моделей и проведения синтеза искусственных изображений с подобием текстуры.
Целью данной работы является исследование универсальных алгоритмов сжатия изображений на основе построения сжимающих преобразований (СП) общего вида и их реализаций с использованием искусственных нейронных сетей. Принципиальной особенностью постановки задачи является рассмотрение взаимного сжимающего отображения двух соседних областей изображения, имеющих произвольную форму, (так на-
зываемое гетероассоциативное преобразование) как наиболее общего случая. Использование СП данного вида позволяет находить существенные взаимосвязи для различных областей изображений. При реализации стандартного варианта обработки применяется сжимающее отображение для общей входной и выходной области изображения (автоассоциативное преобразование). Полученные алгоритмы сравниваются с алгоритмами сжатия, основанными на использовании дискретно-косинусного преобразования.
1. Теоретические обоснования возможностей построения СП с использованием нейронных сетей
Рассмотрим следующую постановку задачи. В качестве исходной модели изображения будем рассматривать его представление как реализацию случайного поля, заданного на прямоугольной дискретной сетке: w (x, y), Y = {x = 1,n, y = 1,m}. Пусть zeRN, N=Aj+A2 -случайный вектор, представляющий некоторую область случайного поля QcY и полученный путём развёртки значений w (x, y), (x,y) eQ в произвольном порядке. Для определённости будем считать, что математическое ожидание M[z] = 0, при этом матрица ковариации вектора z Rz=M[zzT]. При выполнении СП гетероассоциативного типа вектор z всегда может быть представлен как составной z = (z\,zT)T, где z e RN отображает некоторую подобласть фрагмента Qj, называемую входной частью, а z2 e RN2 - подобласть фрагмента, называемую выходной частью QO. Соответственно, в этом случае производится отображение данных входной части в данные выходной, при этом Qj uQO = Q, Qj П QO = 0 . При выполнении СП автоассоциатвиного типа z1 = z2 = z и области Qj = Q, QO = Q совпадают.
Пусть некоторое количество подобных непересекающихся областей полностью покрывает
p p
Y: yQ(p) =Y, П°(p) =0. Соответственно, каждой
p=1 p=1
области Q(p) соответствует реализация вектора z: z(p).
Компьютерная оптика, 2015, том 39, №5
751
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А. А., Дрюченко М.А.
В итоге на всём изображении может быть получена
совокупность реализаций {z[p\z2p\ p = 1,P} для входной и выходной частей совокупности фрагментов {О(p), p = 1P}, которая будет далее использована в качестве обучающей выборки для построения СП.
При выполнении СП общего вида области О2, WO могут быть произвольной конфигурации. Для примера на рис. 1 представлены различные конфигурации фрагментов полутонового (монохромного) изображения: это области прямоугольной формы, решётки произвольной (случайной) конфигурации внутри области прямоугольной формы и т.п. Серым цветом выделены пиксели входной части фрагмента, белым цветом выделены пиксели выходной части. Для полноцветных изображений конфигурация входной и выходной частей может быть также произвольной, например, входная часть включает две цветовые компоненты фрагмента, которые отображаются на оставшуюся цветовую компоненту.
Рис. 1. Примеры выходной части фрагмента изображения прямоугольной (а) и случайной (б) конфигурации
Необходимо отметить, что случайные векторы z1, z2 связаны соотношением:
Z2 = Z2/1+C= Hzi+V, H = Rz21R-! , M [V ] = 0 ,
M [VVT ] = Rz22 - Rz21 RznRz12 , 0)
где z2/1 - имеет смысл оптимальной (в классе линейных) оценки z2 относительно наблюдения z1; V - стохастическая составляющая, не коррелированная с z2/1 ;
Rz11 = M [z1 z1 ] , Rz22 = M [z2z2 ] , Rz21 = M [z2z1 ] .
Рассмотрим архитектуру универсальных преобразователей, которые могут быть использованы для выполнения СП в общем случае. В качестве таких преобразователей могут использоваться нейронные сети прямого распространения, весовые коэффициенты которых могут настраиваться путём непосредственных вычислений или на основе итеративного обучения по методу обратного распространения ошибки [2 - 4, 7]. Типовая архитектура НС, которые могут быть использованы для сжатия данных, приведена на рис. 2а, где z1 е RN - входной вектор, y = z2 е RN -требуемый выходной целевой вектор. Особенностью архитектуры сети является использование сокращённого числа нейронов M<N1, M<N2 в скрытом слое по
отношению к размерности входного и выходного векторов. Общая матрица весовых коэффициентов W(1,2) этой НС имеет вид W(1,2) = Wil>W(l>, где W®, W(1)-матрицы весов первого и второго слоя. При z1 Ф z2 сеть является гетероассоциативной, а при z1 = z2 - автоассоциативной [7]. При выполнении сжимающего преобразования входного вектора z1 на выходе НС получаем вектор
~2 = W(2)W(1)z1 = W(2)v12 , (2)
где v12 - переходный сигнал на выходе вычислительных элементов (нейронов) первого слоя, поступающий на вход второго слоя нейронов.
Для дальнейшего анализа потребуется также рассмотреть преобразователь (рис. 2б), который может быть реализован в виде однослойной НС, имеющей N1 входных контактов и N2 нейронов в выходном слое и матрицу весовых коэффициентов W. После её обучения по выборке объёмом P>N1, P>N2 реализаций
случайных векторов {z1p), z2p), p = 1, P} на выходе формируется реакция в виде квазиоптимальной оценки [9], соответствующая структуре оптимальной линейной оценки z2 относительно наблюдения z1:
z2/1 = Wz1 = Rz21Rz11z1 , Rz 21
Rzn =~:H I z1p) z1p),
P -1 p=1
1
P -1
P
I z2p) z1p),
p=1
(3)
где Rz21 =| rj2,1) , Rz11 = г-и’1^ - выборочные матрицы ковариации случайных векторов, соответствующие матрицам Rz11, Rz21.
Рис. 2. Архитектура нейронных сетей, используемых для сжатия данных
Рассмотрим НС для построения СП, архитектура которой представлена на рис. 2а. Запишем целевую функцию, которую требуется минимизировать при обучении НС, относительно совокупности реализаций z1, z2 в виде
^ - 2 £(;
2 p =1
(p)
r( p)
)T (
z (p) - ~( p)
)=
2
2
1 P N 2 (
= 11I z% - I
2 p =1 j=1
V
M N1 Л
j I >z1,p}
k=1 i=1 j
где z2( p) = W <2)W(1) z1p) - реакция на входное воздей-
ствие z|p). Представим величину средней квадратичной ошибки (СКО) в виде
2
752
Компьютерная оптика, 2015, том 39, №5
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А.А., Дрюченко М.А.
E = — tr 2
1 p
1 ^ (Z2(^) - Z2(Р))(Z2(P) - Z^(Р)У
V 2 p=i
1
= — tr 2
X (Z2(p) -Z'2/1(P))(Z2(P) S2^)T | +
V p=1
1 ( P
+—tr 2
1
+ —tr 2
1
+—tr 2
X (Z 2/1P) - Z'2(P)}(Z'2/1(P) - Z2(P))T I + V p=1
X (Z2(P) -Z2/1(P))(Z'2/1(P) -Z2(P))T
V p=1
X (Z'2/1(P) - Z2(P))(Z2(P) - Z2/1(P))T
V P=1
где ~2(р) = Rz21Rz11z1P) - линейная оценка z2P) относительно наблюдения z[P), являющаяся реакцией на выходе преобразователя (рис. 2б). Поскольку
p
X Z2(P)~2/1(PlT = (P - 1)R21R *пЯ*12 ,
P =1
p
X Z2(P)~2(P),T = (P - 1)R2W(1),T^(2),T ,
P=1
X z2/1^Z2/1^’ = (P - 1)Rz21 Rz11 Rz11 Rz11 Rz12 =
P =1
= (P - 1)R2R Z-R12,
P
X ~2/1(P)~2(P),T = (P - 1)R21R/1R~z11^(1),tw (2),t =
P=1
= (P -1)RZ 21w (1XTw(2)T,
то два последних слагаемых в выражении для E равны нулю. Это означает, что ошибка, которая минимизируется относительно коэффициентов матриц W'2^,
-u P)
зир
состоит из двух слагаемых 1
E = -2
V(Z (p) -z (P)\T(Z (p) -z (p)) Z_\Z2 Z2/1 > \Z2 Z2 /1 >
V P =1
1
+ —
2
V(Z (P) Z(P) )T (Z (P) Z(P))
X (Z2/1 Z2 > (Z2/1 Z2 )
V P =1
= I Xv (P )TV(p) +
2 p=1
1
+ — 2
X(Wz1(p) - W2W1Z1(P))T(WZ1(P) - W2W1Z1(p))
V P=1
=RVV +E .
Первое из них не зависит от элементов W(2>, W1 и соответствует выборочной матрице ковариации стохастической составляющей оптимальной линейной оценки в (1). Второе - определяет СКО E' восстановления квазиоптимальной линейной оценки после сжатия набора векторов Z2p! = RZ21RRz[p), p = 1, P , выполняемого НС с архитектурой, представленной на рис. 2а, но уже обучаемой в автоассоциативном режиме.
P
+
+
Таким образом, может быть сформулировано следующее утверждение: выполнение гетероассоциативного СП по отношению к вектору, описывающему входную часть фрагмента случайного поля, эквивалентно выполнению автоассоциативного СП, выполняемому по отношению к линейной оценке вектора выходной части, получаемой относительно вектора входной части.
Необходимое условие минимума E' определяется системой уравнений:
dE' --- --------
-Ц-= 0, n = 1, N1, m = 1, M ,
5w(1) 1
mn
dE' --- --------
—— = 0, n = 1, N 2 , m = 1, M .
awm>
После дифференцирования и приведения подобных членов получим два матричных уравнения
Rw (2)T - Rw (1)tw (2),tw (2) = 0, R w (1),T - w (2)w (1)R w (1),T = 0,
Rz =
1
P -
1X
1 p =1
Z ( p)z( P),T = R Z2/1 Z2/1 ~R
z21Rz11Rz12 .
Будем далее предполагать, что объём обучающих данных достаточно велик, что обеспечивает невырожденность матрицы RZ. Тогда получим
W(2) - W(1),TW(2),TW(2) = 0,
w (2) = Rzw (1)-T (w (1) Rzw (1)T )-1. (4)
Отсюда сразу следует, что W(V)W(2) = I, поскольку матрица W(2),TW(2) невырожденная
W(2),TW(2) = D~lGD~l, D = (w(1)RzW(1),t ),
G = W(1) Rw (1),T
и, соответственно, то, что
W(1) = (W(2),TW(2))-1W(2),T ,
т.е. матрица является псевдообратной по отношению к W2).
Подставляя теперь в (4) W(2) из второго уравнения в первое, получим:
Rw(1),T = W(1),TL , L = D_1G , (5)
где L - матрица размера M*M, являющаяся произведением двух симметрических, положительно определённых матриц.
Проведём интерпретацию полученного решения. Для этого будем использовать одновременную диаго-нализацию матриц D и G. Как известно [10,11], две симметрические матрицы можно привести к диагональному виду, используя невырожденное преобразование UT
UDUT = I, D = U~1U~1J , UGUT = Л ,
G = U_1LU-1,T ,
Компьютерная оптика, 2015, том 39, №5
753
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А. А., Дрюченко М.А.
где UT, Л - матрицы собственных векторов и собственных значений D G, причём LU = D GU =U Л. С учётом этого (5) можно преобразовать следующим образом:
RzW mJUT = W (1)TLUT = W (1)TUT Л =
= RZV(1) = V(1) Л, (6)
где V(1) = W(1),TUT = (v(1) ... v£P) - матрица, столбцами которой являются линейные комбинации столбцов матрицы W(1),T = (Wj(1),t ... W«,T), где Wj;1),
m = 1,M, соответственно, строки W1
M ____
Vk(1) = Z U^W^ , k = 1,M ,
k=1
где umk, m = 1,M, k = 1,M - элементы матрицы UT.
Полученное представление, если повторить аналогичный анализ, выполненный в [4, 9] , позволяет сделать вывод о том, что векторы Vk(1> =yk, к = 1, M яв-
ляются собственными векторами Rz. Отсюда как необходимое условие следует, что столбцы матрицы W°)T являются линейной комбинацией M собственных векторов Rz , а матрицу весов W(1) первого слоя преобразователя (НС) можно представить в виде
w (1) = u -V (1),T = u-1
f УТ ^
T
v yM ,
Умножив Rz на W'2) в первом уравнении в (4) и используя предшествующие выражения, можно получить
RZW(2) = RZW(1)TD~1GD_1 = RZW(2)GD-1 = W(2)LT .
Используя, наконец, ранее выполненную диагона-лизацию, преобразуем последнее уравнение к виду
~zW(2) = W(2)U_1LU~lTUTU,
RZW(2)U-1 = W(2)U-1 = ~ZV(2) = V(2)Л ,
V(2) = W (2)U-1 = (y ••• ¥m ).
Отсюда следует, что применение весовой матрицы
W(2)
по отношению к вектору реакций на выходе первого слоя НС формирует на выходе вектор ~2 в виде линейной комбинации M собственных векторов матрицы ковариации вектора ~2/1 = RZ21Rz-Jz1 . При этом общая матрица обработки, выполняемой с помощью НС, реализует преобразование W2) = W'2)W(1) = V(2)V(1)’T, эквивалентное прямому и обратному разложению входного вектора по ограниченному набору собственных векторов матрицы Rz = Rz21RZuRz12. Отметим также, что для произвольной невырожденной матрицы Т размера MxM выполняется W1’2 = W2)TT-1W'1), т.е. существует бесчисленное множество решений, удовлетворяющих условию минимума E ’. Данное свойство можно наблюдать в ходе экспериментальных исследо-
ваний процесса обучения нейронной сети рассматриваемой архитектуры.
Как известно [10], при минимизации ошибки E ’ в ходе обучения НС осуществляется минимизация ошибки аппроксимации вектора квазиоптимальной оценки . Исходя из известных свойств разложения Карунена-Лоева, выполняемое преобразование даёт наименьшую остаточную дисперсию ошибки в случае, когда данные собственные векторы соответствуют максимальным собственным значениям Rz .
Это и является достаточным условием минимума E
В случае применения нейронной сети автоассоциативного типа (z1 = z2 = z), имеющей M<N,
N = N1 = N2 нейронов в скрытом слое после обучения по выборке объёмом P>N реализаций случайного вектора, формируются выходные реакции, эквивалентные разложению по первым M функциям базиса Карунена - Лоева выборочной матрицы ковариации
случайного вектора z: R z11 . В данном случае
~2/1 = Z1 = Z .
Выполненные теоретические обоснования определяют возможность построения универсальных сжимающих отображений с минимальным уровнем дисперсии вносимых искажений при решении различных задач обработки случайных полей и реальных изображений. При этом они позволили получить один важный в практическом отношении результат. Он состоит в том, что задача построения гетероассоциативных сжимающих преобразований может быть решена двумя способами: либо путём прямого обучения нейронных сетей, имеющих представленную на рис. 2а архитектуру; либо путём непосредственного расчёта весовых коэффициентов автоассоциативного преобразователя линейной оценки ~2/1 = Rz21RZ-Jz1 на основе решения задачи на собственные числа и собственные векторы (СЧСВ) матрицы Rz = Rz21Rz-jRz12. Обучение
нейронных сетей по методу обратного распространения ошибки по времени длится дольше, чем непосредственный расчёт весовых матриц на этапе настройки преобразователя. В то же время применение НС (рис. 2а) в форме гетероассоциативного СП, обученной
по выборкам (z{p),z2p),p = 1,P}, как следует из доказанного утверждения, позволяет обойти этап выполнения преобразования для получения оценок z2(/,1), которые затем должны подвергаться сжатию на основе автоассоциативного СП при реализации второго способа. Это позволяет сократить время выполнения процедуры сжатия при наличии ранее обученного преобразователя.
2. Моделирование алгоритмов сжатия для реализаций случайных полей
Первоначально экспериментальный анализ алгоритмов проводился с использованием тестовых примеров, формируемых на основе генерации реализаций однородных случайных полей с заданной функцией
754
Компьютерная оптика, 2015, том 39, №5
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А.А., Дрюченко М.А.
пространственной корреляции, рассматриваемых как статистические эквиваленты монохромных изображений. Цель исследования заключалась в проверке работоспособности различных вариантов построения алгоритмов на фрагментах произвольной формы, а также анализа обобщающих свойств алгоритмов при их использовании на данных, не участвовавших в процессе обучения. Функции корреляции случайных полей при генерации задавались в виде
R( x, x', y, y) = о2 exp[-aj (x - x' )2 + (y - y' )2 ],
R(x, x',y,y') = о2 exp[-a(|x - xl + |y - yl].
Здесь о2, a - параметры, определяющие дисперсию и пространственную корреляцию случайных полей.
На рис. 3 приведены зависимости относительной
Л,.. , _.||2
средней квадратичной ошибки
(г)
Er = E'P / g ~2/1
р=1
получаемой при сжатии вектора z2/1 на основе гетероассоциативного СП, от количества используемых при разложении собственных векторов, определяемых количеством элементов (нейронов) в скрытом слое преобразователя.
На графиках используются следующие обозначения. Обозначения cfl или cf2 определяют вид используемой корреляционной функции случайного поля. Соответственно, на рис. 3а представлены результаты, полученные для случайного поля с функцией корреляции первого вида, а на рис. 36 - второго. Параметры n1, ml задают размеры фрагмента изображения прямоугольной формы, а параметры n2, m2 - размеры выходной части внутри фрагмента изображения (см. рис. 1), имеющей либо прямоугольную форму (на графиках используется символ ‘rect’), либо содержащей n2*m2 точек, случайным образом размещённых внутри фрагмента (на графиках используется символ ‘rnd’). Общее количество фрагментов, используемых при обучении и тестировании, определялось исходя из размеров генерируемых реализаций и составило P = 1089. Параметры alfl и alf2 определяют значения параметра функции корреляции случайного поля, задаваемого для обучающей и тестирующей реализаций. Зависимости Er-ll, Er-tl определяют относительную среднеквадратичную ошибку, получаемую на обучающей и тестирующей реализациях, при выполнении гетероассоциативного СП, формируемого на основе обучения НС (рис. 2а) методом обратного распространения ошибки. Зависимости Er-l2, Er-t2 определяют относительную среднеквадратичную ошибку, получаемую на обучающей и тестирующей реализациях, на основе выполнения двух преобразований: сначала с использованием преобразователя (рис. 26) на основе (3), а затем выполнения прямого и обратного разложения (7) по рассчитанным M собственным векторам матрицы Rz = Rz21Rz-jRz12, реализующего автоассоциативное СП, имеющее архитектуру преобразователя, представленную на рис. 2а.
Для представленных на рис. 3 зависимостей уровень корреляции обучающей и тестирующей реализаций случайного поля задавался одинаковым.
Анализ полученных зависимостей показывает высокую степень совпадения результатов выполнения СП при непосредственном применении НС, имеющей архитектуру, представленную на рис. 2а, с результатами, полученными при выполнении двухэтапного преобразования на основе прямого решения задачи СЧСВ. При одинаковой пространственной корреляции обучающей и тестирующей реализаций случайного поля, как следует из графиков, ошибка сжатия практически одинакова на тестирующей и обучающей реализации.
2.5 2,0'
1.5 1,0 0,5
а)
(> —х—Er-ll-red —^— Er-12-rect —*— Er-tl-rant
—V—Ei —■—Ei О E ■-t2-red •-ll-md •-12-md ’-tl-md 42-md
—■—Ei —0— Ei
=6 ml=6 п2=4 т2=4 и alf2=0,l Р=1089
ж-J atfl=l
„ 1 1 хол-во используемых I.собственных 1 векторов
10
CEO искажения изображения
—х—Er-11-rect —V— Er-12-rect —х— Er-tl-rect —^— Er-t2-rect —— Er-ll-md —е— Er-12-md —■— Er-tl-md —0— Er-t2-md
cf2 nl=6 ml=6 n2=4 m2=4 alfl-0,1 alf2-0,l P=1089
во используемых ' собственных векторов
6) и 2 4 6 8 10
Рис. 3. Уровень искажения при сжатии изображений случайных полей с функцией корреляции первого (а) и второго (б) вида
На рис. 4 показаны аналогичные зависимости при изменении уровня корреляции случайного поля в тестирующей реализации по отношению к обучающей. Из этих графиков видно, что в случае, когда параметр корреляции обучающей реализации случайного поля существенно отличается (в данном случае на порядок), наблюдается расхождение уровня искажения, достигнутого при сжатии обучающей и тестирующей реализаций.
В целом, следует отметить, что при использовании произвольной конфигурации выходной части фрагмента достигается более высокий уровень искажения при сжатии по отношению к случаю, когда используется выходная часть прямоугольной формы, размещённая внутри фрагмента изображения.
3. Исследование алгоритмов сжатия на реальных изображениях
При тестировании алгоритмов на реальных изображениях рассматривалась выборка из 30 полно-
Компьютерная оптика, 2015, том 39, №5
755
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А. А., Дрюченко М.А.
цветных изображений размером 512*512 и 1024*1024 пикселей из наборов [12,13]. Здесь, как и ранее, цель исследования заключалась в проведении анализа обобщающих свойств алгоритмов при их использовании на данных, не участвовавших в процессе обучения. Согласно характеру содержимого набор тестовых изображений был разбит на три группы по десять изображений в каждой. В первую группу Iq) вошли гладкие изображения, содержащие достаточно боль-
шие участки с плавными переходами цвета; во вторую I(2) - контрастные, пёстрые изображения; в третью I(3) - изображения смешанного типа, содержащие контрастные и монотонные области.
а)
б)
3.0 2,5<
2.0 1,5, 1,0* 0,5
0
—х—Er-11-rect —^— Er-12-rect
—V—Et —Т~Е} ■-t2-rect •-ll-md •-12-md •-tl-md •-t2-md
—■—Ei —в—Ei
cfl nl=6 т1=6 п2=4 т2=4 alfl=0,l aljf2=0,01 Р=1089
Кол-во испр. 1 пъзуемых твенных лекторов
■О!**' "собс , <
4
8
10
СКО искажения изображения
3,0
l \ x Er-ll-rect —v— Er-12-rect
\ \ k \ —x— Er-tl-rect Er-t2-rect • F.r-П-тИ
4 < r \ —e— Er-12-md —•—Er-tl-md —0— Er-t2-rnd
\ t V
cf2 nl =6 ml=6 n2=4 m2=4 101 alf2=0,l P=1089
w alfl=i
Рис. 4. Уровень искажения при сжатии изображений случайных полей с функцией корреляции первого (а) и второго (б) вида
При моделировании алгоритмов сжатия тестовых изображений рассматривалось двухэтапное преобразование на основе прямого решения задачи СЧСВ (как показано ранее, практически эквивалентного нейросетевому). Размеры фрагментов изображений задавались равными 8*8, число точек в выходной части внутри каждого фрагмента - 8*8. Как и ранее, рассматривались прямоугольная и случайная конфигурации (см. рис. 1) выходной части фрагментов. Для изображений каждой группы тестирование алгоритмов проводилось отдельно с использованием обучающих и тестирующих реализаций, формируемых на основе случайным образом выбранных непересекающихся фрагментов изображений текущей группы. Число выбираемых фрагментов для каждой группы составило P = 4900. На рис. 5 приведены зависимости относительных среднеквадратичных ошибок от количества использованных собственных векторов, полученные для обучающих (Er-l) и тестирующих (Er-t) реализаций.
а)
б)
в)
Кол-во используемых собственных векторов / значгшых спектральных коэффициентов (оляДКП)
Кол-во используемых собственных векторов / значимых спектральных коэффициентов (оляДКП)
Кол-во используемых собственных векторов / значимых спектральных коэффициентов (оляДКП)
Рис. 5. Уровень искажения тестовых изображений
из группы 1(2) (а), I(2) (б), I(3) (в) при сжатии
Зависимости Er-l-rect, Er-t-rect соответствуют относительным СКО, полученным для первого варианта выходной части (прямоугольной области внутри фрагмента изображения), а Er-l-rnd, Er-t-rnd - для второго варианта выходной части (множества точек, случайным образом размещённых внутри фрагмента).
Наибольшие расхождения уровня искажений, достигнутых при сжатии обучающей и тестирующей реализаций, ожидаемо были получены для контрастных изображений группы I(2) (рис. 5б). Минимальная разница значений относительных СКО была получена для гладких изображений из группы I(1) (рис. 5а). Как показали результаты экспериментов, для изображений смешанного типа (рис. 5в) итоговое расхождение
уровня искажений в значительной мере определяется характером содержимого фрагментов, входящих в обучающую и тестирующую реализацию. Для обес-
печения репрезентативности результатов при проведении исследований в каждую из реализаций добавлялись фрагменты изображений из группы I(3) с разнообразными характеристиками (имеется в виду на-
756
Компьютерная оптика, 2015, том 39, №5
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А.А., Дрюченко М.А.
личие разнообразных по статистическим характеристикам фрагментов: гладких, зашумлённых, контрастных) - одновременно и в обучающей, и в тестирующей выборке.
Полученные для трёх групп тестовых изображений зависимости показывают, что при использовании произвольной конфигурации выходной части фрагментов уровень искажений при сжатии, как правило, несколько выше, чем при использовании выходной части прямоугольной формы, размещённой внутри фрагментов изображений. Для всех групп тестовых изображений с увеличением числа используемых собственных векторов при реализации сжатия СКО искажения изображений, полученные для различных конфигураций выходных частей фрагментов, сближаются. Данные результаты хорошо согласуются с результатами, полученным ранее при моделировании алгоритмов сжатия с использованием случайных полей.
Представляет интерес использование стандартных декоррелирующих преобразований для моделирования процедуры сжатия фрагментов статичных изображений, составленных из случайно выбранных пикселей в локальных областях растра (аналог рассмотренной выше произвольной конфигурации выходной части фрагментов). В качестве базового преобразования для выполнения сжатия и сравнения с описанными алгоритмами было выбрано дискретное косинусное преобразование (ДКП), широко применяемое в распространённых алгоритмах сжатия, основанных на стандарте JPEG. Двумерное ДКП преобразует матрицу пикселей размером nxn в матрицу частотных коэффициентов соответствующего размера по правилу:
n(u,v) = (c(u)c(v)/4)х
X
n-1 n-1
EE z(x,y)cos
x=0y=0
(2x + 1)up
----------cos
2n
(2 y + 1)vp ’ 2n
u,v = 0, n -1, где c(u) = 1/V2 и c(v) = 1/V2, когда u и v равны нулю и c(u) = 1, c(v) = 1 в других случаях. При сжатии изображений ДКП применяется к блокам пикселей размером 8x8 или 16x16, и если допускается частичная потеря информации, то полученные коэффициенты квантуются. Восстановление сжатых блоков данных (точно или приближённо) реализуется вычислением обратного ДКП.
При моделировании сжатия фрагментов тестовых изображений на основе двумерного ДКП весь конвейер преобразований, применяемых при компрессии изображений с потерями, не рассматривался. Сжатие проводилось следующим образом. К выбранным в случайном порядке фрагментам тестового изображения применялось ДКП. Из полученных спектральных коэффициентов оставлялись m коэффициентов с наибольшими абсолютными значениями, а затем выполнялось обратное ДКП. По аналогии с описанными выше алгоритмами при сжатии фрагментов изображений с использованием ДКП рассматривались два варианта задания конфигурации фрагментов. В первом случае сжатию подвергались выбираемые на тестовых изображениях фрагменты прямоугольной фор-
мы размером 8x8 пикселей (классический вариант блоков пикселей, сжимаемых алгоритмом JPEG). Во втором случае сжимаемые фрагменты формировались из пикселей, выбранных в случайном порядке в рамках локальных областей растра размером 8x8 пикселей. Сжатие реализовывалось отдельно для каждой группы тестовых изображений Д^-Дз). В качестве метрики искажения использовалась средняя квадратичная ошибка.
На рис. 5 приведены графики зависимости уровня искажений тестовых изображений от количества значимых коэффициентов ДКП для двух случаев задания конфигурации обрабатываемых фрагментов. Из представленных зависимостей видно, что сжатие фрагментов прямоугольной формы (Er-dct-rect) сопровождается меньшими искажениями, чем сжатие фрагментов, составленных из пикселей, выбранных в случайном порядке (Er-dct-rnd). В наибольшей степени это заметно для группы изображений I(2) (рис. 56).
Сравнение результатов сжатия на основе ДКП с результатами, полученными при использовании двухэтапного преобразования на основе решения задачи СЧСВ, показывает, что на фрагментах произвольной случайной конфигурации (Er-dct-rnd, Er-l(t)-rnd) при достаточном количестве используемых собственных векторов меньший уровень искажений изображений фиксируется для последнего варианта алгоритма сжатия. В то же время на фрагментах прямоугольной формы (при незначительном числе используемых собственных векторов) сжатие с использованием ДКП позволяет получить практически сопоставимый уровень результирующих искажений.
4. Пример использования алгоритмов сжатия для создания цифровых водяных знаков
Рассмотрим возможности применения обобщённых алгоритмов сжатия в задаче встраивания и восстановления стеганографически скрытой информации в виде цифровых водяных знаков (ЦВЗ) в растровые изображения формата bmp, являющиеся в данном случае контейнерами для их хранения. В качестве сообщения или ЦВЗ будем рассматривать двоичную
последовательность d (p), p = 1, P, где d(p) e {-1,+ 1} -скалярная величина, несущая один бит информации. Реализуется блочный алгоритм встраивания, при котором каждый элемент последовательности d (p) встраивается в собственный фрагмент контейнера W(p) произвольной формы, описываемый вектором z (p),
p = 1, P . Совокупность {W(p), p = 1,P} тем или иным
способом покрывает контейнер.
Идея применения универсальных сжимающих отображений для встраивания ЦВЗ состоит в следующем [14]. При использовании гетероассоциативного сжимающего отображения как более общего случая каждый фрагмент контейнера W(p), используемый для встраивания элемента последовательности d (p), разбивается на входную и выходную части. Выполняется сжатие данных фрагментов с помощью нейронной сети, имеющей архитектуру, представлен-
Компьютерная оптика, 2015, том 39, №5
757
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А. А., Дрюченко М.А.
ную на рис. 2а с сокращённым числом нейронов в скрытом слое. При этом каждый реально получаемый
на выходе сети вектор —2/1(p) = W2W1z1(~p), p = 1, P может быть представлен в виде разложения по первым M собственным векторам y., i = 1,M выборочной
матрицы ковариации Rz оценки вектора z2 относительно вектора z1. Тогда для любого z1(p) получаемый на выходе вектор z2 /1 можно представить как
M
—2/1(p) = Za(p)y..
i=1
С целью минимизации ошибки искажения контейнера при выполнении подобного преобразования будем использовать сеть, для которой M = N2-1, тогда
— (р) /Г ~ (p)
Z2/1 будет отличаться от Z2/1 только «высокочас-
тотной» составляющей с малой амплитудой и дисперсией, соответствующей минимальному собственному числу выборочной матрицы ковариации оценки
~2/1. Именно эта составляющая и подвергается модификации путём изменения её амплитуды в соответствии со значениями d (p), p = 1, P. Для выделения этой составляющей, как следует из приведённых выше обоснований, необходимо использовать преобразователь, представленный на рис. 2б. Он даёт прогноз выходной части фрагментов контейнера на основе
входной части в виде оценок ~z2(/p1) и позволяет найти стохастическую составляющую прогноза (1) в виде Vp) = z2(p) -~2/1(p), p = 1, P. Далее определяется нормированный вектор
yN 2 = 'mm,
if V Vmin mm/’
1 P
r = _ Z (Z (p) -~ (p))
'min = P Z (Z2/1 z2/1 ) .
P p = 1
Окончательное встраивание последовательности d (p), p = 1, P, в контейнер состоит в том, что для каждой области фрагмента, описываемого вектором
z2(p), с учётом добавления стохастической составляющей прогноза (оценки) z2p) относительно наблюдения z|p), проводится модификация на основе следующих соотношений:
Z2( p) = Z2/1( p) + amd ( p)jN 2 + V( p) ,
Z2/1(p) = W,W1z1(p), ~2/1(p) = Wz1(p), p = ,
где am - амплитуда вносимого искажения. После модификации высокочастотной составляющей стохастическая составляющая обратно добавляется к модифицированной оценке, что обеспечивает маскирование процесса встраивания.
Для декодирования ЦВЗ используется оператор Fd, который является ключом и может быть реализован на основе НС, архитектура которой показана на рис. 6.
Рис. 6. Нейронная сеть, реализующая восстановление скрытой информации
Такая сеть обучается для решения задачи классификации входного для неё вектора с целью выделения значения ранее скрытого в контейнере элемента последовательности ЦВЗ. Можно показать, что для гауссовских случайных векторов в результате обучения однослойной линейной НС по совокупности
{z2p), d(p), p = 1,P} при P формируется преобра-
зование входных данных в выходные, реализующее структуру оптимального решающего правила.
При использовании автоассоциативного сжимающего преобразования как более частного случая форма фрагмента контейнера также может иметь произвольный вид, но при этом входная и выходная части совпадают. Здесь обработка данных существенно упрощается, так как нет необходимости проводить оптимальную оценку (прогноз) значений данных выходной части фрагмента при известных значениях входной части, оценку на основе оператора Fe, поскольку формально в этом случае
W = I, z1(p) = z2(p) = z^p), Vp) = 0, p = 1P.
В итоге может быть предложена универсальная схема преобразования данных для встраивания и восстановления ЦВЗ в контейнерах с различными форматами данных. Она предполагает для последовательности фрагментов контейнера, представленных вектором z е R , и двоичной последовательности данных d е R1 построение на основе обучения нейронных сетей или прямых вычислений отображений вида
Z2/1 = Fc (Z1), ~2/1 = Fe (Z1),
z2 = Fm (~2/1, Z2/1, d) + (z2 ~2/1) |
d = Fd(Z2), d е D, d - dn ® min
Z2 Z2
® min,
(7)
где оператор Fc реализует приближённую оценку (прогноз) значений данных выходной части фрагмента на основе сжимающего отображения при известной входной части; оператор Fe - выборочную оценку значений данных выходной части фрагмента при известных значениях входной части и обеспечивает подготовку вектора-контейнера к встраиванию данных; оператор Fm -реализует модификацию выходной части при встраивании элементов сообщения, состоящую в манипуляции амплитуды высокочастотной составляющей по закону, определяемому последовательностью d; оператор Fd - выполняет декодирование (восстановление) ранее скрытого сообщения на основе классификации
758
Компьютерная оптика, 2015, том 39, №5
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А.А., Дрюченко М.А.
предъявляемого фрагмента контейнера для двух гипотез H1 : d(p) = -1, H2 : d(р) =+1.
Как уже отмечалось, область определения W (форма каждого фрагмента контейнера) при выполнении сжимающих отображений для изображений может быть произвольной конфигурации (см. рис. 1). Для определённости рассмотрим случай использования в качестве контейнера полноцветного изображения в формате .bmp. Параметры, определяющие размер фрагмента по каждой цветовой компоненте, равны п1 = 4, ml = 4. Количество фрагментов, используемых для встраивания данных, составило P = 16384. Входная и выходная части фрагмента образуют множества точек, случайным образом размещённых при развёртке куба, содержащего три матрицы цветовых компонентов, в вектор, состоящий из 3(n1*m1) компонентов, при этом величины N1 = N2 = 24. На рис. 7 представлены зависимости, характеризующие результаты применения различных сжимающих преобразований для встраивания данных по описанной выше схеме, от амплитуды am вносимых искажений при встраивании данных, задаваемой в единицах уровня квантования исходного изображения. В качестве показателей рассматривались: величина максимальной модульной ошибки, определяющей отклонение исходного изображения от изображения, модифицированного двоичной последовательностью ЦВЗ (рис. 7а); выборочная оценка вероятности правильного восстановления двоичной последовательности ЦВЗ (рис. 7б).
Из представленных зависимостей видно, что применение гетероассоциативного преобразования обеспечивает меньший уровень вносимых искажений контейнера при сопоставимых значения вероятности восстановления ЦВЗ.
Однако более интересным представляется другое свойство гетероассоциативного преобразования: при его применении в рассматриваемой схеме произвести уничтожение или подмену ранее встроенной информации весьма затруднительно.
Действительно, если для контейнера, содержащего ранее встроенные данные, в точности повторить всю последовательность преобразований (7), то при неизменной входной части значения Zf!, ,
p = 1, P, сохранятся.
При этом изменится только стохастическая составляющая прогноза V(p) = z2(p) - ~2/1(p), p = 1, P,
которая сохраняет в себе данные двоичной последовательности и при обратном добавлении во фрагменты контейнера в соответствии с (7) возвращает исходную ситуацию. Встроенная нарушителем новая двоичная последовательность при этом может уничтожить ЦВЗ только в случае, если её амплитуда заведомо превышает амплитуду исходной. А это, в свою очередь, ведёт к существенному искажению контейнера и повышает заметность внесения в него каких бы то ни было данных. При использовании автоассоциативного преобразования маскирующая состав-
ляющая V отсутствует и, соответственно, отсутствует возможность сохранения ранее встроенных данных. На рис. 8 показан типичный пример поведения зависимостей для введённых показателей максимальной модульной ошибки и вероятности восстановления ЦВЗ при организации такого воздействия на контейнер. Здесь амплитуда исходной последовательности фиксирована и составила величину 5 единиц уровня квантования, а варьируемым параметром является амплитуда вновь встраиваемой последовательности при попытке уничтожить исходную.
Другие аспекты устойчивости алгоритмов стеганографического скрытия информации на основе универсальных сжимающих преобразований исследованы авторами в [15].
Максимальная абсолютная ошибка
8
6
4
2
О
а)
2 4 6 8 10
Амплитуда встраиваемой последовательности (ед.ур.)
Вероятность ошибки
при восстановлении информации
—в— Pex-aut —и— Pex-het
\ \
\ \ 1_
\ \ \ md-rgb nl=4 ml =4 N1=24 N2=24 Р=16384
б)
2 4 6 8 10
Амгшитуда встраиваемой последовательности (ед.ур.)
Рис. 7. Зависимости максимальной абсолютной ошибки (а) и вероятности ошибки восстановления информации (б) от амплитуды встраиваемой последовательности ЦВЗ
Заключение
Рассмотренные теоретические обоснования и примеры показывают возможности применения исследованных в работе алгоритмов сжатия изображений для решения задач, связанных с представлением данных, нахождением доминирующих взаимосвязей между фрагментами случайных полей и реальных изображений, построением алгоритмов стеганографического скрытия информации.
Особенностью исследованных алгоритмов является их инвариантность к форме фрагментов изображений и обобщение на случай применения гетероассоциативных сжимающих преобразований. Показано, что применение аппарата искусственных нейронных сетей для реализации гетероассоциативных сжимающих преобразований предоставляет определённые преимущества с точки зрения сокращения времени выполнения процедуры сжатия при наличии ранее обученного преобразователя.
Компьютерная оптика, 2015, том 39, №5
759
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А. А., Дрюченко М.А.
а)
б)
Максимальная абсолютная ошибка 8 6 4 2 О
Вероятность ошибки при восстановлении информации 0,5е
0,4
0,3
0,2
0,1
О
2 4 6 8 10
Амплитуда встраиваемой последовательности (ед.ур.)
!■=! H О 1 -s-p-
md-rgb nl=4 ml =4 N1=24 N2=24 Р=1б384
/ f /
/ / /
' —в—Pex-aut 1 —х—Pex-het \
md-rgb nl=4 ml=4 N1=24 N2=24 Р=16384
^ «
—в— Delt-aut —м— Delt-het
2 4 6 8 10
Амплитуда встраиваемой последовательности (ед.ур.)
Рис. 8. Зависимости максимальной абсолютной ошибки (а) и вероятности ошибки восстановления информации (б) от амплитуды встраиваемой последовательности ЦВЗ
Благодарности
Исследование выполнено при финансовой поддержке РФФИ в рамках научного проекта № 13-0197507 р_центр_ а.
Литература
1. Методы сжатия данных. Устройство архиваторов, сжатие изображений и видео / Д. Ватолин, А. Ратушняк, М. Смирнов, В. Юкин. - М.: Диалог-Мифи, 2002. - 384 с.
2. Назаров, Л.Е. Применение искусственных нейронных сетей для сжатия РСА и сканерных изображений земной поверхности / Л.Е. Назаров // Исследование Земли из космоса. - 1999. - № 5. - С. 44-50.
3. Хайкин, С. Нейронные сети: полный курс / С. Хайкин. - М.: Вильямс, 2005. - 1104 с.
4. Попов, В.Г. Свойства сходимости весов автоассоциативной двуслойной линейной нейронной сети при построении сжимающих отображений случайных векторов / В.Г. Попов, А.А. Сирота // Нейрокомпьютеры. -2009. - № 5.- С. 3-11.
5. Компьютерная стеганография. Теория и практика / Г.Ф. Конахович, А.Ю. Пузыренко. - М.: МК-Пресс, 2006. - 288 с.
6. Глумов, Н.И. Алгоритм встраивания полухрупких цифровых водяных знаков для задач аутентификации изображений и скрытой передачи информации / Н.И. Глумов, В.А. Митекин // Компьютерная оптика. -2011. - Т. 35, № 2. - С. 262-267. - ISSN 0134-2452.
7. Нейронные сети для обработки информации / C. Осовский. - М.: Финансы и статистика, 2002. - 344 с.
8. Анализ и компьютерное моделирование информационных процессов и систем / Э.К. Алагазинов,
А.А. Сирота. - М.: Диалог-МИФИ, 2009. - 416 с.
9. Сирота, А.А. Сходимость весов двухслойной линейной нейронной сети при построении оптимальных оценок случайных векторов / А.А. Сирота, Е.Ю. Митрофанова // Нейрокомпьютеры: разработка и применение. -2011. - № 7. - C. 39-48.
10. Введение в статистическую теорию распознавания образов / К. Фукунага; пер. с англ. - М.: Наука, 1979. - 368 с.
11. Линейные статистические методы и их применения / С.Р. Рао. - М.: Наука, 1968. - 548 с.
12. Набор тестовых изображений «Kodak Lossless True Color Image Suite» [Электронный ресурс]. - URL: http://r0k.us/graphics/kodak/ (дата обращения 10.10.2015).
13. Набор тестовых изображений «TESTIMAGES» [Электронный ресурс]. - URL: http://testimages.tecnick.com (дата обращения 10.10.2015).
14. Сирота, А.А. Нейросетевые функциональные модели и
алгоритмы преобразования информации для создания цифровых водяных знаков / А.А. Сирота,
М.А. Дрюченко, Е.Ю. Митрофанова // Известия вузов. Радиэлектроника. - 2015. -Т. 1, № 1. - С. 3-16.
15. Сирота, А.А. Анализ стойкости алгоритмов создания
цифровых водяных знаков на основе универсальных сжимающих преобразований по отношению к типовым стеганографическим атакам / А.А. Сирота,
М.А. Дрюченко, Е.Ю. Митрофанова // Сборник трудов Международной научно-технической конференции
«Кибернетика и технологии XXI века (C&T 2015г.)». -Воронеж, 2015.- С. 57-68.
References
[1] Vatolin D, Ratushnyak A, Smirnov M, Yukin V. Data compression methods. Archive programs organization, image and video compression [In Russian]. Moscow: “Dia-log-Mifi” Publisher; 2002.
[2] Nazarov LE. RSA and scanned images of the Earth surface compression using artificial neural networks [In Russian]. Earth Research From Space 1999; 5: 44-50.
[3] Haykin S. Neural Networks: A Comprehensive Foundation (second edition). Prentice Hall, NJ, USA: 1999. ISBN: 0-13-273350-1.
[4] Popov VG, Sirota AA. Properties of autoassociative two-layer linear neural network weights convergence in the construction of contraction mappings of random vectors [In Russian]. Neurocomputers 2009; 5: 3-11.
[5] Conahovich GF, Puzirenko AYu. Computer steganography. Theory and practice [In Russian]. Moscow: “MK-Press” Publisher; 2006. ISBN: 966-8806-06-9.
[6] Glumov NI, Mitekin VA. A new semi-fragile watermarking algorithm for image authentication and information hiding [In Russian]. Computer Optics 2011; 35(2): 262-7.
[7] Ossowski S. Neural networks for information processing [In Polish]. Of. Ed. Pol. Warsaw, Poland 2000.
[8] Algazinov EK, Sirota AA. Analysis and computer modeling of information processes and systems Proc. manual for high schools [In Russian]. Moscow: “Dialog-Mifi” Publisher; 2009.
[9] Sirota AA, Mitrofanova EYu. Convergence of weights of a two-layer linear neural network at construction of optimum linear estimations of casual vectors [In Russian]. Neurocomputers: Design and Applications 2011; 7: 39-48.
[10] Fukunaga K. Introduction to statistical pattern recognition (second edition). San Diego: Academic Press Professional, Inc; 1990.
[11] Rao SR. Linear Statistical Inference and its Applications (second editon). John Wiley & Sons, Inc; 2002. DOI: 10.1002/9780470316436.
[12] A set of test images “Kodak Lossless True Color Image Suite”. Source: (http://r0k.us/graphics/kodak/).
[13] A set of test images “TESTIMAGES”. Source: (http://testimages.tecnick.com).
[14] Sirota AA, Dryuchenko MA, Mitrofanova EYu. Neural network functional models and algorithms for information conversion in order to create digital watermarks [In Russian]. Ra-
760
Компьютерная оптика, 2015, том 39, №5
Обобщённые алгоритмы сжатия изображений на фрагментах произвольной формы...
Сирота А.А., Дрюченко М.А.
dioelectronics and Communications Systems 2015; 1(1): 3-16. DOI: 10.3103/S073527271501001X.
[15] Sirota AA, Dryuchenko MA, Mitrofanova EYu. Analysis of resistance to the typical steganography attacks of the digital watermarking algorithms based on universal
contraction mapping [In Russian]. In Proceedings of the International scientific conference “Science and technology of the XXI century (C&T 2015)”, Voronezh 2015; 57-68.
GENERALIZED IMAGE COMPRESSION ALGORITHMS FOR ARBITRARILY-SHAPED FRAGMENTS AND THEIR IMPLEMENTATION USING ARTIFICIAL NEURAL NETWORKS
A.A. Sirota, M.A. Dryuchenko Voronezh State University
Abstract
A problem of image compression in arbitrarily-shaped fragments is considered. A theoretical substantiation of hetero- and auto-associative compressive transformations on random fields fragments using neural networks is given.
Keywords: data compression, neural networks, image processing, digital watermarks.
Citation: Sirota AA, Dryuchenko MA. Generalized image compression algorithms for arbitrarily-shaped fragments and their implementation using artificial neural networks. Computer Optics 2015; 39(5): 751-61. DOI: 10.18287/0134-2452-2015-39-5-751-761.
Acknowledgements: The work was partially funded by the Russian Foundation of Basic Research grant (13-01-97507).
Сведения об авторах
Сирота Александр Анатольевич, 1954 года рождения, в 1976 году окончил Воронежский государственный университет по специальности «Радиофизика и электроника». Доктор технических наук (1995 год), профессор, заведует кафедрой технологий обработки и защиты информации Воронежского государственного университета. Область научных интересов: синтез и анализ систем сбора и обработки информации, методы и технологии компьютерного моделирования информационных процессов и систем, системный анализ в сфере информационной безопасности, компьютерная обработка изображений, нейронные сети и нейросетевые технологии в системах принятия решений.
Homepage: https://sites.google.com/a/sc.vsu.ru/tozi/sotrudniki-kafedry/sotrudniki-kafedry-tozi/sirota.
E-mail: [email protected] .
Alexander Anatolievich Sirota (1954) graduated from Voronezh State University in 1976, majoring in “Radiophysics and Electronics”. Professor, Doctor of Technical Sciences (since 1995). Currently head of Information Processing and Security Technologies chair at Voronezh State University. Research interests: analysis and design of information collection and processing systems, methods and techniques of information processes and systems computer modeling, system analysis in information security, digital image processing, neural networks and neural network technologies in decision-making systems.
Дрюченко Михаил Анатольевич, 1985 года рождения, в 2007 году окончил Воронежский государственный университет по специальности «Прикладная математика и информатика». Доцент кафедры технологий обработки и защиты информации Воронежского государственного университета. Область научных интересов: компьютерная стеганография и стегоанализ, компьютерная обработка изображений, программирование.
E-mail: [email protected] .
Mikhail Anatolievich Dryuchenko (1985) graduated from Voronezh State University in 2007, majoring in Applied Mathematics and Informatics. Currently docent of Information Processing and Security Technologies chair at Voronezh State University. Research interests: steganography and steganalysis, computer graphics processing, programming.
Поступила в редакцию 15 сентября 2015 г. Окончательный вариант - 13 ноября 2015 г.
Компьютерная оптика, 2015, том 39, №5
761