Научная статья на тему 'Методи і засоби підвищення ефективності нейромережевого ущільнення даних на прикладі зображень'

Методи і засоби підвищення ефективності нейромережевого ущільнення даних на прикладі зображень Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
120
19
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
neural colour image compression / image-pattern / neurolike Geometrical Transformation Machine structure

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — У В. Поліщук, Р О. Ткаченко

Описано особливості ущільнення та відновлення даних (на прикладі зображень) з використанням автоасоціативних нейроподібних структур геометричних перетворень для реалізації процедури виділення головних компонентів та відновлення початкових даних на їхній основі. Проаналізовано базовий алгоритм автоасоціативних нейроподібних структур у режимах компресії-декомпресії зображень та вміст архіву скомпресованих даних. Визначено варіанти вдосконалення базового нейромережевого методу шляхом застосування додаткових засобів ущільнення, що можуть бути використані для файлів зображень, мовних повідомлень і текстових даних.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Methods and means of increasing the efficiency of the neural data compression by the example of images

The features of compression and decompression data (for example images) using autoassociative neural structures of geometric transformations to implement procedures of the principal components analyzing and restore the original data based on them is been viewed. Analyzed the basic algorithm of auto-associative neural structures in the compressiondecompression modes of images and contents of the compressed data archive. The following options to improve the basic neural network method by applying additional compression software that can be used for image files, voice and text data.

Текст научной работы на тему «Методи і засоби підвищення ефективності нейромережевого ущільнення даних на прикладі зображень»

Чертов О.Р., Тавров, Ден. Групповая анонимность данных в микрофайлах

На сегодняшний день обнародование первичных данных стало обычным способом обеспечения информацией разнообразных исследований. В то же время первичные данные должны быть защищены, чтобы предупредить нежелаемую утечку информации и нарушение ее конфиденциальности. Были разработаны различные алгоритмы и подходы к обеспечению приватности для индивидуальных респондентов. Однако, задача обеспечения анонимности для группы респондентов все еще не решена. В данной работе мы рассматриваем практические аспекты обеспечения групповой анонимности данных. Мы предлагаем формальное определение такой задачи, анализируем ее основные особенности и виды, а также изучаем вопросы предотвращения утраты полезности данных. В частности, мы обращаемся к задаче минимизации искажения данных во время изменения микрофайла. Для ее решения мы вводим специальную метрику и предлагаем стратегию использования последней для получения оптимального маскирования микроданных.

Ключевые слова: групповая анонимность, статистический контроль за раскрытием информации, защита информации от несанкционированного доступа, микрофайл, полезность данных.

УДК 681.324 Acnip. У.В. Полiщукí;

проф. Р.О. Ткаченко, д-р техн. наук - НУ "Львiвcька nолiтехнiка"

МЕТОДИ I ЗАСОБИ П1ДВИЩЕННЯ ЕФЕКТИВНОСТ1 НЕЙРОМЕРЕЖЕВОГО УЩ1ЛЬНЕННЯ ДАНИХ НА ПРИКЛАД1 ЗОБРАЖЕНЬ

Описано особливост ущшьнення та вщновлення даних (на прикладi зобра-жень) з використанням автоасощативних нейроподiбних структур геометричних пе-ретворень для реалiзацii процедури видшення головних компоненпв та вщновлення початкових даних на 1'хнш основь Проаналiзовано базовий алгоритм автоасощативних нейроподiбниx структур у режимах компресп-декомпресп зображень та вмют арxiву скомпресованих даних. Визначено варiанти вдосконалення базового нейроме-режевого методу шляхом застосування додаткових засобiв ущшьнення, що можуть бути використаш для файлiв зображень, мовних повщомлень i текстових даних.

Вступ. Методи та засоби зменшення обсягу "громiздкиx" даних, зок-рема статичних растрових зображень, спрямоваш на забезпечення ефективш-шого ixнього представлення пiд час збер^ання у пам,ятi комп'ютера чи пере-дачi каналами зв'язку. Серед багатьох методiв ущiльнення даних видшяеться пiдxiд, який передбачае вiдображення даних iз простору великоi розмiрностi у прос^р зменшеноi розмiрностi за допомогою лiнiйного перетворення Кару-нена-Лоева, базисш функцii якого е власними векторами коварiацiйноi мат-рицi вxiдного сигналу. Таке перетворення е оптимальним зпдно з критерiем досягнення декореляцii вхщного сигналу, оскiльки на перший базисний вектор, у середньому, припадае найбшьший обсяг шформацн про зображення, на другий - максимум iз то1', що залишилась, i т. ш., iншими словами, здшсню-еться лшшний аналiз головних компонент (ГК). Проте, враховуючи, що базисш вектори перетворення Карунена-Лоева обчислюються на основi статис-тичних властивостей зображень, що перетворюються, виникае необxiднiсть

1 Наук. KepiBHm: проф. Ю.М. Рашкевич, д-р техн. наук - НУ '^bBÎBCbKa Полiтехнiка"

записувати щ вектори в ущiльнений файл для використання декодером [5]. О^м того, немае швидких алгоритмiв !хнього обчислення та здшснення зво-ротних перетворень, що робить цей метод суто теоретичним.

Основи базового нейромережного методу. Справд^ ефективний метод анашзу головних компонент, який набув практичного застосування, ба-зуеться на використанш штучних багатошарових нейромереж прямого поши-рення автоасоцiативного типу, зокрема побудованих на основi моделi геомет-ричних перетворень (ГП) [6]. Особливост розробленого методу компреси для структур цього типу, що полягають у представленш скомпресованих да-них у формат чисел з фiксованою комою, дають змогу доповнити базовий нейромережний метод додатковими засобами, як пiдвищують коефщент ущiльнення та покращують якiсть вщтворюваних даних [7].

Як вiдомо, автоасощативна нейронна мережа е багатошаровим пер-цептроном прямого поширення, навченим вщтворювати вхiднi сигнали на виходi. Кшьюсть входiв тако! мережi збiгаеться з кшьюстю виходiв, а кшьюсть нейронiв прихованого шару е меншою, що дае змогу ущiльнювати дат, зменшуючи 1хню розмiрнiсть, одночасно реашзовуючи стандартний алгоритм видiлення головних компонент (Карунена-Лоева) [1, 2] (рис. 1).

Рис. 1. Автоасощативна нейронна мережа ГП

Застосування нейронно! мережi для будь-яких завдань у загальному випадку передбачае два послщовш етапи навчання ^ вщповщно, використання навчено! мережi. Однак, для задач ущшьнення зображень можливими е два варiанти: навчання i застосування мережi на одному i тому самому зобра-женнi; навчання на певному еталонному зображеннi та застосування навчено! ранiше нейромережi в режимi використання для ущшьнення i вiдновлення ш-ших зображень.

Навчання компресуючо! мережi ГП в автоасоцiативному режимi застосування здшснюеться на основi матрищ реалiзацiй, елементами яко! е яс-кравостi пiкселiв х,] у випадку такого кодування зображень. Кожен рядок

матрищ вщповщае вектору-реалiзацiй, зокрема окремому блоковi зображен-ня розмiром пхп пiкселiв (рис. 2).

Рис. 2. Вибiр блоку зображення

Загальне кшьюсть векторiв (кiлькiсть блокiв зображення) дорiвнюе M, а кiлькiсть ознак-пiкселiв векторiв (стовпцiв матрицi) дорiвнюе N.

Х1 Х2 ... Х^

Х, ] =<

де I = 1, И, ] = 1, N

(1)

З метою ютотного пiдвищення коефщента компреси запропонований метод застосування еталонного зображення для навчання нейронно! мережi з подальшим !! використанням на робочих зображеннях.

На вхiд нейронно! мережi для навчання подаеться певне еталонне зображення шдвищено! складностi. Питання вибору еталону докладно розгляну-то у [4].

Параметри нейромереж^ отримаш в процесi навчання еталонного зображення, збер^аються в пам'ят комп'ютера та надалi використовуються для видшення головних компонент рухомих зображень. Кшьюсть перетворень (кiлькiсть нейронiв прихованого шару) тд час навчання на еталонному зоб-раженнi к дорiвнюе кiлькостi крокiв, необхiдних для видшення ГК тестового зображення.

Для здшснення операцш ущiльнення-вiдновлення зображення необ-хiдно виконати таю перетворення.

Знаходимо базовий рядок для центрованих елементв масиву:

хв ]) « max: •{

] 1

Е ( х1]

=1

Виконуемо нормування базового рядка до одиничного радiуса:

(2)

хВ(к

ЛВ(к)' - 3 -

3 - ДЛЯ ] -N' (3)

де О(к) - вщдаль вiд початку координат до базово! точки.

Обчислюемо коефщент -(к) - вiддаль вiд ь! точки до нормально! п-перплощини на к-му кроцi ортогональних перетворень:

)' -¿(х!® х хВ3)'). (4)

4. Виконуемо к-й крок ортогональних перетворень - проектування уЫх точок-реалiзацiй на нормальну гiперплощину вимiрностi N-1: (к+1)' - х(к)' ЛВ(к)' х - (к)'

_ 1 К) _ уг>КК) \К) . —-Г . —-

х1,3 - х1,3 ЛВ] х -1 , для 1 - 1,М, J - 1, N . (5)

У пам'ят комп'ютера для подальшого застосуваня запам'ятовуемо ве-

личини:

1. хс з, для 1 - !м, 3 - ;

2. хВ(к)' та О(к)' для к - 1,ктаах .

Видшення ГК бiжучого зображення здшснюеться на основi ко-ефiентiв, отриманих внаслiдок перетворень (1)-(4):

- (к) _ -1 - О

^х х3), (6)

3-1

де х1(,3' - елементи центровано! матрицi тестового зображення.

Вщновлення первинного зображення.

1. Приймаемо

х^тах +1) - 0, для 1 - 1М, 3 - . (7)

2. Вщновлюемо центровану матрицю х1(^ .

Для к - ктах кроки зворотнiх перетворень здiйснюються послiдовно, починаючи вiд кроку к - 1 до 0; для 1 = 1- крок вщ 1 до М; для 3 = 1- крок вщ 1 до N

х1(к - х1(к3+1) + ЛВ3)' х -(к). (8)

3. Вiдновлюемо початковий масив даних х1,3 .

Для 1 = 1 - крок вщ 1 до М, для ] = 1- крок вщ 1 до N, виконуемо:

х1,3 - х1(3 + хс'3. (9)

Таким чином, архiв збережених даних мютить масив значень коефь

щенпв ) , отриманих унаслщок виконання алгоритму (данi коефiцiенти безпосередньо вщображають сигнали головних компонент) та масив пара-

280 Збiрник науково-техшчних праць

метрiв нейромережi - елементiв базових рядкiв та параметрiв структури, де всi зазначеш елементи архiву подаються у формат чисел з фшсованою комою. Зазначена особливють, а також висока швидкодiя нейромереж ГП надае змогу застосувати деяк додатковi засоби шдвищення якостi перетворень.

Додаткове застосування засобiв ущiльнення, що використовують-ся для текстових даних. Враховуючи, що шсля нейромережного ущiльнення данi про зображення подаються у формат цших чисел iз фiксованою комою, виникае додаткова можливють застосувати до архiву одну з програм архiва-ци, наприклад 771р, як це зазвичай використовуеться для архiваци текстових повiдомлень. Як виявилося, це забезпечуе помггне збшьшення загального ко-ефiцiента компреси, без внесення жодних спотворень у вщновлюваш зображення. Результати виконаних експериментв подано в табл. 1, де результати додаткового компресування вщображеш колонками 7-8.

Табл. 1. Результати кодування зображення "МапйтШ_§гау _розмiр блоку зображення 8x8_

Розм1р файлу зображення, КБ К-ть НЕ прихо-ваного шару К-ть вида- лених молодших бтв РЗЖ 881М Роз-м1р.рае файлу, КБ Метод до-датково! арх1вацн Роз-м1р.72 файлу, КБ ея

257 37 1 30 0,982 186 ррма 168 1,5

257 37 1 30 0,982 186 ьгмА 166 1,5

257 37 1 30 0,982 186 вг1р2 172 1,5

257 19 3 25 0,943 80.7 ррма 68,4 3,7

257 19 3 25 0,943 80.7 ьгмА 66,1 3,8

257 19 3 25 0,943 80.7 вг1р2 70,5 3,6

257 50 4 32,42 0,990 170 ррма 134 1,9

257 50 4 32,42 0,990 170 ьгмА 133 1,9

257 50 4 32,42 0,990 170 вг1р2 141 1,8

257 64 4 35,21 0,994 210 ррма 161 1,6

257 64 4 35,21 0,994 210 ьгмА 160 1,6

257 64 4 35,21 0,994 210 вг1р2 169 1,5

257 64 5 28,95 0,979 178 ррма 125 2

257 64 5 28,95 0,979 178 ьгмА 123 2

257 64 5 28,95 0,979 178 вг1р2 131 2

Очевидно, що описаний шдхщ виявляеться ефективним також для задач ушдльнення з даними шшого походження.

Метод комитету нейронних мереж. Ком^ет нейронних мереж роз-глядають як ефективний зашб розширення можливостей нейромережних ме-тодiв для рiзноманiтних сфер застосування: шд час прогнозування, класифь каци, розв'язання оптимiзацiйних задач. Комггети нейронних мереж ГП, якi мають швидкi алгоритми навчання, надають додатковi можливостi для побу-дови комггетв достатньо великих розмiрiв. На рис. 3 зображено розроблену структуру комггету нейронних мереж ГП, що попередньо навчаються на вщ-повiдних еталонах i функцiонують на основi вщомого в нейрокомп,ютернiй технiцi принципу WTA (переможець забирае все).

Рис. 3. Структура комтету нейронних мереж

Таким чином к ШНМ ГП, що формують комiтет, попередньо навча-ються на к зображеннях-еталонах здiйснювати компресда-декомпресда зоб-ражень, де коефщент ущшьнення встановлюеться заздалегiдь. Еталони по-винш бути достатньо рiзноманiтними в плаш текстури та композици рисунку. Параметри кожно! з ШНМ отримують шляхом попереднього навчання, не змшюються в процесi компресування даних, а отже, не входять до архiву скомпресованих даних.

Зображення, що шдлягае ущiльненню, проходить режим послщовно! компреси-декомпресп на кожнiй з к ШНМ, ощнюються коефiцiенти якостi РБКЯ та ББТМ, що характеризуе мiру структурно! схожост зображень, та обираеться варiант iз найкращими показниками якостi. Тобто реалiзуеться принцип WTA (переможець обирае все), а вибiр переможця здшснюеться за обраними показниками якостi зображень, що порiвнюються.

Найефективнiшим варiантом побудови ще! структури е варiант, коли здшснюеться пофреймове порiвняння зображень. Тобто зображення поф-реймово подаеться на к компресуючих мереж, а для окремих фреймiв обираеться своя компресуюча мережа. Помiтне пiдвищення коефщента компре-сi! та якостi вщновлюваних зображень досягаеться цiною збiльшення вщпо-вiдних часових затримок. У цьому випадку варто взяти до уваги, що навчання вЫх к ШНМ здшснювалось попередньо. Отже, для малих к реально забез-печуеться нав^ь пришвидшення процедур компресi!-декомпресi! порiвняно з варiантом одинично! ШНМ, для яко! передбачене попередне навчання. Од-нак, для великих значень к часовi затримки для комiтету нейромереж стають помiтними.

Вибiр числа к нейромереж, як формують комiтет, набору к еталонних зображень показникiв якост вiдтворюваних зображень на пiдставi яких реаль зуеться принцип WTA залежатиме певною мiрою вiд класiв зображень, що шд-лягають компресуванню i обираються шляхом виконання певних експерименпв.

Висновки. 1. Нейроподiбнi структури автоасоцiативного типу треба розглядати як ефективш засоби реал1заци ущiльнення даних, зокрема зобра-жень.

2. Зберiгання архiву даних для компресуючих структур геометричних перетворень у формат цших чисел i3 фжсованою комою дае змогу застосувати додатковi засоби компресп без втрати якост.

3. Принципова здатшсть здiйснювати навчання автоасоцiативних структур геометричних перетворень на еталонах без ютотно! втрати якостi перетворень забезпечуе можливють створення комiтету нейромереж iз висо-кими показниками коефiцiентiв ущiльнення та якост.

4. Головнi компоненти, отримаш за допомогою ущiльнюючих нейромереж геометричних перетворень, можна безпосередньо застосувати для ви-конання операцш розшзнавання у системах технiчного зору.

Лггература

1. Gaetan Kerschen. Feature extraction using auto-associative neural networks / Gaetan Kerschen, Jean-Claude Golinval // INSTITUTE OF PHYSICS PUBLISHING SMART MATERIALS AND STRUCTURES. Smart Mater. Struct. - 13 (2004). - 211-219 pp.

2. Nandakishore Kambhatla, Todd K. Leen. Dimension Reduction by Local Principal Component Analysis / Department of Computer Science and Engineering, Oregon Graduate Institute of Science and Technology // Portland, Oregon 97291-1000, U.S.A.

3. Simon Haykin, Robert D. Dony. Neural Network Approaches to Image Compression / PROCEEDINGS OF THE IEEE // FEBRUARY, 1995. - Vol. 83, No. 2. - 288-301pp.

4. Шлезингер М.И. О построении эталонов для корреляционных читающих автоматов / М.И. Шлезингер, Л.А. Святогор // III Всесоюзная конференция по информационно поисковым системам и автоматизированной обработке научно-технической информации. - М. : Все-союз. ин-т научной и техн. информации. - 1967. - Т. 3. - С. 129-139.

5. Сэломон Д. Сжатие данных, изображений и звука. - М. : Изд-во "Техносфера". -2004. - 236 с.

6. Ткаченко Р.О. Нова парадигма штучних нейронних мереж прямого поширення // Вюник Державного ушверситету "Л^вська пол^ехшка". - Сер.: Комп'ютерна iнженерiя та шформацшш технологи. - 1999. - № 386. - С. 43-54.

7. Полщук У. Ущшьнення зображень за допомогою нейроподiбних структур моделi геометричних перетворень / У. Полщук, О. Ткаченко, Ю. Цимбал // Вюник Нацюнального уш-верситету "Львiвська пол^ехшка". - Сер.: Комп'ютерш системи та шформацшш технологи. -2010. - № 663. - С. 275-280.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Полищук У.В., Ткаченко Р.О. Методы и средства повышения эффективности нейросетевого сжатия данных на примере изображений

Описаны особенности сжатия и восстановления данных (на примере изображений) с использованием автоассоциативных нейроподобных структур геометрических преобразований для реализации процедуры выделения главных компонентов и восстановления исходных данных на их основе. Проанализированы базовый алгоритм автоассоциативных нейроподобных структур в режимах компрессии-декомпрессии изображений и содержимое архива сжатых данных. Показаны варианты усовершенствования базового нейросетевого метода путем применения дополнительных средств сжатия, которые могут быть использованы для файлов изображений, речевых сообщений и текстовых данных.

Polishchuk U.V. Methods and means of increasing the efficiency of the neural data compression by the example of images

The features of compression and decompression data (for example images) using auto-associative neural structures of geometric transformations to implement procedures of the principal components analyzing and restore the original data based on them is been vi-

ewed. Analyzed the basic algorithm of auto-associative neural structures in the compression-decompression modes of images and contents of the compressed data archive. The following options to improve the basic neural network method by applying additional compression software that can be used for image files, voice and text data.

Keywords: neural colour image compression, image-pattern, neurolike Geometrical Transformation Machine structure.

УДК621.086.065 Проф. Б.М. Гевко, д-р техн. наук; доц. О.Л. Ляшук,

канд. техн. наук - Терноптьський НТУ; проф. М.П. Мартинщв, д-р техн. наук; доц. О.М. Удовицький, канд. техн. наук -

НЛТУ Украти, м. Львiв

РОЗРОБЛЕННЯ МАТЕМАТИЧНО1 МОДЕЛ1 ТА ОБГРУНТУВАННЯ ПАРАМЕТР1В ГНУЧКИХ КАНАТНИХ КОНВЕСР1В

Запропоновано математичну модель гнучких канатних конвеeрiв для транспор-тування контейнерiв зi сипкими матерiалами. Отримано залежност для вибору натягу канату. На основi аналiзу наведених залежностей побудовано графши змши зу-силь залежно вщ умов роботи конвеера, що дае змогу вибрати його оптимальш пара-метри. Встановлено, що при транспортуванш контейнерiв та 1хньо1 зупинки для на-вантаження i розвантаження в ланцюгових конвеерах важко забезпечити плавшсть руху. При зупинках i початку руху, внаслiдок зазорiв мiж ланками ланцюга та зiроч-ками, виникають ударнi динамiчнi навантаження, що призводить до руйнування ланок ланцюпв та зiрочок, а також до розсипання сипких матерiалiв з контейнерiв.

Для транспортування сипких матер1ашв широко використовують кон-веери з гнучким тяговим елементом [1-4]. У вщомих конвеерах таким гнучким елементом слугують ланцюги. Однак шд час транспортування контейнер1в та 1хньо1 зупинки для навантаження { розвантаження в ланцюгових конвеерах

важко забезпечити плавшсть руху. При зупинках i початку руху, внаслщок зазорiв мiж ланками ланцюга та 3ipo4^M^ виникають ударш динамiчнi навантаження, що призводить до руйнування ланок ланцюпв та зiрочок, а та-кож розсипання сипких матерiалiв з контейнерiв.

Тому доцшьно як тяговий елемент викорис-тати канати [5, 6]. Розра-хункову схему контейнера з канатною тягою представлено на рис. 1.

Контейнери, як пе-ремщуе конвеер, опира-

А

е

aY

dl

~m

// )/// \д/)//)

L-x(t)

—)

■ > ■ у/

—x(t)~

щМ

m,r

□ □[

flL

3-Е

m

m

Рис. 1. Розрахункова схема гнучкого канатного конвеера

i Надоели баннеры? Вы всегда можете отключить рекламу.