Научная статья на тему 'Особые требования к обучению биометрико-нейросетевых преобразователей с большим числом выходов'

Особые требования к обучению биометрико-нейросетевых преобразователей с большим числом выходов Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
101
34
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Волчихин В. И., Иванов А. И., Малыгин А. Ю.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Особые требования к обучению биометрико-нейросетевых преобразователей с большим числом выходов»

Волчихин В.И., Иванов А.И., Малыгин А.Ю. ОСОБЫЕ ТРЕБОВАНИЯ К ОБУЧЕНИЮ БИОМЕТРИКО-НЕЙРОСЕТЕВЫХ ПРЕОБРАЗОВАТЕЛЕЙ С БОЛЬШИМ ЧИСЛОМ ВЫХОДОВ

Реальные нейронные сети преобразователей биометрия-код могут иметь любое число нейронов в слое и любое число слоев в сети. Отказ от прежней парадигмы всемерной экономии размерности выходного вектора нейросетевых решений приводит не только к изменению структуры нейросети, но и к пересмотру отношения к ряду устоявшихся взглядов на обучение нейросети.

Например, классическая догма о том, что при обучении нейронов надо использовать только хорошие (информативные) данные (признаки, параметры) устаревает. В новой парадигме плохих данных практически не существует [1,2], любая касательная эффективно защищает «Своего» от некоторого множества «Чужих», что отображено на рисунке 1. Для любого параметра можно синтезировать оптимально отсекаемого им «Чужого».

Из рисунка 1 видно, что два биометрических параметра VI и , в которых построена проекция позволяют хорошо отделять область «Свой» от множеств «Чужой-2», «Чужой-3», «Чужой-4», «Чужой-5». То есть параметры VI и высокоинформативны по отношению к перечисленным выше «Чужим».

Рис. 1 - Нет плохих данных (любая касательная, хорошо защищает от некоторого множества «Чужих-Х»)

Напротив, по отношению к множеству «Чужой-1» эти параметры VI и низкоинформативны, однако их нельзя выбрасывать. Они эффективны (информативны) для большого числа «Чужих». То есть, в рамках новой парадигмы нет плохих низкоинформативных параметров. Любой параметр даже очень плохой может оказаться наилучшим для некоторого редко встречающегося случая.

В силу всего выше сказанного в новой парадигме искусственного расширения размерности вектора выходных решений нейросети выгодно оказывается не выбрасывать параметры, а использовать их всевозможные случайные сочетания. При формировании нейросети, отображенной в правой части рисунка 1, входы нейронов подключены к контролируемым биометрическим параметрам случайно. Так как нейроны этой сети имеют по 7 входов, а контролируется 416 биометрических параметров всего возможно получить С7416 » 1014,6 всевозможных сочетаний связей. Это весьма и весьма значительный резерв по возможности увеличения качества, принимаемых биометрическими преобразователями решений.

Далее будем различать нейросетевые преобразователи биометрия/код:

низкой размерности (число выходов нейросети мало);

средней размерности (число выходов неросети сопоставимо с числом ее входов - сотни выходов);

высокой размерности (число выходов превышает число входов нейросети на один или несколько порядков);

сверхвысокой размерности, когда число выходов нейросети сопоставимо с теоретически возможным числом сочетаний С\, где п-число входов у нейронов сети, N - число учитываемых биометрических параметров.

По приведенной выше классификации нейросеть в правой части рисунка 1 может быть использована преобразователем биометрия/код со средней размерностью вектора выходных нейросетевых решений.

Наряду с взглядами на потенциальную информативность биометрических параметров для многовыходо-вых сетей нейронов изменяется и ряд других концептуальных требований к обучению [1 ]. В проекте национального российского стандарта [3] эти требования сформулированы опираясь на структурную схему, изображенную на рисунке 2.

Так как, в стандарте речь идет безопасном хранении конфиденциальной биометрической и криптографической информации в нейросетевом контейнере (параметрах и структуре нейросети), основным требованием является высоковероятное преобразование обученной нейронной сетью биометрических образов «Свой» в заданный код криптографического ключа. Соответственно при обучении должен быть задан код ключа или длинного пароля.

Обучение нейросети должно вестись автоматически с тем, чтобы с высокой вероятностью, например, с вероятностью 0. 95 образы «Свой» преобразовывались в заданный код ключа. Например, если задан код: 001100111, то такой же код должен получаться и при нейросетевой аутентификации.

Ключ (пароль) Гі.і = ±1

Случайные состояния выходов “*■ «белый шум»

Гі.і = ±0

Автомат

обучения

Ключ

(пароль)

Рис. 2 - Обучение многослойной и многовходовой нейронной сети высоконадежного преобразователя

биометрия/код

Если коды отклики на образы «Свой» будут повторяться с вероятностью близкой к единице, то корреляция между любой парой разрядов кода будет принимать значения близкие к «±1». Значение корреляции близкое к «+1» будет появляться в тех случаях, когда два разряда ключа, попавших в проверяемую пару будут одинаковыми. Если разряды будут иметь разные значения, то корреляция между ними будет близка к «-1».

Для случайных образов «Чужой» преобразователь биометрия/код должен выдавать случайные выходные коды [2]. Например, коды «Свой» и «Чужие» могут принимать следующие значения:

«Свой» 001100111

«Чужой-1» 010101001 «Чужой-2» 001110010

«Чужой-Ы» 101000111

Каждый разряд выходного кода «Чужой» должен с равной вероятностью принимать значения «0» и «1». Добиться равновероятных значений «0» и «1» в каждом разряде выходного кода не сложно. В частности для однослойных сетей достаточно все разделяющие гиперплоскости проводить через центр множества «ВСЕ Чужие», как это показано на рисунке 3.

Рис. 3 - Многообразие вариантов гиперплоскостей, обеспечивающих некоррелированность (независимость) выходных кодов «Чужой» не знающий биометрического пароля (биометрического образа «Свой»)

Из рисунка 3 видно, что таких гиперплоскостей может быть построено бесконечное множество, и все они располагаются в некотором разрешенном секторе. Рисунок 3 сформирован исходя из гипотезы использования при обучении декорреляционных алгоритмов [1,2], которые превращают гиперэллипс «Свой» в гипершар «Свой» и выталкивают его на периферию множества «ВСЕ Чужие».

В силу того, что каждый из разрядов выходных кодов «Чужие» имеет равновероятные значения «0» и «1», корреляция между любой парой разрядов выходного кода должна быть нулевой. То есть, выходные коды нейросети «Чужой» оказываются случайными, а их разряды попарно независимы (некоррелированы). Далее будем считать преобразователи биометрия/код идеальными, если корреляция между любой парой разрядов 1, j кодов «Чужой» отсутствует г^ = ±0.

ЛИТЕРАТУРА

1. Волчихин В.И., Иванов А.И. Основы обучения искусственных нейронных сетей. //учебное пособие. Пенза: Изд-во Пенз.ГУ. - 2004. 113 С.

2. Волчихин В.И., Иванов А.И. , Фунтиков В.А. Быстрые алгоритмы обучения нейросетевых механизмов биометрико-криптографической защиты информации. //монография. Пенза: Изд-во Пенз.ГУ - 2005.

273 С.

3. Проект ГОСТ Р (ТК3 62, первая редакция) «Защита информации. Техника защиты информации. Требования к высоконадежным биометрическим средствам аутентификации» Пенза-Воронеж-2 00 5 г. , ФГУП ПНИЭИ, ГНИИИ ПТЗИ ФСТЭК России.

i Надоели баннеры? Вы всегда можете отключить рекламу.