Волчихин В.И., Иванов А.И., Малыгин А.Ю. ОСОБЫЕ ТРЕБОВАНИЯ К ОБУЧЕНИЮ БИОМЕТРИКО-НЕЙРОСЕТЕВЫХ ПРЕОБРАЗОВАТЕЛЕЙ С БОЛЬШИМ ЧИСЛОМ ВЫХОДОВ
Реальные нейронные сети преобразователей биометрия-код могут иметь любое число нейронов в слое и любое число слоев в сети. Отказ от прежней парадигмы всемерной экономии размерности выходного вектора нейросетевых решений приводит не только к изменению структуры нейросети, но и к пересмотру отношения к ряду устоявшихся взглядов на обучение нейросети.
Например, классическая догма о том, что при обучении нейронов надо использовать только хорошие (информативные) данные (признаки, параметры) устаревает. В новой парадигме плохих данных практически не существует [1,2], любая касательная эффективно защищает «Своего» от некоторого множества «Чужих», что отображено на рисунке 1. Для любого параметра можно синтезировать оптимально отсекаемого им «Чужого».
Из рисунка 1 видно, что два биометрических параметра VI и , в которых построена проекция позволяют хорошо отделять область «Свой» от множеств «Чужой-2», «Чужой-3», «Чужой-4», «Чужой-5». То есть параметры VI и высокоинформативны по отношению к перечисленным выше «Чужим».
Рис. 1 - Нет плохих данных (любая касательная, хорошо защищает от некоторого множества «Чужих-Х»)
Напротив, по отношению к множеству «Чужой-1» эти параметры VI и низкоинформативны, однако их нельзя выбрасывать. Они эффективны (информативны) для большого числа «Чужих». То есть, в рамках новой парадигмы нет плохих низкоинформативных параметров. Любой параметр даже очень плохой может оказаться наилучшим для некоторого редко встречающегося случая.
В силу всего выше сказанного в новой парадигме искусственного расширения размерности вектора выходных решений нейросети выгодно оказывается не выбрасывать параметры, а использовать их всевозможные случайные сочетания. При формировании нейросети, отображенной в правой части рисунка 1, входы нейронов подключены к контролируемым биометрическим параметрам случайно. Так как нейроны этой сети имеют по 7 входов, а контролируется 416 биометрических параметров всего возможно получить С7416 » 1014,6 всевозможных сочетаний связей. Это весьма и весьма значительный резерв по возможности увеличения качества, принимаемых биометрическими преобразователями решений.
Далее будем различать нейросетевые преобразователи биометрия/код:
низкой размерности (число выходов нейросети мало);
средней размерности (число выходов неросети сопоставимо с числом ее входов - сотни выходов);
высокой размерности (число выходов превышает число входов нейросети на один или несколько порядков);
сверхвысокой размерности, когда число выходов нейросети сопоставимо с теоретически возможным числом сочетаний С\, где п-число входов у нейронов сети, N - число учитываемых биометрических параметров.
По приведенной выше классификации нейросеть в правой части рисунка 1 может быть использована преобразователем биометрия/код со средней размерностью вектора выходных нейросетевых решений.
Наряду с взглядами на потенциальную информативность биометрических параметров для многовыходо-вых сетей нейронов изменяется и ряд других концептуальных требований к обучению [1 ]. В проекте национального российского стандарта [3] эти требования сформулированы опираясь на структурную схему, изображенную на рисунке 2.
Так как, в стандарте речь идет безопасном хранении конфиденциальной биометрической и криптографической информации в нейросетевом контейнере (параметрах и структуре нейросети), основным требованием является высоковероятное преобразование обученной нейронной сетью биометрических образов «Свой» в заданный код криптографического ключа. Соответственно при обучении должен быть задан код ключа или длинного пароля.
Обучение нейросети должно вестись автоматически с тем, чтобы с высокой вероятностью, например, с вероятностью 0. 95 образы «Свой» преобразовывались в заданный код ключа. Например, если задан код: 001100111, то такой же код должен получаться и при нейросетевой аутентификации.
Ключ (пароль) Гі.і = ±1
Случайные состояния выходов “*■ «белый шум»
Гі.і = ±0
Автомат
обучения
Ключ
(пароль)
Рис. 2 - Обучение многослойной и многовходовой нейронной сети высоконадежного преобразователя
биометрия/код
Если коды отклики на образы «Свой» будут повторяться с вероятностью близкой к единице, то корреляция между любой парой разрядов кода будет принимать значения близкие к «±1». Значение корреляции близкое к «+1» будет появляться в тех случаях, когда два разряда ключа, попавших в проверяемую пару будут одинаковыми. Если разряды будут иметь разные значения, то корреляция между ними будет близка к «-1».
Для случайных образов «Чужой» преобразователь биометрия/код должен выдавать случайные выходные коды [2]. Например, коды «Свой» и «Чужие» могут принимать следующие значения:
«Свой» 001100111
«Чужой-1» 010101001 «Чужой-2» 001110010
«Чужой-Ы» 101000111
Каждый разряд выходного кода «Чужой» должен с равной вероятностью принимать значения «0» и «1». Добиться равновероятных значений «0» и «1» в каждом разряде выходного кода не сложно. В частности для однослойных сетей достаточно все разделяющие гиперплоскости проводить через центр множества «ВСЕ Чужие», как это показано на рисунке 3.
Рис. 3 - Многообразие вариантов гиперплоскостей, обеспечивающих некоррелированность (независимость) выходных кодов «Чужой» не знающий биометрического пароля (биометрического образа «Свой»)
Из рисунка 3 видно, что таких гиперплоскостей может быть построено бесконечное множество, и все они располагаются в некотором разрешенном секторе. Рисунок 3 сформирован исходя из гипотезы использования при обучении декорреляционных алгоритмов [1,2], которые превращают гиперэллипс «Свой» в гипершар «Свой» и выталкивают его на периферию множества «ВСЕ Чужие».
В силу того, что каждый из разрядов выходных кодов «Чужие» имеет равновероятные значения «0» и «1», корреляция между любой парой разрядов выходного кода должна быть нулевой. То есть, выходные коды нейросети «Чужой» оказываются случайными, а их разряды попарно независимы (некоррелированы). Далее будем считать преобразователи биометрия/код идеальными, если корреляция между любой парой разрядов 1, j кодов «Чужой» отсутствует г^ = ±0.
ЛИТЕРАТУРА
1. Волчихин В.И., Иванов А.И. Основы обучения искусственных нейронных сетей. //учебное пособие. Пенза: Изд-во Пенз.ГУ. - 2004. 113 С.
2. Волчихин В.И., Иванов А.И. , Фунтиков В.А. Быстрые алгоритмы обучения нейросетевых механизмов биометрико-криптографической защиты информации. //монография. Пенза: Изд-во Пенз.ГУ - 2005.
273 С.
3. Проект ГОСТ Р (ТК3 62, первая редакция) «Защита информации. Техника защиты информации. Требования к высоконадежным биометрическим средствам аутентификации» Пенза-Воронеж-2 00 5 г. , ФГУП ПНИЭИ, ГНИИИ ПТЗИ ФСТЭК России.