УДК 004.67: 519.7: 57.087.1 doi:10.21685/2072-3059-2021-1-2
Многокритериальная нейросетевая оценка коэффициентов корреляции для обработки малых выборок биометрических данных
А. И. Иванов1, Ю. И. Серикова2, Т. А. Золотарева3, С. А. Полковникова4
1 Пензенский научно-исследовательский электротехнический институт, Пенза, Россия 2,4Пензенский государственный университет, Пенза, Россия 3Липецкий государственный педагогический университет имени П. П. Семенова-Тян-Шанского, Липецк, Россия
[email protected], [email protected], [email protected], [email protected]
Аннотация. Актуальность и цели. Более 120 лет для вычисления коэффициентов корреляции широко применяется критерий Пирсона. К сожалению, на малых выборках его использование порождает значительные ошибки вычисления коэффициентов корреляции. Целью данной работы является снижение количества ошибок, возникающих при малых выборках, за счет усложнения обработки данных. Материалы и методы. Рассматривается снижение количества ошибок вычисления коэффициентов корреляции переходом к использованию больших искусственных нейронных сетей, заранее обученных предсказывать значения коэффициентов корреляции по взаимному расположению точек малой выборки. Результаты. Совместное использование классической формулы Пирсона и нейросетевого вычисления коэффициентов корреляции позволяет существенно повысить уровень доверия к проводимым нейросете-вым вычислениям. Выводы. Отмечается, что обучающие выборки нейросетевого вычислителя могут быть получены от программных генераторов случайных данных и могут иметь большой размер. Это позволяет надеяться на значительный рост точности вычисления коэффициентов корреляции.
Ключевые слова: нейросетевые вычисления, критерий Пирсона, коэффициент корреляции, нейросетевой анализ, критерии независимости данных, малые выборки Для цитирования: Иванов А. И., Серикова Ю. И., Золотарева Т. А., Полковникова С. А. Многокритериальная нейросетевая оценка коэффициентов корреляции для обработки малых выборок биометрических данных // Известия высших учебных заведений. Поволжский регион. Технические науки. 2021. № 1. С. 13-22. doi: 10.21685/ 2072-3059-2021-1-2
Multi-criteria neural network estimation of correlation coefficients for processing small samples of biometric data
A.I. Ivanov1, Yu.I. Serikova2, T.A. Zolotareva3, S.A. Polkovnikova4
1Penza Research Electrotechnical Institute, Penza, Russia 24Penza State University, Penza, Russia 3Lipetsk State Pedagogical University named after P.P. Semyonov-Tyan-Shansky, Lipetsk, Russia
[email protected], [email protected], [email protected], [email protected]
© Иванов А. И., Серикова Ю. И., Золотарева Т. А., Полковникова С. А., 2021. Контент доступен по лицензии Creative Commons Attribution 4.0 License / This work is licensed under a Creative Commons Attribution 4.0 License.
Abstract. Background. Over 120 years, Pearson's criterion has been widely used to calculate correlation coefficients. Unfortunately, its use generates significant errors in calculating the correlation coefficients on small samples. The purpose of this research is to reduce these errors that occur with small samples by increasing the complexity of data processing. Materials and methods. We consider the reduction of errors in calculating the correlation coefficients by using the large artificial neural networks, trained to predict the values of the correlation coefficients from the relative position of small sample points. Results. The combined use of the classical Pearson's formula and the neural network calculation of correlation coefficients can significantly increase the level of confidence in the neural network calculations. Conclusions. It is noted that training samples of a neural network computer can be obtained from software random data generators and can be large. This allows us to hope for a significant increase in the accuracy of calculating the correlation coefficients. Keywords: neural network computing, Pearson's criterion, correlation coefficient, neural network analysis, data independence criteria, small samples
For citation: Ivanov A.I., Serikova Yu.I., Zolotareva T.A., Polkovnikova S.A. Multi-criteria neural network estimation of correlation coefficients for processing small samples of biometric data. Izvestiya vysshikh uchebnykh zavedeniy. Povolzhskiy region. Tekhnicheskie nauki = University proceedings. Volga region. Engineering sciences. 2021;1:13-22. (In Russ.). doi:10.21685/2072-3059-2021-1-2
1. Проблема вычисления коэффициентов корреляции на малых выборках
Известно, что классическая формула Пирсона дает большие значения ошибок на малых выборках:
15
„(х y) = -1у (E(x) - xi ) • (E(y) - Л )
15
i=1
o(x) c(y)
(1)
где Е(.) - математическое ожидание данных малой выборки; с(.) - стандартное отклонение.
Данная ситуация иллюстрируется рис. 1, на котором отображены значения коэффициентов корреляции данных объемом в 15 опытов, полученных двумя запусками генератора псевдослучайных чисел.
0.02
0.015
0.01
0.005
р(0 ■ I Bi сборки 15 опь JTOB
) И Л », z(r)
) f fi Е(г) = <з(г) = 0.00 0.268
У \
1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.S
Рис. 1. Распределение значений коэффициентов корреляции для малых выборок, вычисленных по классической формуле Пирсона
Из рис. 1 видно, что в случае независимых данных ошибка вычислений нулевого значения коэффициента корреляции может составить значительную величину - до ±0,80. Причина этого состоит в том, что формула Пирсона, как и многие другие вычислительные формулы, накапливает ошибки предшествующих вычислений: ДЕ(х), ДЕ(у), Лс(х), Лс(у). Кроме того, сами входные данные всегда имеют ошибки изменений Дхг-, Ду,. Именно по этим причинам на малых выборках мы имеем огромные ошибки оценок коэффициентов корреляции. В связи с этим возникает вопрос: можно ли создать более современную и более эффективную формулу для вычисления коэффициентов корреляции на малых выборках?
2. Универсальность нейросетевых вычислений
Следует отметить, что во времена Пирсона отсутствовали электронные вычислительные машины и, соответственно, приходилось ориентироваться на простейшие вычисления, например по формуле (1). В настоящее время вычисления могут быть гораздо более сложными, если удастся уйти от проблемы накопления ошибок при вычислениях.
Известно, что нейросетевые функционалы крайне устойчивы и универсальны, если их удалось обучить и сформировать из них большие сети искусственных нейронов. Этот тезис получил практическое подтверждение при реализации нейросетевой обработки биометрических данных сетями искусственных нейронов, осуществляющих обогащение «сырых» биометрических данных в линейных пространствах [1, 2], в квадратичных пространствах [3-5], в пространствах среднего гармонического [6, 7] и в пространствах ортогональных полиномов [8].
Еще одним важным технологическим шагом является использование многослойных сетей искусственных нейронов [9, 10], для которых нельзя заранее (априорно) указать тип деформирования пространства, где выполняется обогащение относительно «бедных», «сырых» биометрических данных.
Принципиально важным является также то, что нейронные сети - это универсальный вычислительный инструмент, который можно обучить выполнять любые математические вычисления. Один искусственный нейрон далеко не универсален, как это было показано Минским и Пайпертом [11], однако уже двухслойные сети нейронов [12] способны выполнять приближенные вычисления любых, как угодно сложных многомерных функций. Получается, многослойные сети искусственных нейронов [9, 10, 13] следует рассматривать как универсальные вычислительные структуры, способные выполнять любые многомерные вычисления без каких-либо ограничений. В связи с отмеченным выше обстоятельством вполне естественным является применение искусственных нейронов для оценок значений коэффициентов корреляции [14-19].
3. Нейросетевая статика, свертывание избыточных выходных кодов
Очевидным техническим решением является использование нескольких разных способов (вычисления) оценки значений коэффициентов корреляции. Например, могут быть использованы корреляционные молекулы [15, 16, 18, 19], при этом шкалы каждого из новых способов вычисления (оценок) имеют свой масштаб и являются нелинейными по отношению к общеприня-
той шкале коэффициентов корреляции Пирсона (1). Идти по пути выравнивания масштабов шкал и их нелинейного выравнивания вполне возможно, но технически сложно. Гораздо более простым способом является квантование данных вычислений, полученных разными способами. Например, как показано на рис. 1, можно использовать бинарный четный квантователь z(r). В этом случае квантователь дает состояния «0», если модуль вычисленного значения менее 0,33, во всех остальных случаях квантователь z(r) будет иметь выходное состояние «1». С другой стороны, мы всегда можем построить корреляционную молекулу [15], подсчитывая число точек, попавших в первую ««1», вторую ««2», третью ««з» и четвертую ««4» четверти центрированной системы координат. В этом случае оценка коэффициента корреляции выполняется по следующей формуле:
г(х,у) - "?}(X,у)" =
( «1 + «з ) -( «2 + п4 )
!1 11 | II „ м | 11 ,„ п | тт т
«1 + «2 + «3 + «4
(2)
Подсчет точек, попавших в разные четверти системы координат, всегда дает дискретные значения оцениваемого коэффициента корреляции. Это дает право подобные конструкции называть «математическими» молекулами [15, 18, 19] по аналогии с химическими и физическими молекулами, дающими дискретные линии выходного спектра состояний при их возбуждении. На рис. 2 приведен дискретный выходной спектр, состоящий из 12 раздельно расположенных корреляционных спектральных линий с шагом между ними Дг = 0,133. Промежуточных значений коэффициентов корреляции между значимыми спектральными линиями ¥г(«.») и ¥г+1(«.») не существует.
0.2 |-
Ч!(«г»)
о.::
I
< ' <;
I,
г ^
о:
Дг = 0.133
0. Со
чэ
I
I
,>1 чС. |
-0.:
Рис. 2. Спектр амплитуд вероятности ¥(«г») появления дискретных значений коэффициентов корреляции для выборки в 15 опытов с шагом Дг
Принципиально важным является то, что вычисления оценки коэффициентов корреляции, выполненные по формуле Пирсона (1) и по формуле (2), имеют значительную независимую составляющую:
1 - corr{r(x,y), ¥(«r»} = 0,33.
(3)
Именно это обстоятельство позволяет использовать нейросетевое обобщение нескольких вариантов оценок коэффициентов корреляции. Так, на рис. 3 приведена структура нейронной сети, обобщающей пятью нейронами пять различных форм оценки значений коэффициентов корреляции. Каждый искусственный нейрон воспроизводит один из известных статистических критериев [15, 18, 19], в итоге анализируемая выборка из 15 опытов дает избыточный код, состоящий из пяти бит. В силу того что отклики каждого из пяти искусственных нейронов (рис. 3) имеют собственную независимую компоненту, ее избыточный выходной код может иметь разные состояния разрядов: как «0», так и «1».
Рис. 3. Пятикратная избыточность выходного кода нейронной сети
Удобнее всего избыточность выходного кода свернуть «голосованием» [20]. Простейшая корректировка кода выполняется подсчетом в коде состояний «0». Если в пятибитном коде обнаруживаются 5, 4, 3 состояний «0», то принимается решение об обнаружении отсутствия корреляции.
4. Поддержка нейродинамики случайным прореживанием основной выборки из 21 опыта до 54264 подвыборок, состоящих из 15 опытов
Следует отметить, что естественные нейроны в нашем мозге находятся в динамике, это приводит к наблюдению шумоподобных сигналов электроэнцефалограмм. Одним из способов перехода из нейросетевой статики в нейросетевую динамику является использование модуляции входных данных [21]. На рис. 4 приведена блок-схема воспроизведения изменяющихся входных данных нейронной сети путем случайного прореживания исходной выборки в 21 опыт до множества меньших подвыборок, состоящих из 15 опытов. Для этого воспользуемся формулой для вычисления числа сочетаний:
ck _ cn _
n!
k !(n - k)!
_ Г15 _ _ C21 _
21!
15!(21 -15)!
=54264.
(4)
Рис. 4. Пятикратная избыточность потока выходных кодов нейронной сети с поддерживанием нейродинамики случайным прореживанием выборки из 21 опыта до 15 опытов
Из полной единственной выборки в 21 опыт случайно выбирают и удаляют 6 опытов, при этом получают 54264 неповторяющихся усеченных выборок по 15 опытов.
То есть введение в схему нейросетевого вычислителя модулятора входных данных, как это показано на рис. 4, позволяет создавать реальную динамику изменения состояний выходного слоя нейронов. На выходах нейросете-вого динамического вычислителя появляется поток оценок коэффициента корреляции полной входной выборки в 21 опыт.
Предположительно, за счет перехода от нейросетевого анализа данных в статике (рис. 3) к нейросетевому анализу данных в динамике (рис. 4) произойдет значительное повышение уровня достоверности принимаемых нейросетевым искусственным интеллектом решений. На сегодня удается снизить вероятности ошибок первого и второго рода до 5 раз на выборке из 21 опыта.
Список литературы
1. Язов Ю. К., Волчихин В. И., Иванов А. И., Фунтиков В. А., Назаров И. Г. Нейросетевая защита персональных биометрических данных. М. : Радиотехника, 2012. 157 с.
2. ГОСТ Р 52633.5-2011. Защита информации. Техника защиты информации. Автоматическое обучение нейросетевых преобразователей биометрия-код доступа. М. : Стандартинформ, 2012.
3. Малыгина Е. А. Биометрико-нейросетевая аутентификация: перспективы применения сетей квадратичных нейронов с многоуровневым квантованием биометрических данных : препринт. Пенза : Изд-во ПГУ, 2020. 114 с.
4. Иванов А. И., Безяев А. В., Малыгина Е. А., Серикова Ю. И. Второй национальный стандарт России по быстрому автоматическому обучению больших искусственных нейронных сетей на малых выборках биометрических данных // Безопасность информационных технологий : сб. науч. ст. по материалам I Всерос. науч.-техн. конф. (24 апреля 2019 г.). Пенза, 2019. С. 174-177.
5. Волчихин В. И., Иванов А. И., Малыгина Е. А., Серикова Ю. И. Сопоставление мощности двух типов искусственных нейронов, осуществляющих обогащение биометрических данных в линейном и квадратичном пространствах // Известия
высших учебных заведений. Поволжский регион. Технические науки. 2018. № 3. С. 47-57.
6. Иванов А. И., Перфилов К. А., Лукин В. С. Нейросетевое обобщение семейства статистических критериев среднего геометрического и среднего гармонического для прецизионного анализа малых выборок биометрических данных // Информационно-управляющие телекоммуникационные системы, средства поражения и их техническое обеспечение : сб. науч. ст. по материалам Всерос. науч.-техн. конф. / под общ. ред. В. С. Безяева. Пенза : АО «НПП "Рубин"», 2019. С. 50-63.
7. Иванов А. И., Банных А. Г., Куприянов Е. Н., Лукин В. С., Перфилов К. А., Савинов К. Н. Коллекция искусственных нейронов эквивалентных статистическим критериям для их совместного применения при проверке гипотезы нормальности малых выборок биометрических данных технологий // Безопасность информационных технологий : сб. науч. ст. по материалам I Всерос. науч.-техн. конф. (24 апреля 2019 г.). Пенза : Изд-во ПГУ, 2019. С. 156-164.
8. Иванов А. И., Куприянов Е. Н. Защита искусственного интеллекта: ортогонализа-ция статистико-нейросетевого анализа малых выборок биометрических данных : препринт. Пенза : Изд-во ПГУ, 2020. 72 с.
9. Николенко С., Кудрин А., Архангельская Е. Глубокое обучение. Погружение в мир нейронных сетей. СПб. : Питер, 2018. - 480 с.
10. Аггарвал Чару. Нейронные сети и глубокое обучение. СПб. : Диалектика, 2020. 756 с.
11. Минский М. Л., Пайперт С. Персептроны. М. : Мир, 1971. 242 с.
12. Колмогоров А. Н. О представлении непрерывных функций нескольких переменных суперпозициями непрерывных функций меньшего числа переменных // Доклады Академии наук СССР. 1956. Т. 108, № 2. С.179-182.
13. Хайкин, С. Нейронные сети : полный курс. М. : Вильямс, 2006. С. 1104.
14. Волчихин В. И., Иванов А. И., Ахметов Б. Б., Серикова Ю. И. Фрактально-корреляционный функционал, используемый при поиске пар слабо зависимых биометрических данных в малых выборках // Известия высших учебных заведений. Поволжский регион. Технические науки. 2016. № 4. С. 25-31.
15. Волчихин В. И., Иванов А. И., Сериков А. В., Серикова Ю. И. Квантовая суперпозиция дискретного спектра состояний математической молекулы корреляции для малых выборок биометрических данных // Вестник Мордовского университета. 2017. Т. 27, № 2. С. 230-243.
16. Иванов А. И., Ложников П. С., Сулавко А. Е., Серикова Ю. И. Снижение требований к размеру тестовой выборки биометрических данных при переходе к использованию многомерных корреляционных функционалов Байеса // Инфокоммуни-кационные технологии. 2017. Т. 15, № 2. С. 186-193.
17. Волчихин В. И., Иванов А. И., Сериков А. В., Серикова Ю. И. Тестирование аналогового и квантового оракулов линейной вычислительной сложности, предсказывающих значения коэффициента корреляции на малой выборке в 32 опыта // Известия высших учебных заведений. Поволжский регион. Технические науки. 2017. № 3. С. 70-80.
18. Иванов А. И., Золотарева Т. А. Искусственный интеллект в защищенном исполнении: синтез статистико-нейросетевых автоматов многокритериальной проверки гипотезы независимости малых выборок биометрических данных : препринт. Пенза : Изд-во ПГУ, 2020. 105 с.
19. Сериков А. В., Качалин С. В. Корреляционная молекула с эллиптическими квантователями для вычислений на малых обучающих выборках // Безопасность информационных технологий : сб. науч. ст. по материалам I Всерос. науч.-техн. конф. (24 апреля 2019 г.). Пенза : Изд-во ПГУ, 2019. С. 123-129.
20. Безяев А. В. Биометрико-нейросетевая аутентификация: обнаружение и исправление ошибок в длинных кодах без накладных расходов на избыточность : препринт. Пенза : Изд-во ПГУ, 2020. 40 с.
21. Иванов А. И. Искусственные математические молекулы: повышение точности статистических оценок на малых выборках (программы на языке MathCAD) : препринт. Пенза : Изд-во ПГУ, 2020. 36 с.
References
1. Yazov Yu.K., Volchikhin V.I., Ivanov A.I., Funtikov V.A., Nazarov I.G. Neyrosetevaya zashchita personal'nykh biometricheskikh dannykh = Neural network protection of personal biometric data. Moscow: Radiotekhnika, 2012:157. (In Russ.)
2. GOST R 52633.5-2011. Zashchita informatsii. Tekhnika zashchity informatsii. Avto-maticheskoe obuchenie neyrosetevykh preobrazovateley biometriya-kod dostupa = Information security. Information security technology. Automatic training of neural network converters biometrics-access code. Moscow: Standartinform, 2012. (In Russ.)
3. Malygina E.A. Biometriko-neyrosetevaya autentifikatsiya: perspektivy primeneniya setey kvadratichnykh neyronov s mnogourovnevym kvantovaniem biometricheskikh dannykh: preprint = Biometrical neural network authentication: prospects for the application of quadratic neuron networks with multilevel quantization of biometric data: preprint. Penza: Izd-vo PGU, 2020:114. (In Russ.)
4. Ivanov A.I., Bezyaev A.V., Malygina E.A., Serikova Yu.I. The second national standard of Russia for fast automatic training of large artificial neural networks on small samples of biometric data. Bezopasnost' informatsionnykh tekhnologiy: sb. nauch. st. po materi-alam I Vseros. nauch.-tekhn. konf. (24 aprelya 2019 g.) = Information security: proceedings of the 1st All-Russian scientific and technical conference (April 24, 2019). Penza, 2019:174-177. (In Russ.)
5. Volchikhin V.I., Ivanov A.I., Malygina E.A., Serikova Yu.I. Comparison of the power of two types of artificial neurons enriching biometric data in linear and quadratic spaces. Izvestiya vysshikh uchebnykh zavedeniy. Povolzhskiy region. Tekhnicheskie nauki = University proceedings. Volga region. Engineering sciences. 2018;3:47-57. (In Russ.)
6. Ivanov A.I., Perfilov K.A., Lukin V.S. Neural network generalization of a family of statistical criteria for geometric mean and harmonic mean for precision analysis of small samples of biometric data. Informatsionno-upravlyayushchie telekommunikatsionnye sistemy, sredstva porazheniya i ikh tekhnicheskoe obespechenie: sb. nauch. st. po mate-rialam Vseros. nauch.-tekhn. konf. = Information and control telecommunication systems, weapons and their technical support: proceedings of the All-Russian scientific and technical conference. Penza: AO «NPP "Rubin"», 2019:50-63. (In Russ.)
7. Ivanov A.I., Bannykh A.G., Kupriyanov E.N., Lukin V.S., Perfilov K.A., Savinov K.N. A collection of artificial neurons equivalent to statistical criteria for their combined use in testing the hypothesis of normality of small samples of biometric data technologies. Bezopasnost' informatsionnykh tekhnologiy: sb. nauch. st. po materialam I Vseros. nauch.-tekhn. konf. (24 aprelya 2019 g.) = Information security: proceedings of the 1st All-Russian scientific and technical conference (April 24, 2019). Penza: Izd-vo PGU, 2019:156-164. (In Russ.)
8. Ivanov A.I., Kupriyanov E.N. Zashchita iskusstvennogo intellekta: ortogonalizatsiya statistiko-neyrosetevogo analiza malykh vyborok biometricheskikh dannykh: preprint = Artificial intelligence protection: orthogonalization of statistics-neural network analysis for small samples of biometric data: preprint. Penza: Izd-vo PGU, 2020:72. (In Russ.)
9. Nikolenko S., Kudrin A., Arkhangel'skaya E. Glubokoe obuchenie. Pogruzhenie v mir neyronnykh setey = Deep Learning. Dive into the world of neural networks. Saint-Petersburg: Piter, 2018:480. (In Russ.)
10. Aggarval Charu. Neyronnye seti i glubokoe obuchenie = Neural networks and deep learning. Saint-Petersburg: Dialektika, 2020:756. (In Russ.)
11. Minskiy M.L., Paypert S. Perseptrony = Perceptrons. Moscow: Mir, 1971:242. (In Russ.)
12. Kolmogorov A.N. Representation of continuous functions of several variables by superpositions of continuous functions of fewer variables. Doklady Akademii nauk SSSR = Reports of the USSR Academy of Sciences. 1956;108(2):179-182. (In Russ.)
13. Khaykin S. Neyronnye seti: polnyy kurs = Neural networks: complete course. Moscow: Vil'yams, 2006:1104. (In Russ.)
14. Volchikhin V.I., Ivanov A.I., Akhmetov B.B., Serikova Yu.I. Fractal-correlation functional used when searching for pairs of weakly dependent biometric data in small samples. Izvestiya vysshikh uchebnykh zavedeniy. Povolzhskiy region. Tekhnicheskie nauki = University proceedings. Volga region. Engineering sciences. 2016;4:25-31. (In Russ.)
15. Volchikhin V.I., Ivanov A.I., Serikov A.V., Serikova Yu.I. Quantum superposition of a discrete spectrum of a mathematical molecule states of correlation for small samples of biometric data. Vestnik Mordovskogo universiteta = Bulletin of Mordovian University. 2017;27(2):230-243. (In Russ.)
16. Ivanov A.I., Lozhnikov P.S., Sulavko A.E., Serikova Yu.I. Reducing the requirements for the size of the test sample of biometric data in the transition to the use of multidimensional Bayesian correlation functionals. Infokommunikatsionnye tekhnologii = Info-communication technologies. 2017;15(2):186-193.
17. Volchikhin V.I., Ivanov A.I., Serikov A.V., Serikova Yu.I. Testing of analog and quantum oracles of linear computational complexity, predicting the values of the correlation coefficient on a small sample of 32 experiments. Izvestiya vysshikh uchebnykh zavedeniy. Povolzhskiy region. Tekhnicheskie nauki = University proceedings. Volga region. Engineering sciences. 2017;3:70-80. (In Russ.)
18. Ivanov A.I., Zolotareva T.A. Iskusstvennyy intellekt v zashchishchennom ispolnenii: sintez statistiko-neyrosetevykh avtomatov mnogokriterial'noy proverki gipotezy nezavi-simosti malykh vyborok biometricheskikh dannykh: preprint = Artificial intelligence in protected design: synthesis of statistical neural network automata for multi-criteria testing of the hypothesis of independence of small samples of biometric data: preprint. Penza: Izd-vo PGU, 2020:105. (In Russ.)
19. Serikov A.V., Kachalin S.V. Correlation molecule with elliptic quantizers for computations on small training samples. Bezopasnost' informatsionnykh tekhnologiy: sb. nauch. st. po materialam I Vseros. nauch.-tekhn. konf. (24 aprelya 2019 g.) = Information technology security: proceedings of the 1st All-Russian scientific and technical conference (April 24, 2019). Penza: Izd-vo PGU, 2019:123-129. (In Russ.)
20. Bezyaev A.V. Biometriko-neyrosetevaya autentifikatsiya: obnaruzhenie i ispravlenie oshibok v dlinnykh kodakh bez nakladnykh raskhodov na izbytochnost': preprint = Bio-metrical neural network authentication: detecting and correcting errors in long codes without the overhead of redundancy: preprint. Penza: Izd-vo PGU, 2020:40. (In Russ.)
21. Ivanov A.I. Iskusstvennye matematicheskie molekuly: povyshenie tochnosti statistich-eskikh otsenok na malykh vyborkakh (programmy na yazyke MathCAD): preprint = Artificial mathematical molecules: improving the accuracy of statistical estimates on small samples (programs in the MathCAD language): preprint. Penza: Izd-vo PGU, 2020:36. (In Russ.)
Информация об авторах / Information about the authors
Александр Иванович Иванов
доктор технических наук, доцент, научный консультант, Пензенский научно-исследовательский электротехнический институт (Россия, г. Пенза, ул. Советская, 9)
E-mail: [email protected]
Aleksandr I. Ivanov Doctor of engineering sciences, associate professor, scientific adviser, Penza Research Electrotechnical Institute (9 Sovetskaya street, Penza, Russia)
Юлия Игоревна Серикова аспирант, Пензенский государственный университет (Россия, г. Пенза, Красная, 40)
E-mail: [email protected]
Татьяна Александровна Золотарева старший преподаватель кафедры информатики, информационных технологии и защиты информации, Липецкий государственный педагогический университет имени П. П. Семенова-Тян-Шанского (Россия, г. Липецк, ул. Ленина, 42)
E-mail: [email protected]
Светлана Андреевна Полковникова
аспирант, Пензенский государственный университет (Россия, г. Пенза, Красная, 40)
E-mail: [email protected]
Yuliya I. Serikova Postgraduate student, Penza State University (40 Krasnaya street, Penza, Russia)
Tat'yana A. Zolotareva Senior lecturer of the sub-department of informatics, information technology and information security, Lipetsk State Pedagogical University named after P.P. Semyonov-Tyan-Shansky (42 Lenina street, Lipetsk, Russia)
Svetlana A. Polkovnikova
Postgraduate student, Penza State University (40 Krasnaya street, Penza, Russia)
Поступила в редакцию / Received 07.12.2020
Поступила после рецензирования и доработки / Revised 14.12.2020 Принята к публикации / Accepted 29.12.2020