Научная статья на тему 'ЭФФЕКТ ПЕРЕХОДА ОТ ПРИМЕНЕНИЯ БИНАРНЫХ ИСКУССТВЕННЫХ НЕЙРОНОВ К ТРОИЧНЫМ НЕЙРОНАМ ПРИ СОВМЕСТНОМ ИСПОЛЬЗОВАНИИ ПЯТИ КЛАССИЧЕСКИХ СТАТИСТИЧЕСКИХ КРИТЕРИЕВ ПРОВЕРКИ ГИПОТЕЗ НОРМАЛЬНОСТИ ИЛИ РАВНОМЕРНОСТИ РАСПРЕДЕЛЕНИЙ МАЛЫХ ВЫБОРОК'

ЭФФЕКТ ПЕРЕХОДА ОТ ПРИМЕНЕНИЯ БИНАРНЫХ ИСКУССТВЕННЫХ НЕЙРОНОВ К ТРОИЧНЫМ НЕЙРОНАМ ПРИ СОВМЕСТНОМ ИСПОЛЬЗОВАНИИ ПЯТИ КЛАССИЧЕСКИХ СТАТИСТИЧЕСКИХ КРИТЕРИЕВ ПРОВЕРКИ ГИПОТЕЗ НОРМАЛЬНОСТИ ИЛИ РАВНОМЕРНОСТИ РАСПРЕДЕЛЕНИЙ МАЛЫХ ВЫБОРОК Текст научной статьи по специальности «Физика»

CC BY
22
6
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МНОГОКРИТЕРИАЛЬНЫЙ СТАТИСТИЧЕСКИЙ АНАЛИЗ / ПРОВЕРКА ГИПОТЕЗЫ НОРМАЛЬНОСТИ ИЛИ РАВНОМЕРНОСТИ / МАЛЫЕ ВЫБОРКИ / ИСКУССТВЕННЫЕ НЕЙРОНЫ С БИНАРНЫМИ И ТРОИЧНЫМИ ВЫХОДНЫМИ КВАНТОВАТЕЛЯМИ

Аннотация научной статьи по физике, автор научной работы — Иванов А.И., Савинов К.Н., Еременко Р.В.

Цель работы показать преимущества перехода от обычных бинарных нейронов к более сложным нейронам с троичным выходным квантованием. Как пример рассматривается нейросетевое объединение пяти классических статистических критериев: Гири (1935 г.), Девида-Хартли-Пирсона (1954 г.), Шапиро-Уилка (1965 г.), максимального отклонения от центра (1965 г.), Али-Черго-Ревиса (1992 г.). Дан прогноз объединения этих критериев с другими, построенный исходя из доверительной вероятности 0.99. Применение бинарных искусственных нейронов потребует использования 280 статистических критериев. Переход к использованию искусственных нейронов с троичными квантователями должно снизить число нейронов до девяти при малых выборках в 16 опытов. Наблюдается экспоненциальное снижение числа необходимых нейронов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по физике , автор научной работы — Иванов А.И., Савинов К.Н., Еременко Р.В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

IMPACT OF CONVERSION FROM THE USE OF BINARY ARTIFICIAL NEURONS TO THE USE OF TERNARY NEURONS WITH THE COMBINED APPLYING OF FIVE CLASSICAL STATISTICAL CRITERIA FOR NORMALITY OR UNIFORMITY HYPOTHESIS TESTING FOR SMALL SAMPLES DISTRIBUTIONS

The work purpose is to show the advantages of moving from ordinary binary neurons to more complex neurons with ternary output quantization. As an example, a neural network combination of five classical statistical criteria is considered: Geary (1935), David-Hartley-Pearson (1954), Shapiro-Wilk (1965), Maximum deviation from the center (1965), Ali-Chergo-Revis (1992). A forecast of combining these criteria with others is given, built with confidence probability is equal to 0.99. The binary artificial neurons using will require the use of 280 statistical criteria. The conversion to the artificial neurons using with ternary quantizers should reduce the neurons number to 9 for small samples of 16 experiments. An exponential decreasing of the necessary neurons number is seen.

Текст научной работы на тему «ЭФФЕКТ ПЕРЕХОДА ОТ ПРИМЕНЕНИЯ БИНАРНЫХ ИСКУССТВЕННЫХ НЕЙРОНОВ К ТРОИЧНЫМ НЕЙРОНАМ ПРИ СОВМЕСТНОМ ИСПОЛЬЗОВАНИИ ПЯТИ КЛАССИЧЕСКИХ СТАТИСТИЧЕСКИХ КРИТЕРИЕВ ПРОВЕРКИ ГИПОТЕЗ НОРМАЛЬНОСТИ ИЛИ РАВНОМЕРНОСТИ РАСПРЕДЕЛЕНИЙ МАЛЫХ ВЫБОРОК»

ВЕСТНИК ПЕРМСКОГО УНИВЕРСИТЕТА

2022

• Математика. Механика. Информатика •

Вып. 3(58)

УДК 519.24; 53; 004.032.26

Эффект перехода от применения бинарных искусственных нейронов к троичным нейронам при совместном использовании пяти классических статистических критериев проверки гипотез

нормальности или равномерности распределений малых выборок

А. И. Иванов1' 2; % К. Н. Савинов2; ь, Р. В. Еременко2; с

1АО "Пензенский научно-исследовательский электротехнический институт"; Пенза, Россия 2Пензенский государственный университет; Пенза, Россия ае-шаП: ivan@pniei.penza.ru; ОЯСГО: 0000-0003-3475-2182, АиШогГО: 744989 ье-шаП: knsavinov@mail.ru; ОКСГО: 0000-0003-3099-0781, AuthorID: 1164811 се-шаП: rim7575@mail.ru; ORCID: 0000-0002-9487-7393, AuthorID: 1164815

Цель работы показать преимущества перехода от обычных бинарных нейронов к более сложным нейронам с троичным выходным квантованием. Как пример рассматривается нейросетевое объединение пяти классических статистических критериев: Гири (1935 г.), Девида-Хартли-Пирсона (1954 г.), Шапиро-Уилка (1965 г.), максимального отклонения от центра (1965 г.), Али-Черго-Ревиса (1992 г.). Дан прогноз объединения этих критериев с другими, построенный исходя из доверительной вероятности 0.99. Применение бинарных искусственных нейронов потребует использования 280 статистических критериев. Переход к использованию искусственных нейронов с троичными квантователями должно снизить число нейронов до девяти при малых выборках в 16 опытов. Наблюдается экспоненциальное снижение числа необходимых нейронов.

Ключевые слова: многокритериальный статистический анализ; проверка гипотезы нормальности или равномерности; малые выборки; искусственные нейроны с бинарными и троичными выходными квантователями.

Поступила в редакцию 16.05.2022, принята к опубликованию 07.07.2022

Impact of Conversion from the Use of Binary Artificial Neurons to the Use of Ternary Neurons With the Combined Applying of Five Classical Statistical Criteria for Normality or Uniformity Hypothesis Testing for Small Samples Distributions

A. I. Ivanov1' 2; a, K. N. Savinov2; b, R. V. Eremenko2; c

1Penza Research Electrotechnical Institute JSC; Penza, Russia 2Penza State University; Penza, Russia

ae-mail: ivan@pniei.penza.ru; ORCID: 0000-0003-3475-2182, AuthorlD: 744989 be-mail: knsavinov@mail.ru; ORCID: 0000-0003-3099-0781, AuthorID: 1164811 ce-mail: rim7575@mail.ru; ORCID: 0000-0002-9487-7393, AuthorID: 1164815

Эта работа © 2022 Иванов А. И., Савинов К. Н., Еременко Р. В. лицензируется под ^ BY 4.0.

Чтобы просмотреть копию этой лицензии, посетите http://creativecommons.org/licenses/by/4.0/

The work purpose is to show the advantages of moving from ordinary binary neurons to more complex neurons with ternary output quantization. As an example, a neural network combination of five classical statistical criteria is considered: Geary (1935), David-Hartley-Pearson (1954), Shapiro-Wilk (1965), Maximum deviation from the center (1965), Ali-Chergo-Revis (1992). A forecast of combining these criteria with others is given, built with confidence probability is equal to 0.99. The binary artificial neurons using will require the use of 280 statistical criteria. The conversion to the artificial neurons using with ternary quantizers should reduce the neurons number to 9 for small samples of 16 experiments. An exponential decreasing of the necessary neurons number is seen.

Keywords: multicriteria statistical analysis; normality or uniformity hypothesis testing; small samples; artificial neurons with binary and ternary output quantizers.

Поступила в редакцию 16.05.2022, принята к опубликованию 07.07.2022

DOI: 10.17072/1993-0550-2022-3-59-67 Введение

В XX в. было создано порядка 21 статистического критерия для проверки гипотезы нормального распределения данных и порядка 24 критериев для проверки гипотезы равномерности распределения данных [1]. К сожалению, все они достаточно хорошо работают только на больших выборках в 200 опытов.

В ряде современных приложений искусственного интеллекта нет возможности иметь столь большие выборки. Так в приложениях нейросетевой биометрии, приложений медицины, биологии, экономики нет возможности использовать большие выборки [2].

В частности, перспективными являются алгоритмы быстрого автоматического обучения больших искусственных нейронных сетей на малых выборках. Первый из этого класса алгоритмов стандартизован в России [3]. Предполагается, что в будущем появится серия подобных алгоритмов [4, 5] и соответствующих им национальных стандартов.

Особый интерес представляют ортого-нализованные алгоритмы быстрого обучения нейросетей, построенные на подборе данных образа "Свой" с нормальным распределением или равномерным распределением [6].

Например, данные на 16 входах нейрона могут быть подобраны при обучении, чтобы иметь нормальное распределение и давать отклик - «0» на выходе нейрона. Тогда, данные на 16 входах этого же нейрона, подобранные при обучении с равномерным распределением, должны давать выходное состояние нейрона - «1». При этом возникает задача надежного нейросетевого распознавания малых выборок объемом в 16 примеров, име-

ющих нормальное распределение и равномерное распределение.

Эту задачу первоначально предполагалось решить через некоторое совместное использование ортогональных полиномиальных нейронов Эрмита (для нормальных данных) и ортогональных полиномиальных нейронов Лежандра (для равномерно распределенных данных).

К сожалению, этот путь оказался трудно реализуем из-за того, что искусственные нейроны, построенные на полиномах Ле-жандра и Эрмита, быстро утрачивают свою ортогональность по мере снижения размеров выборки.

В этом отношении более перспективным является использование искусственных нейронов, построенных на использовании классических статистических критериях прошлого века, построенных для проверки гипотезы равномерности или нормальности малых выборок в 16 опытов [2, 7, 8].

Замена пяти классических статистических критериев XX века эквивалентными им бинарными искусственными нейронами

Для примера возьмем критерий Гири, созданный в 1935 г. [9]. Программная реализация на языке MathCAD формулы вычисления данных по этому критерию приведена в левой части рис. 1.

В правой части рисунка приведены результаты численного эксперимента при воздействии на критерий нормальными и равномерными входными данными малой выборки в 16 опытов.

Рис. 1. Критерий Гири (1935 г.) [9], точками отображено распределение данных на выходе сумматора критерия при равномерных входных данных

Очевидно, что данные на выходе сумматора критерия Гири могут быть подвергнуты бинарному квантованию по порогу к=0.81. Отображенный на рис. 1 бинарный квантователь дает состояние «0» при воздействии нормально распределенными данными и состояние «1» при воздействии на искусственный нейрон Гири равномерно распределенными входными данными.

При таком значении порога квантователя ошибки первого и второго рода искус-

ственного нейрона Гири оказываются сопоставимы и составляют Р1«Р2«Рее~0.119. То есть, использование только этого нейрона дает решение с доверительной вероятностью 0.88 на выборках в 16 опытов, что недостаточно для практики.

В связи с этим мы можем дополнительно применить критерий Девида-Хартли-Пирсона [10], данные по которому приведены на рис. 2.

Рис. 2. Нейрон Девида-Хартли-Пирсона, эквивалентный статистическому критерию нормированного размаха (1954 г.) [10]

Из программной реализации этого нейрона (см. левую часть рис. 2) видно, что он вычисляет размах данных, нормированный их стандартным отклонением. В этом отношении приоритет в создании этого типа критериев может оказаться у Херста, использовавшего нормированный размах - И/с при вычислении своего фрактального показателя [11] уже в

начале 20-х годов XX в. В это время англичанин Херст служил в Египте и занимался проблемой статистического предсказания размеров разливов реки Нил. Однако Херст статистически не исследовал фрагмент своего критерия (нормированный размах) в контексте его применения для проверки гипотезы нормальности.

Квантователь нейрона нормированного размаха выполняет сравнение с порогом к=3.41. При таком значении порога квантователя ошибки первого и второго рода нейрона оказываются сопоставимы Р1«Р2«Рее»0.232. То есть, этот бинарный искусственный нейрон работает примерно в два

разу хуже, чем предыдущий. Его самостоятельное использование нежелательно, так как обеспечивает доверительную вероятность -0.768.

Следующим рассмотрим критерий Шапиро-Уилка (1965 г.) [12]. Данные по этому критерию отображены на рис. 3.

Рис. 3. Нейрон, эквивалентный статистическому критерию Шапиро-Уилка (1965 г.) [12]

Квантователь нейрона Ни выполняет сравнение с порогом к=3.81. При таком значении порога квантователя ошибки первого и второго рода нейрона оказываются сопоставимы Р1«Р2«Рее~0.341. То есть, этот бинарный искусственный нейрон работает примерно в три раза хуже, чем нейрон Гири. Его самостоятельное использование нежелатель-

но, так как обеспечивает доверительную вероятность - 0.649.

Существенно более высокую достоверность принимаемого одиночно решения обеспечивает критерий Раньи [1, 13] или критерий максимального отклонения данных от центра малой выборки. Состояния этого критерия отображены на рис. 4.

Рис. 4. Критерий максимального отклонения точек от центра (1965 г.) [13]

Квантователь нейрона Ет выполняет сравнение с порогом к=1.8, обеспечивая ошибки первого и второго рода

Р1«Р2«Рее~0.265, что не позволяет использовать его самостоятельно.

Самым мощным, из всех рассматривае-

Статистические данные о выходных со-

мых, является критерий Али-Черго-Ревиса стояниях его сумматора приведены на рис. 5. (1992 г.) [14].

Рис. 5. Критерий Али-Черго-Ревиса (1992 г.) [14]

Квантователь нейрона Л8Я выполняет сравнение с порогом к=1.64, обеспечивая ошибки первого и второго рода Р1«Р2«Рее~0.1, что уже позволяет его применять на практике при допустимой вероятности принятия решений 0.9.

Свертывание бинарных кодов с пятикратной избыточностью при параллельном обнаружении и исправлении ошибок

Так как мы используем однослойную сеть из пяти нейронов, то она будет давать в наилучшем случае состояние «00000», если входные данные нормальные и все пять нейронов примут решение об обнаружении нормального закона [2]. В этом случае с высокой вероятностью мы должны принять решение об обнаружении нормально распределенных данных.

В обратной ситуации, когда все нейроны дают состояние «11111», мы с высокой вероятностью обнаруживаем равномерное распределение входных данных.

Наблюдая коды с пятикратной избыточностью, мы получаем возможность свернуть их, устранив часть ошибок. Самым простым является применение кодов, построенных на подсчете числа состояний «0» в коде. Если код содержит от пяти до трех разрядов с состоянием «0», то все такие кодовые сочетания должны соответствовать обнаружению нормально распределенных данных. Примерно такую же операцию можно выполнить и для первых трех разрядов кода. В этом случае мы будем свертывать коды с трехкратной избыточностью, подсчитывая в них число разрядов «0».

Результат свертывания представлен в левой части рис. 6.

Рис. 6. Спектры амплитуд вероятности расстояний Хэмминга, возникающие при свертывании двоичных кодов с тройной избыточностью и кодов с пятикратной избыточностью

Как видно из левой части рис. 6, устранение трехкратной кодовой избыточности подсчетом состояний «0» (через вычисление расстояний Хэмминга) дает четыре амплитуды вероятности. Наибольшая амплитуда вероятности -0.529 соответствует кодовым состояниям «000».

Все иные кодовые состояния имеют существенно меньшие амплитуды вероятности.

Верные коды, имеющие три и два состояний «0», появляются с вероятностью 0.845. Ошибочные коды с одним разрядом «0» или вообще без состояний «0» отбрасываются с вероятностью 0.155.

Ситуация значительно улучшается, если по той же схеме свертывать бинарные коды с пятикратной избыточностью. Спектр амплитуд линий Хэмминга для этого случая представлен в правой части рис. 6.

Принципиально важно то, что число спектральных линий Хэмминга увеличивается. Как результат вероятность появления ошибок, которые не могут быть исправлены значительно, почти в два раза, снижается до величины 0.88.

Мы видим эффект существенного снижения вероятности появления, обнаруживаемых, но не исправляемых ошибок при росте числа спектральных линий Хэмминга.

Свертывание избыточных выходных кодов троичных искусственных нейронов при параллельном обнаружении и исправлении ошибок в них

Еще одним способом повышения числа спектральных линий Хэмминга является переход от бинарных нейронов к троичным нейронам. При этом накапливающий сумматор искусственного нейрона остается прежним. Отличие состоит только в том, что бинарный квантователь с одним порогом сравнения заменяется на троичный квантователь с двумя порогами для сравнения. В частности, для обогатителя данных критерия Гири (рис. 1) пороги сравнения составляют к1= 0.67, к2= 1.1. Для критерия нормированного размаха (рис. 2) пороги сравнения к1= 3.01, к2= 3.91. Троичный нейрон Ша-пиро-Уилка имеет квантователь с порогами к1= 3.79, к2= 3.95. Выходные состояния нейрона Шапиро-Уилка отображены на рис. 3.

Все перечисленные выше нейроны имеют по три выходных состояния {«1», «0», «-1»}. Если использовать совместно три троичных нейрона, то мы получаем три разряда кода с тремя возможными состояниями в каждом разряде. Как результат при свертывании избыточности кодов мы получаем шесть спектральных линий Хэмминга, как это отображено в левой части рис. 7.

Рис. 7. Спектры амплитуд вероятности расстояний Хэмминга, возникающие при свертывании троичных кодов с тройной избыточностью и кодов с пятикратной избыточностью

Как видно из рис. 7 кодовое состояния {«-1», «-1», «-1»} возникает с вероятностью 0.024. Вероятность появления, следующего симметричного кодового состояния {«0», «0», «0»} составляет 0.263.

Весь спектр кодовых состояний от {«-1», «-1», «-1»} до {«0», «0», «0»} появляется с вероятностью 0.979, а вероятность появления

обнаруживаемых, но не исправляемых ошибок -0.0214.

Очевидно, что увеличение длинны избыточного троичного кода до пяти разрядов может быть достигнуто добавлением двух дополнительных троичных нейронов. В частности, может быть добавлен нейрон Раньи, который сравнивает обогащенные данные с

двумя порогами к1= 1.61, k2= 2.21. Второй нейрон Али-Черго-Ревиса выполняет сравнение с порогами 1.41, k2= 2.01.

Как видно из правой части рис. 7 число спектральных линий увеличивается с 6 до 9. Это позволяет снизить вероятность появления обнаруживаемых, но не исправляемых ошибок с 0.0214 до 0.014.

Для того, чтобы спрогнозировать характеристики рассматриваемых самокорректирующихся кодовых конструкций при разной кодовой избыточности, следует воспользоваться линейной экстраполяцией в логарифмических координатах. Соответствующие результаты линейной экстраполяции отображены на рис. 8.

----- \

4 \

" -V

Рис. 8. Прогноз значений вероятностей ошибок первого и второго рода для двоичных нейронов (верхняя линия) и троичных нейронов (нижняя линия)

Из рис. 8 видно, что решения, принимаемые с доверительной вероятностью 0.99, могут быть приняты только при использовании 280 бинарных искусственных нейронов. То есть в ближайшее время нужно синтезировать 280-21-24=225 новых статистических критериев. С 2012 по 2022 гг. (за 10 лет) усилиями "Пензенского государственного университета" удалось синтезировать примерно 20 новых статистических критериев [15, 16, 17, 18]. При сохранении этой тенденции 200 новых статистических критериев удастся получить примерно через 100 лет.

Ситуация меняется кардинальным образом, если мы от двоичных нейронов перейдем к использованию троичных нейронов.

В этом случае будет достаточно всего девяти троичных нейронов (нижняя линия рис. 8). Таким образом, уже существующих 65 статистических критериев проверки гипотез нормального и равномерного распределения малых выборок вполне достаточно.

Список литературы

1. Кобзарь А.И. Прикладная математическая статистика: для инженеров и научных работников. М.: ФИЗМАТЛИТ, 2006. 816 с.

2. Иванов А.И., Банных А.Г., Безяев А.В. Искусственные молекулы, собранные из искусственных нейронов, воспроизводящих работу классических статистических критериев // Вестник Пермского университета. Математика. Механика. Информатика.

2020. Вып. 1(48). С. 26-32.

3. ГОСТ Р 52633.5-2011 "Защита информации. Техника защиты информации. Автоматическое обучение нейросетевых преобразователей биометрия-код доступа".

4. Иванов А.И., Безяев А.В., Малыгина Е.А., Серикова Ю.И. Второй национальный стандарт России по быстрому автоматическому обучению больших искусственных нейронных сетей на малых выборках биометрических данных: c6. науч. ст. по материалам I Всерос. науч.-технич. конф. "Безопасность информационных технологий", 24 апреля, Пенза. 2019. С. 174-177.

5. Иванов А.И., Сулавко А.Е. Проект третьего национального стандарта России по быстрому автоматическому обучению больших сетей корреляционных нейронов на малых обучающих выборках биометрических данных // Вопросы кибербезопасности.

2021. № 3(43). С. 84-9.

6. Иванов А.И., Куприянов Е.Н. Защита искусственного интеллекта: ортогонализация статистико-нейросетевого анализа малых выборок биометрических данных // Препринт. Пенза: Изд-во Пензенского государственного университета, 2020. 72 с. ISBN 978-5-907262-72-0.

7. Иванов А.И., Банных А.Г., Куприянов Е.Н., Лукин В.С., Перфилов К.А., Савинов К.Н. Коллекция искусственных нейронов эквивалентных статистическим критериям для их совместного применения при проверке гипотезы нормальности малых выборок биометрических данных: c6. науч. ст. по матер. I Всерос. науч.-техн. конф. "Без-

опасность информационных технологий", 24 апреля, Пенза. 2019. С. 156-164.

8. Иванов А.П., Иванов А.И., Малыгин А.Ю., Безяев А.В., Куприянов Е.Н., Банных А.Г., Перфилов К.А., Лукин В.С., Савинов. К.Н., Полковникова С.А., Серикова Ю.И. Альбом из девяти классических статистических критериев для проверки гипотезы нормального или равномерного распределения данных малых выборок // Надежность и качество сложных систем. 2022. № 1. С. 20-22, doi: 10.21685/2307-4205-2022-1-3.

9. Geary R.C. The ratio of the mean deviation to the standard deviation as a test of normality // Biometrika. 1935. Vol. 27. P. 310-322.

10. David H.A., Hartley H.O., Pearson E.S. The distribution of the ration, in signal normal sample // Biometrika. 1954. Vol. 41. P. 482493.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

11. Мандельброт Б., Хадсон З.Л. (НЕ)послуш-ные рынки. Фрактальная революция в финансах. Москва, Санкт-Петербург, Киев: Изд-во "Вильямс", 2006. 408 с. ISBN: 58459-0922-8, 0-1300-9717-9.

12. Shapiro S.S., Wilk M.V. An analysis of variance test for normality (complete samples) // Biometrika. 1965. Vol. 52, № 3. P. 591-611.

13. Гнеденко Б.В., Беляев Ю.К., Соловьев А.Д. Математические методы в теории надежности. М.: Наука, 1965.

14. Aly E.-E., Shayib M.A. On some goodness-of-fit tests for normal, logistic and extreme-value stributions // Commun. Stat.-Theor. Meth. 1992. Vol. 21, № 5. P. 1297-1308.

15. Лукин В.С. Иванов А.И. Оптимизация процедуры нормирования и смещения входных данных для нейронов среднего гармонического, используемых при проверке гипотезы нормального распределения малых выборок // Динамика систем, механизмов и машин. 2021. Т. 9, № 4. DOI: 10.25206/2310-9793-9-4-11-14.

16. Иванов А.И., Иванов А.П., Куприянов Е.Н. Мультипликативно-нейросетевое объединение статистических критериев Херста и Му-рота-Такеучи при проверке гипотезы нормальности малых выборок // Надежность и качество сложных систем. 2021. № 4. С. 2733. doi: 10.21685/2307-4205-2021-4-4.

17. Волчихин В.И., Иванов А.И., Иванов А.П., Лукин В.С. Расширение номенклатуры семейства критериев среднего гармонического полиномами Эрмита при проверке гипотезы нормального распределения малых выборок

биометрических данных // Динамика систем, механизмов и машин. 2021. Т. 9, № 4. DOI: 10.25206/2310-9793-9-4-3-11.

18. Иванов А.И., Иванов А.П., Куприянов Е.Н. Интегрально-дифференциальное расширенное номенклатуры статистических критериев семейства Колмогорова-Смирнова для проверки гипотезы нормального распределения данных малых выборок // Тр. междунар. симпозиума "Надежность и качество", 2022. Т. 1. С. 10-13.

References

1. Kobzar' A.I. Prikladnaya matematicheskaya statistika. Dlya inzhenerov i nauchnyh rabot-nikov. M.: FIZMATLIT, 2006. 816 s.

2. Ivanov A.I., Bannyh A.G., Bezyaev A.V. Is-kusstvennye molekuly, sobrannye iz is-kusstvennyh nejronov, vosproizvodyashchih rabotu klassicheskih statisticheskih kriteriev // Vestnik Permskogo universiteta. Matematika. Mekhanika. Informatika. 2020. Vyp. 1(48). S. 26-32.

3. GOST R 52633.5-2011 "Zashchita informacii. Tekhnika zashchity informacii. Avtomatich-eskoe obuchenie nejrosetevyh preobrazovate-lej biometriya-kod dostupa".

4. Ivanov A.I., Bezyaev A.V., Malygina E.A., Serikova YU.I. Vtoroj nacional'nyj standart rossii po bystromu avtomaticheskomu obucheniyu bol'shih iskusstvennyh nejronnyh setej na malyh vyborkah biometricheskih dannyh: cb. nauch. st. po materialam I Vseros. nauch.-tekhnich. konf. "Bezopasnost' infor-macionnyh tekhnologij", 24 aprelya, Penza. 2019. S.174-177.

5. Ivanov A.I., Sulavko A.E. Proekt tret'ego nacional'nogo standarta Rossii po bystromu avtomaticheskomu obucheniyu bol'shih setej korrelyacionnyh nejronov na malyh obuchayushchih vyborkah biometricheskih dannyh // Voprosy kiberbezopasnosti. 2021. № 3(43). S. 84-9.

6. Ivanov A.I., Kupriyanov E.N. Zashchita is-kusstvennogo intellekta: ortogonalizaciya statistiko-nejrosetevogo analiza malyh vy-borok biometricheskih dannyh. Preprint // Penza: Izd-vo Penzenskogo gosudarstvennogo universiteta, 2020. 72 s. ISBN 978-5-90726272-0.

7. Ivanov A.I., Bannyh A.G., Kupriyanov E.N., Lukin V.S., Perfilov K.A., Savinov K.N. Kollekciya iskusstvennyh nejronov ekviva-lentnyh statisticheskim kriteriyam dlya ih

sovmestnogo primeneniya pri proverke gi-potezy normal'nosti malyh vyborok bio-metricheskih dannyh: cb. nauch. st. po mater. I Vseros. nauch.-tekhn. konf. "Bezopasnost' informacionnyh tekhnologij", 24 aprelya, Penza. 2019. S.156-164.

8. Ivanov A.P., Ivanov A.I., Malygin A.YU., Bezyaev A.V., Kupriyanov E.N., Bannyh A.G., Perfilov K.A., Lukin V.S., Savinov K.N., Pol-kovnikova S.A., Serikova YU.I. Al'bom iz devyati klassicheskih statisticheskih kriteriev dlya proverki gipotezy normal'nogo ili ravnomernogo raspredeleniya dannyh malyh vyborok // Nadezhnost' i kachestvo slozhnyh sistem. 2022. № 1. S. 20-22, doi: 10.21685/2307-4205-2022-1-3.

9. Geary R.C. The ratio of the mean deviation to the standard deviation as a test of normality // Biometrika. 1935. Vol. 27. P. 310-322.

10. David H.A., Hartley H.O., Pearson E.S. The distribution of the ration, in signal normal sample // Biometrika. 1954. Vol. 41. P. 482493.

11. Mandelbrot B., Hadson Z.L. (NE)poslush-nye rynki. Fraktal'naya revolyuciya v fi-nansah. Moskva, Sankt-Peterburg, Kiev: Izd-vo "Vil'yams", 2006. 408 s. ISBN: 5-84590922-8, 0-1300-9717-9.

12. Shapiro S.S., Wilk M.V. An analysis of variance test for normality (complete samples) // Biometrika. 1965. Vol. 52, № 3. P. 591-611.

13. Gnedenko B.V., Belyaev YU.K., Solov'ev A.D. Matematicheskie metody v teorii nadezhnos-ti. M.: Nauka, 1965.

14. Aly E.-E., Shayib M.A. On some goodness-of-fit tests for normal, logistic and extreme-value stributions // Commun. Stat.-Theor. Meth. 1992. Vol. 21, № 5. P. 1297-1308.

15. Lukin V.S. Ivanov A.I. Optimizaciya proce-dury normirovaniya i smeshcheniya vhodnyh dannyh dlya nejronov srednego garmonich-eskogo, ispol'zuemyh pri proverke gipotezy normal'nogo raspredeleniya malyh vyborok // Dinamika sistem, mekhanizmov i mashin. 2021. T. 9, № 4. DOI: 10.25206/2310-97939-4-11-14.

16. Ivanov A.I., Ivanov A.P., Kupriyanov E.N. Mul'tiplikativno-nejrosetevoe ob"edinenie statisticheskih kriteriev Hersta i Murota-Takeuchi pri proverke gipotezy normal'nosti malyh vyborok // Nadezhnost' i kachestvo slozhnyh sistem. 2021. № 4. S. 27-33. doi: 10.21685/2307-4205-2021-4-4.

17. Volchihin V.I., Ivanov A.I., Ivanov A.P., Lukin V.S. Rasshirenie nomenklatury semejstva kriteriev srednego garmonicheskogo po-linomami Ermita pri proverke gipotezy nor-mal'nogo raspredeleniya malyh vyborok bio-metricheskih dannyh // Dinamika sistem, mekhanizmov i mashin. 2021. T. 9, № 4. DOI: 10.25206/2310-9793-9-4-3-11.

18. Ivanov A.I., Ivanov A.P., Kupriyanov E.N. Integral'no-differencial'noe rasshirennoe nomen-klatury statisticheskih kriteriev semejstva Kol-mogorova-Smirnova dlya proverki gipotezy normal'nogo raspredeleniya dannyh malyh vy-borok // Tr. mezhdunar. simpoziuma "Nadezh-nost' i kachestvo", 2022. T. 1. S. 10-13.

Просьба ссылаться на эту статью:

Иванов А.И., Савинов К.Н., Еременко Р.В. Эффект перехода от применения бинарных искусственных нейронов к троичным нейронам при совместном использовании пяти классических статистических критериев проверки гипотез нормальности или равномерности распределений малых выборок // Вестник Пермского университета. Математика. Механика. Информатика. 2022. Вып 3(58). С. 59-67. DOI: 10.17072/1993-0550-2022-3-59-67.

Please cite this article as:

IvanovA.I., Savinov K.N., Eremenko R.V. Impact of Conversion from the Use of Binary Artificial Neurons to the Use of Ternary Neurons With the Combined Applying of Five Classical Statistical Criteria for Normality or Uniformity Hypothesis Testing for Small Samples Distributions // Bulletin of Perm University. Mathematics. Mechanics. Computer Science. 2022. Issue 3(58). P. 59-67. DOI: 10.17072/1993-0550-20223-59-67.

i Надоели баннеры? Вы всегда можете отключить рекламу.