УДК 378.14
DOI: http://dx.doi.org/10.21686/1818-4243-2021-6-45-52
А.А. Солодов
Российский государственный университет им. А.Н. Косыгина (Технологии. Дизайн. Искусство). Москва, Россия
Оптимальная пуассоновская когнитивная система с марковской моделью обучения
Целью исследования является разработка математической модели обучаемой марковской когнитивной системы при наличии на ее входе дискретных обучающих и мешающих случайных стимулов, возникающих в случайные моменты времени. Метод исследования состоит в применении простейшей марковской модели обучения Эстеса со стохастической матрицей с двумя состояниями, в которой вероятности переходов рассчитываются в соответствии с оптимальным алгоритмом Неймана-Пирсона обнаружения воздействующих на систему стимулов. В работе предложена модель случайного появления образов на входе когнитивной системы (в терминах теории обучения это стимулы, на которые реагирует система). Модель предполагает широко применяемое для описания интеллектуальной работы экспоненциальное распределение времени реакции системы на стимулы, при этом их число распределено по пуассоновскому закону. Предполагается, что когнитивная система принимает решение о наличии или отсутствии стимула на своем входе в соответствии с критерием оптимальности Неймана-Пирсона, т.е. максимизирует вероятность правильного обнаружения стимула при фиксированной вероятности ложного обнаружения. Рассчитанные таким образом вероятности принимаются в качестве вероятностей переходов в стохастической матрице обучения системы. Таким образом, работе приняты следующие предположения, по-видимому, соответствующие поведению системы, предполагающей человеческие реакции, т.е. когнитивной системы.
• Образы, анализируемые системой, возникают в случайные моменты времени, при этом длительность времен между соседними появлениями образов распределено по экспоненциальному закону.
• Система анализирует возникшие образы и принимает решение о наличии или отсутствии образа на ее входе в соответствии с оптимальным алгоритмом Неймана-Пирсона, максимизирующим вероятность правильной идентификации образа при фиксированной вероятности ложной идентификации.
• Система является обучаемой в том смысле, что решения о наличии или отсутствии образа принимаются последовательно на множестве идентичных ситуаций, причем вероятность принятия решения зависит от предыдущего решения системы. Новымирезультатами исследования являются аналитические выражения для вероятностей пребывания системы в каждом из возможных состояний в зависимости от числа шагов процесса обучения и интенсивностей полезных и мешающих стимулов на входе системы. Указанные вероятности рассчитаны для интересного случая, в котором отчетливо проявляется дискретность появления стимулов во времени и приведены соответствующие графики. Рассчитаны также стационарные, т.е. соответствующие бесконечному числу шагов обучения вероятности пребывания системы в каждом из состояний и представлен соответствующий график.
В заключении отмечается, что представленные графики поведения обучаемой системы отвечают интуитивному представлению о реакции когнитивной системы на появление стимулов. Указаны некоторые возможные направления дальнейших исследований по упомянутой в работе теме.
Ключевые слова: когнитивная система, модель обучения Эстеса, критерий Неймана-Пирсона, экспоненциальное распределение вероятностей.
Aleksander A. Solodov
Kosygin Russian State University, Moscow, Russia
Optimal Poisson Cognitive System with Markov Learning Model
The aim of the study is to develop a mathematical model of the trained Markov cognitive system in the presence of discrete training and interfering random stimuli arising at random times at its input. The research method consists in the application of the simplest Markov learning model of Estes with a stochastic matrix with two states, in which the transition probabilities are calculated in accordance with the optimal Neyman-Pearson algorithm for detecting stimuli affecting the system. The paper proposes a model of the random appearance of images at the input of the cognitive system (in terms of learning theory, these are stimuli to which the system reacts). The model assumes an exponential distribution of the system's response time to stimuli that is widely used to describe intellectual work, while their number is distributed according to the Poisson law. It is assumed that the cognitive system makes a decision about the presence or absence of a stimulus at its input in accordance with the Neyman-Pearson optimality criterion, i.e. maximizes the probability of correct detection of the stimulus with a fixed probability of false detection. The probabilities calculated in this way are accepted as transition probabilities in the stochastic learning matrix of the system. Thus, the following assumptions are accepted in the work, apparently corresponding to the behavior of the system assuming human reactions, i.e. the cognitive system.
• The images analyzed by the system arise at random moments of time, while the duration of time between neighboring appearances of images is distributed exponentially.
• The system analyzes the resulting images and makes a decision about the presence or absence of an image at its input in accordance with the optimal Neyman-Pearson algorithm that maximizes the probability of correct identification of the image with a fixed probability of false identification.
• The system is trainable in the sense that decisions about the presence or absence of an image are made sequentially on a set of identical situations, and the probability of making a decision depends on the previous decision of the system.
The new results of the study are analytical expressions for the probabilities of the system staying in each of the possible states, depending on the number of steps of the learning process and the intensities of useful and interfering stimuli at the input of the system. These probabilities are calculated for an interesting case in which the discreteness of the appearance of stimuli in time is clearly manifested and the corresponding graphs are given. Stationary probabilities are also calculated, i.e. for an infinite number of training steps, the probabilities of the system staying in each of the states and the corresponding graph is presented. In conclusion, it is noted that the presented graphs of the behavior of the trained system correspond to an intuitive idea of the reaction of the cognitive system to the appearance of stimuli. Some possible directions of further research on the topic mentioned in the paper are indicated.
Keywords: cognitive system, Estes learning model, Neyman-Pearson criterion, exponential probability distribution.
На современном этапе развития когнитивных систем актуальными являются попытки моделирования некоторых механизмов человеческого сознания в рамках когнитивного подхода [1, 2, 3, 4, 5, 6]. В соответствии с представлениями когнитивной теории [4, 7, 8] в человеческом мозге формируются образы (схемы, категории, гештальты, системы, архетипы и т.п.), которые затем обрабатываются. В работе не рассматриваются терминологические нюансы, связанные с определением основных понятий когнитивной теории и для обозначения упомянутых понятий используется термин «чувственный образ» или просто образ.
Предполагается, что возникшие образы, являются теми воздействиями, которые затем обрабатываются, воспринимаются, перерабатываются, используются когнитивной системой для формирования обобщенных чувственно-наглядных образов рассматриваемого предмета или явления [9, 10, 11, 12, 13] и характеризуется рядом признаков, число которых может меняться в процессе функционирования системы.
Современная тенденция разработки интеллектуальных систем состоит в применении модульного принципа их проектирования [9, 14, 15, 16, 17, 18]. Следуя [4], будем полагать, что «Человек всегда взаимодействует с информацией, полученной от органов чувств, дорабатывая ее в своем сознании».
В настоящей работе приняты следующие предположения, по-видимому, соответствующие поведению системы, предполагающей человеческие реакции, т.е. когнитивной системы.
• Образы, анализируемые системой, возникают в случайные моменты времени, при этом длительность времен между соседними появлениями образов распределено по экспоненциальному закону.
• Система анализирует возникшие образы и принимает решение о наличии или отсутствии образа на ее входе в соответствии с оптимальным алгоритмом Неймана-Пирсона, максимизирующим вероятность правильной идентификации образа при фиксированной вероятности ложной идентификации.
• Система является обучаемой в том смысле, что решения о наличии или отсутствии образа принимаются последовательно на множестве идентичных ситуаций, причем вероятность принятия решения зависит от предыдущего решения системы.
В работе предпринято математическое описание когнитивной системы при указанных допущениях и получены аналитические выражения для вероятностей пребывания системы в каждом из возможных состояний в зависимости от числа шагов процесса обучения и интенсив-
ностей полезных и мешающих стимулов на входе системы. Указанные вероятности рассчитаны для интересного случая, в котором отчетливо проявляется дискретность появления стимулов во времени и приведены соответствующие графики. Рассчитаны также стационарные, т.е. при бесконечном числе шагов обучения вероятности пребывания системы в каждом из состояний вероятности и представлен соответствующий график.
1. Марковская модель обучаемой когнитивной системы с двумя состояниями
Будем полагать, что система функционирует в непрерывном времени, и предположим, что на входе системы дискретно (скачкообразно) возникают некоторые образы, под воздействие которых система меняет свое состояние.
Сделаем ключевое предположение о том, что обучение системы осуществляется в соответствии со следующим простейшим алгоритмом. В терминах задачи обучения Эстеса (W.K. Estes) [19, 20] на входе обучаемой системы формируются воздействия (стимулы), побуждающие систему реагировать в соответствии с возникшими стимулами.
Рассмотрим простейший вариант такой задачи. Пусть система в процессе обучения может находиться в одном из двух состояний. Первое состояние, которое обозначим через А, характеризуется тем, что система приняла решение о наличии на очередном шаге своего функционирования некоторого образа, т.е. восприняла ситуацию как наличие стимула. Второе состояние, которое обозначим через B, характеризуется тем, что система приняла противоположное решение об отсутствии на очередном шаге своего функционирования некоторого образа или стимула.
Под шагом будем понимать изменение состояния системы, которое происходит в конце каждого временного интервала [0, T), (сигнального интервала) в течение которого система анализирует состояние внешней среды и принимает решение о переходе либо в состояние А, либо в состояние В. Предполагается, что система функционирует в фиксированных условиях на протяжении произвольного числа упомянутых интервалов, которые нумеруются с помощью индекса п. Алгоритм такого анализа и критерий оптимального решения рассмотрен далее.
Если система на предыдущем шаге обучения находилась в состоянии А, то она останется в этом состоянии с вероятностью правильного обнаружения образа P(Ha | Ha) = 1 — а или перейдет в состояние В с вероятностью пропуска образа P(Hb | Ha) = a. Если система на преды-
дущем шаге обучения находилась в состоянии В, то она останется в этом состоянии с вероятностью правильного необнаружения образа Р(НЬ | Нь) = 1 — Ь или перейдет в состояние А с вероятностью ложного обнаружения образа
ад | Нь) = ь.
Таким образом, дальнейшее использование системой информации о наличии или отсутствии образа на сигнальном интервале не рассматривается, однако может быть учтено путем введения в рассмотрение новой марковской последовательности дальнейших решений [21,22].
В соответствии с общей теорией статистических решений припишем первому состоянию системы статистическую гипотезу На, а второму статистическую гипотезу Нь. Тогда вероятностное поведение системы полностью описываются следующими вероятностями принятия решений на произвольном сигнальном интервале [0, Т), название которых заимствовано из общей теории статистических решений [23].
Р(На|НЬ) — вероятность ложной тревоги или вероятность принятия системой решения о наличии образа на входе, в то время, как на входе системы имеется только помеха.
Р(На|На) — вероятность правильного обнаружения или вероятность принятия системой решения о наличии образа на входе, в то время, как на входе системы имеется образ, искажаемый помехой.
Р(НЬ|На) — вероятность пропуска цели или вероятность принятия системой решения о наличии на входе только помехи, в то время, как на входе системы имеется образ, искажаемый помехой.
Р(НЬ|НЬ) — вероятность правильного необнаружения или вероятность принятия системой решения о наличии на входе только помехи, в то время, как на входе системы имеется только помеха.
Очевидно, что независимыми являются только две вероятности, а еще две являются дополнительными. Введем в рассмотрение для независимых вероятностей следующие обозначения.
Р(Нь | На) = а, ад | Нь) = Ь.
По определению очевидно, что
Р(На | На) =1- Р(Нь | На) = 1 - а
р(Нь | Нь) = 1 - ад | Нь) = 1 - ь
Очевидно, что величины веденных в рассмотрение вероятностей зависят как от вида и принципа действия чувствительных элементов системы, так и от способа обработки информации, получаемой от этих элементов в целях принятия упомянутых решений.
Теперь переходы системы из одного состояния в другое описываются марковской цепью,
формируемой двумя описанными состояниями А и В.
Стохастическая матрица G одношаговых переходных вероятностей системы имеет в соответствии с введенными обозначениями вид
G =
1 — a
1 — I
(1.1)
В матрице первая строка и первый столбец соответствует состоянию А, вторая строка и второй столбец - состоянию В.
Формально, если а = Ь = 0, то оба состояния являются поглощающими, смена состояний не происходит, а если а = Ь = 1, то изменение состояний происходит детерминированным образом и если задано начальное состоянии, то поведение системы будет неслучайным. В дальнейшем будем полагать, что вероятности а и Ь не равны нулю или единице одновременно.
Для использования основных соотношений введем следующие обозначения:
рА(п) - вероятность найти систему в состоянии А через п шагов,
рВ(п) - вероятность найти систему в состоянии В через п шагов,
Р(п) = (рА(п)рВ(п)) - вектор-строка вероятностей состояний системы через п шагов
Р(0) = (рА(0)рВ(0)) - вектор-строка начальных вероятностей состояний системы. Очевидно, что
РА(П) + Рв(п) = 1, n = 0,1,...
(1.2)
Матрица вероятностей одношаговых переходов G и строка начальных вероятностей Р(0) полностью определяют поведение системы. Теория марковских цепей такого вида хорошо разработана [24, 25]. В частности, вероятности состояния системы через п шагов определяется соотношением
Ра (п) = а+Ь[ +[(аРл (0) - ЬРв (1 - а - ъ)П (1.3) Рв (п) = а+Ь [а+[ЪРв (0) - аРл (1 - а - Ь)"]' (1.4)
Из соотношений (1.10) и (1.11) следует, что существует стационарное состояние при неограниченном увеличении числа шагов:
Ь
Pa И= PA = Рв Н= Pb =
a + b
a + b
= 1 - Pa
(1.5)
(1.6)
2. Модель наблюдаемого процесса и его вероятностные характеристики
Процесс появления чувственных образов [10] на входе системы объясняется внешними по отношению к системе факторами (внешней средой) и в ряде интересных содержательных
приложении должен рассматриваться как случайный.
Пусть система функционирует в соответствии со следующей логикой, отвечающей интуитивному представлению о разумности системы.
Будем полагать, что на входе системы действует случайный процесс появления образов, который моделируется случайным точечным процессом. Обозначим непрерывную случайную величину произвольного межточечного интервала через т и рассмотрим плотность вероятности экспоненциального распределения [26]
Р (г) = Ле~
(2.1)
где Л — положительная величина, называемая интенсивностью появления точек.
Экспоненциальное распределение (2.1) широко применяется в науке и технике и описывает, в частности, процессы переработки информации, т.е. интеллектуальную деятельность, например, длительность телефонного разговора или сеанса в сети Интернет. Таким образом, случайное время т необходимо для выполнения некоторой интеллектуальной работы, поэтому в дальнейшем будем полагать, что образы на входе системы воспринимаются ей на протяжении последовательных временных отрезков, распределенных по экспоненциальному закону, причем эти отрезки располагаются внутри интервала анализа возникающих образов длительностью Т.
Если дополнительно потребовать, чтобы точки появлялись независимо друг от друга, то распределение произвольного числа точек на интервале Т является пуассоновским. Рассмотрим интервал времени [0, Т) и предположим, что число точек, появившихся к моменту времени Травно N(7). Обозначим через Р[ЩТ) = т] вероятность того, что это число точек окажется равным п. Тогда
Р[N(Т) = т] = -1 (ЯТ)т е
(2.2)
Таким образом, будем теперь полагать, что точечный процесс является пуассоновским случайным точечным процессом или просто пуас-соновским точечным процессом, в котором времена появления точек Шъ \¥2, ..., Ш и их число N(1) к моменту времени Т являются случайными величинами. Если теперь в (2.3) Л является функцией времени, то она называется функцией интенсивности появления точек, а процесс становится неоднородным пуассоновским процессом с распределением
Р[Ж(Т) = ш\ = т[[ТоЯ(т)атТ[ ехр((Л(т^т), (2.3)
3. Алгоритм Неймана-Пирсона оптимального двоичного обнаружения образа
Применим указанные результаты к простейшей задаче двоичного обнаружения сигнала на фоне помехи на интервале времени [0, Т). По поводу природы сигналов и помех сделаем следующие предположения. Поскольку наблюдаемым процессом являются точки на временной оси, характеризующие события, то естественно и наличие и сигнала, и помехи характеризовать соответствующими функциями интенсивностей. Таким образом, помеха описывается функцией интенсивности = Лп(/), а полезный сигнал на фоне помехи функцией интенсивности = Лс(?) + Лп(/).
Таким образом, в задаче обучения Эстеса стимулы, предполагающие реакцию системы, становятся измеримыми и описываются указанными функциями.
Рассмотрим тест двоичного обнаружения сигнала. Поскольку рассматривается первоначальный этап обучения когнитивной системы, то сделаем предположение о том, что система принимает решение о наличии или отсутствии на входе образа в соответствии с критерием Неймана-Пирсона. При этом вероятность ложной тревоги для распределения (2.2) для постоянных функций интенсивностей, очевидно, равна
Р (На\Вь ) = Ъ = Р [(((Т )>4н0 ]: ё(ЛпТ)) / , ч
= ^ХЧт" ехР (^Т)'
к=0 к !
(3.1)
где ц — порог, с которым сравнивается число событий в тесте, а через [ы] обозначено наибольшее целое число, меньшее ц.
Вероятность правильного обнаружения
р (На\Иа) = 1 - а = 1 - Р [(((Т )<м]\Н1 ] = = 1 -X-К-еХР [~НП + Лс )Т ] ■
(3.2)
В соответствии с критерием Неймана-Пирсона, как известно, фиксируется вероятность ложной тревоги (3.1) и максимизируется вероятность правильного обнаружения (3.2). В свою очередь, это означает, что фиксируется порог [«] по заданной вероятности ложной тревоги (3.1) и рассчитывается вероятность правильного обнаружения по формуле (3.2).
Таким образом определяются все вероятности, фигурирующие в марковской модели обучения со стохастической матрицей вида (1.1) и устанавливается связь между марковской моделью обучения и теорией оптимальных статистических решений.
4. Численный анализ поведения системы
С точки зрения поведения обучаемой системы интерес представляет изменение вероятности пребывания системы в одном их возможных состояний в зависимости от числа шагов обучения n. Для определенности на рисунках 1—3 представлены графики для вероятности pA пребывания системы в состоянии А. Поскольку рассматривается начальный этап обучения, то вероятности pA и рВ выбраны одинаковыми и равными 0,5, т.е. в начале обучения нет предпочтения в пользу одного из состояний.
Для учета выраженной дискретности появления стимулов интервал наблюдения в расчетах выбран равным единице (Т = 1). Таким образом, среднее число появлений стимула на интервале наблюдения TsH или Tsc для выбранных значений интенсивностей сигнала и помехи составляет единицы.
Параметрами являются фиксированная вероятность Рлт ложного обнаружения стимула (или вероятность ложной тревоги) и интенсивность появления стимула Я с (интенсивность сигнала).
Поведение кривых соответствует интуитивному представлению о процессе обучения. Действительно, вероятность пребывания системы в состоянии А увеличивается при увеличении интенсивности сигнала Яс.
Кроме того, кривые на указанных рисунках демонстрируют очевидное свойство критерия Неймана-Пирсона: при увеличении порога принятия решения, или, что то же самое, при увеличении фиксированной вероятности ложной тревоги увеличивается и вероятность правильного обнаружения. Максимально возможные вероятности достигаются в соответствии с (3.1) и (3.2) при k = 0 и равны
Рлт max = P(Ha \ Hb)max = bmax =
= P[(N(T) > я> \ Ho]max = 1 - exp(-4T>,
Рпо max P(Ha \ Ha)max 1 amax
= 1 - P[(N(T) < ¡U \ HJmax = 1 - exp[-an + XC)T].
Вслед за таким поведением вероятностей переходов в стохастической матрице (1.1) при увеличении числа шагов вероятность пребывания системы в состоянии А уменьшается. Рисунки 1-3 иллюстрируют скорость переходного процесса обучения системы, длительность которого для выбранных параметров составляет единицы шагов.
В связи с этим представляет интерес изучение процесса достижения стационарных состояний. Из соотношений (1.12) и (1.13) следует, что в стационарном режиме вероятности пребывания системы в одном из состояний не зависят от соответствующих начальных вероятностей и определяются только внешними по отношению
р/п) Лп = 3,Рт = 0,80
t ■»
/
—f 1 h 1 " ^ 2
/
/
11
Рис. 1. Зависимость состояния А от числа шагов при Рлт = 0,80
Fig. 1. Dependence of state A on the number of steps at Pfa (probability of false alarm) = 0,80
Л(и) Л,п = 3, Рш = 0,58
„ „
А Y- —-
// —•—Ас- 1 -"-¿с - 2
/
11
Рис. 2. Зависимость состояния А от числа шагов при Рлт = 0,58
Fig. 2. Dependence of state A on the number of steps at Pfa (probability of false alarm) = 0,58
Pjn) Лп = Ъ,РШ = 0,35
——
1 2 3 4 5 6
П
Рис. 3. Зависимость состояния А от числа шагов при Рлт = 0,35
Fig. 3. Dependence of state A on the number of steps at Pfa (probability of false alarm) = 0,35
к системе параметрами. Рисунок 4, на котором изображено поведение стационарной вероятности рА(<х>) состояния А иллюстрирует указанное свойство и подтверждает интуитивное представление о том, что стационарная вероятность состояния А увеличивается при увеличении интенсивности появления полезного сигнала при прочих равных условиях.
Ра(°°) Ап=3
——= 0,58 —Р =0,35
— Рш = 0,80
1 2 3 4 5
Рис. 4. Зависимость стационарного состояния А от интенсивности сигнала
Fig. 4. Dependence of the stationary state A on the signal intensity
Заключение
В работе сформулирована математическая модель марковской обучаемой когнитивной системы с двумя состояниями и оптимальным алгоритмом различения стимулов Неймана-Пирсона. Рассчитанные кривые вероятностей пребывания системы в каждом из состояний а также соответствующие вероятности стационарных состояний отвечают интуитивному представлению о процессе обучения, поскольку верно иллюстрируют поведение системы в зависимости от интенсив-ностей полезных и мешающих стимулов.
Дальнейшее развитие примененного подхода возможно с применением марковских моделей обучения с числом состояний больше двух, а также рассмотрение неоднородных пуассонов-ских процессов появления стимулов.
Литература
1. Лапаева Л.Г., Быченков О.А., Рогаткин Д.А. Нейробиология, понятийные категории языка и элементарная модель мира робота // Пятнадцатая национальная конференция по искусственному интеллекту с международным участием КИИ 2016 (3-7 октября 2016, Смоленск). Труды конференции. Т. 2. Смоленск: Универсум, 2016. C. 292-300.
2. Чудова Н.В. Концептуальное описание картины мира в задачах моделирования поведения // Искусственный интеллект и принятие решений. 2012. № 2.
3. Рыбина Г.В., Паронджанов С.С. Технология построения динамических интеллектуальных систем. М.: НИЯУМИФИ, 2011. 240 с.
4. Кузнецов О.П. Когнитивная семантика и искусственный интеллект // Искусственный интеллект и принятие решений. 2012. № 4. С. 32-42.
5. Трембач В.М. Когнитивный подход к созданию интеллектуальных модулей организационно-технических систем // Открытое образование. 2017. № 2. С. 78-87.
6. Рогаткин Д.А., Куликов Д.А., Ивлиева А.Л. Три взгляда на современные данные ней-ронаук в интересах интеллектуальной робототехники // Modeling of Artificial Intelligence. 2015. Т. 6. № 2.
7. Валькман Ю.Р. Когнитивная семиотика: гештальты и знаки, целостность и структура // Сборник трудов XV Международной конференции «Искусственный интеллект (КИИ-2016)». (Октябрь 2016. Смоленск). Т.2. Смоленск: 2016. С. 250-258.
8. Лакофф Д. Женщины, огонь и опасные вещи: Что категории языка говорят нам о мышлении. М.: Яз. славян. Культуры, 2004. 792 с.
9. Трембач В.М. Интеллектуальная система с использованием концептов-представлений
для решения задач целенаправленного поведения // Открытое образование. 2018. Т. 22. № 1. С. 28-37.
10. Трембач В.М. Решение задач управления в организационно-технических системах с использованием эволюционирующих знаний: монография. М.: МЭСИ, 2010. 236 с.
11. Саттон Р.С., Барто Э.Г. Обучение с подкреплением. пер. с англ. М.: БИНОМ. Лаборатория знаний, 2011. 399 с.
12. Гаврилова Т.А., Кудрявцев Д.В., Муромцев Д.И. Инженерия знаний. Модели и методы. СПб.: Лань, 2016. 324 с.
13. Рыбина Г.В. Основы построения интеллектуальных систем. М.: Финансы и статистика. 2010. 432 с.
14. Трембач В.М. Многоагентная система для решения зада целенаправленного поведения // Четырнадцатая национальная конференция по искусственному интеллекту с международным участием КИИ 2014 (24-27сентября 2014. Казань). Труды конференции. Т. 1. Казань: РИЦ «Школа», 2014. С. 344-353.
15. Тельнов Ю.Ф. Модель многоагентной системы реализации информационно-образовательного пространства // Четырнадцатая национальная конференция по искусственному интеллекту с международным участием КИИ-2014 (24-27 сентября 2014. Казань). Труды конференции. Т. 1. Казань: РИЦ «Школа», 2014. С. 334-3435.
16. Rosch E. Cognitive representations of semantic categories // Journal of Experimental Psychology. 1975. № 104. С. 192-233.
17. Lakoff J. Women, Fire, and Dangerous Things: What Categories Reveal About the Mind. Chicago: University of Chicago Press, 1987.
18. Солодов А.А Математическая формализация и алгоритмизация основных модулей организационно-технических систем // Статистика и Экономика. 2020. Т. 17. № 4. С. 96-104.
19. Estes W.K., Burke C.J. Application of a statistical model to simple discrimination learning in human subjects. Jorn. Exp. Psychol. 1955. Т. 50. С. 81-88.
20. Кемени Дж., Снелл Дж., Томпсон Дж. Введение в конечную математику. Пер. с англ. М.: Издательство иностранной литературы, 1963. 486 с.
21. Солодов А.А. Марковская модель представления чувственных образов для формирования модели внешнего мира // Статистика и Экономика. 2018. Т. 15. № 5. С. 81-88.
22. Солодов А.А. Статистический анализ механизма формирования концептов-представле-
References
1. Lapayeva L.G., Bychenkov O.A., Rogat-kin D.A. Neurobiology, conceptual categories of language and an elementary model of the robot world. Pyatnadtsataya natsional'naya konferentsi-ya po iskusstvennomu intellektu s mezhdunarod-nym uchastiyem KII 2016 (3—7 oktyabrya 2016, Smolensk). Trudy konferentsii. T. 2. = Fifteenth National Conference on Artificial Intelligence with International Participation KII 2016 (October 3—7, 2016, Smolensk). Conference proceedings. T. 2. Smolensk: Universum; 2016: 292—300. (In Russ.)
2. Chudova N.V. Conceptual description of the picture of the world in the tasks of modeling behavior. Iskusstvennyy intellekt i prinyatiye resheniy = Artificial intelligence and decision making. 2012; 2. (In Russ.)
3. Rybina G.V., Parondzhanov S.S. Tekhnologi-ya postroyeniya dinamicheskikh intellektual'nykh system = Technology for building dynamic intelligent systems. Moscow: NIYAUMIFI; 2011. 240 p. (In Russ.)
4. Kuznetsov O.P. Cognitive semantics and artificial intelligence. Iskusstvennyy intellekt i prinya-tiye resheniy = Artificial intelligence and decision making. 2012; 4: 32-42. (In Russ.)
5. Trembach V.M. Cognitive approach to the creation of intellectual modules of organizational and technical systems. Otkrytoye obrazovaniye = Open education. 2017; 2: 78-87. (In Russ.)
6. Rogatkin D.A., Kulikov D.A., Ivliyeva A.L. Three views on modern neuroscience data in the interests of intelligent robotics. Modeling of Artificial Intelligence = Modeling of Artificial Intelligence. 2015; 6: 2. (In Russ.)
7. Val'kman YU.R. Cognitive semiotics: gestalts and signs, integrity and structure. Sbornik trudov XV Mezhdunarodnoy konferentsii «Iskusstvennyy intellekt (KII-2016)». (Oktyabr' 2016. Smolensk). T.2. = Proceedings of the XV International Conference "Artificial Intelligence (CII-2016)". (October 2016. Smolensk). T.2. Smolensk: 2016: 250-258. (In Russ.)
ний в организационно-технических системах // Статистика и Экономика. 2018. Т. 15. № 4. С. 70-76.
23. Ван Трис Г. Теория обнаружения, оценок и модуляции. М.: Советское радио, 1972. 744 с.
24. Тихонов В.И., Миронов М.А. Марковские процессы. М.: Советское радио, 1977. 488 с.
25. Тихонов. В.И., Кульман Н.К. Нелинейная фильтрация и квазикогерентный прием сигналов. М.: Советское радио, 1975. 704 с.
26. Солодов А.А., Солодова Е.А. Анализ динамических характеристик случайных воздействий в когнитивных системах // Открытое образование. 2017. Т. 21. № 1. С. 4-13.
8. Lakoff D. Zhenshchiny, ogon' i opasnyye ve-shchi: Chto kategorii yazyka govoryat nam o mysh-lenii = Women, fire and dangerous things: What the categories of language tell us about thinking. Moscow: Yaz. Slavs. Culture; 2004. 792 p. (In Russ.)
9. Trembach V.M. Intelligent system using concept representations for solving the tasks of purposeful behavior. Otkrytoye obrazovaniye = Open education. 2018; 22; 1: 28-37. (In Russ.)
10. Trembach V.M. Resheniye zadach uprav-leniya v organizatsionno-tekhnicheskikh sistemakh s ispol'zovaniyem evolyutsioniruyushchikh znaniy = Solving management problems in organizational and technical systems using evolving knowledge. Moscow: MESI; 2010. 236 p. (In Russ.)
11. Satton R.S., Barto E.G. Obucheniye s pod-krepleniyem. per. s angl = Reinforcement learning. Tr. from Eng. Moscow: BINOM. Knowledge Laboratory; 2011. 399 p. (In Russ.)
12. Gavrilova T. A., Kudryavtsev D. V., Muromt-sev D. I. Inzheneriya znaniy. Modeli i metody = Engineering knowledge. Models and methods. Saint Petersburg: Lan; 2016. 324 p. (In Russ.)
13. Rybina G.V. Osnovy postroyeniya intellektu-al'nykh system = The basics of building intelligent systems. Moscow: Finance and Statistics; 2010. 432 p. (In Russ.)
14. Trembach V.M. Multi-agent system for solving the problem of purposeful behavior. Chetyrna-dtsataya natsional'naya konferentsiya po iskusst-vennomu intellektu s mezhdunarodnym uchastiyem KII 2014 (24-27sentyabrya 2014. Kazan'). Trudy konferentsii. T. 1 = Fourteenth National Conference on Artificial Intelligence with International Participation KII 2014 (September 24-27, 2014. Kazan). Conference proceedings. T. 1. Kazan: RIC "School"; 2014: 344-353. (In Russ.)
15. Tel'nov YU.F. Model of a multi-agent system for the implementation of information and educational space. Chetyrnadtsataya natsional'naya konferentsiya po iskusstvennomu intellektu s mezh-dunarodnym uchastiyem KII-2014 (24-27 sentyabrya 2014. Kazan'). Trudy konferentsii. T. 1 = Fourteenth National Conference on Artificial Intelligence with
International Participation KII-2014 (September 2427, 2014. Kazan). Conference proceedings. T. 1. Kazan: RIC "School"; 2014: 334-3435. (In Russ.)
16. Rosch E. Cognitive representations of semantic categories. Journal of Experimental Psychology. 1975; 104: 192-233.
17. Lakoff J. Women, Fire, and Dangerous Things: What Categories Reveal About the Mind. Chicago: University of Chicago Press; 1987.
18. Solodov A.A Mathematical formalization and algorithmization of the main modules of organizational and technical systems. Statistika i Ekonomika = Statistics and Economics. 2020; 17; 4: 96-104. (In Russ.)
19. Estes W.K., Burke C.J. Application of a statistical model to simple discrimination learning in human subjects. Jorn. Exp. Psychol. 1955; 50: 81-88.
20. Kemeni Dzh., Snell Dzh., Tompson Dzh. Vvedeniye v konechnuyu matematiku. Per. s angl. = Introduction to Finite Mathematics. Tr. from Eng. Moscow: Foreign Literature Publishing House; 1963. 486 p. (In Russ.)
21. Solodov A.A. Markov model of representation of sensory images for the formation of a mod-
Сведения об авторе
Александр Александрович Солодов
д.т.н., профессор, профессор кафедры Прикладной математики и программирования Российский государственный университет им. А.Н. Косыгина (Технологии. Дизайн. Искусство), Москва, Россия Эл. почта: aasol@rambler.ru
el of the external world. Statistika i Ekonomika = Statistics and Economics. 2018; 15; 5: 81-88. (In Russ.)
22. Solodov A.A. Statistical analysis of the mechanism for the formation of concept-representations in organizational and technical systems. Statistika i Ekonomika = Statistics and Economics. 2018; 15; 4: 70-76. (In Russ.)
23. Van Tris G. Teoriya obnaruzheniya, otsenok i modulyatsii = Theory of detection, estimation and modulation. Moscow: Soviet radio; 1972. 744 p. (In Russ.)
24. Tikhonov V.I., Mironov M.A. Markovskiye protsessy = Markov processes. Moscow: Soviet radio; 1977. 488 p. (In Russ.)
25. Tikhonov. V.I., Kul'man N.K. Nelineynaya fil'tratsiya i kvazikogerentnyy priyem signalov = Nonlinear filtering and quasi-coherent signal reception. Moscow: Soviet radio; 1975. 704 p. (In Russ.)
26. Solodov A.A., Analysis of the dynamic characteristics of random influences in cognitive systems. Otkrytoye obrazovaniye = Open education. 2017; 21; 1: 4-13. (In Russ.)
Information about the author
Aleksander A. Solodov
Dr. Sci. (Engineering), Professor,
Professor of the Department of Applied Mathematics
and Programming
Kosygin Russian State University,
Moscow, Russia.
E-mail: aasol@rambler.ru