Нелинейная
динамика и нейронаука
Известия высших учебных заведений. Прикладная нелинейная динамика. 2024. Т. 32, № 4 Izvestiya Vysshikh Uchebnykh Zavedeniy. Applied Nonlinear Dynamics. 2024;32(4)
Научная статья УДК 530.182
DOI: 10.18500/0869-6632-003102 EDN: RYXHRY
Искусственная нейронная сеть с динамической моделью синапса
*
И. А. Зимин, В. Б. Казанцев, С. В. Стасенком
Национальный исследовательский Нижегородский государственный университет
им. Н. И. Лобачевского, Россия E-mail: [email protected], [email protected], [email protected] Поступила в редакцию 5.10.2023, принята к публикации 4.12.2023, опубликована онлайн 1.04.2024, опубликована 31.07.2024
Аннотация. Цель настоящего исследования — разработка и исследование новой модели с кратковременной памятью, в основе которой лежат искусственная нейронная сеть без эффекта кратковременной памяти и динамическая модель кратковременной памяти с астроцитарной модуляцией. Методы. Искусственная нейронная сеть представлена классической сверточной нейронной сетью, не обладающей кратковременной памятью. Кратковременная память моделируется в нашей гибридной модели с помощью модели Цодыкса-Маркрама, представляющей собой систему обыкновенных дифференциальных уравнений третьего порядка. Астроцитарная динамика моделируется среднеполевой моделью концентрации глиотрансмиттера. Результаты. Была разработана и исследована новая гибридная модель с кратковременной памятью с использованием сверточной нейронной сети и динамической модели синапса для задачи распознавания изображений. Приведены графики зависимости точности и ошибки от числа эпох для представленной модели. Введена метрика чувствительности распознавания изображений d-prime. Было проведено сравнение разработанной модели с рекуррентной нейронной сетью и конфигурацией новой модели без учета астроцитарной модуляции. Построена сравнительная таблица, показывающая лучшую точность распознавания для введенной модели. Заключение. В результате исследования показана возможность совмещения искусственной нейронной сети и динамической модели, расширяющей ее функционал. Сравнение предложенной модели с кратковременной памятью с использованием сверточной нейронной сети и динамической модели синапса с астроцитарной модуляцией с рекуррентной сетью показало эффективность предложенного подхода в имитации кратковременной памяти.
Ключевые слова: кратковременная память, машинное обучение, сверточная нейронная сеть, астроцитарная модуляция.
Благодарности. В части подбора параметров модели трехмерного динамического синапса работа выполнена в рамках научной программы Национального центра физики и математики, направление № 9 «Искусственный интеллект и большие данные в технических, промышленных, природных и социальных системах»; в части симуляции и обучения модели работа поддержана в рамках Программы развития Регионального научно-образовательного математического центра «Математика технологий будущего» (Соглашение № 075-02-2024-1439).
Для цитирования: Зимин И. А., Казанцев В. Б., Стасенко С. В. Искусственная нейронная сеть с динамической моделью синапса//Известия вузов. ПНД. 2024. T. 32, № 4. С. 460-471. DOI: 10.18500/0869-6632-003102. EDN: RYXHRY
Статья опубликована на условиях Creative Commons Attribution License (CC-BY 4.0).
*Работа публикуется по материалам доклада, сделанного на конференции «Нейроинформатика — 2023».
(с) Зимин И. А., Казанцев В. Б., Стасенко С. В. , 2024
Article
DOI: 10.18500/0869-6632-003102
Artificial neural network with dynamic synapse model*
I. A. Zimin, V.B. Kazantsev, S. V. StasenkoH
National Research Lobachevsky State University of Nizhny Novgorod, Russia E-mail: [email protected], [email protected], [email protected] Received 5.10.2023, accepted 4.12.2023, available online 1.04.2024, published 31.07.2024
Abstract. The purpose of this study is to develop and investigate a new short-term memory model based on an artificial neural network without short-term memory effect and a dynamic short-term memory model with astrocytic modulation. Methods. The artificial neural network is represented by a classical convolutional neural network that does not have short-term memory. Short-term memory is modeled in our hybrid model using the Tsodyks-Markram model, which is a system of third-order ordinary differential equations. Astrocyte dynamics is modeled by a mean field model of gliotransmitter concentration. Results. A new hybrid short-term memory model was developed and investigated using a convolutional neural network and a dynamic synapse model for an image recognition problem. Graphs of dependence of accuracy and error on the number of epochs for the presented model are given. The sensitivity metric of image recognition d-prime has been introduced. The developed model was compared with the recurrent neural network and the configuration of the new model without taking into account astrocytic modulation. A comparative table has been constructed showing the best recognition accuracy for the introduced model. Conclusion. As a result of the study, the possibility of combining an artificial neural network and a dynamic model that expands its functionality is shown. Comparison of the proposed model with short-term memory using a convolutional neural network and a dynamic synapse model with astrocytic modulation with a recurrent network showed the effectiveness of the proposed approach in simulating short-term memory.
Keywords: short-term memory, machine learning, convolutional neural network, astrocytic regulation.
Acknowledgements. In terms of selecting parameters for a 3-dimensional dynamic synapse model, the work was supported by the scientific program of the National Center for Physics and Mathematics, section No. 9 "Artificial intelligence and big data in technical, industrial, natural and social systems"; in terms of simulation and training of the model, the work was supported within the framework of the Development Program of the Regional Scientific and Educational Mathematical Center "Mathematics of Future Technologies" (Agreement No. 075-02-2024-1439).
For citation: Zimin IA, Kazantsev VB, Stasenko SV. Artificial neural network with dynamic synapse model. Izvestiya VUZ. Applied Nonlinear Dynamics. 2024;32(4):460-471. DOI: 10.18500/0869-6632-003102
This is an open access article distributed under the terms of Creative Commons Attribution License (CC-BY 4.0).
Введение
Кратковременную память можно определить как способность временно хранить и обрабатывать информацию в течение нескольких секунд. Эта форма памяти играет ключевую роль в нашей способности следить за информацией в нашем окружении, проводить решения и связывать прошлые опыты с настоящими [1].
Множество исследований было проведено с целью объяснения механизмов и ограничений кратковременной памяти. Многокомпонентная модель, предложенная Бэддли и Хичем [1], предполагает, что кратковременная память состоит из фонологической петли, визуально-пространственного эскиза и центрального исполнителя. Эмпирические исследования, такие как исследование Миллера [2], подтверждают ограниченную емкость кратковременной памяти, которую можно понимать в терминах «частей рабочей памяти» [3].
Исследования с использованием функциональной магнитно-резонансной томографии выявили участие таких областей мозга, как дорсолатеральная префронтальная кора и задняя теменная
The paper presents materials of a talk given at the conference "Neuroinformatics — 2023".
кора, в формировании кратковременной памяти [4]. Было также показано, что на эффективность кратковременной памяти могут влиять интерференция, время и индивидуальные различия [5-7].
Задачи визуального обнаружения изменений широко используются в когнитивной психологии и нейронауке для изучения кратковременной памяти. В этих задачах участникам представляется набор визуальных стимулов, которые на короткое время удаляются из поля зрения, а затем один или несколько стимулов меняются, и участники должны обнаружить и идентифицировать измененные элементы. Этот подход был использован во множестве исследований, изучающих различные аспекты кратковременной памяти, включая емкость, процессы кодирования и влияние внимания. Например, Лак и Вогель [8] обнаружили, что участники могут надежно запоминать и обнаруживать изменения в примерно трех-четырех объектах на дисплее. Холлингворт и Хендер-сон [9] продемонстрировали, что внимание играет важную роль в поддержании и обновлении визуальной информации в кратковременной памяти. Нейровизуализационные исследования также использовали задачи визуального обнаружения изменений для изучения нейромеханизмов, лежащих в основе кратковременной памяти, с использованием электроэнцефалографии (ЭЭГ) [10]. Использование задач визуального обнаружения изменений предоставило ценные научные результаты о емкости, процессах внимания и нейрональных механизмах, участвующих в кратковременной визуальной памяти.
Недавние исследования показывают, что астроциты играют важную роль в модуляции кратковременной памяти. Исследования продемонстрировали их участие в регуляции синаптической передачи [11], метаболическом взаимодействии, способствующем формированию долговременной памяти [12] и организации тормозных контуров в мозжечке [13]. Эти результаты указывают на то, что астроциты оказывают влияние на процессы кратковременной памяти, расширяя наше понимание сложной динамики, лежащей в основе формирования и поддержания памяти.
В данном исследовании предлагается новая гибридная модель кратковременной памяти, которая включает кратковременную синаптическую пластичность, астроцитарную модуляцию синаптической передачи и сверточную нейронную сеть (8КА8ТР№1). По сравнению с рекуррентной нейронной сетью предложенная модель 8КА8ТР№1 демонстрирует высокую эффективность в задаче моделирования кратковременной памяти.
1. Методика
1.1. Задача распознавания изображений. В исследовании [14] мышей обучали решению задачи обнаружения визуальных изменений с использованием естественных изображений в экспериментах «Иди»/«Поймай». Обучение включало несколько этапов, начиная со статических и мигающих изображений решеток и заканчивая естественными изображениями [15]. Изображения имели сферическое искажение для учета изменений расстояния от глаза до периферии монитора. Итоговый набор изображений состоял из восьми нормированных по контрасту естественных изображений с согласованной средней яркостью в цветовом режиме градации серого.
Во время обучения мышей заставляли пить воду всякий раз, когда менялась картинка в повторяющейся последовательности. Каждое изображение отображалось в течение 250 мс, после чего следовал межстимульный интервал 500 мс средней яркости серого (рис. 1). Небольшой процент (5%) представленных изображений был случайно пропущен, но эти пропуски никогда не происходили до фактического изменения изображения (испытания «Иди») или фиктивного изменения изображения (испытания «Поймай»). Важно отметить, что эти пропуски были показаны только во время сеансов визуализации, а не во время обучения. Правильные ответы вознаграждались водой, а преждевременное облизывание вызывало период «тайм-аута», когда
I 250 ms
Рис. 1. Задача распознавания изображений. Схема задачи. Мыши обучаются обнаруживать изменения в последовательности мигающих естественных изображений. Изображения представляются в течение 250 мс, за которыми следует серый экран в течение 500 мс
Fig. 1. The problem of image recognition. Task scheme. Mice are trained to detect changes in a sequence of flashing natural images. Images are displayed for 250 ms followed by a gray screen for 500 ms
подсчет сбрасывался. В испытаниях «Иди» изображения менялись местами, и мыши должны были сообщить об изменении, чтобы получить водное вознаграждение. Испытания «Поймай», в которых изображения оставались неизменными, использовались для измерения ложных тревог.
На основе экспериментальных данных была предложена архитектура нейронной сети с прямой связью (STPNet), которая также включала кратковременную синаптическую депрессию [14]. После обучения модель STPNet демонстрировала эффект кратковременной памяти, наблюдаемый в эксперименте с мышами. Следует отметить, что активность отдельных элементов («нейронов») модели была сопоставима с данными in vivo, а работа модели порождала ошибки, соответствующие наблюдаемым в экспериментах с мышами.
1.2. Архитектура модели. Архитектура модели SNASTPNet представлена в табл. 1. Она представляет собой два слоя сверточной нейроной сети, два полносвязных слоя, связанных между собой моделью динамического синапса, и слой из одного элемента в виде сигмоиды, определяющей принадлежность к тому или иному классу. Аналогичным образом представлена модель STPNet (см. табл. 1), кроме отсутствия в модели динамического синапса астроцитарной модуляции. Рекуррентная нейронная сеть (RNN), использованная для сравнения кратковременной памяти, имеет отличие в том, что последний слой представлен рекуррентными связями и отсутствует модель динамического синапса (выходы FC-64 слоя не модифицируются с использованием динамической модели синапса). В рассматриваемых моделях в табл. 1 сверточные слои обозначаются как «шпу^азмер рецептивного поля>-<количество каналов> », «maxpool» указывает на применение операции максимального объединения с окном 2 х 2 и шагом 2, «FC» представляет собой полносвязные слои с указанным числом единиц, а «RC» обозначает рекуррентные слои с указанным числом единиц. Модель динамического синапса включает в себя слои с FC-64 по sigmoid, который применяет сигмоидную функцию активации к своему входу и возвращает значения в интервале от 0 до 1.
Таблица 1. Архитектуры моделей нейронных сетей Table 1. Architectures of neural network models
Model Network architecture
SNASTPNet conv5-8 maxpool conv5-16 maxpool FC-128 FC-64 FC-16 FC-1 sigmoid
STPNet conv5-8 maxpool conv5-16 maxpool FC-128 FC-64 FC-16 FC-1 sigmoid
RNN conv5-8 maxpool conv5-16 maxpool FC-128 FC-64 RC-16 FC-1 sigmoid
1.3. Модель динамического синапса. Модель динамического синапса строится с использованием среднеполевого подхода, описанного в работах [16-23], и включает нейронную активность, динамику нейро- и глиотрансмиттеров. Активация нейронов приводит к высвобождению нейротрансмиттера (глутамата) X (г), вероятность высвобождения которого определяется и. Часть нейротрансмиттера достигает рецепторов на мембране астроцитов и связывается с ними, запуская каскад биохимических реакций, сопровождающихся внутриклеточным увеличением концентрации кальция и высвобождением из астроцитов глиотрансмиттера, динамика которого описывается в нашей модели переменной У (г). В результате предложенная модель может быть выражена в виде трехмерной системы обыкновенных дифференциальных уравнений (ОДУ):
( ¿X 1 - X . .
— =--иХ т(г),
аг тв у'
¿У —У
- = _ + (Ш,(Х), (1)
¿и = иоп—и + и (У )(1 —
аг т р
В уравнении (1) тр представляет собой постоянную времени, регулирующую синаптиче-скую депрессию, а тр — синаптическую потенциацию; т(г) обозначает нейронную активность в момент времени г; т, обозначает время релаксации глиотрансмиттера; И, (X) представляет собой функцию активации, определенную уравнением (2).
И, (X) = 1 + е-201(Х-Х№г) • (2)
В уравнении (2) Xthг представляет собой порог активации.
В качестве модели динамического синапса (уравнение (1)) мы используем среднеполевую модель, основанную на работе Цодыкса-Маркрама [24]. В этом контексте нейронная активность т(г) в рамках нашей модели может быть описана следующим образом:
т(г») = т х ои^. (3)
В уравнении (3) переменные интерпретируются следующим образом: т(г) представляет собой вектор, обозначающий нейронную активность в различные моменты времени г». Каждый элемент вектора соответствует конкретному моменту времени. Переменная т обозначает общее количество проведенных экспериментов. ои^ относится к функции активации г-го элемента в слое БС-64 сверточной нейронной сети, изображенной на табл. 1. Уравнение (3) описывает, как меняется т(г) со временем под влиянием количества проведенных экспериментов (т) и признаков, полученных с выхода из слоя БС-64 сверточной нейронной сети, примененных к последовательности изображений, полученной повторением случайно выбранного номера изображения произвольное число раз (ои^) (рис. 2). Динамика т(г) указывает на то, как долго сохраняется активность нейрона в реакции на внешние стимулы.
Активность астроцитов вызывает высвобождение глиотрансмиттера (глутамата), который, связываясь с мембранными рецепторами пресинаптического нейрона, модулирует вероятность высвобождения нейротрансмиттера (4). В этом контексте и (У) представляет собой влияние астроцита на вероятность высвобождения нейротрансмиттера (глутамата) из преси-наптического нейрона. Кроме того, ио обозначает вероятность высвобождения нейромедиатора
Рис. 2. Схема модели. Красным квадратом обозначен т; под фиолетовый пунктир вынесен процесс получения вектора ткоторый представляет из себя признаки, полученные с выхода сверточной нейронной сети, примененные к последовательности изображений из выборки (см. подраздел 1.1) (цвет онлайн)
Fig. 2. Scheme of the model. The red square represents т, and the purple dashed box outlines the process of obtaining the т vector. This vector represents features obtained from the output of the convolutional neural network applied to a sequence of images from the dataset (see Subsection 1.1) (color online)
без взаимодействия с астроцитами, Ащ представляет собой изменение вероятности высвобождения под влиянием астроцитов, и обозначает порог активации.
и(У>= «0 +1+ -у,,) . <4>
Параметры модели принимали следующие значения: тд =6, тр = 1, «о = 0.23, А«о = 0.305, ту = 1.8, в = 0.4375, Х1Ьг = 0.5 и У^Ьг = 0.573.
2. Результаты
Набор предобработанных изображений подавался на нейронную сеть с прямой связью для уменьшения размерности признакового описания данных (см. табл. 1). Изначально сверточная нейронная сеть с двумя сверточными слоями и двумя полносвязными слоями проходила обучение на наборе данных СШАЯ-Ю [25] в режиме градации серого. После завершения обучения веса нейронной сети сохранялись. Входные данные для модели представлялись в виде матрицы, обозначенной как М:
М(к х п х т). (5)
Переменные в уравнении (5) имеют следующие значения: к представляет собой количество проведенных экспериментов; п представляет собой время, затраченное на завершение одного эксперимента, деленное на время отображения одного изображения (один временной шаг); т обозначает размер выходного слоя, полученного из сверточной нейронной сети.
Рис. 3. a — На рисунке показана входная активность («нейронная активность») во время задачи обнаружения изменений. Каждое изображение было представлено в течение 250 мс, за которым следовал серый экран длительностью 500 мс. Левый блок показывает слабые ответы на одно изображение. Центральный блок реагирует на два изображения, при этом одно изображение имеет более сильный ответ, чем другое. Правый блок постепенно реагирует на четыре изображения. Время представления изображения представлено цветовыми сегментами, отображенными над каждым графиком. b — Эффективность синапсов элементов, изображенных на панели а, меняется в зависимости от полученного входа. c — Входная активность («нейронная активность») модулируется за счет кратковременной синаптической пластичности и астроцитарной регуляции для элементов, показанных на панели a. d — Динамика глиотрансмиттера. e — Вероятность высвобождения нейротрансмиттера (цвет онлайн)
Fig. 3. а — The figure shows input activity ("neural activity") during a change detection task. Each image was presented for 250 ms followed by a 500 ms gray screen. The left block shows weak responses to one image. The center block responds to two images, with one image having a stronger response than the other. The right block gradually responds to four images. The image presentation time is represented by the color segments displayed above each graph. b — The synapse efficiency of the elements depicted in panel a varies depending on the input received. c — Input activity ("neuronal activity") is modulated by transient synaptic plasticity and astrocytic regulation for the elements shown in panel a. d — Gliotransmitter dynamics. e — Probability of neurotransmitter release (color online)
Для повышения биологической правдоподобности модели был введен независимый мультипликативный гауссовский шум с математическим ожиданием, равным 0, и стандартным отклонением, равным 0.5. Этот шум добавлялся как к выходу сети-кодировщика, так и к скрытым элементам, тем самым формируя недетерминированные ответы [26]. Выход элементов слоя БС-64 до и после подачи на динамический синапс в зависимости от набора подаваемых изображений показан на рис. 3.
В процессе исследования модели 8КЛ8ТР№1 были рассчитаны зависимости точности и ошибки от числа эпох (рис. 4). Как показано на рис. 4, в рамках исследуемой задачи лучшие значения точности и ошибки могут быть получены при обучении более чем на 5000 эпох.
Для сравнения эффективности нашей модели 8КЛ8ТР№1 с архитектурой нейронной сети, включающей только кратковременную синаптическую депрессию 8ТР№1, и с рекуррентной нейронной сетью ЯКК мы использовали метрику ё-рйше. Эта метрика, впервые представленная в работе [14], была использована для оценки эффективности запоминания последовательности изображений.
a
2000 3000 Epoch
0.36 0.35 0.34
s
g 0.33
J
0.32 0.31 0.30
5000
b
1000 2000 3000 4000 5000 Epoch
Рис. 4. а — Зависимость точности модели от числа эпох и b — зависимость функции потерь модели (ошибки) от числа эпох
Fig. 4. a — Dependence of the model accuracy on the number of epochs and b — dependence of the model loss function (error) on the number of epochs
Метрика чувствительности d-prime была вычислена (табл. 2) для данного типа задачи. Более высокое значение этой метрики указывает на лучшее распознавание сигнала. d-prime считался как разница норм от частоты попаданий и ложных угадываний по следующему алгоритму.
Высчитывались распределения для экспериментов «Иди»/«Поймай», где «Go» отвечает за «Иди», «Catch» — «Поймай».
^("Go") =
^(prediction * (labels = 1))
^("Catch") =
^(labels = 1) ^(prediction * (labels = — 1))
^(labels = —1) prediction^ ~ Bernoulli (p = output J
(6)
(7)
(8)
prediction получается из распределения Бернулли, сигмоидальную функцию активации, чтобы данные принимали значения строго в диапазоне от 0 до 1:
Р(ю) =
1
1 + e-
(9)
где ю — массив значений выборки «Поймай» или «Иди».
С помощью данной метрики было показано, что наша архитектура нейронной сети с астроцитарной модуляцией демонстрирует лучший показатель по точности классификации ранее запомненных и новых изображений.
которое, в свою очередь, принимает на вход
Таблица 2. Среднее значение метрики d-prime вместе с соответствующим стандартным отклонением для трех моделей: RNN, STPNet
и SNASTPNet
Table 2. The mean value of the d-prime metric along with the corresponding standard deviation for the three models: RNN, STPNet and
SNASTPNet
model mean std
RNN STPNet 1.33 1.47 0.578 0.127
SNASTPNet 1.52 0.13
Заключение
Кратковременная (или рабочая) память является важным когнитивным процессом, связанным с временным хранением и обработкой информации. Она играет ключевую роль во внимании, обучении и принятии решений. В данном исследовании представлена новая модель для кратковременной памяти, объединяющая кратковременную синаптическую пластичность, астроцитарную модуляцию синаптической передачи и сверточную нейронную сеть. Сравнительный анализ с рекуррентной нейронной сетью показывает, что предложенная модель обладает более высокой эффективностью в точном моделировании кратковременной памяти.
Список литературы
1. Baddeley A. Working memory // Current Biology. 2010. Vol. 20, no. 4. P. R136-R140. DOI: 10.1016/j.cub.2009.12.014.
2. Miller G.A. The magical number seven, plus or minus two: Some limits on our capacity for processing information// Psychological Review. 1956. Vol. 63, no. 2. P. 81-97. DOI: 10.1037/ h0043158.
3. Cowan N. The magical number 4 in short-term memory: A reconsideration of mental storage capacity // Behavioral and Brain Sciences. 2001. Vol. 24, no. 1. P. 87-114. DOI: 10.1017/S0140525 X01003922.
4. Wager T. D., Smith E. E. Neuroimaging studies of working memory: a meta-analysis // Cognitive, Affective, & Behavioral Neuroscience. 2003. Vol. 3, no. 4. P. 255-274. DOI: 10.3758/cabn.3.4.255.
5. Engle R. W. Working memory capacity as executive attention // Current Directions in Psychological Science. 2002. Vol. 11, no. 1. P. 19-23.
6. Park D. C., Polk T. A., Mikels J. A., Taylor S. F., Marshuetz C. Cerebral aging: integration of brain and behavioral models of cognitive function // Dialogues in Clinical Neuroscience. 2022. Vol. 3, no. 3. P. 151-165. DOI: 10.31887/DCNS.2001.3.3/dcpark.
7. Postle B. R. Working memory as an emergent property of the mind and brain // Neuroscience. 2006. Vol. 139, no. 1. P. 23-38. DOI: 10.1016/j.neuroscience.2005.06.005.
8. Luck S. J., Vogel E. K. The capacity of visual working memory for features and conjunctions // Nature. 1997. Vol. 390, no. 6657. P. 279-281. DOI: 10.1038/36846.
9. Hollingworth A., Henderson J. M. Accurate visual memory for previously attended objects in natural scenes // Journal of Experimental Psychology: Human Perception and Performance. 2002. Vol. 28, no. 1. P. 113-136. DOI: 10.1037/0096-1523.28.1.113.
10. Vogel E.K., Woodman G.F., Luck S.J. Pushing around the locus of selection: Evidence for the flexible-selection hypothesis // Journal of Cognitive Neuroscience. 2005. Vol. 17, no. 12. P. 1907-1922. DOI: 10.1162/089892905775008599.
11. Perea G., Araque A. Astrocytes potentiate transmitter release at single hippocampal synapses // Science. 2007. Vol. 317, no. 5841. P. 1083-1086. DOI: 10.1126/science.1144640.
12. Suzuki A., Stern S. A., Bozdagi O., Huntley G. W., Walker R. H., Magistretti P. J., Alberini C. M. Astrocyte-neuron lactate transport is required for long-term memory formation // Cell. 2011. Vol. 144, no. 5. P. 810-823. DOI: 10.1016/j.cell.2011.02.018.
13. Ango F., Wu C., Van der Want J. J., Wu P., Schachner M., Huang J.Bergmann glia and the recognition molecule CHL1 organize GABAergic axons and direct innervation of Purkinje cell dendrites // PLoS Biology. 2008. Vol. 6, no. 4. P. e103. DOI: 10.1371/journal.pbio.0060103.
14. Hu B., Garrett M. E., Groblewski P. A., Ollerenshaw D. R., Shang J., Roll K., Manavi S., Koch C., Olsen S. R., Mihalas S. Adaptation supports short-term memory in a visual change detection task // PLoS Computational Biology. 2021. Vol. 17, no. 9. P. e1009246. DOI: 10.1371/journal.pcbi.1009246.
15. Garrett M., Manavi S., Roll K., Ollerenshaw D. R., Groblewski P. A., Ponvert N. D., Kiggins J. T., Casal L., Mace K., Williford A., Leon A., Jia X., Ledochowitsch P., Buice M.A., Wakeman W.,
Mihalas S., Olsen S. R. Experience shapes activity dynamics and stimulus coding of VIP inhibitory cells // eLife. 2020. Vol. 9. P. e50340. DOI: 10.7554/eLife.50340.
16. Stasenko S. V., Kazantsev V.B. Dynamic image representation in a spiking neural network supplied by astrocytes // Mathematics. 2023. Vol. 11, no. 3. P. 561. DOI: 10.3390/math11030561.
17. Stasenko S., Kazantsev V. Astrocytes enhance image representation encoded in spiking neural network // In: Kryzhanovsky B., Dunin-Barkowski W., Redko V., Tiumentsev Y. (eds) Advances in Neural Computation, Machine Learning, and Cognitive Research VI. NEUROINFORMATICS 2022. Vol. 1064 of Studies in Computational Intelligence. Cham: Springer, 2023. P. 200-206. DOI: 10.1007/978-3-031-19032-2_20.
18. Лазаревич И. А., Стасенко С. В., Казанцев В. Б. Синаптическая мультистабильность и сетевая синхронизация, индуцированные нейрон-глиальным взаимодействием в мозге // Письма в ЖЭТФ. 2017. Т. 105, № 3. С. 198-201. DOI: 10.7868/S0370274X17030134.
19. Stasenko S. V., Lazarevich I. A., Kazantsev V.B. Quasi-synchronous neuronal activity of the network induced by astrocytes // Procedia Computer Science. 2020. Vol. 169. P. 704-709. DOI: 10.1016/j.procs.2020.02.175.
20. Barabash N., Levanova T., Stasenko S. STSP model with neuron — glial interaction produced bursting activity // In: 2021 Third International Conference Neurotechnologies and Neurointerfaces (CNN). 13-15 September 2021, Kaliningrad, Russian Federation. IEEE, 2021. P. 12-15. DOI: 10.1109/CNN53494.2021.9580314.
21. Stasenko S., Kazantsev V. 3D model of bursting activity generation // In: 2022 Fourth International Conference Neurotechnologies and Neurointerfaces (CNN). 14-16 September 2022, Kaliningrad, Russian Federation. IEEE, 2022. P. 176-179. DOI: 10.1109/CNN56452.2022.9912507.
22. Barabash N., Levanova T., Stasenko S. Rhythmogenesis in the mean field model of the neuron-glial network//Eur. Phys. J. Spec.Top. 2023. Vol.232, no.5. P. 529-534. DOI: 10.1140/epjs/s11734-023-00778-9.
23. Olenin S. M., Levanova T.A., Stasenko S. V. Dynamics in the reduced mean-field model of neuron-glial interaction//Mathematics. 2023. Vol. 11, no. 9. P. 2143. DOI: 10.3390/math11092143.
24. Tsodyks M., Pawelzik K., Markram ^.Neural networks with dynamic synapses // Neural Computation. 1998. Vol. 10, no. 4. P. 821-835. DOI: 10.1162/089976698300017502.
25. Krizhevsky A. Learning Multiple Layers of Features from Tiny Images. Technical Report TR-2009. Toronto: University of Toronto, 2009. 60 p.
26. Paszke A., Gross S., Massa F., Lerer A., Bradbury J., Chanan G., Killeen T., Lin Z., Gimelshein N., Antiga L., Desmaison A., Kopf A., Yang E., DeVito Z., Raison M., Tejani A., Chilamkurthy S., Steiner B., Fang L., Bai J., Chintala S. PyTorch: An imperative style, high-performance deep learning library // In: NIPS'19: Proceedings of the 33rd International Conference on Neural Information Processing Systems. No. 721. Vancouver, Canada: NeurIPS, 2019. P. 8026-8037.
References
1. Baddeley A. Working memory. Current Biology. 2010;20(4):R136-R140. DOI: 10.1016/j.cub. 2009.12.014.
2. Miller GA. The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review. 1956;63(2):81-97. DOI: 10.1037/h0043158.
3. Cowan N. The magical number 4 in short-term memory: A reconsideration of mental storage capacity. Behavioral and Brain Sciences. 2001;24(1):87-114. DOI: 10.1017/S0140525X01003922.
4. Wager TD, Smith EE. Neuroimaging studies of working memory: a meta-analysis. Cognitive, Affective, & Behavioral Neuroscience. 2003;3(4):255-274. DOI: 10.3758/cabn.3.4.255.
5. Engle RW. Working memory capacity as executive attention. Current Directions in Psychological Science. 2002;11(1):19-23.
6. Park DC, Polk TA, Mikels JA, Taylor SF, Marshuetz C. Cerebral aging: integration of brain and
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
470
behavioral models of cognitive function. Dialogues in Clinical Neuroscience. 2022;3(3):151-165. DOI: 10.31887/DCNS.2001.3.3/dcpark.
Postle BR. Working memory as an emergent property of the mind and brain. Neuroscience. 2006;139(1):23-38. DOI: 10.1016/j.neuroscience.2005.06.005.
Luck SJ, Vogel EK. The capacity of visual working memory for features and conjunctions. Nature. 1997;390(6657):279-281. DOI: 10.1038/36846.
Hollingworth A, Henderson JM. Accurate visual memory for previously attended objects in natural scenes. Journal of Experimental Psychology: Human Perception and Performance. 2002;28(1): 113-136. DOI: 10.1037/0096-1523.28.1.113.
Vogel EK, Woodman GF, Luck SJ. Pushing around the locus of selection: Evidence for the flexible-selection hypothesis. Journal of Cognitive Neuroscience. 2005;17(12):1907-1922. DOI: 10.1162/ 089892905775008599.
Perea G, Araque A. Astrocytes potentiate transmitter release at single hippocampal synapses. Science. 2007;317(5841):1083-1086. DOI: 10.1126/science.1144640.
Suzuki A, Stern SA, Bozdagi O, Huntley GW, Walker RH, Magistretti PJ, Alberini CM. Astrocyte-neuron lactate transport is required for long-term memory formation. Cell. 2011;144(5):810-823. DOI: 10.1016/j.cell.2011.02.018.
Ango F, Wu C, Van der Want JJ, Wu P, Schachner M, Huang J. Bergmann glia and the recognition molecule CHL1 organize GABAergic axons and direct innervation of Purkinje cell dendrites. PLoS Biology. 2008;6(4):e103. DOI: 10.1371/journal.pbio.0060103.
Hu B, Garrett ME, Groblewski PA, Ollerenshaw DR, Shang J, Roll K, Manavi S, Koch C, Olsen SR, Mihalas S. Adaptation supports short-term memory in a visual change detection task. PLoS Computational Biology. 2021;17(9):e1009246. DOI: 10.1371/journal.pcbi.1009246. Garrett M, Manavi S, Roll K, Ollerenshaw DR, Groblewski PA, Ponvert ND, Kiggins JT, Casal L, Mace K, Williford A, Leon A, Jia X, Ledochowitsch P, Buice MA, Wakeman W, Mihalas S, Olsen SR. Experience shapes activity dynamics and stimulus coding of VIP inhibitory cells. eLife. 2020;9:e50340. DOI: 10.7554/eLife.50340.
Stasenko SV, Kazantsev VB. Dynamic image representation in a spiking neural network supplied by astrocytes. Mathematics. 2023;11(3):561. DOI: 10.3390/math11030561. Stasenko S, Kazantsev V. Astrocytes enhance image representation encoded in spiking neural network. In: Kryzhanovsky B, Dunin-Barkowski W, Redko V, Tiumentsev Y, editors. Advances in Neural Computation, Machine Learning, and Cognitive Research VI. NEUROINFORMATICS 2022. Vol. 1064 of Studies in Computational Intelligence. Cham: Springer; 2023. P. 200-206. DOI: 10.1007/978-3-031-19032-2_20.
Lazarevich IA, Stasenko SV, Kazantsev VB. Synaptic multistability and network synchronization induced by the neuron-glial interaction in the brain. Jetp Lett. 2017;105(3):210-213. DOI: 10.1134/ S0021364017030092.
Stasenko SV, Lazarevich IA, Kazantsev VB. Quasi-synchronous neuronal activity of the network induced by astrocytes. Procedia Computer Science. 2020;169:704-709. DOI: 10.1016/j.procs.2020. 02.175.
Barabash N, Levanova T, Stasenko S. STSP model with neuron — glial interaction produced bursting activity. In: 2021 Third International Conference Neurotechnologies and Neurointerfaces (CNN). 13-15 September 2021, Kaliningrad, Russian Federation. IEEE; 2021. P. 12-15. DOI: 10. 1109/CNN53494.2021.9580314.
Stasenko S, Kazantsev V. 3D model of bursting activity generation. In: 2022 Fourth International Conference Neurotechnologies and Neurointerfaces (CNN). 14-16 September 2022, Kaliningrad, Russian Federation. IEEE; 2022. P. 176-179. DOI: 10.1109/CNN56452.2022.9912507. Barabash N, Levanova T, Stasenko S. Rhythmogenesis in the mean field model of the neuron-glial network. Eur. Phys. J. Spec. Top. 2023;232(5):529-534. DOI: 10.1140/epjs/s11734-023-00778-9.
23. Olenin SM, Levanova TA, Stasenko SV. Dynamics in the reduced mean-field model of neuron-glial interaction. Mathematics. 2023;11(9):2143. DOI: 10.3390/math11092143.
24. Tsodyks M, Pawelzik K, Markram H. Neural networks with dynamic synapses. Neural Computation. 1998;10(4):821-835. DOI: 10.1162/089976698300017502.
25. Krizhevsky A. Learning Multiple Layers of Features from Tiny Images. Technical Report TR-2009. Toronto: University of Toronto; 2009. 60 p.
26. Paszke A, Gross S, Massa F, Lerer A, Bradbury J, Chanan G, Killeen T, Lin Z, Gimelshein N, Antiga L, Desmaison A, Kopf A, Yang E, DeVito Z, Raison M, Tejani A, Chilamkurthy S, Steiner B, Fang L, Bai J, Chintala S. PyTorch: An imperative style, high-performance deep learning library. In: NIPS'19: Proceedings of the 33rd International Conference on Neural Information Processing Systems. No. 721. Vancouver, Canada: NeurIPS; 2019. P. 8026-8037.
Зимин Илья Анатольевич — родился в р. п. Сосновское Нижегородской области (2000). Окончил радиофизический факультет Нижегородского государственного университета им. Н. И. Лобачевского (ННГУ) по направлению «Фундаментальная радиофизика» (2022). С 2022 года — студент магистратуры Института информационных технологий, математики и механики по направлению «Компьютерные науки и приложения» ННГУ. С 2023 года работает в научно-исследовательской лаборатории перспективных методов анализа многомерных данных ННГУ. Научные интересы — машинное обучение, математическое моделирование, нейронаука.
Россия, 603022 Нижний Новгород, пр-кт Гагарина, 23 Нижегородский государственный университет им. Н. И. Лобачевского E-mail: [email protected]
Казанцев Виктор Борисович — родился в 1973 году. Окончил радиофизический факультет ННГУ. Кандидат физико-математических наук (1999), доктор физико-математических наук (2005). Заведующий кафедрой нейротехнологий биологического факультета ННГУ (с 2005), профессор университета Иннополис (Казань), заведующий лабораторией нейромоделирова-ния НИИ нейронаук СамГМУ (Самара). Область научных интересов: нейронаука, математические модели нейронов и нейронных сетей, нейрогибридные и нейроморфные системы, нейроинтерфейсы, нейрон-глиальные взаимодействия, колебания и волны в нейродинамике. Имеет более 150 научных публикаций в российских и зарубежных реферируемых изданиях. Автор нескольких глав в книгах и монографиях, множества патентов и учебно-методических разработок. Под его руководством защищено 6 кандидатских диссертаций. Руководитель ведущей научной школы «Нелинейная динамика сетевых нейросистем: фундаментальные аспекты и приложения» в рамках гранта Президента РФ 2020-2021.
Россия, 603022 Нижний Новгород, пр-кт Гагарина, 23 Нижегородский государственный университет им. Н. И. Лобачевского E-mail: [email protected] ORCID: 0000-0002-2881-6648 AuthorID (eLibrary.Ru): 29851
Стасенко Сергей Викторович — родился в 1988 году. Окончил Нижегородский государственный университет им. Н.И. Лобачевского. Кандидат физико-математических наук (2017). Доцент кафедры нейротехнологий ННГУ. Область научных интересов: математическая биофизика, математическое моделирование живых систем, моделирование нейрон-астроцитарного и нейрон-ВКМ взаимодействий, спайковые нейронные сети и анализ данных.
Россия, 603022 Нижний Новгород, пр-кт Гагарина, 23 Нижегородский государственный университет им. Н. И. Лобачевского E-mail: [email protected] ORCID: 0000-0002-3032-5469 AuthorID (eLibrary.Ru): 655311