Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И СОЗДАНИЕ СЛОЖНЫХ ОРГАНИЗАЦИОННО-ТЕХНИЧЕСКИХ СИСТЕМ (ЧАСТЬ II)'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И СОЗДАНИЕ СЛОЖНЫХ ОРГАНИЗАЦИОННО-ТЕХНИЧЕСКИХ СИСТЕМ (ЧАСТЬ II) Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
72
19
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОРГАНИЗАЦИОННО-ТЕХНИЧЕСКАЯ СИСТЕМА / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / МНОГОАГЕНТНАЯ СИСТЕМА / РАЦИОНАЛЬНЫЙ АГЕНТ / СИНЕРГЕТИКА / АТТРАКТОР / ХАОС

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Бабич Михаил Юрьевич

Актуальность и цели. Рассмотрены сложные организационно-технические системы с элементами искусственного интеллекта, т.е. системы, в процессе функционирования которых решаются нетрадиционные задачи, связанные с творческими способностями человека. Поставлена задача доказать, что понятие искусственного интеллекта является относительным и зависит от наблюдателя, что может способствовать изменению современного взгляда исследователей на вопросы достижения в сложных организационно-технических системах возможностей искусственного интеллекта. Материалы и методы. Рассмотрено понятие рационального агента, не совершающего ошибок. Показана близость введенного понятия к носителю искусственного интеллекта в слабом смысле. Приведены аксиомы принадлежности рационального агента нескольким системам одновременно. Сложные организационно-технические системы анализируются в качестве многоагентных систем. Результаты. Проанализированы свойства организационно-технических систем, в контуре которых функционируют дисрациональные агенты, т.е. агенты, поведение которых не является рациональным. Доказано, что при соблюдении введенных аксиом принадлежности агентов системам понятие рациональности зависит от той системы, в которой находится наблюдатель, и от периода времени наблюдения. Рассмотрены нелинейные системы, к которым относятся многие организационно-технические системы. Доказано отсутствие адекватного аппарата прогнозирования в период наступления хаоса. Выводы. Установлено, что понятие рационального или дисрационального агента и, следовательно, понятие искусственного интеллекта в слабом смысле являются относительными. Определена стратегия создания и развития организационно-технических систем при выполнении предложенных аксиом и справедливости рассмотренных предположений.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE AND CREATION OF COMPLEX ORGANIZATIONAL AND TECHNICAL SYSTEMS (PART 2)

Background. Complex organizational and technical systems with elements of artificial intelligence are considered, that is, systems, in the course of their functioning, unconventional tasks related to human creative abilities are solved. The task is to prove the concept of artificial intelligence is relative and depends on the observer, which can contribute to a change in the modern view of researchers on the issues of achieving artificial intelligence capabilities in complex organizational and technical systems. Materials and methods. The concept of a rational agent that does not make mistakes is considered. The closeness of the introduced concept to the carrier of artificial intelligence in a weak sense is shown. The axioms of a rational agent belonging to several systems simultaneously are considered. Complex organizational and technical systems are considered as multi-agent systems. Results. The properties of organizational and technical systems, in the contour of which dysrational agents function, that is, agents whose behavior is not rational, are analyzed. It is proved that if the introduced axioms of agents' belonging to systems are observed, the concept of rationality depends on the system in which the observer is located and on the observation time period. Nonlinear systems, which include many organizational and technical systems, are considered. The absence of an adequate forecasting apparatus during the onset of chaos is proved. Conclusions. It has been established that the concept of a rational or dysrational agent and, therefore, the concept of artificial intelligence in a weak sense is relative. The strategy for the creation and development of organizational and technical systems is determined while fulfilling the proposed axioms and the validity of the considered assumptions.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И СОЗДАНИЕ СЛОЖНЫХ ОРГАНИЗАЦИОННО-ТЕХНИЧЕСКИХ СИСТЕМ (ЧАСТЬ II)»

УДК 004.896

doi:10.21685/2072-3059-2022-1-3

Искусственный интеллект и создание сложных организационно-технических систем (Часть II)

М. Ю. Бабич

Научно-производственное предприятие «Рубин», Пенза, Россия babichmj @mail.ru

Аннотация. Актуальность и цели. Рассмотрены сложные организационно-технические системы с элементами искусственного интеллекта, т.е. системы, в процессе функционирования которых решаются нетрадиционные задачи, связанные с творческими способностями человека. Поставлена задача доказать, что понятие искусственного интеллекта является относительным и зависит от наблюдателя, что может способствовать изменению современного взгляда исследователей на вопросы достижения в сложных организационно-технических системах возможностей искусственного интеллекта. Материалы и методы. Рассмотрено понятие рационального агента, не совершающего ошибок. Показана близость введенного понятия к носителю искусственного интеллекта в слабом смысле. Приведены аксиомы принадлежности рационального агента нескольким системам одновременно. Сложные организационно-технические системы анализируются в качестве многоагентных систем. Результаты. Проанализированы свойства организационно-технических систем, в контуре которых функционируют дисрациональные агенты, т.е. агенты, поведение которых не является рациональным. Доказано, что при соблюдении введенных аксиом принадлежности агентов системам понятие рациональности зависит от той системы, в которой находится наблюдатель, и от периода времени наблюдения. Рассмотрены нелинейные системы, к которым относятся многие организационно-технические системы. Доказано отсутствие адекватного аппарата прогнозирования в период наступления хаоса. Выводы. Установлено, что понятие рационального или дисрационального агента и, следовательно, понятие искусственного интеллекта в слабом смысле являются относительными. Определена стратегия создания и развития организационно-технических систем при выполнении предложенных аксиом и справедливости рассмотренных предположений.

Ключевые слова: организационно-техническая система, искусственный интеллект, многоагентная система, рациональный агент, синергетика, аттрактор, хаос

Для цитирования: Бабич М. Ю. Искусственный интеллект и создание сложных организационно-технических систем (Часть II) // Известия высших учебных заведений. Поволжский регион. Технические науки. 2022. № 1. С. 32-41. doi:10.21685/2072-3059-2022-1-3

Artificial intelligence and creation of complex organizational and technical systems (Part 2)

M.Yu. Babich

Research and Production Enterprise "Rubin", Penza, Russia babichmj @mail.ru

© Бабич М. Ю., 2022. Контент доступен по лицензии Creative Commons Attribution 4.0 License / This work is licensed under a Creative Commons Attribution 4.0 License.

Abstract. Background. Complex organizational and technical systems with elements of artificial intelligence are considered, that is, systems, in the course of their functioning, unconventional tasks related to human creative abilities are solved. The task is to prove the concept of artificial intelligence is relative and depends on the observer, which can contribute to a change in the modern view of researchers on the issues of achieving artificial intelligence capabilities in complex organizational and technical systems. Materials and methods. The concept of a rational agent that does not make mistakes is considered. The closeness of the introduced concept to the carrier of artificial intelligence in a weak sense is shown. The axioms of a rational agent belonging to several systems simultaneously are considered. Complex organizational and technical systems are considered as multi-agent systems. Results. The properties of organizational and technical systems, in the contour of which dysrational agents function, that is, agents whose behavior is not rational, are analyzed. It is proved that if the introduced axioms of agents' belonging to systems are observed, the concept of rationality depends on the system in which the observer is located and on the observation time period. Nonlinear systems, which include many organizational and technical systems, are considered. The absence of an adequate forecasting apparatus during the onset of chaos is proved. Conclusions. It has been established that the concept of a rational or dysrational agent and, therefore, the concept of artificial intelligence in a weak sense is relative. The strategy for the creation and development of organizational and technical systems is determined while fulfilling the proposed axioms and the validity of the considered assumptions.

Keywords: organizational and technical system, artificial intelligence, multi-agent system, rational agent, synergetics, attractor, chaos

For citation: Babich M.Yu. Artificial intelligence and creation of complex organizational and technical systems (Part 2). Izvestiya vysshikh uchebnykh zavedeniy. Povolzhskiy region. Tekhnicheskie nauki = University proceedings. Volga region. Engineering sciences. 2022;(1):32-41. (In Russ.). doi:10.21685/2072-3059-2022-l-3

Введение

Во многих отраслях народного хозяйства РФ и зарубежных стран большое значение приобретает внедрение сложных организационно-технических систем (ОТС) с элементами искусственного интеллекта (ИИ). Однако анализ работ ведущих специалистов в области ИИ показывает отсутствие единого мнения исследователей в вопросе создания полноценного ИИ. В этом случае разработчикам ОТС необходимо отбросить трудную проблему создания ИИ по Чалмерсу [1], остановиться только на решении легкой проблемы, рассматривая лишь обработку информации, пытаться приблизиться к ИИ, создавая системы с элементами ИИ, оставаясь в пределах обычных вычислительных алгоритмов.

Однако на этом пути развития ОТС существуют другие проблемы, которые в работе определены в качестве «второй задачи». Возникают вопросы: зависит ли понятие ИИ от наблюдателя, т.е. является ли оно не относительным; в какой мере можно прогнозировать поведение человека (и, следовательно, изменения состояния ОТС) на основе рациональных математических или имитационных моделей?

Вторая задача

Важным отличием ОТС от других систем является наличие в их контуре людей. Деятельность каждого человека зависит от многочисленных параметров, наличие которых оказывает на него влияние в той или иной степени.

Проектировщики ОТС, как и при проектировании любой другой системы, отбрасывают значительное количество входных параметров и останавливаются лишь на базовых параметрах, оказывающих, по их мнению, наибольшее влияние на систему, включая человека. По существу ОТС - это многоагент-ная система. Агент моделирует деятельность человека или группы людей (в зависимости от масштаба моделирования). Даже если не происходит реализации модели ОТС, все равно деятельность человека в виде функционирования агентов всегда находится в ментальных образах проектировщиков. При этом предполагается, что агент является рациональным (интеллектуальным) агентом. Понятие рационального агента с годами уточнялось и расширялось. Остановимся на самой общей формулировке.

Рациональный агент - агент (нечто воспринимающее и действующее в некоторой среде), который действует таким образом, чтобы можно было достичь наилучшего результата или в условиях неопределенности наилучшего ожидаемого результата [2]. Другими словами, в деятельности рационального агента реализуются элементы поведения ИИ.

ОТС создается для рациональных агентов, функционирующих в ее контуре, для лиц, принимающих решение, которые управляют ОТС и также являющихся рациональными агентами. Если во внешней среде имеют место столкновение, соперничество нескольких ОТС, то предполагается, что и конкурирующие ОТС включают в себя рациональных агентов.

В работах [3, 4] Г. Саймоном была введена концепция ограниченной рациональности, а еще раньше в [5] рассматривалось близкое понятие иррациональности. Выяснилось, что «дисрациональное» поведение человек осуществляет даже при высоком показателе интеллекта [6], и, следовательно, модели рационального поведения человека не адекватны действительности. Дисрациональное поведение оказывает существенное влияние на экономические показатели рынка, предприятий, государств, на результаты голосований, политическое поведение граждан и в целом на функционирование ОТС [7-14].

В статье [15] показано, что деятельность человека осуществляется в рамках его картины Мира. Является ли иррациональность следствием ошибочной картины Мира человека? Как моделировать иррациональное поведение для ОТС? В качестве случайной ошибки, равновероятной по всем вариантам? Или какие-то варианты отказа в рациональном (интеллектуальном) поведении имеют большую вероятность? Если да, то какие?

В дальнейшем, чтобы показать всю сложность проблемы, будем считать, что человек в любой системе, в любой ОТС действует рационально и ИИ, или наша модель деятельности человека - рациональный (интеллектуальный) агент, - помещен в среду, в которой он не допускает ошибок, что приближает его к идеальной реализации ИИ в слабом смысле, т.е. для которого решена легкая проблема по Чалмерсу.

Так как наш Мир разнообразен и деятельность человека (агента) разнотипна, то в условиях, когда агент может самостоятельно организовывать новые ОТС, переходить из одной ОТС в другую, выбирать новую ОТС для вхождения в нее, можно предположить, что любой агент принадлежит одновременно нескольким системам. Например, студент-вечерник одновременно принадлежит ОТС «ВУЗ» и ОТС «Предприятие», в которой он работает.

Комбатант принадлежит военизированному отряду и семье. Оператор производственного процесса принадлежит некой виртуальной системе, приборы сканирования которой отражают характеристики процесса, и реальному предприятию, в котором протекает производственный процесс (в случае отказа или ошибок одного из приборов системы будут функционировать по-разному).

Используем следующие обозначения: u - агент; - система; W- суперсистема, которой принадлежат системы, например: рабочий, завод, государство; Ри(Т) - цель агента; Р£Г) - цель системы, ради которой функционирует система 5; Т - период времени, за который должны достигаться поставленные цели. Исходя из цели Р5(Т) подсистема управления системой 5 определяет цели каждого агента Ри(Т), принадлежащего системе 5.

Агент принадлежит системе (или система принадлежит суперсистеме),

если:

- цель функционирования агента Ри(Т) (системы Р5(Т)) является частью цели функционирования системы 5 (суперсистемы Щ);

- система 5 (суперсистема Щ снабжает ресурсами агента и (систему 5);

- при попытке достижения цели агент (система) взаимодействует с элементами системы (суперсистемы).

Можно доказать свойства рефлективности и транзитивности определенной принадлежности.

Введем следующие аксиомы.

Аксиома 1. Каждый агент принадлежит одновременно нескольким системам, которые могут (в общем случае) принадлежать разным суперсистемам. Системы, которым агент принадлежит одновременно, не являются подсистемами друг друга:

(Уае А) л (35ь352) л (а е 51) л (а е 52) л (51 Ф 52) л (51 а 52) л (52 а 51) л л(5 с Щ[) л ((52 с Щ1) V (52 с Щ2)). (1)

Аксиома 2. Цели систем, которым агент принадлежит одновременно, не совпадают:

Р51 Ф Р52. (2)

Более подробно описанное рассмотрено в [16-18].

Пусть агент принадлежит одновременно двум системам 51, 52, которые

5 5

ставят агенту цели достижения Р 1и (Т) и Р 2 и (Т) исходя из своих целей Р51 (Т), Р52(Т). Так как Р^ (Т) Ф Р^ (Т), то возможно, что Р5\ (Т) Ф Р52и (Т).

В определенный период времени у агента может быть достаточно ресурсов, времени, желания выполнять действия по достижению двух целей одновременно. В другой период ресурсы агента или условия его функционирования могут этого не позволить. Тогда агент должен выбрать для себя более приоритетную систему и выполнять действия для достижения только ее цели. Другую цель агент должен игнорировать или пытаться достичь ее не полностью.

Если принять введенные аксиомы, то рациональность агентов будет зависеть от времени наблюдения и от того, в какой системе находится наблюдатель, т.е. понятие рациональности относительно. Докажем это.

Обозначим через а(1) действие агента в момент времени (. Предположим, что агент принадлежит одновременно двум системам: 31, «2 и Р«1 Ф Р«2 .

Будем рассматривать период Т = ^х, tf], teft. Предположим, что в период [4, ¿*], ^ < tf, агент в состоянии выполнять действия по достижению двух целей Р«1и (Т) и Р«2 и (Т) одновременно. Его траектория действий на интервале ^х, будет выглядеть следующим образом:

и и и (т), (3)

*

где tl = ^ = t .

Если в период (t, tf] условия функционирования изменились и агент выбрал приоритетную систему, например «1, то агент будет выполнять действия только для достижения цели Р«!и (Т). Цель Р«2и (Т), поставленная системой «2, будет проигнорирована. Траектория действий агента в период tf] будет выглядеть следующим образом:

и (^+1), и (^Х---, и (tf). (4)

Действия агента в интервале {] рациональны для любого наблюдателя. В период ^ , tf] агент рационален для наблюдателя, находящегося в системе «1, и иррационален для наблюдателя в системе «2. Сам агент и считает себя всегда рациональным.

Например, студент-вечерник вследствие большого объема работы на предприятии может пропустить вечерние занятия в ОТС «ВУЗ». Для наблюдателя, находящегося в ОТС «ВУЗ» (декан), его действия иррациональны, для наблюдателя, находящегося в ОТС «Предприятие» (руководство предприятия), - рациональны.

Таким образом, понятие рационального агента, не совершающего ошибок, а вслед за тем и понятие ИИ в слабом смысле являются относительными. Более подробно это предположение доказано в [19].

Введенные аксиомы оказывают скрытое влияние на функционирование ОТС, но не всегда и не на все [16]. Для простоты дальнейшего изложения откажемся от них. Рассмотрим проблему ИИ в парадигме синергетики [20-24]. В качестве носителя ИИ в слабом смысле по-прежнему будем рассматривать рационального агента, пытающегося не совершать ошибок. Заметим, что сам агент является простой ОТС, но в нашем случае неделимой на другие подсистемы, в отличие от многоагентных ОТС. Если суперсистемы ограничивают класс ОТС сверху, то агент - снизу.

Проанализируем проблему хаоса.

Рассматривая проблему сознания, Дж. Серл в [25] ввел понятие Фона. Фон состоит из психических способностей, диспозиций, установок, манер поведения, ноу-хау и т.д. Человек функционирует в области Фона, а Фон обусловлен тем, что, хотя человек ограничен в пространстве и во времени, любая реальная ситуация допускает бесконечное число описаний и любое описание всегда неполно. Пространство (наш мир) так огромно, что для деятельности любого интеллекта его можно считать бесконечным. Аналогично со временем.

Тем не менее человек пространственно ограничен и существует на ограниченном временном отрезке. Время, отведенное на решение задач прогноза, еще более ограничено. Конечный и ограниченный человек физически может создавать лишь конечные и ограниченные устройства. Исследуемая им математическая бесконечность только ментальна. Следовательно, рациональный агент, чья деятельность реализована программно и/или технически, также ограничен в пространстве и во времени.

Таким образом, человек и создаваемые им технические устройства или реализованные на них рациональные агенты являются объектами, ограниченными в пространстве и во времени, но существующими в неограниченном пространстве и времени. Человек может благодаря опыту и знаниям, накопленным человечеством и переданным ему предыдущими поколениями на генном уровне, а также в качестве рукописей, библиотек, баз данных, традиций, идеологий, расширить временные рамки. Но это не снимает проблемы ограниченности.

Обозначим через Х2 х (tj) состояние ОТС 5, включая людей, входящих в ее контур, в момент времени и. ОТС рассматриваем как объект, зависящий от параметров Х1, Х2,..., хп. Здесь и е Т. Ее траектория в пространстве состояний будет иметь вид

5х1 ,х2хп (tl),5х1;х2,...,хп 5х1 ,х2хп (/) . (5)

Модель ОТС 5м, которая нужна для прогнозирования изменений состояний системы 5, будет иметь траекторию

5Мхъх2,-,хк ^хъх2,-,хк х2,...,хк (t/) . (6)

В траекториях (5) и (6) значение к меньше п, к < п, так как всегда происходит абстрагирование от реальности и уменьшение числа базовых параметров, от которых зависит состояние ОТС.

В синергетике рассматриваются нелинейные системы. Для систем, не являющихся сложными ОТС, сводимость модели ОТС к линейной может быть еще допустима, но для сложных ОТС такое допущение делает модель не адекватной реальности. Для нелинейных систем состояние хаоса не является чем-то необычным. Некоторые ОТС проектируются специально для функционирования в период хаоса, например ОТС силовых структур [26]. Уже в [27] отмечалась своеобразность логики войны, было введено понятие «трение войны».

В период хаоса неожиданно возникает большое число параметров, небольшое изменение которых вызывает значительное изменение в траектории нелинейных ОТС. Возникает ситуация, когда к становится значительно меньше п, к << п, в реальности п = Имеют место неполнота и неопределенность входных данных. Режим функционирования системы становится неустойчивым. Это явление характерно для странных аттракторов: точек притяжения в фазовом пространстве системы, в окрестности которых малые возмущения входных параметров приводят к экспоненциальному нарастанию изменений в траекториях состояний системы. В этих условиях перестают корректно работать модели, необходимые для прогнозирования развития си-

туации. В работе [28] отмечается, что можно исследовать свойства разных странных аттракторов в условиях неопределенности и неполноты информации. В нелинейных системах можно понять динамические причины явлений, но нет возможности для прогноза их наступления. Как прийти к тому или иному состоянию - невозможно определить.

Если р - степень близости, то получаем, что для периода T

^ (и ), .....(ti )) >> в, (7)

где £ - значение приемлемой ошибки прогноза.

Сложно прогнозировать изменение состояния ОТС не потому, что чего-то не знаем или используемые модели некорректны, а, скорее всего, потому, что пытаемся исследовать процессы, протекающие в нелинейных системах, не поддающихся алгоритмизации в силу бесконечного числа возможных вариантов.

Рациональный агент, ИИ, ОТС не могут функционировать без какого-либо прогноза развития текущей ситуации, однако существуют периоды их функционирования, в которых это обеспечить невозможно.

Заключение

Так как у исследователей в соответствующих областях науки нет единства по поводу вопросов создания ИИ, сознания, вычислимости окружающей действительности, следует констатировать, что в таких условиях невозможно разработать четкую программу для разработчиков ОТС по постепенному усложнению ОТС и переходу все к более и более сложным и интеллектуальным ОТС. Разработчикам ОТС следует избегать работ по моделированию специфических функций сознания. Необходимо пытаться приблизиться к ИИ, создавая системы с элементами ИИ. Это относится только к ОТС, на разработку которых отводится не более 5-7 лет.

Как следует из результатов исследования, ИИ, для которого решена легкая проблема по Чалмерсу, не может быть всегда рационален, т.е. всегда работать без ошибок. Относительно и зависит от наблюдателя понятие рационального агента (упрощенного ИИ), помещенного в контур ОТС. Моделирование действий человека рациональным агентом играет важную роль в системах поддержки принятия решений. Возможно, поэтому с большим трудом происходит реальное внедрение результатов диссертационных работ, связанных с созданием систем поддержки принятия решений. Следовательно, необходимо искать другие подходы в прогнозировании изменения состояний ОТС, например [29].

Список литературы

1. Чалмерс Д. Сознающий ум. В поисках фундаментальной теории. М. : Либроком, 2019. 512 с.

2. Рассел С., Норвиг П. Искусственный интеллект. Современный подход. М. : Виль-ямс, 2006. 1048 с.

3. Simon Н. Admimstrative Behavior А Study of- Decision-Making Processes in Administrative Orgamzatiorn. New York, Macmillian, 1957. 198 p.

4. Simon H. Rationality as Process and as Product of Thought. Richard T.Ely Lecture // American Economic Review. 1978. Vol. 68, № 2. P. 1-16.

5. Becker G. S. Irrational Behavior and Economic Theory // Journal of Political Economy. 1962. Vol. 70. P. 1-13.

6. Станович К. Рациональное мышление. М. : Карьера Пресс, 2016. 352 с.

7. Tversky A., Kahneman D. Judgement Under Uncertainty: Heuristics and Biases // Science. 1974. № 185. P. 1124-1131.

8. Gigerenzer G., Selten R. Bounded rationality: the adaptive toolbox. Cambridge : MIT Press, 2002. 394 p.

9. Tirole J. Rational irrationality: Some economics ofself-management // European Economic Review. 2002. Vol. 46. P. 633-655.

10. Martinelli C. Would rational voters acquire costly information? // Journal of Economic Theory. 2006. Vol. 129, iss. 1. P. 225-251.

11. Акерлоф Дж., Шиллер Р. Spiritus Animalis, или как человеческая психология управляет экономикой и почему это важно для мирового капитализма. М. : Юнайтед Пресс, 2010. 273 с.

12. Wooldridge M. Reasoning about rational agents. Cambridge : MIT Press, 2010. 232 p.

13. Канеман Д. Думай медленно... решай быстро. М. : АСТ, 2013. 710 с.

14. Кузнецов О. П. Ограниченная рациональность и принятие решений // Искусственный интеллект и принятие решений. 2019. № 1. С. 3-15.

15. Осипов Г. С., Чудова Н. В., Панов А. И., Кузнецова Ю. М. Знаковая картина мира субъекта поведения. М. : Физматлит, 2018. 264 с.

16. Бабич М. Ю. Вопросы применения аксиом принадлежности агентов нескольким многоагентным системам в исследовании функционирования организационных и организационно-технических систем // Вопросы радиоэлектроники. 2018. № 12. С. 56-63.

17. Бабич М. Ю., Кузнецов В. Е., Бабич А. М. Принадлежность агентов нескольким системам: аксиомы, рефлексивность, прогнозирование // Радиопромышленность. 2020. Т. 30, № 1. С. 24-29.

18. Бабич М. Ю. Общий алгоритм функционирования систем и агентов в случае выполнения условий аксиом принадлежности // XXI век: итоги прошлого и проблемы настоящего плюс. Серия: Технические науки. Информатика, вычислительная техника и управление. 2016. № 3 (31). С. 85-89.

19. Бабич М. Ю., Бабич А. М. Влияние аксиом принадлежности агентов нескольким организационно-техническим системам на рациональное поведение агентов // Искусственные общества. 2021. T. 16. № 1. URL: https://artsoc.jes.su/ S207751800013885-2-1 (дата обращения: 30.03.2021).

20. Пригожин И., Стенгерс И. Порядок из хаоса: новый диалог человека с природой. М. : Прогресс, 1986. 432 с.

21. Капица С. П., Курдюмов С. П., Малинецкий Г. Г. Синергетика и прогнозы будущего. М. : Едиториал, 2003. 288 с.

22. Князева Е. Н., Курдюмов С. П. Основания синергетики. Синергетическое мировоззрение. М. : Либроком, 2014. 256 с.

23. Малинецкий Г. Г. Математические основы синергетики: хаос, структуры, вычислительный эксперимент. М. : Либроком, 2015. 310 с.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

24. Чернавский Д. С. Синергетика и информация: динамическая теория информации. М. : Либроком, 2015. 276 с.

25. Серл Дж. Открывая сознание заново. М. : Идея-Пресс, 2002. 256 с.

26. Арзуманян Р. Кромка Хаоса. Сложное мышление и сеть: парадигма нелинейности и среда безопасности XXI века. М. : Регнум, 2012. 600 с.

27. Клаузевиц К. О войне. М. : Государственное военное издательство, 1934. 692 с.

28. Майнцер К. Сложносистемное мышление: материя, разум, человечество. Новый синтез. М. : Либроком, 2009. 464 с.

29. Бабич М. Ю., Бахтияров Р. Ж., Гришанин Е. Г., Кузнецов В. Е., Чувашов А. А. Имитационное макетирование для специализированных организационно-технических систем // Радиопромышленность. 2021. Т. 31, № 1. С. 56-64.

References

1. Chalmers D. Soznayushchiy um. Vpoiskakh fundamental'noy teorii = Conscious mind. In search of a fundamental theory. Moscow: Librokom, 2019:512. (In Russ.)

2. Rassel S., Norvig P. Iskusstvennyy intellekt. Sovremennyy podkhod = Artificial intelligence. Modern approach. Moscow: Vil'-yams, 2006:1048. (In Russ.)

3. Simon N. Adshipistrative Behaviog: A Study of Decision-Making Processes in Adshin-istgative Orgapizatiops. New York, Macmillian, 1957:198.

4. Simon H. Rationality as Process and as Product of Thought. Richard T.Ely Lecture. American Economic Review. 1978;68(2):1-16.

5. Becker G.S. Irrational Behavior and Economic Theory. Journal of Political Economy. 1962;70:1-13.

6. Stanovich K. Ratsional'noe myshlenie = Rational thinking. Moscow: Kar'era Press, 2016:352. (In Russ.)

7. Tversky A., Kahneman D. Judgement Under Uncertainty: Heuristics and Biases. Science. 1974;(185): 1124-1131.

8. Gigerenzer G., Selten R. Bounded rationality: the adaptive toolbox. Cambridge: MIT Press, 2002:394.

9. Tirole J. Rational irrationality: Some economics ofself-management. European Economic Review. 2002;46:633-655.

10. Martinelli C. Would rational voters acquire costly information? Journal of Economic Theory. 2006;129(1):225-251.

11. Akerlof Dzh., Shiller R. Spiritus Animalis, ili kak chelovecheskaya psikhologiya uprav-lyaet ekonomikoy i pochemu eto vazhno dlya mirovogo kapitalizma = Spiritus Animalis, or how human psychology controls the economy and why it is important for world capitalism. Moscow: Yunayted Press, 2010:273. (In Russ.)

12. Wooldridge M. Reasoning about rational agents. Cambridge: MIT Press, 2010:232.

13. Kaneman D. Dumay medlenno... reshay bistro = Think slow... decide fast. Moscow: AST, 2013:710.

14. Kuznetsov O.P. Bounded rationality and decision making. Iskusstvennyy intellekt i prinyatie resheniy = Artificial intelligence and decision making. 2019;(1):3-15. (In Russ.)

15. Osipov G.S., Chudova N.V., Panov A.I., Kuznetsova Yu.M. Znakovaya kartina mira sub "ekta povedeniya = The iconic picture of the world of the subject of behavior. Moscow: Fizmatlit, 2018:264. (In Russ.)

16. Babich M.Yu. Issues of application of the axioms of belonging of agents to several multi-agent systems in the study of the functioning of organizational and organizational-technical systems. Voprosy radioelektroniki = Questions of radio electronics. 2018;(12):56-63. (In Russ.)

17. Babich M.Yu., Kuznetsov V.E., Babich A.M. Agents belonging to several systems: axioms, reflexivity, forecasting. Radiopromyshlennost' = Radio industry. 2020;30(1):24-29. (In Russ.)

18. Babich M.Yu. The general algorithm for the functioning of systems and agents in the case of the fulfillment of the conditions of the axioms of membership. XXI vek: itogi proshlogo i problemy nastoyashchego plyus. Seriya: Tekhnicheskie nauki. Informatika, vychislitel'naya tekhnika i upravlenie = The 21st century: the results of the past and the problems of the present plus. Series: Engineering sciences. Informatics, Computer Engineering and Control. 2016;(3):85-89. (In Russ.)

19. Babich M.Yu., Babich A.M. Influence of the axioms of belonging of agents to several organizational and technical systems on the rational behavior of agents. Iskusstvennye obshchestva = Artificial societies. 2021;16(1). (In Russ.). Available at: https://artsoc. jes.su/S207751800013885-2-1 (accessed 30.03.2021).

20. Prigozhin I., Stengers I. Poryadok iz khaosa: novyy dialog cheloveka s prirodoy = Order out of chaos: a new dialogue between man and nature. Moscow: Progress, 1986:432. (In Russ.)

21. Kapitsa S.P., Kurdyumov S.P., Malinetskiy G.G. Sinergetika i prognozy budushchego = Synergetics and future forecasts. Moscow: Editorial, 2003:288. (In Russ.)

22. Knyazeva E.N., Kurdyumov S.P. Osnovaniya sinergetiki. Sinergeticheskoe mirovoz-zrenie = Fundamentals of synergy. Synergetic worldview. Moscow: Librokom, 2014:256. (In Russ.)

23. Malinetskiy G.G. Matematicheskie osnovy sinergetiki: khaos, struktury, vychislitel'nyy eksperiment = Mathematical foundations of synergetics: chaos, structures, computational experiment. Moscow: Librokom, 2015:310. (In Russ.)

24. Chernavskiy D.S. Sinergetika i informatsiya: dinamicheskaya teoriya informatsii = Synergetics and information: dynamic information theory. Moscow: Librokom, 2015:276. (In Russ.)

25. Serl Dzh. Otkryvaya soznanie zanovo = Reopening consciousness. Moscow: Ideya-Press, 2002:256. (In Russ.)

26. Arzumanyan R. Kromka Khaosa. Slozhnoe myshlenie i set': paradigma nelineynosti i sreda bezopasnosti XXI veka = Edge of Chaos. Complex thinking and the network: the non-linearity paradigm and the security environment of the 21st century. Moscow: Reg-num, 2012:600. (In Russ.)

27. Klauzevits K. O voyne = Talking about war. Moscow: Gosudarstvennoe voennoe iz-datel'stvo, 1934:692. (In Russ.)

28. Mayntser K. Slozhnosistemnoe myshlenie: materiya, razum, chelovechestvo. Novyy sin-tez = Integrated systems thinking: matter, mind, humanity. New synthesis. Moscow: Librokom, 2009:464. (In Russ.)

29. Babich M.Yu., Bakhtiyarov R.Zh., Grishanin E.G., Kuznetsov V.E., Chuvashov A.A. Simulation prototyping for specialized organizational and technical systems. Radi-opromyshlennost' = Radio industry. 2021;31(1):56-64. (In Russ.)

Информация об авторах / Information about the authors

Михаил Юрьевич Бабич

доктор технических наук, доцент, главный специалист, Научно-производственное предприятие «Рубин», (Россия, г. Пенза, ул. Байдукова, 2)

E-mail: babichmj@mail.ru

Mikhail Yu. Babich

Doctor of engineering sciences, associate professor, key specialist, Research and Production Enterprise "Rubin" (2 Baidukova street, Penza, Russia)

Авторы заявляют об отсутствии конфликта интересов / The authors declare no conflicts of interests.

Поступила в редакцию / Received 24.09.2021

Поступила после рецензирования и доработки / Revised 22.10.2021 Принята к публикации / Accepted 17.01.2022

i Надоели баннеры? Вы всегда можете отключить рекламу.