Научная статья на тему 'Поведенческие модели кибер-физических систем и групповое управление: основные понятия'

Поведенческие модели кибер-физических систем и групповое управление: основные понятия Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
529
108
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПОВЕДЕНЧЕСКАЯ МОДЕЛЬ ИИ / ОНТОЛОГИЯ / СЦЕНАРИЙ / СИТУАЦИЯ / СИТУАЦИОННАЯ ОСВЕДОМЛЕННОСТЬ / УПРАВЛЕНИЕ ПРОЦЕССАМИ / ГРУППОВОЕ УПРАВЛЕНИЕ / BEHAVIOR PARADIGM OF INTELLIGENT SYSTEMS / ONTOLOGY / EVENT-DRIVEN CONTROL / SCENARIO / SITUATION / SITUATIONAL AWARENESS / GROUP CONTROL

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Городецкий Владимир Иванович

Рассматривается задача управления в сложных распределенных кибер-физических системах с гетерогенными ресурсами общего доступа. Такие системы обычно включают в себя большое число относительно простых автономных, а иногда и мобильных физических, виртуальных и социальных объектов, обладающих встроенными вычислительными и коммуникационными возможностями, которые способны совместно решать сложные интеллектуальные задачи на основе взаимодействий, демонстрируя при этом интеллектуальное поведение. Основные особенности организации управления в таких системах обусловлены тем фактом, что в них обычно параллельно решается много задач, и в решение каждой из них вовлекается некоторое подмножество автономных объектов. При этом каждый такой объект может участвовать параллельно в решении нескольких задач. Примерами приложений подобных систем являются сложные роботизированные производства, B2B сети производственных предприятий, коллективная робототехника, распределенные системы дистанционного зондирования наземной поверхности, составленные из большого количества малых спутников и другие актуальные приложения, которые относят к классу задач группового управления. Вместо традиционной парадигмы систем, основанных на знаниях, в рассматриваемом классе приложений в качестве теоретического фундамента предлагается использовать поведенческую парадигму искусственного интеллекта. Описание содержания и особенностей этой парадигмы, базовых понятий, которые составляют концептуальный базис онтологии для представления поведенческих (сценарных) знаний о процессах группового управления в сложных системах, является целью работы. В работе вводятся и описываются такие понятия онтологии как сценарий группового поведения, событие и событийная компонента системы управления, ситуация, исключительная ситуация, аварийная ситуация, ситуационная осведомленность, локальное, адаптивное и терминальное управление групповым поведением. Эти базовые понятия продемонстрированы на примере одного из наиболее актуальных современных приложений в области группового управления, а именно на примере сборочного процесса, реализуемого группой роботов без участия человека.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Городецкий Владимир Иванович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

BEHAVIORAL MODEL FOR CYBER-PHYSICAL SYSTEM AND GROUP CONTROL: THE BASIC CONCEPTS

The paper subject is a control problem in complex distributed cyber-physical systems possessing heterogeneous resources of shared access. As a rule, such systems comprise formidable number of relatively simple autonomous and often mobile physical, virtual and social objects with embedded computational and communication capabilities. These objects are designed to jointly solve complex intelligent tasks through intensive interactions while exhibiting an intelligent behavior. The basic features of such systems are caused by the fact that they can solve concurrently several tasks and each of these tasks may involve a subset of the autonomous objects of the system. At that, each system object can participate, in parallel, in performance of several system tasks. As examples of applications of the system in question, one can mention complex robotic manufacturing, B2B-production and logistics networks, swarm robotics, swarm satellite-based distributed surveillance systems, and like called as group control systems. The paper proposes to revisit the theoretical foundation of modeling traditionally exploited for the considered class of systems that is knowledge-based paradigm of Artificial Intelligence and to use behavior-based paradigm instead of it. Accordingly, the paper objective is to introduce and describe the basic concepts of behavior-based ontology intended to specify scenario knowledge and data constituting the shared information space of distributed cyber-physical system. This behavior-based ontology should represent domain-independent component of knowledge on group behavior and group control. In particular, the paper introduces such concepts of this ontology as group behavior scenario and its structure, event end eventdriven control component, situation, exceptional situation, emergent situation, situational awareness, local, adaptive and terminal group control. The advances and novel features of the behavior-based paradigm focusing on scenario knowledge model compared to the knowledge-based paradigm of intelligent systems are demonstrated based on adaptive group control as applied to a manufacturing assembly system performed, in autonomous mode, by a group of robots.

Текст научной работы на тему «Поведенческие модели кибер-физических систем и групповое управление: основные понятия»

УДК 007.52:004.896:004:942 DOI 10.23683/2311-3103-2019-1-144-162

В.И. Городецкий

ПОВЕДЕНЧЕСКИЕ МОДЕЛИ КИБЕР-ФИЗИЧЕСКИХ СИСТЕМ И ГРУППОВОЕ УПРАВЛЕНИЕ: ОСНОВНЫЕ ПОНЯТИЯ*

Рассматривается задача управления в сложных распределенных кибер-физических системах с гетерогенными ресурсами общего доступа. Такие системы обычно включают в себя большое число относительно простых автономных, а иногда и мобильных физических, виртуальных и социальных объектов, обладающих встроенными вычислительными и коммуникационными возможностями, которые способны совместно решать сложные интеллектуальные задачи на основе взаимодействий, демонстрируя при этом интеллектуальное поведение. Основные особенности организации управления в таких системах обусловлены тем фактом, что в них обычно параллельно решается много задач, и в решение каждой из них вовлекается некоторое подмножество автономных объектов. При этом каждый такой объект может участвовать параллельно в решении нескольких задач. Примерами приложений подобных систем являются сложные роботизированные производства, B2B - сети производственных предприятий, коллективная робототехника, распределенные системы дистанционного зондирования наземной поверхности, составленные из большого количества малых спутников и другие актуальные приложения, которые относят к классу задач группового управления. Вместо традиционной парадигмы систем, основанных на знаниях, в рассматриваемом классе приложений в качестве теоретического фундамента предлагается использовать поведенческую парадигму искусственного интеллекта. Описание содержания и особенностей этой парадигмы, базовых понятий, которые составляют концептуальный базис онтологии для представления поведенческих (сценарных) знаний о процессах группового управления в сложных системах, является целью работы. В работе вводятся и описываются такие понятия онтологии как сценарий группового поведения, событие и событийная компонента системы управления, ситуация, исключительная ситуация, аварийная ситуация, ситуационная осведомленность, локальное, адаптивное и терминальное управление групповым поведением. Эти базовые понятия продемонстрированы на примере одного из наиболее актуальных современных приложений в области группового управления, а именно на примере сборочного процесса, реализуемого группой роботов без участия человека.

Поведенческая модель ИИ; онтология; сценарий; ситуация; ситуационная осведомленность; управление процессами; групповое управление.

V.I. Gorodetsky

BEHAVIORAL MODEL FOR CYBER-PHYSICAL SYSTEM AND GROUP CONTROL: THE BASIC CONCEPTS

The paper subject is a control problem in complex distributed cyber-physical systems possessing heterogeneous resources of shared access. As a rule, such systems comprise formidable number of relatively simple autonomous and often mobile physical, virtual and social objects with embedded computational and communication capabilities. These objects are designed to jointly solve complex intelligent tasks through intensive interactions while exhibiting an intelligent behavior. The basic features of such systems are caused by the fact that they can solve concurrently several tasks and each of these tasks may involve a subset of the autonomous objects of the system. At that, each system object can participate, in parallel, in performance of several system tasks. As examples of applications of the system in question, one can mention complex robotic manufacturing, B2B-production and logistics networks, swarm robotics, swarm satellite-based distributed surveillance systems, and like called as group control systems. The paper proposes to revisit the theoretical foundation of modeling traditionally exploited for the considered class of systems that

*

Работа выполнена при поддержке РФФИ (проект № 18-01-00840).

is knowledge-based paradigm of Artificial Intelligence and to use behavior-based paradigm instead of it. Accordingly, the paper objective is to introduce and describe the basic concepts of behavior-based ontology intended to specify scenario knowledge and data constituting the shared information space of distributed cyber-physical system. This behavior-based ontology should represent domain-independent component of knowledge on group behavior and group control. In particular, the paper introduces such concepts of this ontology as group behavior scenario and its structure, event end event- driven control component, situation, exceptional situation, emergent situation, situational awareness, local, adaptive and terminal group control. The advances and novel features of the behavior-based paradigm focusing on scenario knowledge model compared to the knowledge-based paradigm of intelligent systems are demonstrated based on adaptive group control as applied to a manufacturing assembly system performed, in autonomous mode, by a group of robots.

Behavior paradigm of intelligent systems; ontology; event-driven control; scenario; situation; situational awareness; group control.

Введение. Системы искусственного интеллекта (ИИ) иногда называют системами, основанными на знаниях, и при этом последний термин всегда рассматривается как синоним систем ИИ. Это отражает тот факт, что базовой парадигмой ИИ с момента его зарождения и по настоящее время была и остается парадигма систем на основе знаний. В целом эта парадигма оказалась достаточно успешной и продуктивной. Большинство современных приложений в области ИИ реализуется именно на основе этой парадигмы. Использование знаний позволило успешно решить много новых практически важных прикладных задач, и их количество продолжает возрастать. Более того, интерес к применению методов и технологий ИИ в настоящее время растет с каждым днем, и этот интерес постоянно подогревается, прежде всего, людьми, далекими от науки, в частности, средствами массовой информации, а соответствующая тематика является непременной частью государственных программ, связанных с информационными технологиями.

В этой парадигме предметные знания о закономерностях прикладной системы, а также знания о внешнем мире и о механизмах принятия решений представляются с помощью символьных или нейросетевых моделей. Активное привлечение онтологий и успехи их использования на практике вывели модели и методы ИИ на основе знаний на семантический уровень, который использует в явной форме модели знаний, интерпретируемые в естественно-языковой семантике.

Однако уже в 1980-е годы разработчики интеллектуальных приложений обнаружили, что, несмотря на широкий спектр доступных моделей для преставления знаний и средств их программной реализации, с их помощью очень трудно, а иногда и невозможно описать многие очень простые вещи, и решать относительно несложные задачи, которые не представляют трудностей ни для человека, ни для животных, причем даже для таких животных, которые по уровню своего развития достаточно далеко отстоят от человека. К ним относятся различные многошаговые стратегии поведения в среде с неопределенностью, например, движение робота по коридору заранее неизвестной топологии при наличии препятствий. В настоящее время таких задача появилось много, например, в групповой робототехнике.

Человек выполняет такие задачи на уровне подсознания, без особых интеллектуальных усилий. Более того, животные, не обладающие интеллектом, способны к сложному коллективному поведению, собираясь в стаи и реализуя адаптивные сценарии группового поведения при добыче пищи или в коллективной борьбе за выживание. Особенно трудными оказались задачи, в которых нет модели или она динамична и внешний мир непредсказуем. В этом случае система управления может строить свое поведение только на основе сигналов сенсоров и обратной связи, используя локальную зрительную информацию для оценки изменений внешней среды в зависимости от выполняемых им действий. Часто говорят, что при исполнении

сложных движений человек использует мышечную память. Яркие примеры подобного поведения дают спортивные игры, фигурное катание, и т.п., и это при том, что "интеллектуальная составляющая" процесса управления в таких задачах для человека близка к нулю. Однако компьютерное моделирование этого "простого поведенческого интеллекта" средствами символьных моделей оказывается трудным, а модели поведения в таких случаях получаются непригодными на практике.

В истории ИИ известным примером средства описания символьных моделей поведения является инструмент STRIPS [1]. Он предназначался для описания поведения автономных сущностей и внешнего мира. В нем для представления знаний использовался язык исчисления предикатов, а для поиска стратегии целенаправленного поведения - механизм логического вывода. Система STRIPS использовала такие понятия как действие, предусловия, которые должны быть удовлетворены для его выполнимости, постусловия и т.п. Однако, она оказалась пригодной только для решения игрушечных поведенческих задач типа задач об обезьяне и банане или о Ханойской башне [2]. И дело оказалось не только в слабых выразительных возможностях исчисления предикатов и неэффективности механизмов логического вывода.

Причины неудач системы STRIPS, построенных на основе символьных моделей знаний о поведении, являются более глубокими [3-5]. Основной тезис работы [5] состоял в том, что интеллект искусственной системы, например, интеллектуального агента, возникает в результате взаимодействия системы и среды функционирования. Интеллектуальное поведение автономной системы возникает эмерджентно как композиция более простых структурированных актов его поведения и взаимодействия с другими агентами системы и внешней средой. Оказалось, что парадигма ИИ на основе знаний обладает пробелом в своей основе, и она не в состоянии эффективно решать задачи управления системой со сложным поведением.

Задачи группового управления, один из наиболее актуальных и сложных классов задач управления, диктуют необходимость пересмотра парадигмы систем ИИ на основе знаний. Анализ истории развития ИИ показывает, что понимание особенностей поведенческих задач было достигнуто уже на его ранних этапах (система STRIPS создана в 1971 г.). Столкнувшись с проблемам вычислительной эффективности логических языков, исследователи в свое время просто «перешагнули» через эту проблему, оставив ее последующим поколениям исследователей в области ИИ.

Описание содержания и особенностей базовых понятий поведенческой парадигмы искусственного интеллекта с акцентом на задачи группового управления составляет основное содержание данной работы. Целью работы на данном этапе не является структуризация этих понятий в стройную структуру онтологии как модели поведенческих знаний. Цель состоит в том, чтобы содержательно охарактеризовать эти понятия и показать, что многие их них, вполне естественные для концептуального моделирования поведения, по большей части, не используются в традиционных системах ИИ на основе знаний, а попытки использования традиционных средств ИИ для описания поведенческих систем приводят к громоздким и практически бесполезным моделям.

Отличия эволюция естественного и развития искусственного интеллектов. Эти отличия были проанализированы в [6]. В естественном интеллекте (ЕИ) выбор решений, предсказание состояний системы и внешней среды выполняются с помощью знаний, полученных в результате обобщения поведенческого опыта особи в динамической среде [7], а также обратной связи, получаемой от среды. Функция обобщения (индуктивного обучения по примерам), результатом которой является модель знаний особи о поведении, реализуется когнитивными процессами. Эволюция (развитие) ЕИ обязательно проходит через стадию обобщения опыта (рис. 1). Эта особенность эволюции ЕИ подчеркивается в [5, 7] и других работах на эту тему.

Рис. 1. Сравнение эволюция ЕИ и развития ИИ

Однако в системах ИИ, основанных на знаниях, компьютерная модель адаптивного поведения сущности отсутствует. В них данные о состоянии внешней среды, получаемые от сенсоров, напрямую используются для принятия решений с помощью модели "готовых" знаний, привнесенных извне, в частности, человеком. В современных системах ИИ обычно отсутствует также и обратная связь от среды, которая позволяла бы корректировать поведение системы в реальном времени даже при отсутствии модели внешней среды. Компьютерная модель индивидуального и коллективного поведения автономных агентов и последующее обучение на основе экспериментального опыта могли бы способствовать эволюции ИИ благодаря использованию искусственного когнитивного процесса, аналогичного тому, что имеет место в ЕИ [7]. Однако эта возможность отсутствует в системах на основе знаний, поскольку в ней вообще отсутствует компьютерная модель адаптивного поведения (рис. 1), которая лежит в основе обучения систем с ЕИ.

Системы, в которых интеллект формируется как результат индивидуального поведения множества физических сущностей (например, роботов) и/или виртуальных сущностей (программных агентов в динамической среде) и их взаимодействия, получили в свое время название систем, основанных на поведении (англ. Behavior-Based Systems, BBS). Соответственно, такие модели далее называются поведенческими моделями, или, для краткости, BBS-моделями.

Поведенческие модели ИИ. История развития BBS-систем насчитывает уже почти три десятилетия. R.A. Brooks [5] был первым, кто разработал архитектуру поведения интеллектуального агента без модели рассуждений. Эта архитектура известна как subsumption architecture (архитектура типа иерархии категорий/ Такие архитектуры получили впоследствии название реактивных архитектур, и они широко и успешно используются вплоть до настоящего времени.

В общем случае реактивная архитектура задает описание вариантов поведения системы ("паттернов ее поведения" [8]) в той или иной задаче некоторого их множества. Каждый из этих паттернов моделируется конечным автоматом, входами которого являются состояния внешней среды, воспринимаемые сенсорами системы, а выходами - реакции системы. В архитектуре, предложенной в [5], конечный автомат имеет структуру, в которой каждому входу ставится в соответствие выход по правилу "ситуация-действие", и выбор действия в ней не зависит от внутреннего состояния автомата.

Обычно варианты актов поведения представляются в виде многоуровневой структуры паттернов поведения, в которой верхним уровням соответствуют более высокие уровни абстракции (обобщения) паттернов поведения, которые детализируются с помощью подстановок на их место более низкоуровневых паттернов вплоть до элементарных действий. Например, если некоторый автономный агент управляет физическим роботом, то нижнему уровню модели соответствуют про-

стые компоненты проведения типа избегание столкновений, взятие детали и тому подобные. Ее верхние уровни ответственны за выбор траекторий перемещения, шаблона (сценария) поведения при выполнении некоторых конкретных действий, которые должны быть скоординированы с действиями других роботов, и т.п.

Однако реактивной архитектуре свойственен ряд ограничений [9], в частности:

1. Поскольку реактивный агент не использует модель внешней среды, то выбор действия должен базироваться на текущих сенсорных данных о ее параметрах. Вариантов таких данных может быть много, и заранее все их перечислить нереально, как нереально и перечислить отвечающие им действия. Размерность таблицы "ситуация-действие" для индустриальных приложений будет очень большой, и, тем не менее, для них всегда будут ситуации, в которых нужное действие не определено.

2. Поскольку автомат, реализующий реактивную архитектуру, не имеет внутреннего состояния, то решения им принимаются только на основе текущей информации, и потому автомат не в состоянии принимать решение тогда, когда решение нужно принимать по информации, относящейся к разным моментам времени. Аналогично предыдущему, эту проблему частично можно решить путем параметризацией действий, задаваемых в таблице, если в качестве параметров выступают атрибуты внутреннего состояния автомата. Однако, этого тоже оказывается мало.

3. Остается открытым вопрос о том, как и можно ли в принципе использовать такую архитектуру, если система должна обучаться высокоуровневому поведению. К настоящему времени имеются примеры агентов реактивной архитектуры, способных обучаться только низкоуровневым актам поведения. Например, это широко используется при обучении роботов игре в футбол.

4. Неясно, каким образом можно организовать локальное взаимодействие низкоуровневых компонент поведения системы во внешней среде, чтобы результирующее высокоуровневое (групповое) поведение множества этих компонент (агентов) отвечало нужному интеллектуальному поведению системы в целом.

Имеются и другие ограничения реактивной архитектуры в поведенческих моделях ИИ, которые существенны для интеллектуальных BBS- систем.

В современных BBS-системах, в отличие от их «чисто реактивных» предшественников, во-первых, рассматривают более сложные модели паттернов поведения, например, в виде частично упорядоченных последовательностей действий, называемых сценариями, и, во-вторых, они при формализации с помощью модели конечного автомата используют внутреннее состояние для учета предыстории. Поэтому при формировании стратегии поведения они потенциально обладают способностью планировать, обучаться и рассуждать. Кроме того, в них, как и в ранее описанной реактивной архитектуре, паттерны организованы в иерархическую структуру. Известным примером таких систем являются холонические системы. Отметим также, что активно развиваемые в настоящее время самоорганизующиеся системы также, по своей сути, являются BBS-системами. В них каждая автономная сущность исполняет некоторые паттерны поведения, инициируемые протоколом их локальных взаимодействий. Результатом этих взаимодействий является эмерджентное групповое поведение самоорганизующейся системы в целом [10, 11].

Хотя выше в качестве примеров BBS-систем упоминались приложения из области автономной (мобильной) робототехники, и это действительно основной класс приложений BBS-систем [12], областью приложений поведенческих моделей ИИ является также практически неограниченный класс задач управления бизнес-процессами, в частности, технологическими и другими процессами производственных предприятий и их сетевых объединений, известных под названием B2B-сети (от англ. Business-to-Business). Как и в любых задачах управления сложными

распределенными бизнес-процессами, в них формулируются такие задачи, как анализ, планирование и координация распределенного выполнения потоков работ. Однако, по сути, это задачи распределенного управления поведением объектов. Неслучайно именно для этого класса приложений были разработаны разнообразные языки и стандарты спецификации сложных сценариев поведения распределенных сущностей, которые естественно обобщаются на случай интеллектуальных BBS-систем.

Далее описываются базовые понятия BBS-систем группового управления.

Сценарий, его модель и ограничения. Под сценарием группового поведения некоторого множества автономных сущностей будем понимать частично -упорядоченное множество действий, каждое из которых выполняется либо одной такой сущностью, либо какой-то их группой (подмножеством). Частичный порядок на множестве действий сценария обязателен к соблюдению: каждое действие может выполняться только после завершения действий, являющихся его непосредственными предшественниками в частично упорядоченном множестве действий сценария. Заметим, что процесс производства или сборки сложного продукта типа самолета, процесс управления сложными разработками (проектами) является процессом исполнения частично упорядоченного множества действий (работ).

Сценарий обычно имеет иерархическую структуру, в которой каждое действие сценария любого уровня абстракции может быть, в свою очередь, представлено сценарием с иерархической структурой. Полагается, что элементарное действие является неделимым и может выполняться только какой-то одной автономной сущностью. Заметим, что понятие «неделимости» действия является относительным - оно зависит как от возможности/целесообразности его дальнейшей декомпозиции, так и от способностей автономных сущностей системы выполнять это действие в целом. Например, если подводный робот обладает сонаром для сканирования подводных объектов и выполнять их видеосъемку, то если в некотором сценарии необходимо выполнить оба эти действия с промежуточной сменой местоположения и пространственной ориентации, то все эти задачи для такого робота можно рассматривать как одно действие. В противном случае потребуется привлекать пару роботов, и тогда описанное выше действие уже не может рассматриваться как элементарное.

Формально иерархическая структура сценария группового поведения автономной сущности может быть описана с помощью частично упорядоченного множества действий верхнего (наиболее абстрактного, агрегированного) уровня и иерархической системы подстановок, каждая из которых конкретному действию определенного уровня иерархии ставит в соответствие, в свою очередь, некоторый сценарий (паттерн поведения), который состоит их частично упорядоченного множества действий более детального уровня абстракции. Если обратиться к более формальному описанию модели сценария, то его можно представить следующим образом:

S = {X> } , (1)

где S - имя сценария, X = {XJ f= х - множество действий Xt сценария S, " > " - отношение порядка на множестве действий сценария, которое задается условием

, (2)

где - времена начала и окончания выполнения действия , а

имеют тот же смысл для действия .

Операция подстановки паттерна поведения более детального уровня представления на место действия формально описывается в виде

5 (Хд: 5 (ХО ^Х¿, (3)

где 5 (Х ¿) - паттерн поведения, подставляемый на место символа действия Х¿.

Исполнение сценария/действия Х¿ происходит во времени, и потому временные характеристики его исполнения являются важными атрибутами, от которых могут зависеть те или иные ограничения на другие свойства сценария. Типичным примером ограничений, помимо тех, что формализуют отношение порядка на множестве действий сценария, представленных неравенством (2), являются ограничения, задающие допустимую привязку действий к календарному времени:

гр(1) < М) < грф < < у (О (Л\

10,т¿п — ^ 0 — 10,тах'и 1 кт¿п — ^ к — 1 к,тax, (4)

где , , , - ограничения на самое раннее и самое позднее

календарное время начала исполнения сценария/действия и на аналогичные времена его окончания, соответственно. Например, если автономными сущностями являются беспилотные летательные аппараты, то такое действие, как «видеосъемка объекта» может проводиться только в светлое время суток. В задачах дистанционного зондирования Земли допустимыми являются сеансы наблюдения в интервалы времени, когда имеет место отношение прямой видимости между спутником и наземным объектом. В задаче развозки грузов транспортной компанией могут быть жестко заданы временные интервалы загрузки/ доставки груза.

Примером ограничения на пару смежных действий сценария, содержательно отличного от (2), является задание максимально допустимого интервала времени между моментом окончания предыдущего действия и началом последующего. Примером такого отношения является задание таймаутов, применяемых для синхронизации параллельных процессов сценария. Ограничения такого типа могут задаваться в различных формах, как это диктуется временной алгеброй Аллена [13].

Отметим, что описанная иерархическая модель сценария может быть также задана процедурно как многоуровневая формальная атрибутная грамматика с аксиомой 5 и конечным множеством правил подстановки типа (3), в которой каждому символу поставлено в соответствие множество атрибутов с ограничениями на область их задания. Такая формализация сценария была предложена в работе [13].

Сценарии, кибер-физические системы и автономные агенты. Приведенная абстракция сценария поведения описывает поведение кибер-физической системы (КФС), состоящий из автономных сущностей со встроенными вычислительными и коммуникационными возможностями. Каждая такая сущность обладает возможностью выполнять какое-то множество действий, которые называются ее способностями, обладает ресурсы, необходимые для реализации способностей, а также может взаимодействовать с другими сущностями КФС при совместном исполнении сценариев группового поведения. Полагается, что каждая автономная сущность КФС может параллельно участвовать в исполнении разных сценариев поведения и/или в исполнении разных паттернов поведения в рамках одного сценария, если ее ресурсы это допускают и это не нарушает ограничения на частичный порядок действий сценария. Полагается также, что априорное и он-лайн планирование бесконфликтного использования ресурсов автономных сущностей при параллельном исполнении паттернов поведения является задачей самой системы независимо от того, что является причиной возникновения конфликтов по использованию ресурсов или других конфликтов. КФС с такими свойствами далее называется автономной.

Использование термина «автономная КФС» здесь не означает, что в ней не может быть компонент централизованного управления. Например, в такой системе часть данных может быть доступна всем компонентам системы. Она может содержать какие-то данные о системе в целом, например, мета информацию. Примером

может быть база данных типа таблиц белых и желтых страниц, которые содержат все текущие данные об именах автономных компонент, их интернет-адресах (уникальных идентификаторах), а также информацию о тех задачах, которые может выполнять каждая автономная сущность и ресурсах, которые она может предоставлять в распоряжение других автономных компонент. Примерами таких ресурсов могут быть вычислительные возможности, каналы связи, память для хранения информации и др. Термин «автономная система» в данном материале означает, главным образом, что она решает задачи управления устройствами и ресурсами, включая формирования сценариев решения задач, без вмешательства извне, а внешнее вмешательство, в основном, касается целеполагания и входных заявок на решение задач.

На абстрактном уровне локальные компоненты автономной КФС совместно формируют распределенную систему и участвуют в совместном параллельном решении различных задач (сценариев), взаимодействуя между собой с помощью некоторых протоколов (распределенных алгоритмов) кооперации, координации и/или разрешения конфликтов. Поскольку работа ориентируется на то, что в основе концептуализации автономной КФС будет использоваться метафора агента и много-агентной системы (МАС), то далее везде понятие автономной сущности будет отождествляться с понятием автономного программного агента. В этой концепции каждый агент является либо представителем той ли иной компоненты распределенной КФС в «мире программ» системы в целом, либо он является представителем той или иной компоненты цифрового двойника кибер-физической системы. Использование концепции МАС и автономных агентов мотивируется тем, что в автономной КФС все задачи решаются на основе взаимодействия локальных компонент и принципов самоорганизации, а в настоящее время такие возможности предоставляет практически только концепция и технология автономных агентов и МАС,

События в кибер-физической системе и управление от событий. Как известно, для реализации процедурной семантики сценария обычно используется модель с управлением от событий (англ. event-driven). В этой модели запуск исполнения сценария, окончание исполнения некоторого его действия, выполнение условий допустимости исполнения очередного/очередных действий сценария в соответствии с заданным частичным порядком, выполнение условий нормального окончания исполнения действий/сценария и, возможно, другие переходы состояния исполнения сценария фиксируются в системе с помощью событий с заданной семантикой. Каждое событие или поступает в систему из внешнего мира, или оно генерируется в ней проактивно. Каждое такое событие влечет вполне определенную реакцию системы или ее отдельных компонент (агентов), переводя процесс исполнения сценария в новое состояние. Эти события отвечают нормальному исполнению сценария и предоставляют информацию, необходимую для мониторинга ее работы.

Однако, идеальное исполнение сценария в реальных ситуациях является маловероятным. Может изменяться внешний мир КФС (например, произошла авария на внешней электросети), сама эта система подвержена случайным возмущениям (например, вышло из строя некоторое оборудование, не соблюдены по каким-то причинам плановые временные рамки исполнения действий сценария и др.). Естественно, что система должна иметь средства диагностики таких фактов, которые должны генерировать события соответствующей семантики, изменяющие состояние исполнения сценария и требующие реакции системы управления исполнением сценария. Эта компонента поведенческой модели системы, реализующая генерацию событий и механизмы реакции на них, имеет целью мониторинг и управление процессом исполнения сценария в реальном времени. Будем ее далее для краткости называть событийной компонентой системы группового управления.

Таким образом, групповое поведение автономных сущностей КФС при исполнения сценария управляется событиями, которые генерирует событийная компонента, все события которой можно разделить на три группы:

1) События, управляющие исполнением сценария и поставляющие информацию, необходимую для мониторинга поведения системы.

2) События, которые генерируются при возникновении исключительной ситуации (англ. exceptional), которая свидетельствует о нарушении нормального хода исполнения сценария, а ее возможность предусмотрена в системе, и для нее заготовлен сценарий обработки, имеющей целью перевод системы в режим нормальной работы или в некоторый другой, но заранее предусмотренный режим работы.

3) События, которые генерируются в случае аварийной ситуации, для которой отсутствует какой-либо механизм детектирования и сценарий обработки.

Как правило, реакция на то или иное событие имеет целью организовать определенный информационный обмен между сущностями КФС, чтобы обеспечить выполнение требуемых действий. В случае событий первой и второй групп такие действия предусмотрены заранее, и они однозначно определяются семантикой событий. В случае событий третьей группы реакция на них должна определяться с помощью экспертного анализа, возможно, с использованием цифрового двойника КФС.

Ситуация. Важным понятием поведенческой модели КФС является понятие ситуации. Существуют разные его трактовки. При этом, часто исследователи не делают различия между понятием состояния системы и ситуации в ней. Эти различия обсуждаются в [14-16]. На основе этих обсуждений в [6] ситуация определяется как динамическая виртуальная сущность, привязанная к интервалу времени (например, к интервалу времени между парой последовательных событий), которая задает оценку того, что происходило, происходит и будет происходить в системе с некоторой точки зрения. Еще раз обратим внимание на то, что эта оценка интегрирует в себе взгляд на происходящее в системе на определенном интервале времени, охватывающем прошлое, настоящее и будущее, и касается какой-то вполне определенной точки зрения. В отличие от оценок состояния системы, которое описывается множеством ее объектов и их атрибутов в конкретный момент времени, ситуация описывается дополнительно отношениями на множестве этих объектов системы и охватывает интервал времени. Важно также отметить, что одна и та же система на одном и том же интервале времени может рассматриваться с разных точек зрения, а потому в ней могут сосуществовать несколько разнотипных оценок ситуаций.

Обычно множество возможных ситуаций одного типа факторизуется, так что эксперт оперирует качественными оценками, т. е. классами ситуаций. Например, если для целенаправленной системы все множество ситуаций принято разделять на три класса, а именно (1) «цель достижима», (2) «цель недостижима» и (3) «цель перестала быть актуальной». Например, в системе группового управления подводными роботами может возникнуть ситуация, когда робот, преследующий неизвестный объект, обладает недостаточной скоростью, чтобы догнать его с целью инспекции. Такая ситуация оценивается как «цель недостижима» с принятием решения, например, о прекращении преследования. Но если скорость робота позволяет догнать неизвестный объект, но он успевает покинуть территориальные воды страны, то ситуация оценивается ка «цель перестала быть актуальной». Другой тип ситуации - это оценка степени опасности для системы возмущений со стороны внешней среды на заданном интервале времени. Напомним, что ранее рассматривались события, отвечающие нормальным, исключительным нештатным ситуациям.

Информацию о том, что происходило, происходит и/или будет происходить в системе и во внешнем мире с какой-то точки зрения иногда называют также контекстом ситуации. Поэтому понятие ситуации можно определить как множество контекстов системы, упорядоченных во времени и оцениваемых с одной точки зрения, а класс ситуации - как некоторую факторизацию этих контекстов.

Ситуационная осведомленность в групповом управлении. В распределенной КФС разные ее компоненты (агенты), участвующие в групповом исполнении сценария, могут иметь разный уровень информированности о том, что происходит во внешнем мире. Знания агента о внешнем мире называют его убеждениям. Отличие убеждений от знаний состоит в том, что разные агенты могут иметь разные убеждения об одном и том же, могут иметь неполные и неверные знания о том, что касается групповой работы, получая информацию разной достоверности из разных источников и в разное время. Но в задачах группового управления нужно, чтобы все агенты, исполняющие общий сценарий, обладали согласованной информацией и в объеме в соответствии с их ролями в сценарии.

Этот аспект задачи группового управления описывается очень важным понятием ситуационной осведомленности. Оно базируется на аналогичном по названию и близком по смыслу понятии, введенном автором [17] в его ранних работах (1995) как «когнитивный процесс, который строится на основе оценки ситуации, и включает в себя восприятие информации о внешней среде в некотором временном и пространственном аспектах, понимание смысла ситуации и прогнозирование ее статуса на ближайшее будущее» (перевод по тексту, данному в [18]). Вообще говоря, это определение касается ситуационной осведомленности человека, который участвует в исполнении сценария группового поведения. С практической точки зрения важно, чтобы ситуационная осведомленность была такой, что она позволяет человеку выполнять свои действия в сценарии в нужное время и в соответствии с его ролью.

Аналогичный смысл вкладывается в этот термин и в моделях группового поведения автономных агентов. Говорят, что агент обладает нужной ситуационной осведомленностью, если он владеет такой информацией о ходе исполнения сценария и о своей роли в нем, которая позволяет ему однозначно определять свое очередное действие и время начала его исполнения. Хотя это и несколько упрощенная характеристика понятия ситуационной осведомленности исполнителя группового сценария, но оно позволяет понять, на основе какой информации и как агенты могут координировать свое поведение в групповой работе. Поэтому, одна из важных задач системы группового управления состоит в том, чтобы процессе исполнения сценария гарантировать необходимую их ситуационную осведомленность. Практическое решение этой задачи обеспечивается корректной стратегией информационного обмена в системе в реальном времени и в соответствии с корректным протоколом.

Естественно, что возможный выбор стратегии информационного обмена зависит от архитектуры системы группового управления, например, от архитектуры ее коммуникационной компоненты. При централизованной архитектуре синхронизацию может обеспечить мета агент, обладающий полной информацией о структуре сценария, его текущем состоянии исполнения и о коммуникационных каналах. Такой агент может реализовать нужный и своевременный обмен информацией между агентами системы, обеспечивающий их ситуационную осведомленность, а также генерацию событий, управляющих их групповым поведением в реальном времени.

Более сложная стратегия информационного обмена необходима при распределенном управлении. Разные авторы предлагают различные стратегии поддержания требуемой ситуационной осведомленности агентов при групповом управлении. Например, в системе КЕТ8ША [19] эта задача решается в соответствии с такими принципами:

1. Все исполнители сценария должны знать весь сценарий и исполнителей конкретных действий в нем, включая «свои» действия. Хорошо известным примером протокола реализации этого принципа, является протокол общих намерений [20].

2. При исполнении сценария каждый агент знает, какие действия выполняются в текущий момент, и какими агентами. Сигналом для инициирования своего очередного действия для агента будут входные события об окончании исполнения всех действий, непосредственно предшествующих его действию в общем сценарии.

Имеются и другие варианты непрерывной поддержки ситуационной осведомленности распределенных агентов и отвечающие им протоколы информационного обмена. Отметим, что в настоящее время эта задача является объектом исследований и в литературе обсуждаются механизмы, использующиеся на такие понятия, как распределенная ситуационная осведомленность, групповая осведомленность, кооперативная осведомленность и другие [17, 18].

Оперативное управление и трансформация сценария. Основная задача системы группового управления - это мониторинг процесса исполнения сценария и обработка исключительных ситуаций в реальном времени (оперативное управление). Выше было отмечено, что для каждой исключительной ситуации система управления должна иметь механизм ее детектирования, возможно, алгоритм обнаружения причины ее появление и сценарий обработки, компенсирующий последствия этой ситуации. В цели данной работы не входит детальный анализ задачи обнаружения исключительных ситуаций и выработка механизмов управления ими, поскольку это отдельная задача. Однако в интересах построения понятийной базы сценарного управления в КФС представляет интерес анализ вариантов группового управления с позиций их воздействия на структуру исполняемого сценария и/или на его атрибуты. Поскольку сценарий обычно является иерархическим, и в нем каждое действие, в свою очередь, может быть сценарием, то далее не будет иметь значения, о сценарии какого уровня вложенности идет речь. Естественно, что возможный масштаб последствий исключительной ситуации одного и того же типа может сильно различаться для случая ее появления в сценарии верхнего уровня и случая, когда сценарий относится к более детальному уровню описания. Однако с понятийной (онтологической) точки зрения здесь это различие не является существенным.

Существенным на уровне онтологии является влияние механизма обработки исключительной ситуации на трансформацию исполняемого сценария. В этом смысле будут различаться три варианта управляющих воздействий:

♦ воздействие, которое затрагивает только атрибуты сценария, но не структуру его исполнения, так что в результате обработки исключительной ситуации система продолжает исполнять тот же сценарий, а оперативное управление в этом случае затрагивает потребные ресурсы, а также, возможно, итоговые временные рамки исполнения всех предстоящих действий сценария или только некоторых из них;

♦ управляющее воздействие приводит к изменению структуры текущего сценария и, соответственно, вложенных него сценариев более детального уровня;

♦ управляющее воздействие приводит к изменению структуры всей оставшейся части сценария бизнес-процесса.

В первом случае можно говорить о том, что групповое управление является локальным, поскольку реализуется в пределах одного сценария того или иного уровня абстракции и затрагивает его атрибуты (назначенные ресурсы, временные характеристики и т.п.) и атрибуты сценариев, вложенных в него. Во втором случае обработка исключительной ситуации переводится на более высокий уровень абст-

ракции, когда изменения будут затрагивать структуру сценария следующего, более высокого уровня абстракции. Этот вариант управления обычно называют адаптивным управлением, поскольку он ведет к структурным изменениям части сценария. В третьем случае управление требует глобального перепланирования исполнения всей оставшейся части сценария с сохранением неизменным только терминального (целевого) состояние сценария. Будем его называть терминальным управлением. В этом случае решается заново задача планирования группового поведения системы.

Демонстрационный пример: групповая работа сборочных роботов. Рассмотрим задачу из области коллективной робототехники применительно к производственному процессу сборки некоторого изделия из комплектующих элементов, называемых обычно сборочными единицами (СЕ).

Будем предполагать, что сборка изделия выполняется тремя роботами множества Я = {И1 , И2 , Из } , располагающимися вокруг сборочной платформы. Пусть имеется 5 типов СЕ, представленных множеством ,

которые используются для сборки целевого изделия и при этом

¡)( 1)=)з, )4} - типы СЕ, с которыми может работать робот Их ; ¡)(0 = {)2, )з , )5} - типы СЕ, с которыми может работать робот И2; ¡)(0 = {р^^ , )2, ) 5} - типы СЕ, с которыми может работать робот Из ;

Эти характеристики робота принято называть способностями роботов.

Сборочные единицы находятся в «корзинах», расположенных около сборочной платформы. Размещение СЕ по корзинам может быть разным. При этом каждый робот имеет доступ к некоторому подмножеству «корзин», и, кроме того, роботы могут еще передавать СЕ из доступных им корзин другим роботам, если каких-то СЕ нет в собственных корзинах роботов, но они им нужны в соответствии со сценарием сборки и собственной ролью в нем. Предполагается, что каждый робот точно знает состав СЕ, которые находятся в текущий момент в корзинах, которые ему доступны. Если сборочные роботы мобильны, то они могут перемещаться в направлении любой корзины, что может рассматриваться как альтернатива передаче детали от одного робота к другому.

Важным понятием ББ8-системы является понятие сценария (поведения). В рассматриваемом примере сценарий сборки целевого продукта описывается составом используемых СЕ, а также отношением порядка на их множестве. При этом каждая СЕ в сценарии задается уникальным идентификатором. Пусть - множество уникальных идентификаторов СЕ, из которых состоит целевое изделие, при этом их типы такие, как это представлено в таблице ниже: Отметим, что если в целевом продукте используется несколько экземпляров полностью идентичных СЕ, то они имеют одинаковые типы в корзинах, но имеют разные идентификаторы в сценарии, поскольку в изделии он будут размещаться на разных позициях, а в сценарии сборки им будут соответствовать разные действия.

СЕ г2 г. г7 г9 % 10 % 12

Тип о2 о4 о3 о4 о2 03

Зададим отношение частичного порядка на множестве операций сборки изделия парами непосредственно следующих операций по установке СЕ, как это представлено ниже в (5):

а = {г, > } = {г, { (г8>г4). ^ >г4) , ^ >г7) , (г± 2 >г7) , (г6 >г7), (г9>г8),

^о^), !>г2), (¿ъ>1х2), ^ >г6), (г^з), (г5>гх), (г5>гхх)}}. (5

Zsl

Рис. 2. Граф сценария сборки изделия

Это отношение может быть представлено графом на множестве действий (рис. 2). Заметим, что этот граф может быть построен автоматически по простому алгоритму. Назовем его графом сценария. В нем вершины ставятся в соответствие действиям сценария, а дуги представляют отношение порядка на них.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

На практике более наглядным является представление графа сценария, в котором для любой пары непосредственно следующих элементов, перечисленных в формуле (5), индекс предшествующего элемента строго меньше индекса непосредственно следующего за ним элемента частично упорядоченного множества действий. Существует простой алгоритм, который автоматически перенумеровывает элементы частично упорядоченного множества указанным образом. Кроме того, этот алгоритм ставит в соответствие каждой вершине графа целое число, называемое ее рангом. Ранг вершины указывает максимальное число дуг, которые соединяют ее с начальными вершинами (начальные вершины не имеют входных дуг).

Вычисление ранга вершины имеет большое практическое значение в рассматриваемой задаче, поскольку все действия сценария сборки, которым в графе отвечают вершины с одинаковым значением ранга, могут исполняться параллельно или в любом порядке. Такую форму представления графа принято называть его ярусно-параллельной формой. В таблице ниже приведен возможный вариант изменения нумерации вершин графа сценария, представленного на рис. 3:

Исходная индексация Zi Z2 z3 Z4 z5 Ze Z7 ZQ z9 Z±o Zu Z±2

Новая индексация х1г Х3 Хю Хг Х±2 Хе х2 X1 Xj Xq X9 X5

Тогда граф рис. 2 в новых обозначениях в ярусно-параллельной форме будет выглядеть так, как это дано на рис. 3. Заметим, что порядок нумерации вершин графа рис. 3 одинакового ранга, значения не имеет.

Но граф сценария является только частью модели множества допустимых сценариев. Сценарий должен еще описывать распределение исполнителей по частично упорядоченному множеству действий и привязку действий ко времени. Примером полного описания сценария является диаграмма Ганта, в которой каждому действию ставится в соответствие исполнитель и интервал времени его исполнения.

Рис. 3. Граф сценария сборки изделия после упорядоченной нумерации вершин

Возможны различные стратегии формирования сценария:

1. Сценарий строится «от начала до конца». В этой стратегии, каждому действию заранее ставится в соответствие исполнитель, способный выполнить это действие (как это делается алгоритмически - этот вопрос здесь оставим без ответа). Далее, в соответствии с информацией о потребных временных затратах на исполнение того или иного действия назначенным исполнителем, строится диаграмма Ганта привязывающая граф сценария с назначенными исполнителями ко времени. Для построения этого сценария нужно воспользоваться алгоритмом распределения роботов по множеству действий с учетом их способностей и непротиворечивого их использования во времени, а также используя заданное множество показателей качества реализации сценария и адекватный механизм многокритериального выбора.

2. Сценарий в его классическом понимании вообще не строится, а он формируется в процессе выполнения сборки. В таком варианте на каждом шаге (по модели «от события к событию») строится множество действий, которое допустимо выполнять в зависимости от текущего состояния сборки изделия, и для каждого такого действия назначаются в реальном времени исполнители (роботы) с учетом их способностей и их занятости во времени другими операциями сборки. При этом необходимо использовать некоторые правила адаптивного выбора в реальном времени. В итоге такого адаптивного процесса реализуется некоторый сценарий сборки изделия с распределением исполнителей по его компонентам и привязкой всех действий ко времени. О сценарии в этом случае можно говорить только после того, как он исполнен. Заметим, что в реальности этот случай наиболее типичен, поскольку при исполнении любого даже заранее созданного сценария будут возникать исключительные ситуации. Они будут так или иначе «деформировать» спланированный сценарий и его привязку ко времени. В описываемой стратегии учитывается тот факт, что практически любой заранее построенный сценарий в итоге не реализуется, а потому, возможно, нет смысла этот сценарий и строить вообще.

3. Между двумя описанными крайними случаями (детерминированная стратегия и стратегия, формируемая онлайн) существует бесконечное множество вариантов стратегий, которые представляют собой комбинации двух названных стратегий. В общем случае они могут быть описаны как построение частичного сценария на какой-то горизонт по времени и/или по глубине графа сценария в соответствии со стратегией 1 и его периодическая коррекция в зависимости от полученных результатов и/или от времени на какой-то горизонт вперед, например, до самого

конца процесса сборки изделия. Естественно, что каждый такой сценарий должен строиться с использованием выбранного алгоритма многокритериального выбора при заданном множестве показателей качества итогового сценария.

Рассмотрим понятие информационной осведомленности роботов, которая необходима им в процессе группового исполнения сценария сборки изделия. Объем информации, необходим для обеспечения информационной осведомленности роботов, и структура информационного обмена, которая обеспечит их необходимой информацией в нужные моменты времени, зависит от принятой архитектуры системы группового управления сборкой. Будем различать централизованную и децентрализованную архитектуры. В первом случае выделяется один робот-лидер, который знает состав сборочных единиц целевого продукта, их уникальные идентификаторы, а также отношение порядка на множестве операций по их постановке в изделие. Этот робот назначается ответственным за формирование сценария и управление его исполнением, а также за организацию требуемого информационного обмена между участниками процесса сборки. В децентрализованной архитектуре все роботы могут быть равноправными. В таком варианте формирование сценария, и управление его исполнением выполняется на парной основе (в рееМо-реег, р2р-моде). Возможны также другие варианты распределения полномочий между роботами, и при этом для каждого случая задача обеспечения необходимой информационной осведомленности будет решаться по-разному. Один из вариантов ее поддержания для группы мобильных роботов был рассмотрен выше.

Ограничимся примером обеспечения информационной осведомленности при использовании централизованной архитектуры системы управления сборкой. В этом случае робот-лидер должен знать:

♦ Состав сборочных единиц целевого продукта, их уникальные идентификаторы, а также отношение порядка на их множестве, которое задает множество допустимых сценариев сборки продукта. Эта информация вполне достаточна для того, чтобы робот мог построить сценарий в рамках любой из стратегий, перечисленных ранее, используя информационный обмен с роботами-исполнителями процесса сборки изделия;

♦ Распределение функций сборки между всеми роботами на действиях уже сформированной части сценария (в стратегии 1 - до конца сценария, в стратегии 3 - до конца сформированной части сценария). Эта информация формируется роботом-лидером в процессе планирования сценария исполнения сборки и назначения исполнителей на конкретные сборочные операции;

♦ Текущее состояние исполненной части сценария и действия, выполняемые в текущий момент всеми роботами. Эта информация формируется событийной компонентой системы, доступной роботу-лидеру, которая отражает результаты мониторинга процесса исполнения сценария. Информация об исполненной части сценария и о выполняемых действиях в текущий момент характеризуют понятие ситуации процесса сборки (см. ниже детали).

Заметим, что к важной информации, которой должен владеть робот-лидер, относится информация о наличии СЕ в корзинах роботов. Эта информация важна для того, чтобы корзины своевременно пополнять для предотвращения незапланированных задержек процесса сборки. Для реализации централизованной архитектуры робот-лидер должен иметь также постоянные двухсторонние каналы связи с другими роботами и иметь полную информацию о событиях, генерируемых событийной компонентой системы управления сборкой целевого продукта.

В этой архитектуре робот-лидер ответственен за поддержания ситуационной осведомленности других роботов, участвующих в сборочном процессе. Это реализуется им с помощью соответствующего информационного обмена между роботами. Главная задача при этом состоит в том, чтобы обеспечивать своевременное подклю-

чение других роботов к выполнению назначенных им действий. Отметим, что дисциплина поддержания ситуационной осведомленности роботов-соисполнителей сборочного процесса может быть гибкой и доводиться до них роботом-лидером в процессе исполнения протокола общих намерений перед началом сборки.

Продемонстрируем на примере группового управления сборочными роботами еще одно важное понятие ББ8-модели, а именно понятие ситуации. Для этого представим граф сценария в несколько иной форме, чем это было дано на рис. 3. Это представление иллюстрируется на рис. 4.

1

Рис. 4. Ситуационная модель (граф) сценария сборки изделия

В нем для каждой вершины-действия графа рис. 3 дополнительно вводится вершина, которая непосредственно следует за этим действием и называется состоянием исполнения этого действия. Она с помощью специального атрибута фиксирует статус состояния исполнения действия, принимая два значения, а именно «не выполнено» и «выполнено». Таким образом, в ситуационном графе сценария узлы, представленные кругами, называются состояниями исполнения действий сценария, которые им предшествуют, а действия представлены в нем прямоугольниками.

Подмножества, включающие в себя список состояний исполнения действий и имен действий, будут использоваться для характеристики, которую далее будем называть ситуацией исполнения сценария в целом. Например, запись {Т4, Т3, Т6, £} означает, что в момент времени £ достигнуты состояния Т4, Т3, Т6 , а также достигнуты все состояния и исполнены все действия, которые строго меньше , , в ситуационном графе сценария, представленном на рис. 4. Отсюда следует, что достигнуты, в частности, и состояния и Т2, а также выполнены действия Хг, Х2, Х3, Х4, Х6. Поскольку символ действия Х5 в записи {Т4, Т3, Т6 , £ } отсутствует, то это означает, что исполнение этого действия еще не начато. В отличие от этой записи, запись { , , означает, что в дополнение к предыдущей ситуации исполнения

сценария к моменту начато также исполнение действия . В этом графе множество {5Х, 52} характеризует ситуацию, в которой еще не начато исполнение сценария. Ситуация { } характеризует ситуацию, в которой действие уже выпол-

нено, но действие Х2 еще не начато. Запись {Flf Х2} будет отвечать ситуации, когда действие Хх уже выполнено (достигнуто состояние F i ), но действие Х 2 находится в процессе исполнения. Запись {F7, Fg, F± 2} означает, что сценарий исполнен.

Таким образом, введенное понятие ситуационной модели (графа) сценария (рис. 4) позволяет формально представлять в символьном виде текущую ситуацию процесса сборки, которое легко может быть интерпретировано роботами и, кроме того, может использоваться ими для выбора дальнейшего поведения, т.е. выбора очередного действия и назначение на его исполнение конкретного робота с использованием некоторого алгоритма, который в данной работе не рассматривается. Назовем этот граф ситуационной моделью сценария сборки изделия.

Подчеркнем еще раз, что ситуационная модель сценария содержит вершины двух типов - состояния (они представлены кругами с именами) и действия (они представлены прямоугольниками с именами), и этот граф двудольный. Граф такого типа принято называть сетью Петри, если в нем достигнутые вершины, например, отмечать маркерами. Однако основное отличие сценарной модели от сетей Петри состоит в том, что в ней действие исполняется не мгновенно, т.е. действию приписаны исполнитель и длительность , которая имеет смысл времени, затрачиваемого роботом Ri на постановку в изделие СЕ с уникальным идентификатором Zu, при условии, что робот R i «способен» выполнять это действие.

Заключение. В работе показано, что поведенческая парадигма ИИ, которая зародилась еще на начальном этапе развития интеллектуальных систем, в настоящее время обретает все большую актуальность. Это обусловлено появлением новых актуальных приложений, в которых традиционная парадигма ИИ, основанного на знаниях, не в состоянии предложить адекватных решений. Однако и известные решения в области поведенческой парадигмы, которые, хотя и медленно, но развивались недрах ИИ, также требуют пересмотра на современной основе, а современные требования к моделям и средствам BBS-систем диктуются, прежде всего, крупномасштабными КФС и системами типа Интернета вещей.

Основные проблемы в этих системах обусловлены сложностью моделирования группового поведения большого количества распределенных автономных сущностей, задачей динамического управления общедоступными ресурсами в реальном времени и задачей группового управления поведением компонент системы и системы в целом в непредсказуемых условиях внешней среды, а также при наличии внутренних возмущений системы. В работе введены базовые понятия предметно-независимой онтологии BBS-систем, которые должны составить ядро семантической его модели и единого информационного пространства знаний и данных, без которого невозможна координация и групповое управление поведением компонент КФС. Эти базовые понятия продемонстрированы на примере одного из наиболее актуальных современных приложений в области группового управления, а именно на примере сборочного процесса, реализуемого группой роботов без участия человека.

БИБЛИОГРАФИЧЕСКИЙ СПИСОК

1. Fikes R.E. and Nilsson N. STRIPS: A New Approach to the Application of Theorem Proving to Problem Solving // Artificial Intelligence. - 1971. - No. 5 (2). - P. 189-208.

2. Чень Ч., Ли Р. Математическая логика и автоматическое доказательство теорем. - М.: Наука, 1983. - 360 с.

3. Brooks R.A. Intelligence without Reasoning // Proc. of Intern. Joint Conf. on Artificial Intelligence (IJCAI'91). - 1991. - Vol. 1. - P. 569-595.

4. Steels L. Building Agents out of Autonomous Behavior Systems // The Artificial Life Route to Artificial Intelligence. Building Embodied Situated Agents / Eds L. Steels, and R.A. Brooks. Hillsdale, NJ: Lawrence Erlbaum Assoc., 1995. - P. 83-121.

5. Brooks R.A. A Robust Layered Control System for a Mobile Robot // IEEE J. of Robotics and Automation. RA-2. - 1986. - P. 14-23.

6. Городецкий В.И., Самойлов В.В., Троцкий Д.В. Базовая онтология коллективного поведения и ее расширения // Известия РАН Теория и системы управления. - 2015. - № 5.

- C. 102-121.

7. Gershenson C. Behavior-based Knowledge Systems: An Epigenetic Path from Behavior to Knowledge // Proc. 2nd Workshop on Epigenetic Robotics. - Edinburgh, Scotland, 2002.

- Vol. 94. - P. 35-41. - http://arxiv.org/ftp/cs/papers/0206/0206027.pdf.

8. Multi-agent Systems-A Modern Approach to Distributed Artificial Intelligence / Ed. G.Weiss. Boston: MIT Press, 1999. - 610 p.

9. Jennings N., Sycara K., Wooldridge M. A Roadmap of Agent Research and Development // Intern. J. Autonomous Agents and Multi-agent Systems. - Kluwer Academic Publishers. 1998.

- No. 1. - P. 7-38.

10. Mataric M.J., Michaud F. Behavior-Based Systems // Handbook of Robotics. - Springer, 2008. - P. 891-909.

11. Городецкий В.И. Самоорганизация и многоагентные системы. I. Модели многоагентной самоорганизации // Известия РАН. ТИСУ. - 2012. - № 2. - C. 92-120.

12. Городецкий. В.И. Самоорганизация и многоагентные системы. II. Приложения и технология разработки // Известия РАН. ТИСУ. - 2012. - № 3. - С. 102-123.

13. Allen J.F. Maintaining knowledge about temporal intervals // Communications of the ACM.

- ACM Press, 1983: - P. 832-843.

14. Городецкий В.И., Дрожжин В.В., Юсупов Р.М. Многоуровневые атрибутные грамматики для моделирования сложных структурно-динамических систем // Известия АН СССР. Техническая кибернетика. - 1986. - № 1. - С. 165-172.

15. Lambert G.A. Grand Challenges of Information Fusion // Proc. Intern. Conf. Fusion-03.

- Cairns, Australia, 2003. - P. 213-220.

16. Steinberg A.N., Bowman C.L., White F.E. Revisions to the JDL Data Fusion Model // A1AA Missile Sciences Conf. Naval Postgraduate School, CA, Monterey. 1998.

17. Fischer Y. On Situation Modeling and Recognition. Technical Report IES-2009-14 / Eds J. Beyerer, M. Huber. Proceedings of the 2009 Joint Workshop of Fraunhofer IOSB and Institute for Anthromatics, Vision and Fusion Laboratory. Karlsruhe, Germany. Kit Scientific Publishing. 2009. - P. 203-215.

18. Endsley M.R. Towards a theory of Situation Awareness in Dynamic Systems // Human Factors. - 1995. - Vol. 37. - P. 32-64.

19. Endsley M.R., Jones D.G. Designing for Situation Awareness: An Approach to User-Centered Design, Second Edition. - CRS Press Taylor & Francic Group, 2011. - 396 p.

20. Salmon P.M., Stanton N.A., Walker G.H., Jenkins D.P. Distributed Situation Awareness: Theory, Measurement and Application to Teamwork. - CRS Press, 2017. - 266 p.

21. Jennings N.R. Controlling Cooperative Problem Solving in Industrial Multi-Agent Systems Using Joint Intentions // In: Artificial Intelligence. - 1995. - Vol. 75. - P. 195-240.

22. Rzevski G., Skobelev P., Zhilyaev A., et al. Customization of Multi-Agent Systems for Adaptive Resource Management with the Use of Domain Ontologies // International Journal of Economics and Statistics. - 2018. - Vol. 6. - P. 112-124.

REFERENCES

1. Fikes R.E. and Nilsson N. STRIPS: A New Approach to the Application of Theorem Proving to Problem Solving, Artificial Intelligence, 1971, No. 5 (2), pp. 189-208.

2. Chen' Ch., Li R. Matematicheskaya logika i avtomaticheskoe dokazatel'stvo teorem [Symbolic Logic and mechanical Theorem Proving]. Moscow: Nauka, 1983, 360 p.

3. Brooks R.A. Intelligence without Reasoning, Proc. of Intern. Joint Conf. on Artificial Intelligence (IJCAI'91), 1991, Vol. 1, pp. 569-595.

4. Steels L. Building Agents out of Autonomous Behavior Systems, The Artificial Life Route to Artificial Intelligence. Building Embodied Situated Agents, ed. L. Steels, and R.A. Brooks. Hillsdale, NJ: Lawrence Erlbaum Assoc., 1995. pp. 83-121.

5. Brooks R.A. A Robust Layered Control System for a Mobile Robot, IEEE J. of Robotics and Automation. RA-2, 1986, pp. 14-23.

6. Gorodetskiy V.I., Samoylov V.V., Trotskiy D.V. Bazovaya ontologiya kollektivnogo povedeniya i ee rasshireniya [The Reference Ontology of Collective Behavior of Autonomous Agents and Its Extensions], Izvestiya RAN Teoriya i sistemy upravleniya [Journal of Computer and Systems Sciences International], 2015, No. 5, pp. 102-121.

7. Gershenson C. Behavior-based Knowledge Systems: An Epigenetic Path from Behavior to Knowledge, Proc. 2nd Workshop on Epigenetic Robotics. Edinburgh, Scotland, 2002, Vol. 94, pp. 35-41. Available at: http://arxiv.org/ftp/cs/papers/0206/0206027.pdf.

8. Multi-agent Systems-A Modern Approach to Distributed Artificial Intelligence, ed. G.Weiss. Boston: MIT Press, 1999, 610 p.

9. Jennings N., Sycara K., Wooldridge M. A Roadmap of Agent Research and Development, Intern. J. Autonomous Agents and Multi-agent Systems. Kluwer Academic Publishers. 1998, No. 1, pp. 7-38.

10. Mataric M.J., Michaud F. Behavior-Based Systems, Handbook of Robotics. Springer, 2008, pp. 891-909.

11. Gorodetskiy V.I. Samoorganizatsiya i mnogoagentnye sistemy. I. Modeli mnogoagentnoy samoorganizatsii [Self-Organization and Multiagent Systems: II. Applications and the Development Technology], Izvestiya RAN. TISU [Journal of Computer and Systems Sciences International], 2012, No. 2, pp. 92-120.

12. Gorodetskiy V.I. Samoorganizatsiya i mnogoagentnye sistemy. II. Prilozheniya i tekhnologiya razrabotki [Self-organization and multi-agent systems. II. Applications and technology development], Izvestiya RAN. TISU [Journal of Computer and Systems Sciences International], 2012, No. 3, pp. 102-123.

13. Allen J.F. Maintaining knowledge about temporal intervals, Communications of the ACM. ACM Press, 1983, pp. 832-843.

14. Gorodetskiy V.I., Drozhzhin V.V., YusupovR.M. Mnogourovnevye atributnye grammatiki dlya modelirovaniya slozhnykh strukturno-dinamicheskikh sistem [Multi-level Attributive Grammars for Modelling of Complex Systems with structural Dynamics], Izvestiya AN SSSR. Tekhnicheskaya kibernetika [Izvestiya Academii Nauk USSR "Technicheskaya kibernetika"], 1986, No. 1, pp. 165-172.

15. Lambert G.A. Grand Challenges of Information Fusion, Proc. Intern. Conf. Fusion-03. Cairns, Australia, 2003, pp. 213-220.

16. Steinberg A.N, Bowman C.L., White F.E. Revisions to the JDL Data Fusion Model, A1AA Missile Sciences Conf. Naval Postgraduate School, CA, Monterey. 1998.

17. Fischer Y. On Situation Modeling and Recognition. Technical Report IES-2009-14, ed J. Beyerer, M. Huber, Proceedings of the 2009 Joint Workshop of Fraunhofer IOSB and Institute for Anthromatics, Vision and Fusion Laboratory. Karlsruhe, Germany. Kit Scientific Publishing. 2009, pp. 203-215.

18. Endsley M.R. Towards a theory of Situation Awareness in Dynamic Systems, Human Factors, 1995, Vol. 37, pp. 32-64.

19. Endsley M.R., Jones D.G. Designing for Situation Awareness: An Approach to User-Centered Design, Second Edition. CRS Press Taylor & Francic Group, 2011, 396 p.

20. Salmon P.M., Stanton N.A., Walker G.H., Jenkins D.P. Distributed Situation Awareness: Theory, Measurement and Application to Teamwork. CRS Press, 2017, 266 p.

21. Jennings N.R. Controlling Cooperative Problem Solving in Industrial Multi-Agent Systems Using Joint Intentions, In: Artificial Intelligence, 1995, Vol. 75, pp. 195-240.

22. Rzevski G., Skobelev P., Zhilyaev A., et al. Customization of Multi-Agent Systems for Adaptive Resource Management with the Use of Domain Ontologies, International Journal of Economics and Statistics, 2018, Vol. 6, pp. 112-124.

Статью рекомендовал к опубликованию д.т.н., профессор Б.К. Гранкин.

Городецкий Владимир Иванович - InfoWings Ltd.; e-mail: vladim.gorodetsky@gmail.com;

190000, Санкт-Петербург, ул. Малая Морская, д. 18, офис 403; тел.: +79213574604; д.т.н.;

профессор; научный консультант.

Gorodetsky Vladimir Ivanovich - InfoWings Ltd.; e-mail: vladim.gorodetsky@gmail.com;

190000, Sankt-Petersburg, Malaya Morskaya str., 18, office 403; phone: +79213574604; dr. of

eng. sc.; professor; research adviser.

i Надоели баннеры? Вы всегда можете отключить рекламу.