Научная статья на тему 'Виртуальные проекции человеческого мира: мультиагентные системы'

Виртуальные проекции человеческого мира: мультиагентные системы Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
412
90
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МУЛЬТИАГЕНТНЫЕ СИСТЕМЫ / РОЕВОЙ ИНТЕЛЛЕКТ / РАЦИОНАЛЬНЫЙ АГЕНТ / КОГНИТИВНЫЕ СИСТЕМЫ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / РЕЧЕВОЙ АКТ / ИМПЛИКАТУРА / ЭПИСТЕМИЧЕСКАЯ ЛОГИКА / СОЦИАЛЬНАЯ ГИПЕРСЕТЬ / MULTIAGENT SYSTEMS / SWARM INTELLECT / RATIONAL AGENT / COGNITIVE SYSTEMS / ARTIFICIAL INTELLIGENCE / SPEECH ACT / IMPLICATURE / EPISTEMIC LOGIC / SOCIAL HYPERNET

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Михайлов И.Ф.

Одним из ключевых понятий теории мультиагентных систем (МАС) является понятие «роевого интеллекта», предполагающее, что интеллект появляется как эмерджентный эффект взаимодействия множества рациональных агентов. Поэтому концепции МАС имеют большое методологическое и эвристическое значение для философии. Но и философия вносит существенный вклад в теорию МАС: теория речевых актов, понятие импликатуры и др. философские концепции успешно операционализируются в распределенных системах рациональных агентов. Все это поддерживает гиперсетевую теорию сознания, согласно которой сознание это эмерджентный эффект не только сети нейронов мозга, ни и социальной гиперсети.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Virtual projections of the human world: multi-agent systems

One of the key concepts of the multiagent systems (MAS) theory is that of ‘swarm intelligence’ that pictures intelligence as an emergent interactive effect of a set of rational agents. Therefore, the concepts of MAS are of great methodological and heuristic significance for philosophy. But philosophy also makes a significant contribution to the MAS theory: the theory of speech acts, the concept of implicature, and other philosophical concepts are successfully operationalized on the distributed systems of rational agents. All of this supports a hypernet theory of consciousness, according to which consciousness is the emergent effect not only of the network of brain neurons, but also of the social hypernet.

Текст научной работы на тему «Виртуальные проекции человеческого мира: мультиагентные системы»

DOI 10.17726/philIT.2017.1.2.

Виртуальные проекции человеческого мира: мультиагентные системы

Михайлов Игорь Феликсович,

кандидат философских наук, старший научный сотрудник Института философии РАН, доцент кафедры философии ИОН РАНХиГС Москва, Россия

ifmikhailov@gmail.com

Аннотация. Одним из ключевых понятий теории мультиагентных систем (МАС) является понятие «роевого интеллекта», предполагающее, что интеллект появляется как эмерджентный эффект взаимодействия множества рациональных агентов. Поэтому концепции МАС имеют большое методологическое и эвристическое значение для философии. Но и философия вносит существенный вклад в теорию МАС: теория речевых актов, понятие импликатуры и др. философские концепции успешно операционализируются в распределенных системах рациональных агентов. Все это поддерживает гиперсетевую теорию сознания, согласно которой сознание - это эмерджентный эффект не только сети нейронов мозга, ни и социальной гиперсети.

Ключевые слова: мультиагентные системы, роевой интеллект, рациональный агент, когнитивные системы, искусственный интеллект, речевой акт, импликатура, эпистемическая логика, социальная гиперсеть.

Virtual projections of the human world: multi-agent systems

Mikhailov Igor F.,

Candidate of Philosophy, senior Research Fellow, Institute of Philosophy, Russian Academy of Science; senior lecturer at the Department of Philosophy, Institute of Social Science, Russian Academy of National Economy and Public Administration Moscow, Russia

ifmikhailov@gmail.com

URL: http://cyberspace.pglu.ru

Abstract. One of the key concepts of the multiagent systems (MAS) theory is that of 'swarm intelligence' that pictures intelligence as an emergent interactive effect of a set of rational agents. Therefore, the concepts of MAS are of great methodological and heuristic significance for philosophy. But philosophy also makes a significant contribution to the MAS theory: the theory of speech acts, the concept of implicature, and other philosophical concepts are successfully operationalized on the distributed systems of rational agents. All of this supports a hypernet theory of consciousness, according to which consciousness is the emergent effect not only of the network of brain neurons, but also of the social hypernet.

Keywords: multiagent systems, swarm intellect, rational agent, cognitive systems, artificial intelligence, speech act, implicature, epistemic logic, social hypernet.

Введение

На протяжении более чем двух тысячелетий главными философскими проблемами были и остаются природа (человеческого) сознания и познания как его функции, а также природа и сущность (человеческой) социальности, с которой связаны проблемы этики, политики, истории и многого другого. Можем ли мы сказать, что мы как человечество сколько-нибудь продвинулись в понимании этих сущностей? Риторически красивые философские теории, к сожалению, не содержат в себе и не предлагают критериев собственной истинности. Теоретическая фундаментальная наука подвержена смене парадигм и не может гарантировать окончательных ответов: много ли общего мы найдем, например, у психологических теорий столетней давности с современной когнитивной и нейропсихологией? И кто может поручиться, что сегодняшние результаты не будут выглядеть таким же антиквариатом лет через пятьдесят? Это при том, что новые теории, отправляющие прежние на пыльные полки забвения, претендуют на объяснение тех же фактов. По каким-то причинам новые объяснения нам нравятся больше - но значит ли это, что мы приближаемся к окончательным ответам?

И все же такой критерий есть, и это технологии. «Понять» не обязательно значит «сделать», но «сделать» непременно предполагает «понять». Если вам удалось создать устройство, поведение которого, в полном соответствии с тестом Тьюринга, а также «ути-

ным тестом» поэта Райли, при любых условиях неотличимо от поведения сознательного существа, то вряд ли кто-то сможет убедительно доказать, что ваше понимание принципов его работы не является пониманием сущности сознания. Аналогично, если вам удалось построить колонию роботов, компьютерных программ, беспроводных устройств или чего угодно, которая функционирует, самоорганизуется и развивается подобно нормальному обществу, это значит, что вы с максимальной степенью точности ответили на вопрос, что такое общество.

В первом случае, как все понимают, мы говорим об искусственном интеллекте. Во втором случае мы говорим... тоже об искусственном интеллекте, только распределенном. Потому что в основе мультиагентных систем (МАС), о которых пойдет речь далее, равно как и исторически предшествующих («искусственная жизнь») или сопутствующих («искусственное общество») им форм, лежат математические и программно-вычислительные инструменты, аналогичные или смежные с теми, которые используются в «традиционном» искусственном интеллекте. И потому так же на выходе в том и в другом случае получается поведение, которое можно назвать сложным и интеллектуальным.

МАС как наука и технологии

Мультиагентные системы - это программные или программно-аппаратные комплексы, в которых определены агенты и их среда или окружение. Агенты, вне зависимости от их материальной или программной реализации, автономны, преследуют, как правило, эгоистические цели и взаимодействуют друг с другом по простым настраиваемым правилам. Характерной особенностью таких систем является отсутствие централизованного управления; результаты их функционирования сложны и эмерджентны - линейно не предсказуемы и качественно отличны от предшествующих состояний. Эта особенность роднит их с нейросетями - разработчики могут управлять ими с помощью настроек, но не знают доподлинно, что происходит «внутри» и что именно вызывает эмерджентные эффекты. Хотя, безусловно, МАС нейросетями не являются - это просто еще одна модель саморегулируемой сложности.

МАС используются в совершенно различных, иногда совершенно не пересекающихся, подчас неожиданных, областях: таких как экономика [3; 9], приборостроение [2], техническая стандартизация [1] и даже управление беспроводными сетями [19].

В правительственной «Программе фундаментальных научных исследований академий наук на 2013-2020 годы», подписанной председателем Правительства РФ в 2013 году, МАС упомянуты в следующих контекстах:

(I) развитие и функционирование энергетических систем

(II) управление многоуровневыми и распределенными динамическими системами

(III) управление знаниями и системами междисциплинарной природы

(IV) системы автоматизации, CALS-технологии

(V) методологии макроэкономических измерений.

В Европейском союзе была создана Ассоциация «AgentLink», объединяющая разработчиков и пользователей таких систем. Ассоциацией представлен план (дорожная карта) развития этого направления до 2020-2030 годов, имеющий девиз «Вычисления как взаимодействия» (Computing as Interactions). Однако сайт организации не обновляется с 2005 г.

Мультиагентные технологии появились в конце 1980-х годов на стыке достижений в области объектного программирования, параллельных вычислений, искусственного интеллекта (а также «искусственной жизни» и «искусственного общества»), интернет-технологий и телекоммуникаций. Это направление изначально называли bio-inspired («вдохновленное биологией»). Впоследствии оно выросло в новый класс интеллектуальных систем так называемого эмерджентного интеллекта.

Важным понятием в области распределенных интеллектуальных сетей является swarm intelligence («интеллект роя»), которое предполагает, что интеллект в таких системах не содержится в каких-то специальных компонентах, а рождается в ходе тонких взаимодействий совершенно простых, но автономных программ (агентов), сами по себе не имеющих развитых интеллектуальных способностей.

От «искусственной жизни» к МАС

В популярной и очень интересной лекции В. Л. Макарова [4] изложены основные принципы конструирования «искусственных обществ» методами МАС, хотя автор предпочитает термин «агент-ориентированные модели».

По мнению Макарова, начало этому научному направлению положили исследования в области «искусственной жизни» (AL -

artificial life): еще докомпьютерные системы клеточных автоматов, а также знаменитая «сахарная модель» (SUGARSCAPE) *, которая была использована в некоторых зарубежных исследованиях, цитируемых нами далее. Во-первых, имитация сложной «жизни» достигается использованием простых, подчас примитивных, правил [4: 9]. Во-вторых, один и тот же эффект может достигаться разным набором правил: одна модель демонстрирует становление социальной иерархии, закладывая положительную обратную связь в предыдущем опыте доминирования или подчинения, другая показывает тот же эффект, заставляя агентов предпочитать «общество себе подобных» [4: 15]. Причем тонкой настройкой правил можно точно определять и при необходимости менять количество получаемых «каст». В-третьих, что очень важно, в более сложных моделях, имитирующих социальные сети, приходится опираться на гипотезу ограниченной рациональности агентов, поскольку полный объем информации о состоянии социальной сети, на основе которой должны приниматься решения, превосходит когнитивные способности отдельного агента - такие, как объем памяти [4: 18]. Это обстоятельство многое говорит о реальных обществах, поскольку очевидно, что они функционировали бы принципиально по-другому, если бы каждый индивид мог воспринять, обработать и запомнить весь объем информации, необходимой для принятия решений.

Одна идея, высказанная в лекции, - и это в-четвертых - очень важна для построения социальной онтологии конкретно-научного уровня. Макаров утверждает, что, подобно тому, как физическая материя состоит из конечного набора частиц, социальная материя, чтобы быть научно объяснимой, также должна состоять из конечного числа элементов. Поэтому такими элементами не могут быть люди - это должны быть действия [4: 19]. Не можем не отметить, что эта мысль интересно коррелирует с концепцией, изложенной нами в [6]: философская метаонтология общества - это теория элементов как «первых сущностей» по Аристотелю, тогда как конкретно-научные онтологии - это или эссенциалистские теории «объектов» как носителей свойств и отношений, или «сетевые» теории, в которых элементам приписываются только отношения,

* Виртуальная «игра», где агенты-жуки ползают по поверхности, на которой неравномерно рассыпан сахар. При определенных настройках правил модель может демонстрировать возникновение сложных экономических отношений - например, обмена.

а «свойства» возникают как эмерджентные эффекты сетевых взаимодействий. Учитывая, что общество есть динамическая система, отношения реализуются именно как действия.

И, наконец, в-пятых - это уже не принцип, а скорее эффект -агент-ориентированные системы, или «искусственные общества», преодолевают кризис в математике, который, по мнению Макарова, наступил в XX веке из-за ограниченности экономических моделей, когда невозможно было, например, ввести в модель внеэкономические - скажем, моральные - мотивы предпринимателей [4: 22]. Поскольку технология МАС позволяет моделировать какое угодно социальное поведение, ее можно рассматривать как средство преодоления этого кризиса.

Итак, главной философской импликацией теории и практики МАС можно считать то соображение, что социальные эффекты «программируются» правилами, определяющими действия и взаимодействие рациональных агентов. При этом некоторый набор правил «программирует» определенный срез или аспект социальной жизни, в чем нетрудно увидеть почти полную аналогию с вит-генштейновской концепцией «языковых игр»: повторяющиеся паттерны взаимодействий, основанные на «следовании правилу».

МАС для философии

1. Когнитивное, рациональное и интеллектуальное в МАС

Какую пользу может извлечь философия из МАС? Мультиа-гентные системы представляют собой хорошую функциональную модель для экспликации понятий «интеллектуальный» и «когнитивный». При помощи этой технологии можно провести более или менее определенную границу между когнитивными способностями, обеспечиваемыми мозгом, и способностями, в основе которых лежит правилосообразное социальное взаимодействие, которые мы назвали бы собственно интеллектуальными. Распространенный философский предрассудок состоит в том, что переход от простых когнитивных к собственно интеллектуальным способностям обеспечивается более развитым мозгом. И поскольку с интеллектом связывают способность оперировать символами и, в частности, производить вычисления на их основе, возникает представление о развитом мозге как вычислительной машине.

МАС и теория рефлексивного управления [8] показывают, что сложное интеллектуальное поведение может быть моделировано и объяснено как следствие взаимодействия многих агентов, подчи-

няющихся одним правилам и обладающих обратной связью. Тогда логично предположить, что когнитивно развитый мозг, встраиваясь в такую систему социальных взаимодействий, развивает дополнительный этаж - функциональный блок, обеспечивающий правилосообразные социальные взаимодействия - вместе со способностью манипулировать ими самостоятельно. Если в ходе этих взаимодействий используются символические системы (которые сами суть результат развития и усложнения правил социального взаимодействия), то мозг получает дополнительные инструменты, делающие его когнитивные возможности еще более мощными и универсальными.

В литературе по искусственным обществам и МАС часто термины «когнитивный», «рациональный» и «интеллектуальный» употребляются как синонимы. Так, например, Ниази и Хуссейн полагают, что «агент был бы чем-то таким в системе, что может быть рассмотрено и идентифицировано экспертами в любой дисциплине и интересующем субдомене как играющее в этой системе важную, индивидуальную, интерактивную и интересную роль, приводящую к поведению, которое называют интеллектуальным, рациональным, когнитивным или эмерждентным» [16: 2-3]. Исследователям, практикующим в этой сфере, которую иначе называют когнитивными распределенными вычислениями или комплексными адаптивными системами, строгое различение этих терминов может представляться не столь существенным для их задач. Однако философы, в чью миссию входит выработка концептуальных каркасов для построения «большой картины», должны уделить внимание этим различиям, тем более что мультиагентный сетевой подход способен сделать некоторые аспекты проблемы чуть более заметными.

Итак, отвлекаясь изначально от любой доменной специфики, в реальном или искусственном мире мы имеем системы сетевого типа, состоящие из действующих элементов (агентов), которые (1) обладают внутренним аппаратом, позволяющим воспринимать и запоминать данные, принимать на их основе решения. Эти агенты (2) подчиняются явно выразимым правилам, упорядочивающим их поведение. В результате их совокупной деятельности (3) система демонстрирует сложное адаптивное поведение, которое выглядит непредсказуемым в рамках линейного причинно-следственного видения и, тем не менее, ведет к решению жизненно важных задач системы.

2 " ■ 3

рациональное

Рис. 1.

Вершины треугольника: 1 - управляющий процессор агента (мозг), 2 - правила поведения и взаимодействия агентов,

3 - сложное адаптивное поведение сообщества.

В этой ситуации, призвав на помощь свою семантическую интуицию, мы бы предположили (как показано на рис. 1), что сфера когнитивного располагается в пространстве между (1) и (2), создавая основу для использования возможностей внутренних процессоров агентов для поддержания и использования системы правил, определяющих их поведение в типичных социальных ситуациях. Сфера рационального включает все случаи, когда устойчивая система правил (2) применяется для обеспечения сложного адаптивного поведения (3) системы в целом и ее отдельных агентов, находя в нем свое обоснование. И, наконец, все то, что может быть определено как интеллектуальное, представляет собой «вычислительные»* мощности (1), лежащие в основе стратегий, тактик и эвристик (3), обеспечивающих наилучшую адаптацию сообщества агентов к условиям среды. От параметров настройки системы зависит, обнаруживает ли интеллектуальное поведение только «рой» как целое или также и отдельные агенты. Очевидно, что все три

* Это слово взято в кавычки, поскольку как минимум в некоторых - как естественных, так и искусственных - реализациях МАС вычисления используются скорее как метафора, объяснительный принцип, нежели как описание реальных процессов.

термина обозначают подсистемы, которые в реальных системах неотделимы друг от друга и лишь выражают различные аспекты одной целостности.

2. МАС и интенциональность

В этом же контексте немного по-другому предстает и традиционная философская проблема интенциональности и интенцио-нальных состояний. В феноменологии и аналитической философии интенция понимается как предметность актов сознания, их свойство «быть о чем-то». Нетрудно заметить, что в этом интенция акта сознания аналогична семантике знака (символа), который тоже «направлен на предмет». Но только ли аналогией исчерпывается это сходство, нет ли здесь существенной связи?

Если принять социальную модель интеллекта, то, несомненно, есть. Во-первых, для того чтобы осознать свой сознательный акт как направленный на некоторый предмет, нужно уметь этот предмет назвать. Более того, нужно уметь назвать и сам сознательный акт. Если бы заяц умел говорить, он сказал бы: «Я боюсь волка» -и тогда он в явном виде представил бы интенцию своего страха. Не умея говорить, он просто убегает при виде волка, и, если даже его действие сопровождается ощущением страха, это не делает страх интенциональным актом его сознания.

Почему? Представим себе, что в рамках моделирования «искусственных эмоций» (существует и такое направление) мы обучаем некоторую нейросеть испытывать страх при виде волка. Мы последовательно показываем ей образы разных животных, но только в ответ на продуцирование ею страха перед волком мы даем положительную обратную связь. После некоторого количества итераций возникает функциональная зависимость «образ волка —> эмоция страха». В каком смысле здесь можно говорить о какой-то «направленности» данной эмоции на данный образ? Скорее, она просто является его следствием.

Представим более сложный случай. Мы тренируем нейросеть искать морковку. Сначала мы учим ее распознавать образ морковки среди многих смежных образов, потом связываем с этим образом желание, которое запускает программу поискового поведения. Тогда функциональная схема выглядит следующим образом: вызов желания —> запуск поиска —> положительная обратная связь при встрече с нужным образом —> прекращение поиска. Конечно, мы можем при этом говорить, что наша нейросеть «ищет морковку»

точно так же, как ваш текстовый редактор «ищет и исправляет» слова, но с чисто технической точки зрения она делает это не более чем бильярдный шар «ищет» лунку.

Если некоторое техническое устройство успешно моделирует поведение зайца, у нас нет основания полагать, что соответствующие функциональные подсистемы зайца устроены сложнее, чем это устройство, - даже если заяц в целом устроен сложнее.

Таким образом, «направленность» акта сознания «на предмет» - не более чем фигура речи, и, чтобы она была возможна, речь должна иметься в наличии. Не нужно, наверное, специально доказывать, что речь, язык - порождение системы социальных связей, технически несовершенный интерфейс между нейросетя-ми индивидов. И тогда получается, что акт сознания оказывается «направленным на предмет», т.е. становится интенциональным, только будучи «проговоренным», поскольку такова грамматика нашей речи: сам акт обозначается сказуемым (предикатом), которое требует дополнения (объекта) - как бы обладает «идеальной» стрелкой, указывающей на объект. При этом психологическая реальность может быть устроена совершенно по-другому*.

В рамках теории МАС М. Е. Сингх [18: 11] вводит понятие коммуникативных интенций, что философски двусмысленно: интенция понимается как намерение выразить некий смысл (тогда она эквивалентна импликатуре, о которой речь пойдет ниже) или как aboutness (направленность на предмет)? Мы предлагаем понятие коммуникативных модальностей как более подходящее в данной проблемной ситуации, поскольку при помощи него знание, полагание, сомнение, опасение и т.п. могут быть формализованы средствами, например, эпистемической логики, интерпретированной на МАС. Это модальности, описывающие специфические логические структуры различных коммуникативных ситуаций. Мы вернемся к этой теме в секции «Философия для МАС».

3. МАС и социальность

Еще одна традиционная философская тема, которая, на наш взгляд, является бенефициаром исследований в области МАС,

* Здесь мы обнаруживаем лишнее подтверждение тому, что традиционная философия пытается смотреть на мир сквозь призму слов, хотя их взаимосвязи не обязаны воспроизводить реальные взаимосвязи вещей мира. Философия, мыслящая себя как объектное знание, с неизбежностью исходит из того, что то, как мир проговаривается, и есть то, как он устроен. И, соответственно, чтобы приносить реальную пользу, этот наивный лингвистический реализм ей нужно преодолеть.

это проблема понимания сути человеческой (и не только) социальности. Философы традиционной школы, признавая наличие устойчивых и структурированных, основанных на коммуникации сообществ у некоторых животных, тем не менее полагают, что социальность как таковая каким-то существенным образом связана с человеком, является его видовой особенностью, появившейся в результате некоторого «скачка» в эволюционном развитии, а то и дарованной свыше. При этом в качестве существенных отличий, отделяющих человеческий мир от животного царства, указывают то на «идеальный план», имеющийся в голове самого плохого архитектора в отличие от самой лучшей пчелы [5: 189], то на способность к моральному суждению и различению добра и зла.

Вряд ли можно представить себе какой бы то ни было социум, который состоит из членов, лишенных когнитивных способностей. Члены социума должны идентифицировать себя и друг друга как таковых, воспринимать и правильно истолковывать сигналы коммуникации, знать и хранить в памяти основные паттерны социального поведения. Для этого они должны обладать перцептивным аппаратом, блоком обработки информации, памятью, системой принятия решений. То есть их физическая способность быть когнитивным, или рациональным, агентом выступает в качестве необходимого условия их социальности. Возникает естественный вопрос: что является ее достаточным условием? Технология МАС подсказывает ответ на него - простые правила, основанные на обратной связи: если твой сосед делает А, делай Б, и т.п. Очевидно, что способность действовать по правилу также предполагает наличие развитой системы когнитивных способностей.

Следующий закономерный вопрос: как оказывается возможной саморегулируемая система автономных агентов, основанная на простых правилах, в которых не содержится описание ее конечных или желаемых состояний? Мозг - это самообучаемая нейро-сеть, и люди уже научились моделировать некоторые аспекты его работы в технических устройствах. И более или менее понятно, как эта природная нейросеть развивалась эволюционно, давая преимущества особям и видам, наиболее эффективно использующим способность к обучению в целях адаптации. Общество отличается от мозга в одном важном отношении: между его членами нет физических соединений, подобных синапсам нейронов, вся сеть построена на действиях и правилосообразных реакциях на них.

Более того, члены социума не привязаны жестко к своим соседям в пространстве, а могут менять местоположение, взаимодействовать с новыми соседями, меняя физическую конфигурацию сети на уровне индивидов. И тем не менее на уровне типов или ролей социальная система остается, как правило, стабильной и идентифицируется именно благодаря этой стабильности.

Таким образом, в отличие от мозга, протяженного в пространстве, социальная система протяжена во времени и сохраняет стабильность благодаря памяти и другим когнитивным способностям ее элементов. Отсюда возникает наивно-психологическое убеждение, что социальные связи существуют «в головах». Правильнее было бы сказать, что они существуют во временном измерении динамической системы, а «головы» выступают в качестве ее необходимого условия. Социум оказывается своего рода производной от когнитивных способностей составляющих его индивидов в рамках динамической системы.

Чтобы предложить наиболее вероятный ответ на вопрос об эволюционной оправданности социальных систем, нужно сначала согласиться, что эволюция возможна, если и только если существует механизм, закрепляющий случайно найденные преимущества. Если в качестве такого механизма выступают гены, то индивиды с полезной мутацией статистически чаще выживают и дают потомство в условиях, в которых другие гибнут. Если в качестве такого механизма выступает мозг, то к генетическим преимуществам индивида добавляется способность к обучению, которая увеличивает выживаемость на индивидуальном уровне. Может быть, в этом случае эволюция способствует увеличению объема мозга в определенных условиях или изменению его структуры путем изменения соотношения объема и роли мезенцефалона, ответственного за инстинктивное наследуемое поведение, и коры, обеспечивающей прижизненное обучение [15: 7], в пользу последней.

Однако паттерны поведения, удачно найденные в процессе обучения и адаптивно полезные, не передаются от особи к особи, от поколения к поколению, поскольку не закрепляются в генах. В то же время очевидно, что популяции, обладающие такой возможностью, получили бы неоспоримое эволюционное преимущество, поскольку скорость накопления полезных изменений возросла бы экспоненциально. Для реализации этого преимущества необходимо два базовых условия: во-первых, особи должны

уметь идентифицировать друг друга как члены одной общности. Можно предположить, что такая идентификация изначально основывалась на механизме полового размножения, когда особи противоположного пола рассматриваются как объект влечения, а особи того же пола - как соперники. В любом случае и те, и другие выделяются из окружающей среды и представителей других видов. Во-вторых, должен появиться какой-либо механизм обратной связи, заставляющий определенным образом реагировать на действия соплеменников. Наиболее примитивный и, видимо, исторически первый такой механизм - это подражание: ты ищешь пищу, когда и где ее ищут твои сородичи, и убегаешь, когда они убегают. При этом механизмы обоих условий социального поведения - узнавания своих и подражания им - вполне могут передаваться генетически (зеркальные нейроны), тогда как само социальное поведение эмерджентно возникает в каждой конкретной ситуации, давая, тем не менее, существенные адаптивные преимущества данной популяции.

И, поскольку адаптивные преимущества приобретены, можно предположить, что срок жизни особей в этой прогрессивной популяции увеличивается, позволяя одновременно существовать не двум, а трем поколениям. В недавнем исследовании, осуществленном, кстати, с помощью компьютерного мультиагентного моделирования сообщества обезьян, была продемонстрирована роль «института бабушки» не только в прогрессивном увеличении продолжительности жизни членов сообщества, но и в укреплении их социальных связей [14]. Авторы пишут: «Как показывает наша модель, даже отбор только по признаку участия бабушек в уходе за детьми мог бы привести к эволюции нашего постменопаузального долголетия, усилению взаимозависимостей и созданию социального контекста для многих других функций, которые впоследствии развились в рамках нашего вида» [14: 5]. Одновременное сосуществование трех поколений не только дальше увеличивает продолжительность жизни за счет лучшего ухода за детьми, но и способствует созданию подсистемы социального наследования, в рамках которой результаты индивидуального научения систематически передаются другим особям без участия генного механизма. Кстати, этот факт подтверждается и исследованиями на мультиагентных моделях. Как показывают результаты группы голландских исследователей, «эволюционный подход [к обучению агентов] способен

поддерживать более крупные и более стабильные популяции агентов, а также поддерживать более высокий уровень индивидуального успеха, по сравнению с обучением на протяжении жизни [одного агента]» [11: 155]. Лишь два эволюционных шага отделяют такое общество от собственно человеческого: появление коммуникации с использованием символических систем и появление письменности как расширения системы социального наследования.

Философия для МАС

1. МАС и модальные логики

Как мы уже увидели, наука о комплексных агент-ориентированных системах способна внести существенный вклад в-по крайней мере - прояснение, если не решение, некоторых фундаментальных философских проблем. Вместе с тем современные исследования, связанные с мультиагентным моделированием, не только методологически опираются на определенные философские школы, но и инкорпорируют отдельные концепции, развитые в рамках этих философских направлений, в свои теоретические основы.

Так, широкое использование модальных (эпистемических) логик в конструировании МАС помогает лучше понять социально-коммуникативную природу знания*. Автор комплексного руководства по МАС Майкл Вулдридж предлагает формализм, представляющий собой традиционную пропорциональную логику первого порядка с добавлением множества одноместных модальных операторов K которые читаются как «агент i знает, что...» [21: 279]. Он показывает далее, что при интерпретации на МАС эта логика сталкивается с некоторыми семантическими проблемами. Например, при негарантированной надежности коммуникации такая важная эпистемическая позиция, как «общее знание» (common knowledge) - «все знают, что p, и все знают, что все это знают», может оказаться недостижимой, потерявшись в бесконечных итерациях взаимных подтверждений. Аналогичным образом может оказаться проблематичным распределенное знание (distributed knowledge), когда агент i знает, что A, а агент k знает, что A^B. В этом случае в системе в распределенном виде содержится знание, что B. Для формализации такого знания Вулдридж предлагает специальный эпистемический оператор D, семантическое опреде-

* О связи идей, лежащих в основе некоторых эпистемических логик, с социальной коммуникацией мы писали в [Михайлов 2015, 51-54, 70, 86].

ление которого предполагает не объединение, как в традиционных модальных логиках, а пересечение эпистемических миров w. всех агентов в системе. По его мнению, «ограничения, накладываемые на возможные миры, в общем случае означают увеличение знания» [21: 283]. Не менее важно, с его точки зрения, то обстоятельство, что семантика возможных миров, которая обычно применяется для интерпретации эпистемических и других модальных логик, предполагает «совершенного (идеального) логика» на месте рассуждающего агента, который, например, увидит противоречие между A и —В, если известно, что A^B. Однако известно, что реальные агенты - включая большинство живых людей - часто весьма толерантны к таким неявным противоречиям, что не мешает им жить и функционировать. Поэтому Вулдридж предлагает ограничиться в МАС требованием слабой непротиворечивости, которое запрещало бы только явные противоречия A и —Л [21: 276].

Как мы понимаем, все эти аргументы могут быть приняты в поддержку тезиса ограниченной рациональности агентов, который обсуждался здесь ранее.

Для дальнейшего пояснения этого принципа обратимся к интересной формализации, которая предложена в другом руководстве по МАС [20]. Анализируя понятие общего знания на примере

и и * и

известной логической задачи про трех игроков в шляпах , каждый из которых видит только цвет шляп двух других, Никос Влассис вводит следующее определение. Пусть - множество всех вообще возможных состояний, из которых только 5 - актуальное («истинное» в его терминологии) состояние. Пусть также 1 - порядковый номер агента из некоторого конечного множества. Каждый агент 1 видит состояние 5 через «информационную функцию» Р1(5), которая порождает подмножество 5, включающее только те состояния, которые данный агент - учитывая ограниченность имеющейся у него информации - считает возможными. Пусть также Е есть

* За столом трое игроков в красных шляпах. Шляпы, по условию, могут быть только красными или белыми. Каждый игрок видит только шляпы двух соперников. На вопрос ведущего, знает ли он, какая шляпа на нем, каждый из игроков последовательно отвечает «Нет». Затем ведущий объявляет: «По крайней мере, на одном из вас красная шляпа». После этого, отвечая на тот же вопрос, первый игрок говорит «Нет», а уже второй - «Да». Здесь интересно то обстоятельство, что ситуацию для каждого из игроков меняет не буквальный смысл сообщения ведущего - соответствующий факт и так известен ему из его наблюдений. Меняющим игру оказывается тот факт, что теперь это определенно известно обоим его соперникам.

некоторое подмножество S, которое мы будем называть событием. К - оператор «знания», относимый к определенному агенту /. Тогда, по определению:

К/Е) = {8 е 5: Р/8) с Е} [20: 39],

т.е. агент / знает Е, если его информационная функция Р. в истинном состоянии 8 содержит Е. Говоря естественным языком, некоторый агент знает некоторое событие, если множество всех состояний, которые из его перспективы представляются возможными, содержит это событие.

Как полагает Влассис, предложенное им определение соответствует тому, которое используется в эпистемической логике. Там считается, что агент знает факт ф, если ф имеет место во всех состояниях, которые агент рассматривает как возможные. В рамках событийного подхода агент знает событие Е, если все состояния, которые агент считает возможными, содержатся в Е. Влассис ссылается на основополагающую* работу [12], где показано, что оба подхода - логический и событийный - эквивалентны [20: 39].

Применение описанного формализма к задаче про игроков в шляпах хорошо иллюстрирует принцип обратного отношения знания и возможных миров, сформулированный Вулдриджем: каждое добавленное знание уменьшает число возможных состояний в перспективе агента. Однако принцип ограниченной рациональности относится не только к количеству знания, имеющегося у агента, но и к качеству его рассуждений. В модели Влассиса все игроки в шляпах являются «идеальными логиками» в терминах Вулдриджа: они мастерски и последовательно делают выводы, применяя законы непротиворечия и исключенного третьего. В то же время очевидно, что реальные агенты, поведение которых моделируется в МАС, таковыми являются далеко не всегда. Поэтому в теоретические основы распределенного искусственного интеллекта, как еще называют обсуждаемое нами научное направление, входят и нечеткие логики, и статистические теории, и некоторые другие теоретические средства, позволяющие приблизить модели к нашей непростой реальности.

2. МАС, речевые акты и импликатуры

О значении для МАС такого философского изобретения, как теория речевых актов, начало которой положили работы Остина

На нее же ссылается и Вулдридж.

[10] и Серла [17], пишут и Сингх [18: 126-130], и Вулдридж [21: 164-168]. Общая идея состоит в том, что коммуницирующие агенты (не важно, люди или автоматы), как правило с помощью своих сообщений, хотят достичь некоторых целей, которые состоят в изменении ситуации - реальной физической или, по крайней мере, эпистемической. Согласно Остину, речевые (локутивные) акты обладают иллокутивной силой, которая состоит в намерении изменить ситуацию, а также набором перлокуций - возможных последствий совершения речевого акта.

Так, Сингх вводит в свой формализм, описывающий коммуникацию внутри МАС, специальный оператор Ж для обозначения состояния «подлинной выполненности» речевого акта и дает несколько семантических определений этого состояния для речевых актов различной иллокутивной силы [18: 131-135]:

Ассертив (утверждение) выполнен, если только предложение, его выражающее, истинно в момент произнесения высказывания.

Директив (указание) выполнен только в том случае, если (а) его предложение р становится истинным в некоторый момент в будущем относительно его произнесения и (б) на протяжении всего сце-*

нария у слушателя есть ноу-хау, а также намерение этого достичь.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Комиссив (обещание, угроза) выполнен только в том случае, если (а) его предложение становится истинным в некоторый момент в будущем относительно его произнесения и (б) на протяжении всего сценария у говорящего есть ноу-хау, а также намерение добиться этого. В отличие от директива, условие выполненности комиссива зависит от действий, намерений и ноу-хау только одного агента.

Пермиссив (позволение) выполнен в сценарии, когда слушатель осуществляет хотя бы одно действие, способное привести к состоянию, в котором он не может предотвратить наступление условия, выраженного в произнесенном предложении.

Прохибитив (запрет) выполнен в некотором сценарии в некоторый момент, только если ни одно из действий, совершаемых слушателем по этому сценарию (в будущем), не может привести к состоянию, в котором слушатель не будет в силах предотвратить возникновение выраженного в высказывании условия.

Декларатив (заявление, объявление) выполняется только в том случае, если (а) его предложение р становится истинным в первый

* Под сценарием понимается возможный цикл исполнения мультиагент-ной системы.

раз в тот момент, когда оно произносится, и (б) все время, пока оратор произносит, он предполагает, что выраженное в нем условие должно наступить, и знает, как сделать так, чтобы это произошло.

Инженерная проблема для проектировщиков МАС состоит в том, чтобы создать систему, которая позволит реализовать только корректные сценарии. По мнению автора, предложенные им определения дают объективные критерии, дающие возможность оценить корректность различных сценариев для мультиагентной системы. Требования, предъявляемые к агентам на основе формализации теории речевых актов, предписывают им, как комму-ницировать, учитывая их убеждения и намерения, таким образом, чтобы могли исполниться только корректные сценарии. Так, семантические определения оператора Ж могут быть использованы для обоснования некоторых условий корректности в МАС. Например, сценарий может быть определен как корректный, если все переданные в его рамках сообщения выполнены.

То же можно сказать и о теории импликатур, разработанной философом Г. П. Грайсом [13], которая занимает важное место в методологии МАС. Под импликатурой понимается непрямой смысл высказывания, который не сводится к смыслу составляющих высказывание слов. Например, фраза «Здесь холодно» может означать просьбу закрыть окно. Грайс различал конвенциональную и неконвенциональную импликатуру. Первая относится к случаю, когда то, что подразумевается, определяется конвенциональным значением используемых слов. Во втором случае импликатура следует не непосредственно из конвенционального значения слов, а из контекста или из структуры разговора.

В разговорной импликатуре подразумеваемый смысл основан на том факте, что слушатель предполагает, что говорящий следует максимам Грайса: принципам уместности и истинности. Для того чтобы импликатура имела место в диалоге, (1) слушатель должен предполагать, что говорящий следует указанным максимам, (2) это предположение необходимо для того, чтобы слушатель понял смысл высказывания, содержащего импликатуру, и (3) тот факт, что слушатель может сделать то, что от него ожидает говорящий, должен быть общим знанием. Очевидно, что перечисленные требования хорошо поддаются формализации, например, семантическим инструментарием Сингха и, таким образом, могут быть имплементированы в МАС на инженерном уровне.

Заключение

Мультиагентные системы как искусственные квазисоциальные образования демонстрируют в готовом виде то, к чему человечество шло долгим эволюционным путем. Так, ограниченная рациональность агентов соответствует когнитивной ограниченности людей и других социальных животных. Только в последнем случае это объясняется тем обстоятельством, что животные -это мобильные устройства, которые не могут быть подключены к сети питания и вынуждены экономить энергию своих «аккумуляторов», периодически подзаряжаясь. Поэтому природа должна была создать энергетически экономные когнитивные решения: перцептивные механизмы, дающие минимум информации, достаточный для адаптации и выживания; рациональность, сводящую все объяснения к минимально возможному числу принципов и сущностей; распределенный интеллект, который дает возможность каждому компенсировать собственную когнитивную ограниченность за счет привлечения ресурсов социальной сети. В этом последнем и состоит суть социальности биологических организмов, включая людей. Люди, правда, могут похвастаться еще символическими системами и основанными на них механизмами социального наследования (литература, образование и др.), что, конечно, на порядок повышает эффективность распределенного интеллекта.

Успех МАС как научного направления поддерживает гиперсетевую теорию сознания (ГСТ), согласно которой сознание является эмерджентным эффектом не только сложной сети нейронов головного мозга, но и социальной гиперсети [7]. МАС - один из путей научной демистификации «жизненного мира» человека: когнитивного и социального.

Литература:

1. Аронов И. З., Максимова О. В., Зажигалкин А. В. Исследование времени достижения консенсуса в работе технических комитетов по стандартизации на основе регулярных марковских цепей // Компьютерные исследования и моделирование. 2015 Т. 7. № 4. С. 941-950.

2. Афанасьев М. Я. Разработка и исследование многоагентной системы для решения задач технологической подготовки производства: авто-реф. дис. ... канд. тех. наук. Специальность 05.11.14 - Технология приборостроения. СПб., 2012.

3. Городецкий В. И. Многоагентная самоорганизация в Ь2Ь сетях // XII Всероссийское совещание по проблемам управления

ВСПУ-2014. Москва, 16-19 июня 2014 г. Труды ИПУ РАН. М., 2014. -С. 8954-8966.

4. Макаров В. Л. Искусственные общества и будущее общественных наук / Избранные лекции университета, вып. 99. СПб.: СПбГУП, 2009.

5. Маркс К. Капитал, т. I / Маркс К., Энгельс Ф. Сочинения. 2-е изд. М.: Госполитиздат, 1960. Т. 23.

6. Михайлов И. Ф. К общей онтологии когнитивных и социальных наук // Философия науки и техники. 2017. № 2 - в печати.

7. Михайлов И. Ф. Человек, сознание, сети. М.: ИФРАН, 2015.

8. Новиков Д. А., Чхартишвили А. Г. Рефлексия и управление (математические модели). М.: Физматлит, 2013. - 412 с.

9. Редько В. Г., Сохова З. Б. Многоагентная модель прозрачной рыночной экономической системы // Труды НИИСИ РАН. 2013. Т. 3. № 2. С. 61-65.

10. Austin J. L. How to Do Things with Words. Oxford, 1962.

11. Eiben A. E., SchutM. C., VinkN. On the Dynamics of Communication and Cooperation in Artificial Societies. In: Complexus 2004-05;2:152-162 DOI: 10.1159/000093687 Published online: August 22, 2006.

12. Fagin R., Halpern J., Moses Y., Vardi M. Reasoning about Knowledge. The MIT Press, Cambridge, MA., 1995. - 515 p.

13. Grice H. P. Studies in the Way of Words. Harvard, 1991.

14. Kim P. S., Coxworth J. E., Hawkes K. Increased longevity evolves from grandmothering. In: Proceedings of the Royal Society B. doi:10.1098/ rspb.2012.1751. Published online.

15. Knoll J. The Brain and Its Self. A Neurochemical Concept of the Innate and Acquired Drives. Springer-Verlag, Berlin, Heidelberg, 2005. - 176 p.

16. Niazi M. A., Hussain A. Cognitive Agent-based Computing-I. A Unified Framework for Modeling Complex Adaptive Systems Using Agent-based & Complex Network-based Methods. NY-L: Springer, 2013.

17. Searle J. R. Speech Acts. Cambridge University Press, Cambridge, 1969.

18. Singh M. E. Multiagent Systems, Springer-Verlag Berlin Heidelberg 1994.

19. Thomas R. W. Cognitive Networks. Dissertation submitted to the Faculty of the Virginia Polytechnic Institute and State University in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Computer Engineering. June 15, 2007 Blacksburg, Virginia. - 184 p.

20. Vlassis N. A Concise Introduction to Multiagent Systems and Distributed Artificial Intelligence. Morgan & Claypool, 2007. DOI: 10.2200/ S00091ED1V01Y200705AIM002. - 71 p.

21. Wooldridge M. An Introduction to Multiagent Systems. JohnWiley & Sons Ltd., Chichester, 2002. - 338 p.

i Надоели баннеры? Вы всегда можете отключить рекламу.