4. Gomez F. Why base the knowledge representation language on natural language?//Joumal of intelligent systems vol. 10, p.2, 2000.
5. MinskyM. A framework for representing knowledge//MIT-AI laboratory memo 306, 1974.
6. Люгер Дж. Ф. Искусственный интеллект: стратегии и методы решения сложных проблем, 4-е издание. Пер. с англ. - М.: Издательский дом «Вильямс», 2003.
7. Иванов Г.И., Иванова. Е.Г. О представлении осознанных знаний средствами естественного языка//Известия ТРТУ. Тематический выпуск «Актуальные проблемы экономики, менеджмента и права». - Таганрог: Изд-во ТРТУ, 2003. №5 (34). - С.197-200.
УДК 621.372
А.М. Никифорова МОДЕЛИРОВАНИЕ ПОВЕДЕНИЯ АНИМАТА*
В рамках данной работы условимся, что аниматы образуют сообщество, размещенное на поле, поле разбито на клетки, в клетке может находиться трава (пища анимата) и как максимум один анимат. Процесс моделирования поведения сообщества аниматов состоит из трёх этапов. При этом в каждый такт времени для каждой клетки выполняются следующие действия:
1) взять содержимое клетки;
2) определить следующее действие для содержимого клетки;
3) ;
далее переходим к следующему такту моделирования.
Возможное действие для анимата выбирается из множества: {есть, двигаться, скрещиваться, ничего не делать (отдыхать)}. Выполнение каждого действия (включая действие «ничего») приводит к затратам энергии, и только питание может пополнить её запас. Модель «Кузнечик» содержит подробное описание величин затрат энергии при каждом действии, и эти величины вполне могут быть использованы и в данной модели [1].
Этап выбора следующего действия состоит из следующих шагов: 1) опреде-; 2) ,
. « » « », -цесс постановки цели основан на механизмах влияния мотивации на процесс целе-образования. Мотивация анимата к достижению той или иной цели напрямую зависит от количества накопленного им ресурса [1]. При этом важно, каким именно образом будет производиться выбор необходимого и оптимального действия в данный момент и в данном состоянии окружающей среды. Существующие модели предлагают несколько вариантов решения этой задачи.
1. На основе теории функциональных систем. В качестве основного механизма моделирования была выбрана теория функциональных систем [2]. В этой теории в основу описания поведения, его индивидуального развития, обучения и эволюции положен единый критерий - адаптивный результат действий организма.
* Работа выполнена при поддержке Мин. образования, грант № 12392 Е02-2.0-44 и РФФИ, грант № 12387 02-01-01275
Рис.1
Базовым элементом внутренней системы управления аниматом является отдельная функциональная система (ФС), которая осуществляет выбор действия в соответствии с заданной целью и текущей ситуацией, формирует прогноз результата действия. Структура ФС представлена на рис.1 [3].
На вход ФС поступает входной сигнал Хф, характеризующий состояние внешней и внутренней среды анимата. По этому сигналу определяется прогноз результата каждого из возможных действий А. Прогноз результата /'-го действия А, осуществляет /'-я нейронная сеть массива прогнозирующих нейронных сетей {NN1 } блока афферентного синтеза. Таким образом, определяются прогнозы Рг,#) для всех действий А;. Далее прогнозы поступают в блок принятия решения ПР, в котором прогнозы Рг,#) сравниваются с целью б и определяется: есть ли действия, для которых рассогласование между целью и прогнозом ё/ = ||Рг,-(1) - б || меньше заданного порога (д/ < Л) и минимально среди всех других рассогласований.
Данный алгоритм получает гарантированно оптимальное решение с точки зрения действий анимата в условиях среды, но реализация такого подхода грозит чрезмерными затратами времени, т.к. предлагается сделать п прогнозов (доя каждой нейронной сети), , , -темы при ее реконструкции и расширении набора действий.
2. Использование модели «Кузнечик». В данной модели [1] процесс принятия решения о необходимом действии анимата организован несколько проще -используется всего одна нейронная сеть, при этом сеть содержит только один слой нейронов. На входы нейронной сети поступают сигналы от сенсорных входов. Входы и нейроны связаны по принципу "все со всеми", то есть каждый нейрон получает сигналы от всех входов. Нейроны формируют выходные сигналы, которые определяют действия агента. Нейронная сеть имеет 9 входных сигналов: на-
( ); агентов в соседних клетках; мотивацию к скрещиванию у соседей, а также величину собственной мотивации к своим целям. Слой нейронов определяет действия агента. Каждый нейрон соответствует одному действию. Будем считать, что агент в данный такт времени выполняет то действие, которое соответствует максимальному выходному сигнала нейрона. В модели «Кузнечик» анимат может совершать 7 , , 7 ,
имеют логистическую активационную функцию: у = Б (81 • • х1) , [1], Б(Ъ) =
[1+ехр (-? Ь)]-1, [1], где у - выход _|-го нейрона, х1 - входы нейрона, - синапти-
ческие веса _|-го нейрона, ? - параметр активационной функции.
Данное решение имеет 63 синаптических веса. При этом анимат может оценивать ситуацию только в двух соседних клетках, т.е. мир анимата одномерен. Если сделать мир двумерным и ввести параметр «острота зрения» - 1 - количество клеток, которые может видеть анимат, то количество входов нейронной сети будет возрастать до т + (1 +1)2 +(1 +1)2 -1 + т((1 +1)2 -1) = (т + 2)(1+1)2 -1,где т - количество целей анимата.
, -ным затратам, как предыдущая, и, возможно, является наиболее удачным решени-, .
3. Использование механизмов нечеткой логики. Состояние внешней среды и наличие мотиваций анимата можно легко описать при помощи набора
( ). , -ны мотивации будет следующим: {«слабая», «средняя», «сильная»} (рис.2). Не все ситуации можно свести к нечетким, т.к. есть и четкие ситуации. Например: трава в клетке, либо есть, либо нет, точно также, как и соседи слева/справа.
Рис.2
Далее на основании определенных ЛП, составляем наборы правил о том, как действовать в данной ситуации. Например: 1) если мотивация к приему пищи сильная и трава в клетке отсутствует, то анимат должен двигаться; 2) если мотивация к приему пищи сильная и трава в клетке отсутствует, то анимат должен отды-.
Каждое из правил снабжается некоторой вероятностью выполнения: допустим, правило 1 - вероятностью выполнения равной 0,85 как априорно наиболее выгодное, а правило 2 - вероятностью 0,15 и т.д.
Если во всех предыдущих вариантах геном агента состоял из весов синаптических связей, то, в данном случае, геном будет состоять из вероятностей вы-полне
. ,
нового действия приводит к значительному увеличению базы правил (в худшем случае количество правил удваивается) и далеко от автоматизации. Этот же минус появляется и при появлении нового правила, т.е. при небольшой вычислительной сложности модели имеем ее минимальную расширяемость.
4. Использование аппарата вероятностных автоматов. В данном подходе для моделирования поведения анимата, необходимо построить автомат, набор состояний которого совпадает с набором действий анимата, входной алфавит с состояниями окружающей среды и внутренним состоянием анимата, выходной ал,
состояния в другое при данном входном символе.
Единственное неудобство модели - все возможные состояния среды необходимо закодировать в символы входного алфавита, также как и внутренне со. -пы и кодировать одним общим числом. Дальнейшее моделирование ничем не отличается от моделирования поведения обычного вероятностного автомата. Простейший анимат может быть представлен в виде следующей схемы (рис.3). Дуги маркируются парой строк, кодирующих состояние внутренней и внешней среды, и , .
Рис.3
Добавление нового действия в данном случае приводит к добавлению ново, , целей или объектов внешней среды увеличивает только размер входного алфавита.
,
.
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Редько ВТ. Эволюционная кибернетика. - М.: Наука, 2001. - 159с.
2. Анохин П.К. Очерки по физиологии функциональных систем. - М.: Медицина, 1975. - 205с.
3. Анохин КВ., Бурцев М.С., Зарайская ИМ., Лукашев АХ)., Редько ВТ. Проект Мозг анимата: разработка модели адаптивного поведения на основе теории функциональных систем. http://wsni2003.narod.ru/Papers/Anokhin.htm