Научная статья на тему 'Многокритериальные системы стимулирования'

Многокритериальные системы стимулирования Текст научной статьи по специальности «Математика»

CC BY
232
43
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Проблемы управления
ВАК
Область наук

Аннотация научной статьи по математике, автор научной работы — Иващенко А. А.

Рассмотрены теоретико-игровые модели многокритериальных систем стимулирования, в которых деятельность каждого управляемого субъекта описывается несколькими показателями, значения которых определяют размер вознаграждения, выплачиваемого ему управляющим органом.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

MULTIOBJECTIVE MOTIVATION SYSTEMS

The paper describes game-theory models of multi-criterion motivation systems where the activities of each controlled subject is described by several indicators whose values determine the reward paid to the subject by the authority.

Текст научной работы на тему «Многокритериальные системы стимулирования»

УДК 591.6

МНОГОКРИТЕРИАЛЬНЫЕ СИСТЕМЫ СТИМУЛИРНВАНИЯ

А. А. Иващенко

Институт проблем управления им. В. А. Трапезникова РАН, г. Москва

Рассмотрены теоретико-игровые модели многокритериальных систем стимулирования, в которых деятельность каждого управляемого субъекта описывается несколькими показателями, значения которых определяют размер вознаграждения, выплачиваемого ему управляющим органом.

ВВЕДЕНИЕ

Стимулированием называется побуждение (осуществляемое посредством воздействия управляющего органа — центра — на предпочтения управляемого субъекта — агента) к совершению определенных действий [1]. В настоящей работе изучаются системы многокритериального стимулирования, в рамках которых центр компенсирует агентам затраты только при условии выполнения плана. Основной акцент делается на том, что деятельность агентов описывается вектором показателей [2], от которого зависит размер вознаграждения. Сначала рассматриваются одноэлементные, а затем — многоэлементные организационные системы.

1. ОБЩАЯ ПОСТАНОВКА ЗАДАЧИ

Рассмотрим двухуровневую организационную систему (ОС), состоящую из одного центра на верхнем уровне иерархии и п агентов на нижнем. Стратегией і-го агента является выбор действия у. є А, і є N = {1, 2, ..., п} — множеству агентов; стратегией центра — выбор системы стимулирования {ст,.(г)},е№ где г, = С,(у) є В. — наблюдаемый центром результат деятельности і-го агента, у = = (У1, У2, ..., Уп) — вектор действий агентов, г = (г1, г2, ..., ..., гп) — вектор результатов деятельности агентов, 0,: А ^ В,. — оператор агрегирования, ст,: В ^ И1, і є N

А = П А,, В = П В.

і є N 1 є N

Предпочтения центра отражены его целевой функцией Ф(г, ст(г)) = Н(г) - £ ст,(г), где Н( ) : В ^ И1 —

і є N

функция дохода центра.

Предпочтения і-го агента отражены его целевой

функцией /(у, ст,(г)) = ст,(г) - с,(у), где с,.(-): А ^ И1 —

функция затрат і-го агента, і є N.

Последовательность функционирования ОС такова: центр выбирает и сообщает агентам систему стимулиро-

вания (зависимость вознаграждения, выплачиваемого каждому из агентов, от вектора результатов их деятельности), затем агенты однократно, одновременно и независимо выбирают свои действия, которые приводят к соответствующим результатам деятельности. Целевые функции и допустимые множества, а также операторы агрегирования являются общим знанием среди всех участников ОС (центра и агентов); агенты на момент принятия решений знают выбранную центром систему стимулирования; центр наблюдает результаты деятельности агентов, но может не знать их действий.

Обозначим:

Р(ст(-)) с А — множество действий, выбираемых агентами при системе стимулирования ст(-); обычно считается, что агенты выбирают действия, являющиеся равновесием их игры;

0(Р) = р {01(у1), 62(^2), ..., С„(У„)} — множество

результатов деятельности агентов, которые могут реализоваться при выборе ими действий из множества Р.

Эффективность стимулирования К(ст) определяется как гарантированное значение целевой функции центра:

К(ст) = тп ГН( г) - ^ стг<г)!.

г е О(Р(а))1 I им -1

В общем виде задача стимулирования формулируется следующим образом — найти допустимую систему стимулирования, обладающую максимальной эффективностью:

(1)

2. БАЗОВАЯ МОДЕЛЬ СТИМУЛИРОВАНИЯ

Основным аппаратом моделирования задач стимулирования в теории управления служит аппарат теории игр — раздела прикладной математики, исследующего модели принятия решений в условиях несовпадения интересов сторон (игроков), когда каждая сторона стремится воздействовать на развитие ситуации в собственных интересах [3, 4]. Простейшей игровой моделью является

а

взаимодействие двух игроков — центра и подчиненного ему агента, т. е. п = 1.

Стратегией агента является выбор действия у є А с Ик, k > 2, принадлежащего компактному множеству допустимых действий А. Содержательно действием агента может быть количество отрабатываемых часов, объем произведенной продукции, ее качество и иные характеристики. Пока будем считать, что агрегирование отсутствует, т. е. г = у, а 0() — тождественное отображение, т = ^ В = А.

Стратегией центра является выбор функции стимулирования ст(-), ставящей в соответствие действию агента некоторое неотрицательное вознаграждение, выплачиваемое ему центром, т. е. ст : А ^ И+. Выбор действия у є А требует от агента затрат с(у), с : А И1, и приносит центру доход Н(у), Н : А ^ И1.

Интересы участников организационной системы (центра и агента) отражены их скалярными целевыми функциями (функциями выигрыша, полезности и т. д., в записи которых зависимость от стратегии центра будет опускаться), которые обозначим, соответственно:

Ф(у) и /(у).

Целевые функции представляют собой: для агента — разность между стимулированием и затратами:

/(у) = ст(у) - с(у), (2)

а для центра — разность между доходом и затратами центра на стимулирование — вознаграждением, выплачиваемым агенту:

Ф(у) = H(y) - a(y).

(З)

Определим уХСА = ащ тп с(у) — действие агента, ми-

У и А

нимизирующее его затраты.

Введем следующие предположения, которых будем придерживаться, если не оговорено особо, в ходе дальнейшего изложения. Относительно функции затрат предположим, что она непрерывна, а затраты от выбора действия у1СЛ равны нулю. Также допустим, что сумма вознаграждения, выплачиваемого центром агенту, неотрицательна и что функция дохода центра непрерывна и достигает максимума при действии агента, отличном от Уьса-

Так как значение целевой функции агента (2) зависит как от его собственной стратегии — действия, так и от функции стимулирования, то в рамках гипотезы рационального поведения агент будет выбирать действия, которые при заданной системе стимулирования максимизируют его целевую функцию. Понятно, что множество таких действий, называемое множеством реализуемых действий, зависит от используемой центром системы стимулирования. Основная идея стимулирования как раз и заключается в том, что, варьируя систему стимулирования, центр может побуждать агента выбирать те или иные действия.

Так как целевая функция центра зависит от действия, выбираемого агентом, то эффективностью системы стимулирования называют гарантированное значение целевой функции центра на множестве действий агента, реализуемых данной системой стимулирования. Следовательно, задача стимулирования (см. выражение

(1)) заключается в том, чтобы выбрать оптимальную систему стимулирования, т. е. систему стимулирования, имеющую максимальную эффективность.

Множество действий агента, доставляющих максимум его целевой функции (и, естественно, зависящих от функции стимулирования), называется множеством решений игры или множеством действий, реализуемых данной системой стимулирования:

P(a) = Argmax{a(y) - c(y)}.

у є A

(4)

Зная, что агент выбирает действия из множества (4), центр должен найти систему стимулирования, которая максимизировала бы его собственную целевую функцию (3). Следовательно, эффективность системы стимулирования a е M

K(a) = min Ф(у).

У е Р(а)

Задача синтеза оптимальной системы стимулирования заключается в выборе допустимой системы стимулирования, имеющей максимальную эффективность (см. также (1)):

K(a) ^ max. (5)

а

Перейдем к решению задачи стимулирования, практически дословно повторяя решение, описанное в работе [1], для рассматриваемого случая многокритериальной системы стимулирования. Предположим, что применялась система стимулирования a(-), при которой агент выбирал действие х е P(a(-)). Легко показать, что если взять другую систему стимулирования a (■), которая будет равна нулю всюду, кроме точки х, и будет равна старой системе стимулирования в точке х:

_ (a(х), у = х

ст (у) = 1 ~4 ", то и при новой системе стимули-^ 0, у ф х

рования это же действие агента будет доставлять максимум его целевой функции.

Так как центр стремится минимизировать выплаты агенту при условии, что последний выбирает требуемое действие (план, назначенный центром), то вознаграждение в случае выполнения плана должно равняться затратам агента (точнее, превосходить их на сколь угодно малую положительную величину 8 — для того, чтобы целевая функция агента имела единственный максимум — точку плана). Этот важный вывод для скалярных систем стимулирования получил название «принцип компенсации затрат» [1]. Он справедлив для рассматриваемой модели и в случае многокритериального стимулирования.

Следовательно, параметрическим (с параметром — планом х є А) решением задачи (5) является система стимулирования, которая называется компенсаторной:

ак(х, У) =

_ I c(x) + 8, у = х,

0,

(6)

у Ф X.

Сколь угодно малая строго положительная величина 8, фигурирующая в оптимальной системе стимулирования, получила название мотивационной надбавки, так как именно ее размер определяет значение целевой функции агента [1]. Размер мотивационной надбавки выбирается, исходя из различных соображений (см. далее).

Оптимальное реализуемое действие может быть найдено из решения следующей стандартной оптимизационной задачи:

у * = argmax[H(x) — c(x)].

x є A

(7)

32

CONTROL SCIENCES № Б • 200Б

Утверждение 1. При п = 1, k > 2 и отсутствии агрегирования, система стимулирования (6) и (7) 8-опти-мальна.

Ранее мы рассматривали случай отсутствия агрегирования информации. Теперь предположим, что агрегирование информации имеет место, т. е. доход центра А(г) зависит от наблюдаемого им результата деятельности агента г = 0(у) е В с ^т, причем т < k, где 0(): А ^ В — однозначное непрерывное отображение, такое

что и 0(у) = В. При этом предполагается, что опера-

у е А

тор агрегирования и функция затрат агента центру известны, а действия не наблюдаются.

Зафиксируем произвольный результат деятельности агента г е В и вычислим множество его действий, приводящих к данному результату:

7(г) = {у е А|0(у) = г}, и минимальные затраты агента по достижению данного

результата: (13) С(г) = тп с(у).

У е У( г)

Рассмотрим систему стимулирования:

стк(х, г) = { С( х)’г = х, х, г е В. (8)

10, г ф х

Видно, что система стимулирования (8) в рамках гипотезы благожелательности (при прочих равных агент выберет действия, наиболее благоприятные с точки зрения центра) побуждает агента выбрать действия, приводящие к «плановому результату» х е В, причем затраты центра на стимулирование при этом минимальны.

Оптимальный реализуемый результат деятельности может быть найден из решения следующей стандартной оптимизационной задачи:

г * = ащтахЩх) - С(х)]. (9)

х е В

Утверждение 2. При п = 1, k > 2 и наличии агрегирования в рамках гипотезы благожелательности система стимулирования (8) и (9) оптимальна.

Таким образом, получено решение задачи синтеза оптимальной многокритериальной системы стимулирования в одноэлементной ОС как для случая отсутствия агрегирования информации (утверждение 1), так и для случая агрегирования информации (утверждение 2). Завершив рассмотрение механизмов стимулирования в одноэлементных ОС, перейдем к описанию механизмов многокритериального стимулирования в многоэлементных ОС.

3. СТИМУЛИРОВАНИЕ ПО ИНДИВИДУАЛЬНЫМ РЕЗУЛЬТАТАМ

Пусть N = {1, 2, ..., п} — множество агентов, у. е А,. — действие г-го агента, с,(у) — скалярные затраты г-го агента, ст,(у) — скалярное стимулирование этого агента со стороны центра, г е N у = (у1, у2, ..., уп) — вектор действий агентов, у е А = П А.. Предположим, что центр г е N

получает доход Н(у) от деятельности агентов.

Обозначим у—,. = (у1, у2, ..., у-р у+1, ..., уп) е А_; =

= П Ау- — обстановка игры для г-го агента. Интересы и

} * г

предпочтения участников ОС — центра и агентов — выражены их целевыми функциями. Целевая функция

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

центра Ф(ст, у) представляет собой разность между его доходом Н(у) и суммарным вознаграждением и(у),

П

выплачиваемым агентам: и(у) = ^ ст,(у), где ст,(у) — стиг = 1

мулирование г-го агента, ст(у) = (ст1(у), ст2(у), ..., стп(у)). Целевая функция г-го агента Дст,, у) — разность между стимулированием, получаемым от центра, и затратами с,(у)

П

Ф(ст, у) = Н(у) - ^ ст,(у), Дст,, у) = ст,(у) - с,(у), г е N.

г = 1

Отметим, что и индивидуальное вознаграждение, и индивидуальные затраты г-го агента по выбору действия у. в общем случае зависят от действий всех агентов (случай сильно связанных агентов с несепарабельными затратами [1]).

Примем следующий порядок функционирования ОС. Центру и агентам на момент принятия решения о выбираемых стратегиях (соответственно — функциях стимулирования и действиях) известны целевые функции и допустимые множества всех участников ОС. Центр, обладая правом первого хода, выбирает функции стимулирования и сообщает их агентам, после чего агенты при известных функциях стимулирования одновременно и независимо выбирают действия, максимизирующие их целевые функции.

Обобщая предложенную в работе [5] модель, относительно параметров ОС введем следующие предположения:

— множество А,. допустимых действий г-го агента

ki

является компактом в ^ ;

— функции затрат агентов непрерывны, неотрицательны и 3 уХСА ,. е А,. такое, что Vу—. е А—. ащ тш с,(у.,

yi е Ai

у-,) = Ухса Р причем VУ-,. е А- С,(Ухса Р у-,) = 0;

— функция дохода центра непрерывна по всем переменным и достигает максимума при векторе действий агентов, отёичном от У^са = (УхсА 1, УХСА 2, ..., УхСА >

Так как и затраты, и стимулирование каждого агента в рассматриваемой модели зависят в общем случае от действий всех агентов, то последние оказываются вовлеченными в игру, в которой выигрыш каждого зависит от действий всех. Обозначим Р(ст) — множество равновесных при системе стимулирования ст стратегий агентов — множество решений игры (тип равновесия пока не оговаривается; единственно предположим, что агенты выбирают свои стратегии однократно, одновременно и независимо друг от друга, не имея возможности обмениваться дополнительной информацией и полезностью).

Как и в одноэлементной ОС, гарантированной эффективностью (далее просто «эффективностью») стимулирования является минимальное значение целевой функции центра на соответствующем множестве решений игры агентов: К(ст) = тш Ф(ст, у).

У е Р(а)

Задача синтеза оптимальной функции стимулирования заключается в поиске допустимой системы стимулирования ст*, имеющей максимальную эффективность: ст* = ащтах К(ст).

а

В частном случае, когда агенты независимы (вознаграждение и затраты каждого из них зависят только от его собственных действий), то оптимальной (точнее —

8-оптимальной, где 8 = 2 8,) является компенсаторная

г е N

система стимулирования:

стКу) =

сі( у*) + 8р у і = уЬ

і є N

(10)

0,

у І ф у*

где {8,.},. € N — сколь угодно малые строго положительные константы (мотивирующие надбавки), а оптимальное действие у *, реализуемое системой стимулирования (10) как равновесие в доминантных стратегиях (РДС) [3], является решением следующей задачи оптимального согласованного планирования: у * =

= а^тах \ Н(у) - V сг<уг)

у е А I г е N

Если стимулирование каждого агента зависит от действий всех агентов (рассматриваемый в настоящем подразделе случай коллективного стимулирования) и затраты несепарабельны (затраты каждого агента зависят в общем случае от действий всех агентов, что отражает взаимосвязь и взаимозависимость агентов), то множества равновесий Нэша [3] Е^(ст) с А и РДС у^ е А имеют вид:

= {У*" е А^г' е N V У,- е А ст,-^) - >

1 ст-СУр ум) - с,(у,, ум)};

у; е А,. — доминантная стратегия г-го агента тогда и

1й ,

только тогда, когда

Vу,. е А,., V У-,. е А-,. ст,.(уи, У-,) - с(уи, У-,) 1

1 ст,(У,', У-,) - С,(У,, У-,).

Если при заданной системе стимулирования у всех агентов имеется доминантная стратегия, то говорят, что данная система стимулирования реализует соответствующий вектор действий как РДС.

Фиксируем произвольный вектор действий агентов у * е А и рассмотрим следующую систему стимулирования:

ст, (у*, у) =

сі( у*, у_і) + 8і, у і = уЬ

8, > 0, і є N. (11)

0,

у і ф у*

Полученный в работе [5] результат остается в силе и для рассматриваемой модели: при использовании центром системы стимулирования (11) у * — РДС. Более того, если 8,. > 0, і є N то у * — единственное РДС.

Вектор оптимальных реализуемых действий агентов у*, фигурирующий в качестве параметра в выражении

(11), определяется в результате решения следующей задачи оптимального согласованного планирования:

(12)

у* = а^тах 1 Н(у) - V с,<у) -,

У є А І І є N

а эффективность системы стимулирования (11) и (12) равна следующей величине:

К* = Н(у*) - V с,(у*) - 8.

г е N

Утверждение 3. При п 1 2, k 1 2 и отсутствии агрегирования система стимулирования (11) и (12) 8-опти-мальна.

Таким образом, посредством обобщения результатов, полученных в работе [5], решена задача синтеза оптимальной многокритериальной системы стимулирования в многоэлементных ОС без агрегирования информации (утверждение 3). Перейдем к описанию случая агрегирования информации.

4. СТИМУЛИРОВАНИЕ ПО КОЛЛЕКТИВНЫМ РЕЗУЛЬТАТАМ

Пусть в рамках модели, рассмотренной в § 3, имеет место агрегирование информации, т. е. результат деятельности г е В организационной системы, состоящей из п агентов, является функцией их действий: г,. = С,(у), г е N. Интересы и предпочтения участников организационной системы — центра и агентов — выражены их целевыми функциями. Целевая функция центра представляет собой разность между его доходом /-г(г) и суммарным вознаграждением, выплачиваемым агентам:

«^стОХ г) = /(г) - V ст/гХ

г е N

где ст,(г,) — стимулирование г-го агента, ст(г) = (ст1(г1),

ст2(г2Х ..., ст„(г„)).

Целевая функция г'-го агента представляет собой разность между стимулированием, получаемым им от центра, и затратами с,(у): Дст,(-), у) = ст,(г,) - с,(у), г е N.

Примем следующий порядок функционирования ОС. Центру и агентам на момент принятия решений о выбираемых стратегиях (соответственно — функциях стимулирования и действиях) известны целевые функции и допустимые множества всех участников ОС, а также функции агрегирования. Центр, обладая правом первого хода, выбирает функции стимулирования и сообщает их агентам, после чего агенты при известных функциях стимулирования выбирают действия, максимизирующие их целевые функции.

Рассмотрим случай, когда центр наблюдает только результаты деятельности агентов, от которых зависит его доход /(г), но не знает и не может восстановить индивидуальных действий агентов (в противном случае мы оказались бы в рамках модели, рассмотренной ранее), т. е., имеет место агрегирование информации — центр имеет не всю информацию о векторе у е А действий агентов, а ему известен лишь некоторый их агрегат г е В — параметр, характеризующий результаты совместных действий агентов.

В рассмотренной в § 3 задаче стимулирования декомпозиция игры агентов основывалась на возможности центра поощрять агентов за выбор определенного (и наблюдаемого центром) действия. Если действия агентов не наблюдаемы, то непосредственное применение идеи декомпозиции невозможно, поэтому при решении задач стимулирования, в которых вознаграждение агентам зависит от агрегированных результатов деятельности,

следует воспользоваться подходом, описанным для одноэлементной системы ранее — найти множество действий, приводящих к заданным результатам деятельности, выделить среди них подмножество, характеризуемое минимальными суммарными затратами агентов (и, следовательно, минимальными затратами центра на стимулирование при использовании компенсаторных функций стимулирования), построить систему стимулирования, реализующую это подмножество действий, а затем определить, реализация какого из результатов деятельности наиболее выгодна для центра.

Будем считать, что отображения {0,(')} непрерывны

и однозначны, причем и Ш,(у), 02(у), ..., С„(у)) = В.

у е А 1 2 п

Определим множество векторов действий агентов, приводящих к заданному вектору результатов деятельности г е В:

У(г) = {у е А|0,.(у) = г,, г е N с А.

Вычислим минимальные суммарные затраты агентов по достижению результата деятельности г е В:

С(г) = тп V с,(у),

у е У(г) I е N

а также множество действий У*(г) = Ащ тш V с (у),

У е У( г) г е N ,

на котором этот минимум достигается.

Фиксируем произвольный результат деятельности х е В и произвольный вектор у *(х) е У*(х) с У(х).

Пусть выполнено одно из следующих предположений. А. 1. V х е В множество У*(х) состоит из одной точки. А. 2. Затраты агентов сепарабельны, т. е. с,. = с,(у,), г е N.

А. 3. V г е N V х е В, V у*(х) е У*(х), V уг- е А,, такого,

что 0(УI, у* (х)) = х, выполнено с,.(Уг, у-г (х)) > с,(у*(х)).

По аналогии с тем, как это делается в работе [5], можно доказать, что:

1) при использовании центром системы стимулирования

Оптимальные (k 1 2) системы многокритериального стимулирования

a*x (z) = |Сі(У*(x)) + 8і, Z = x, О, z Ф x

N,

(1З)

вектор действий агентов у*(х) реализуется как единственное равновесие Нэша игры агентов с минимальными затратами центра на стимулирование равными С(х) + 8,

где 8 = V 8,;

І є N

2) система стимулирования (13) является 8-опти-мальной.

Найдем наиболее выгодный для центра результат деятельности ОС х * є В как решение задачи оптимального согласованного планирования:

x * = argmax[h(x) — C(x)].

B

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(14)

Утверждение 4. Если при п 1 2, k 1 2 и наличии агрегирования выполнено одно из предположений А. 1 или А. 2, или А. 3, то система стимулирования (13) и (14) 8-оитимальна.

Таким образом, выражения (13) и (14) дают решение задачи синтеза оптимальной многокритериальной сис-

п Агрегирование отсутствует Агрегирование присутствует

1 Не менее 2 Утверждение 1 Утверждение 2 Утверждение 3 Утверждение 4

темы стимулирования по агрегированным результатам совместной деятельности.

Отметим, что выше рассматривались постановки задач стимулирования, в которых вознаграждение, выплачиваемое агентам, вычиталось из дохода центра. Более простым случаем является наличие фиксированного фонда заработной платы (ФЗП), который необходимо распределить так, чтобы выбираемые (в рамках назначенной центром системы стимулирования) агентами действия максимизировали доход центра. Решение задачи стимулирования при этом останется, в основном, без изменений и центру следует по-прежнему использовать соответствующие компенсаторные системы стимулирования. Отличие будет заключаться в том, что задача согласованного планирования сведется к максимизации функции дохода центра на множестве таких действий (или результатов деятельности) агентов, что их суммарные затраты (компенсируемые центром) не превосходят имеющегося ФЗП.

ЗАКЛЮЧЕНИЕ

Итак, в настоящей работе сформулированы и решены задачи синтеза оптимальных систем многокритериального стимулирования ^ 1 2) для одноэлементных (п = 1) и многоэлементных (п 1 2) организационных систем — см. таблицу.

Перспективным направлением дальнейших исследований представляется постановка и решение задач синтеза оптимальных систем многокритериального стимулирования для ситуаций, в которых класс допустимых систем стимулирования ограничен и не включает в себя компенсаторные системы стимулирования. Типовыми примерами широко распространенных на практике таких классов систем стимулирования служат линейные системы стимулирования, механизмы «бригадной» оплаты труда и ранговые системы стимулирования.

ЛИТЕРАТУРА

1. Новиков Д. А. Стимулирование в организационных системах. — М.: СИНТЕГ, 2003. — 312 с.

2. Модели и механизмы многокритериального стимулирования в организационных системах / А. А. Иващенко, Д. А. Новиков, М. И. Сапико, М. А. Щепкина. — М.: ИПУ РАН, 2006.

3. Губко М. В., Новиков Д. А. Теория игр в управлении организационными системами. — М.: СИНТЕГ, 2002. — 148 с.

4. Myerson R. B. Game theory: analysis of conflict. — London: Harvard Univ. Press, 1991. — 568 p.

5. Новиков Д. А., Цветков А. В. Механизмы стимулирования в многоэлементных организационных системах. — М.: Апостроф, 2000. — 184 с.

8 (495) 334-90-51; e-mail: ai@ipu.ru

i є

ПРОБЛЕМЫ УПРАВЛЕНИЯ № Б • 200Б

35

i Надоели баннеры? Вы всегда можете отключить рекламу.