правление в социально-экономических системах
УДК.658.314.7:330.115
МЕХАНИЗМЫ ТЕХНОКРАТИЧЕСКОГО УПРАВЛЕНИЯ ЭВОЛЮЦИЕЙ ОРГАНИЗАЦИИ
И.А. Агеев*, А.И. Ермошкин**, В.В. Цыганов***
* Компания “РОЭЛ Консалтинг", г. Москва;
** Холдинг “Оптима-Инвест", г. Москва;
*** Институт проблем управления им. В. А. Трапезникова, г. Москва
Рассмотрены адаптивные механизмы управления эволюцией организации, в которых центр, принимающий решения в условиях неопределенности, использует процедуры обучения опознавания образов с учетом знаний эксперта-технократа. Показано, что эксперт-технократ может, пользуясь своим положением, обеспечивать как прогресс, так и регресс организации. Поставлены задачи синтеза прогрессивного и регрессивного технократического механизма. Найдены достаточные условия прогрессивности и регрессивности этого механизма.
ВВЕДЕНИЕ
Многие задачи управления эволюцией организаций в стохастической среде сводятся к обучению опознавания образов возникающих ситуаций с использованием знаний экспертов [1]. Необходимо настроить решающее правило так, чтобы минимизировать потери при опознавании образов с учетом человеческого фактора. Такая настройка осуществляется по наблюдениям входа и выхода управляемого объекта с помощью процедур обучения, использующих указания учителя [2]. В организационных системах роль учителя выполняют профессиональные эксперты. Выполняя технические функции, они приобретают власть, и поэтому их называют технократами, а управление, основанное на их рекомендациях — технократическим [1]. В настоящей работе рассматриваются механизмы технократического управления эволюцией организации, основанные на указаниях учителя-эксперта.
ПРОГРЕССИВНЫЕ ТЕХНОКРАТИЧЕСКИЕ МЕХАНИЗМЫ
Рассмотрим двухуровневую активную систему, содержащую центр и дальновидный элемент нижнего уровня (кратко — ДЭ). Технократический ме-
ханизм её функционирования (ТМФ) — это механизм, в котором центр как ученик пользуется рекуррентной вероятностной процедурой обучения опознаванию образов ситуаций, возникающих в процессе эволюции ДЭ, на основе указаний учителя-эксперта. Такой механизм основан на алгоритме обучения опознаванию образов с учителем для технических систем, не учитывающем человеческий фактор [2].
Предположим, что максимально возможный выход (потенциал) ДЭ в периоде t есть случайная величина [ с ограниченной плотностью распределения т([), Т([) ^ т*, [ е ", причем А — компакт. Эта величина принадлежит, с условной плотностью распределения т ([/к) = тк ([) и априорной вероятностью 4к, к одному из двух неизвестных заранее классов Ак, к = 1, 2 , А° и "2 = А. При опознавании образов, т. е. отнесении ситуации [ к
одному из двух указанных классов "к, к = 1, 2, ДЭ принимает решение, связанное с некоторым риском. Проблема заключается в определении разбиения, минимизирующего средний риск, связанный с классификацией. Обозначим через {А1, А2} некоторое разбиение множества А на два подмножества
А1 8 А2 = А, через юкр — потери, возникающие при отнесении ситуации класса Ак к классу "Р (или,
к
иначе, при попадании ситуации класса Ак в подмножество Ар). Предполагается, что ю11 < ю12, ю22 < ю21. Минимизируется средний риск, оценивающий качество опознавания образов и связанных с ним решений. Уравнение для определения точки [*, разделяющей области А1 и А2, при условии минимизации среднего риска, имеет вид
р12([*) = X (юк1 — юк2)4кТк([*) = к. (1)
к = 1
Оптимальное решающее правило: [ е ©1, если р12([) < к, в противном случае [ е ©2. Предположим
теперь, что априорные вероятности 4к, к = 1, 2 неизвестны. Для определения разделяющей функции р12([) можно воспользоваться указаниями учителя
о принадлежности любой ситуации [ е Аt двум не-
А к 4 к . к . . . к гп гл
пересекающимся классам А1 и А2, А1 8 А2 = [к, Е):
Г к, если [ е А?
6 ([^ = < . Заметим, что это эквива-
11, если [ е А2 лентно существованию [* такого, что Ак = [к, [*)
и а2 = [[*, Е). Поэтому выражение для 6 ([^ можно записать в виде
Г1, если > [*
6([,) = ©([- [*) = Г’ г,, (2)
[0, если [w< [*
где [* — параметр решающего правила учителя. Если бы были известны вероятности тк([), 4к, к = 1, 2, и путем решения уравнения (1) удалось бы найти [*, то оптимальное решающее правило имело бы вид р12([) = [ — [*. Однако это невозможно, поскольку неизвестны соответствующие априорные вероятности. В связи с этим рассмотрим стохастическую аппроксимацию разделяющей функции р12([) в виде р12(с, [) = [ — с. Примем следующее решающее правило: при [ < с ситуация относится к классу 1 ([ е А1) в противном случае — к классу 2 ([ е А2). Здесь с — параметр, настраиваемый таким образом, чтобы минимизировать критерий качества стохастической аппроксимации параметра [* оптимального решающего правила р12([):
-:.(с) = j [р12([) - P12(c, [)]2G[ o min.
A
Для определения параметра с можно воспользоваться следующим алгоритмом [2]:
с, + ! = /6(ср [,) о а([*) = а^шт /[»(с), (3)
,6(С, У =
= с, - у,{с, + [ю11 - ю12 + ю6([,) - Л]//} (4)
I = j G[, h = j[G[, Z = X (-1)
A A N, m = 1
N + m + 1
Z
Nm?
где у, — коэффициент усиления в периоде ,.
Предположим теперь, что ДЭ может занижать свой выход у по сравнению с потенциалом [ (т. е. у( < [). Центр формирует оценку параметра решающего правила а, (используя, например, процедуру (4)) и определяет стимул ДЭ в зависимости от значения его выхода: ф, = / (а,, у,). Иными словами, центр формирует технократический механизм = (,6, /), где — процедура обучения с учетом указаний 6(у,) учителя-эксперта, / — процедура стимулирования на основе сопоставления оценки а, и выхода ДЭ у(. Целевая функция ДЭ в периоде , имеет вид
(5)
где р — коэффициент дисконтирования, используемый для приведения будущих стимулов к текущему моменту времени t, 0 < р < 1; 7 — дальновидность ДЭ, исчисляемая в периодах времени. Если цель ДЭ состоит в максимизации критерия (5), то ему необходим прогноз относительно потенциалов и выгходов в будущем. Поскольку каждый выгход у (при данном потенциале [т) зависит от самого ДЭ, в качестве прогнозных значений рассматриваются выходы, максимизирующие критерий (5). Введем оператор максимизации М = max на множестве <([ ) возможных со-
W Ут е <([т) т
стояний ДЭ в периоде т, а также оператор (t устранения неопределенности относительно потенциала ДЭ в периоде t. Предположим, что оператор ( таков, что для любой функции g([t),
непрерывной при [t е А, найдется [0 е А такое, что (g ([,) = g ([0).
Для принятия решения о выборе состояния yt в периоде t ДЭ должен решить задачу оптимизации критерия (5) с прогнозом потенциалов и состояний на периоды t + 1, ..., t + 7 (кратко — задачу ОППС). Ему необходимо определить оптималь-
ную позиционную стратегию в виде набора оптимальных состояний (^ ^1 + 7) как функций его
потенциала в текущем и будущих периодах: у* = = ут([т), т = 1, ..., 1 + 7 После того, как ДЭ становится известно значение потенциала [, он выбирает, в качестве оптимального, состояние у* = у ). Формализуем процесс выбора ДЭ оптимальной позиционной стратегии (у 1, ..., у 1 + 7). Начнем с периода 1 + 7. Потенциал ДЭ [ + 7 и параметр а1+7, зависящий от \у, 1 < V < 1 + 7, считаем заданными. С помощью оператора 0 + 7 осуществляем оптимизацию целевой функции ДЭ (5) по состоянию у1 + 7. Тем самым определяется оптимальная позиционная стратегия ДЭ у 1 + 7 ([ + 7) в периоде 1 + 7 как функция [ + 7. В периоде 1 + 7 — 1 потенциал [ + 7 неизвестен. Поэтому, перед оптимизацией целевой функции (5) по состоянию у1 + 7 _ 1, необходимо устранить неопределенность в отношении потенциала [ + 7. Для этого к целевой функции (5),
в которой положено у( + 7= а 1 + 7([ + 7), применяем оператор устранения неопределенности ( + 7 в отношении потенциала [ + 7. В результате получаем “однократно усеченную” целевую функцию ДЭ, которая отличается от функции (5) тем, что в ней устранена неопределенность в отношении потенциала и состояния ДЭ в периоде 1 + 7.
Для устранения неопределенности в отношении потенциала и выхода ДЭ в периоде 1 + 7 — 1 проведем оптимизацию “усеченной” его целевой функции по состоянию \ + 7 _ 1 с помощью оператора М( + 7 _ 1. Тем самым определяется оптимальная позиционная стратегия ДЭ у 1 + 7 _ 1([1 + 7 _ 1) в периоде 1 + 7 — 1 как функция [ + 7 _ 1. После этого к “усеченной” целевой функции ДЭ, в которой положено у1 + 7 _ 1= ^ 1 + 7 _ 1([1 + 7 _ 1), применяется оператор устранения неопределенности ( + 7 _ 1 в отношении потенциала [ + 7 _ 1. В результате получаем “двухкратно усеченную” целевую функцию ДЭ, в которой устранена неопределенность в отношении его потенциалов и состояний в периодах
1 + 7 и 1 + 7 — 1. Повторяя эту процедуру вплоть до периода 1 + 1 включительно, получаем “7-кратА
но усеченную” целевую функцию ДЭ А (а, \). Она отличается от целевой функции (5) тем, что в ней устранена неопределенность в отно шении потенциалов и выходов ДЭ в периодах 1 + 7, ..., 1 + 1.
Дальновидный элемент решает задачу ОППС путем выбора текущего выхода ур максимизирующего
А
ожидаемое значение критерия А (а(, \). Формально этот критерий определяется путем последовательного применения к критерию (5) операторов
0 + 7, ( + 7, р + 7_ 1, 0 + 7_ 1, ..., 0 + 1, ( + 1, устраняющих неопределенность в отношении будущих значений выхода у1 и потенциала [ ДЭ в
периодах 1 + 7, ..., 1 + 1. Положим Жр1 = ...
... < = (,..(,. 'огда
А^(а,, у) = 0+ 7 9 = + 'х РТ _ '0/++17Фт,
Т = t + 1
Ф1 = /(ат, Ут) ()
ат + 1 = У^ \т < [т, Т = 1 + 7.
В момент выбора выхода \, ДЭ известно текущее значение потенциала [г Множество решений задачи ОППС в периоде 1, как множество выходов у*, при которых достигается максимальное значение ожидаемого критерия ДЭ (6) имеет вид:
51(6, [1) = агв тах А1 (ар у). (7)
У1 е Г([р
Будем предполагать, что справедлива гипотеза благожелательности ДЭ по отношению к центру: если [ е 5Д6, [1), то у* = [.
Рассмотрим теперь ТМФ = (/6, /), в котором управляющие воздействия формируются на основе прогнозных оценок параметра решающего правила, получаемых посредством процедуры стохастической аппроксимации (4):
А + 1 = (а1, У^ (8)
В момент выбора выхода у дальновидному элементу известен потенциал [. Он решает задачу ОППС и выбирает выход у1, чтобы максимизировать критерий (6). Будем говорить, что ТМФ 66 = (,6, /) прогрессивен, если у* = [, и оптимален, если оценки параметра, получаемые на основе стохастической процедуры (8), сходятся к наилучшей аппроксимации параметра решающего правила учителя [* — а ([*).
Теорема 1. Для ирогрессивности и оптимальности ТМФ = (,6, /) с ироцейуром (ф обучения опознаванию образов с учителем достаточно, чтобы
/Ц, у) = ©( у _ а1). (9)
Доказател ь ство. Согласно выражению (5),
1 + 7
целевая функция ДЭ 9 = X и ^ зависит как от
Т = 1
текущих, так и от будущих стимулов (ф1, ..., Ф + 7). По условию (9) текущий стимул ф = /(а1, у1) возрастает (не убывает) с ростом уг Далее, в ТМФ
66 = (I6, /) используется процедура (8) обучения с
учителем I, определяемая согласно выражению (4). По определению (2), величина 6 (у1) возрастает (не убывает) с ростом показателя уг Но, согласно выражениям (4) и (8), оценки ат с ростом 6 (у1)
убывают (не возрастают) при т = 1 + 1,1 + 7. С другой стороны, согласно условию (9), с убыванием оценки а будущий стимул ф = /(а , у ) в периоде
т возрастает (не убывает) при любом т = 1 + 1,1 + 7. Следовательно, с ростом показателя будущие
стимулы центра ф = /(а , у ) возрастают (не убы-
вают) при т = 1 + 1,1 + 7. Далее, целевая функция ДЭ 9 — монотонно возрастающая функция фт,
т = 1,1 + 7. Сами стимулы фт — монотонно возрастающие (неубывающие) функции показателя у. Следовательно, с ростом показателя ур возрастает (не убывает) и ожидаемый критерий ДЭ при вы-
А
ходе у1 _ А1 (а1, у1), определяемый согласно выра-
А
жению (6). Поскольку у < [, то максимум А1 (а1, у1) достигается при у1 = [г Поэтому по выражению (7)
[ е (66, [). Но, согласно гипотезе благожелательности ДЭ по отношению к центру, если [ е 5Д66, [), то у* = [. Таким образом, ТМФ
66 = (I6, /) прогрессивен. При этом выполняется (3), и оценки а1 сходятся к а ([*), что и требовалось доказать.
Теорема 1 определяет технократический механизм, при котором обучение опознаванию образов с учителем приводит к развитию организации.
МАНИПУЛИРОВАНИЕ И РЕГРЕССИВНЫЕ МЕХАНИЗМЫ ТЕХНОКРАТИИ
При доказательстве теоремы 1 предполагалась заинтересованность учителя (эксперта) в минимизации центром-учеником среднего риска, оценивающего качество опознавания образов. Задача состоит в том, чтобы понять, насколько эффективно эксперт-технократ может воздействовать на ход
событий, как применяет свои возможности управления эволюцией организации. Допустим, что в роли учителя-эксперта выступает манипулятор, который дает ученику указания не на основе истинного положения дел, а руководствуясь собственными интересами. Простейший случай — манипулятор присваивает разницу 51= [ _ у1, т. е. неиспользуемые “резервы” ДЭ. В этом случае он заинтересован не в увеличении, а в уменьшении величины уг Для этого манипулятор может, например, менять указания 6 ([1) (2) на обратные. Тогда в процедуре (4) в качестве указаний 6 ([1) используются обратные указания
Г 0, если [, > [*
/([1) = 1 _ ®([- [*) = Г’ [ [* (10)
[ 1, если [1 < [*
Назовем лжеучителем манипулятора, пользующегося процедурой (10). Соответствующий технократический механизм, в котором в качестве 6([1) используется / ([), будем обозначать 6х = (Iх, /). В нем процедура оценки параметра Ь решающего правила, согласно выражениям (4) и (10) имеет вид:
Ь1 + 1 = /(Ь1, [1) = Ь1 _ '1^Ьt +
+ [®21 _ ®22 _ ®®(у1 _ [*) _ К]//}. (11)
Технократический механизм функционирования, при котором > 0, назовем регрессивным.
Теорема 2. Технократическим механизм 6 =
= (Iх, ®) с лжеучителем, в котором исиользуется ироцефра стимулирования (9) и ироцейура оценки (77), иричем [* > Ь1, 1 = 1, 2, ..., регрессивен.
Доказательство. В ТМФ 6х = (Iх, ®) увеличение выхода ДЭ у1 до уровня [* и выше, в силу выражений (10) и (11), приводят к росту оценки параметра Ь1 + 1 на следующий период. Но стимул
ДЭ в периоде 1 + 1 монотонно убывает с ростом
оценки параметра Ь( + 1. Поэтому гарантированный уровень стимула ДЭ в периоде 1 + 1, в условиях неопределенности, также убывает с ростом Ь1 + 1. Далее, по условию теоремы, имеет место [* > Ьр 1 = 1, 2, ... Следовательно, при у1 > Ь /(а1, у1) = ®(у _ а~) = 1. Поэтому стимул ДЭ в периоде 1 не увеличивается с достижением выходом у1 уровня [* и выше. Таким образом, ожидаемый критерий ДЭ (6) убывает при увеличении выхода у1 до уровня [* и выше.
Тогда оптимальный выход ДЭ у*, максимизирующий критерий (6), меньше [*: у* < [*. Следовательно, ТМФ 6х = (Iх, ®) регрессивен. Теорема доказана.
Заметим, что лжеучитель может обеспечить выполнение условий теоремы 2, выбрав достаточно большое [*, такое, что [* > Ь( при любом ґ = 1, 2, ...
Таким образом, лжеучитель может сделать технократический механизм 6і = (7і, ©) с процедурами (9) и (11) регрессивным.
МЕХАНИЗМЫ УПРАВЛЕНИЯ ЭВОЛЮЦИЕЙ ОРГАНИЗАЦИИ
До сих пор выход ДЭ характеризовался скалярным показателем. Рассмотрим теперь более общий случай, когда результаты деятельности ДЭ характеризуются несколькими скалярными показателями, соответствующими разным областям его деятельности. Тогда, конструируя по отношению к одним из них прогрессивные, а к другим — регрессивные технократические механизмы, учитель-эксперт может “разворачивать” ДЭ в нужном направлении в пространстве показателей, обеспечивая желательную для него эволюцию организации: прогресс, развитие в одном аспекте и регресс, упадок — в другом.
Заметим, что существуют объективные предпосылки к усилению роли эксперта в условиях ускорения научно-технического прогресса. С одной стороны, узкая специализация профессионала достаточна для того, чтобы следить за развитием в своей области, поддерживать квалификацию на должном уровне. С другой стороны, узкий специалист поддается манипуляции со стороны многочисленных учителей-экспертов в других областях, так как не может проверить достоверность их указаний. Ведь для этого нужен широкий кругозор.
В процессе обучения центр-ученик меняет параметры своего решающего правила Ь1, отражающие его представление о ДЭ, т. е. индивидуальное сознание. По-гречески изменение сознания — ме-танойя [1]. Прогрессивный механизм, обеспечивающий раскрытие потенциала ДЭ — это прогрессивный механизм метанойи. При нем ДЭ развивается, и адекватно этому процессу меняется сознание центра-ученика. Регрессивный механизм, скрывающий потенциал ДЭ за счет манипулирования — это регрессивный механизм метанойи. При нем изменение сознания центра-ученика не адекватно ДЭ. Под влиянием неверных решений ученика-центра с искаженными оценками ДЭ деградирует, а центр получает дополнительные “доказательства” своей правоты. Регрессивный механизм метанойи меняет не только сознание ученика, но и сознание ДЭ (вместо заинтересованности в развитии ДЭ центр подавляет его).
Основу эволюции составляет противоречие — борьба (взаимодействие) противоположных, взаимоисключающих сторон и тенденций, находящихся
вместе с тем во внутреннем единстве и взаимопроникновении. Иными словами, в каждой ситуации, событии в организации имеются два противоположных аспекта. Меняя акценты, манипулятор усиливает влияние одного из них и ослабляет другой. С этим связано, например, манипулирование в механизмах представительной демократии, в котором эмоциональное воздействие направлено к сердцу избирателя (“голосуй сердцем”). Оно облекается в форму простой дихотомии — “хорошо” (х = 1) или “плохо” (х = 0). Поэтому для него подходит схема эмоциональной дихотомии “добро” (х = 1) и “зло” (х = 0). Таким образом, для манипулирования центром-учеником в процессе эволюции достаточно эффективно взывать к его эмоциям, оперируя категориями “добро” и “зло”. Манипулятор-технократ использует в своем сообщении центру-ученику ту сторону, тенденцию, которая ему более выгодна. Таким образом, он формирует у центра одностороннее представление о ДЭ. В зависимости от того, каким является это представление, осуществляется поощрение (или наказание) центром ДЭ, и реализуется прогрессивный (или, соответственно, регрессивный) механизмы метанойи. Таким образом, механизмы метанойи влияют на эволюцию организации.
Заметим, что манипулирование приводит к неустойчивости организации при смене эксперта-учи-теля. Один из факторов неустойчивости технократических механизмов заключается в риске, связанном с личностью самого учителя. Его отсутствие может дестабилизировать организацию. Другой фактор неустойчивости состоит в смещении оценок обучаемого центра в результате манипулирования. Центр-ученик с искаженными оценками параметра решающего правила не в состоянии самостоятельно принимать правильные решения. Его оценки смещены, неадекватны для данного случайного процесса и нуждаются в коррекции. Решения такого центра-ученика неадекватны и хаотичны.
ЛИТЕРАТУРА
1. Цыганов 5. Горойин 5. к., Шишкин Г. Г. Интеллектуальное предприятие: механизмы овладения капиталом и властью. — М.: Университетская книга, 2004. — 770 с.
2. Дыикин ^. 3. Основы теории обучающихся систем. — М.: Наука, 1970.
в (095; 554-79-00 ■ (095) 554-^9-77
(-таг/: ЬЬс@гри-га.«'.ии □