Научная статья на тему 'Решение динамической задачи пропорционального стимулирования с учетом эффекта кривой обучения'

Решение динамической задачи пропорционального стимулирования с учетом эффекта кривой обучения Текст научной статьи по специальности «Экономика и бизнес»

CC BY
134
27
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по экономике и бизнесу, автор научной работы — Павлов О.В.

Сформулирована и решена динамическая задача пропорционального стимулирования с учетом эффекта кривой обучения. Проблема сводится к решению двух взаимосвязанных динамических задач для центра и агента. Разработан численный алгоритм решения динамической задачи стимулирования. Получено численное решение с помощью метода динамического программирования Беллмана. Проведено исследование влияния разного вида управляющих функций центра на выбор агентом фактических объемов производства.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The dynamic problem of proportional incentive taking into consideration the effect of the learning curve is formulated and solved. The problem reduces to the solution of two interconnected dynamic problems for the center and agent. A numerical algorithm for solving dynamic problem of incentive is developed. The numerical solution using dynamic programming of Bellman is received. The investigation of the influence of different types of control functions of center on the choice by the agent of actual production volumes is carried out.

Текст научной работы на тему «Решение динамической задачи пропорционального стимулирования с учетом эффекта кривой обучения»

Павлов О.В.

Решение динамической задачи пропорционального стимулирования с учетом эффекта кривой обучения // Вестник Самарского государственного университета. Серия «Экономика и управление». 2015. № 9/2 (131). С. 315-322 315

УДК 334

О.В. Павлов*

РЕШЕНИЕ ДИНАМИЧЕСКОЙ ЗАДАЧИ ПРОПОРЦИОНАЛЬНОГО СТИМУЛИРОВАНИЯ С УЧЕТОМ ЭФФЕКТА КРИВОЙ ОБУЧЕНИЯ

Сформулирована и решена динамическая задача пропорционального стимулирования с учетом эффекта кривой обучения. Проблема сводится к решению двух взаимосвязанных динамических задач для центра и агента. Разработан численный алгоритм решения динамической задачи стимулирования. Получено численное решение с помощью метода динамического программирования Беллмана. Проведено исследование влияния разного вида управляющих функций центра на выбор агентом фактических объемов производства.

Ключевые слова: эффект кривой обучения, динамическое программирование, оптимальные объемы производства, динамическая пропорциональная система стимулирования.

Введение

Рассматривается динамическая задача пропорционального стимулирования работников предприятия с учетом эффекта кривой обучения. Эффект кривой обучения заключается в том, что затраты времени на выполнение многократно повторяющихся производственных операций снижаются. При каждом удвоении кумулятивного объема производства производительность труда работников увеличивается на 10—15 процентов [1]. Под кумулятивным (суммарным) объемом производства понимается количество изделий, изготовленных с начала производства продукции нарастающим итогом.

Общая динамическая задача управления производственной деятельностью предприятия декомпозируется на динамические задачи планирования и стимулирования [2]. Задача динамического планирования заключается в выборе руководством предприятия в соответствии со своей целевой функцией плановой траектории суммарного объема производства продукции. Математические формулировки и решения задач динамического планирования объемов производства приводятся в [3—5].

Задача динамического стимулирования заключается в выборе руководством предприятия ставок оплаты работников в каждый период времени, так чтобы коллектив исполнителей (цех, бригада) реализовал плановую траекторию суммарного объема производства продукции.

1. Постановка динамической задачи пропорционального стимулирования

Руководство предприятия (центр), обладающее правом первого хода, сообщает коллективу исполнителей (агенту) плановую траекторию суммарного объема работ х, t = 1,п и динамическую пропорциональную систему материального стимулирования:

(аг'Уг )=а(У(>* = 1п> (1)

* © Павлов О.В., 2015

Павлов Олег Валерьевич (pavlov@ssau.ru), факультет экономики и управления, Самарский государственный аэрокосмический университет им. акад. С. П. Королева (национальный исследовательский университет), 443086, Российская Федерация, г. Самара, Московское шоссе, 34.

где а - ставка (норматив) оплаты за единицу произведенной продукции для агента, у — суммарный фактический объем производства, t — номер временного периода, п — число рассматриваемых периодов производственной деятельности предприятия (горизонт планирования).

Ставка оплаты за единицу произведенной продукции для агента а, t = 1,п является управляющей функцией центра.

Сумма материальных вознаграждений агента не может превышать ограниченный фонд заработной платы агента Л

п

¿"гУг £ Р. (2)

г=1

Целевой функцией центра является минимизация суммы квадратов отклонений фактической траектории суммарного объема производства у,, t = 1,п от плановой траектории х, , = 1,п\

п 2

3р = ¿(xt - У) ® т"П (3)

г=1

где х1 — плановый суммарный объем производства в конце периода ,, у{ — фактический суммарный объем производства в конце периода

Плановый суммарный объем производства х, , = 1,п выбирает центр, исходя из своих интересов, а фактический суммарный объем производства у, , = 1,п — агент в соответствии со своей целевой функцией.

Модель принятия решений для центра запишется в виде:

п ' \2

Л = £(хг - Уг)2 ® тп

г=1

¿"У £ Р- (4)

г=1

Динамическая задача центра заключается в том, чтобы выбрать ставки оплаты а, , = 1,п, так чтобы сумма квадратов отклонений фактической траектории от плановой (3) была минимальной и выполнялось ограничение (2).

Агент, при известной системе пропорционального стимулирования центра а(а,у), , = 1 ,п выбирает фактическую траекторию суммарного объема производства у, , = 1 ,п.

Уравнение фактической траектории суммарного объема производства имеет следующий вид:

У( = У г-1 + vt, г = 1 п , (5)

где — фактический объем производства в периоде

Фактический объем производства V { в периоде , является управляющей функцией агента.

Известен начальный суммарный объем производства:

Уо = Хо. (6)

В конце последнего временного периода фактический суммарный объем произведенной продукции должен быть равен заданному:

Уп = Xо + Я . (7)

В каждом временном периоде может быть произведено продукции не больше, чем позволяет максимальная мощность оборудования Отх:

0 £ £ 0тах, г = 1,п . (8)

Целевой функцией агента является максимизация дохода:

Т _уst,у)-}®тях

Та Т у > тЯХ , (9)

(1 + Га )

где С — трудовые затраты агента на выполнение фактического объема работы в периоде t, га — ставка дисконтирования для агента.

Трудовые затраты агента в периоде t определяются как произведение трудоемкости с,, стоимости норма-часа на предприятии 5 и фактического объема производства V:

Сt _ зсм. (10)

Динамика изменения трудоемкости агента от фактического суммарного объема производства описывается степенной зависимостью [1]:

С _ ау,. (Ш

где а — затраты на производство первого изделия, у коэффициент, характеризующий скорость обучения агента.

Кривая, построенная на основе формулы (11), называется кривой обучения. Скорость обучения характеризует темп снижения трудоемкости агента при увеличении суммарного объема производства.

Таким образом, чем больший суммарный объем продукции произведен агентом, тем выше его производительность труда и меньше времени он затрачивает на производство новой единицы продукции. Затраты агента в периоде , зависят от выбора объема производства во все предшествующие периоды от первого до ,—1.

Подставив выражение (11) в (10), получим фактические трудовые затраты агента в периоде й

Сt _ V,. (12)

С учетом (12) целевая функция агента примет вид

{ЗД -*аУг~Ч } , тях

Та -(-)--> тях- (13)

(1 + Га )

Модель принятия решений для агента запишется в виде

yt = + vt,t = \,п, 0 < vt < Qmax, t = \, п , Х0 = X0'

xn = Xo + R>, ч (14)

r r n atyt _ sayt _vt}

J a = J a = E^T-® max.

t=\ (\ + ^a )

Сформулированная задача есть задача оптимального управления дискретной системой. Решением сформулированной задачи является такое оптимальное управление v°pt, t = 1,n, удовлетворяющее ограничению (8), которое переводит дискретную систему (5) из начального состояния (6) в конечное состояние (7) и максимизирует суммарный доход агента (13). При этом решение оптимизационной зада-

чи агента (14) зависит от ставки оплаты за единицу произведенной продукции at, t = 1 ,n, которые назначает центр. В свою очередь, решение оптимизационной задачи для центра (4) зависит от выбора агентом фактических суммарных объемов работы у.

Таким образом, решение динамической задачи стимулирования сводится к решению двух взаимосвязанных оптимизационных задач для центра (4) и агента (14).

Для решения сформулированных оптимизационных задач применяется метод динамического программирования Беллмана [6; 7].

Сформулируем алгоритм решения динамической задачи стимулирования:

1. Задаются начальные приближения ставки оплаты за единицу произведенной продукции a, t = 1,n с учетом ограничения (2) и плановой траектории центра х, t = 1,n.

2. При известной управляющей функции at ,t = 1,n решается задача оптимального управления (14) с использованием метода динамического программирования и определяется фактическая траектория суммарного объема производства у, t = 1,n.

n

3. Проверяется условие 2atyt £ F с использованием определенной в пункте 2

t=1

фактической траектории суммарного объема производства у, t = 1,n. Если условие выполняется, то следует переход к пункту 4. Если не выполняется, то следует изменение управляющей функции a,,t = 1,n и переход к пункту 2.

" Г \2

4. Проверяется условие 2(xt — yt ) £e , где e — наперед заданная малая вели-

t=1

чина. Если условие выполняется, то задача динамического стимулирования решена. Если не выполняется, то следует изменение управляющей функции at ,t=1,n и переход к пункту 2.

Сформулированный алгоритм решения задачи динамического стимулирования реализован в электронной таблице Excel. Проведенные расчеты доказали его работоспособность.

2. Решение динамической задачи пропорционального стимулирования

Задача решалась на примере освоения нового изделия «Кассета» на предприятии ОАО «Салют». Для решения задачи использовались следующие данные: заданный суммарный объем производства детали «Кассета» R = 240 деталей, количество временных периодов n =1 2, объем произведенной продукции в начальный период xg = 1 шт., максимальная производственная мощность оборудования Qmax = 40 деталей. Стоимость нормо-часа s = 90 руб. Суммарный фонд оплаты F = 960 000 руб. С учетом применяемости детали в готовом изделии объем производства в каждый период должен быть кратен 10. Скорость обучения коллектива исполнителей g = —0,1.

На рис. 1 представлена плановая траектория суммарного объема производства с точки зрения центра (руководства предприятия). Плановая траектория соответствует траектории, минимизирующей суммарные затраты агента со скоростью обучения g = —0,7.

Математическая модель принятия решения для агента имеет вид:

у = + = \,п,

0 < vt < @тах, г = 1, п ,

Хо = Х0' Хп = X0 + Я,

Т {xtУt _ 3837,6у 0,1 V;}

За = —-.А!-и ® тах

«К, } (15)

М (1 + ^а )

При постоянной управляющей функции решением задачи (15) является фактическая траектория суммарного объема производства, соответствующая скорости обучения агента у = —0,1. Фактическая траектория суммарного объема производства агента, представлена на рис. 1. Из анализа рис. 1 видно, что плановая и фактическая траектории не совпадают при постоянной управляющей функции. Для того чтобы агент выбрал плановую траекторию, заданную центром, необходимо решить задачу стимулирования, состоящую из двух оптимизационных задач: для центра (4) и для агента (15).

Рис. 1. Плановая и фактическая траектории суммарного объема производства

В результате решения задачи стимулирования, по предложенному в данной работе алгоритму определена управляющая функция центра (совокупность ставок оплаты за единицу продукции для каждого временного периода), обеспечивающая выполнение агентом плановой траектории: а{ = 0,15у+3979,85. Управляющая функция зависит от фактического объема произведенной продукции агентом.

Проведенные исследования показали, что использование центром возрастающей управляющей функции линейного вида а1 = ку{ + Ь приводит к выбору агентом более «выпуклых» фактических траекторий. Результаты исследований приведены на рис. 2. Управляющая функция центра а1 = ку{ + Ь полностью определяется управляющим параметром к.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В случае если управляющий параметр к = 0, управляющая функция будет постоянной и фактическая траектория агента соответствует траектории со скоростью обучения у = —0,1. При управляющем параметре к = 0,05 агент выбирает траекторию со скоростью обучения у = —0,3. При управляющем параметре к = 0,15 агент выбирает плановую траекторию со скоростью обучения у = —0,7.

Использование центром убывающей управляющей функции а{ = ку1 — Ь приводит к выбору агентом менее «выпуклых» фактических траекторий. На рис. 2 представлена траектория агента при к = —0,15.

о -I-----------

123456789 10 11 12

периоды,месяцы

Рис. 2. Влияние параметра к на фактическую траекторию агента

Заключение

В данной работе сформулирована и решена динамическая задача пропорционального стимулирования с учетом эффекта кривой обучения. Разработан и апробирован алгоритм решения динамической задачи стимулирования.

Проведенное в работе исследование позволило сделать следующие выводы:

1. Постоянная управляющая функция центра не влияет на выбор агентом фактической траектории суммарного объема производства. Фактическая траектория определяется только скоростью обучения агента. При этом сумма материального вознаграждения никак не влияет на фактическую траекторию.

2. Управляющая функция центра линейного вида а1 = ку{ + Ь, зависящая от фактического объема произведенной продукции агентом, влияет на выбор агентом фактической траектории.

3. Использование центром возрастающей управляющей функции линейного вида а1 = ку{ + Ь приводит к выбору агентом более «выпуклых» фактических траекторий. Чем больше управляющий параметр к, тем более «выпукла» фактическая траектория.

4. Использование центром убывающей управляющей функции линейного вида а1 = ку{ — Ь приводит к выбору агентом менее «выпуклых» фактических траекторий. Чем больше управляющий параметр к по модулю, тем менее «выпукла» фактическая траектория.

Библиографический список

1. Wright T.P. Factors affecting the cost of airplanes // Journal of the aeronautical sciences. 1936. Vol. 3. № 4. P. 122-128.

2. Павлов О. В. Математические модели управления динамическими системами. Теория активных систем // Труды международной научно-практической конференции. Т. II / общ. ред. В.Н. Буркова, Д.А. Новикова. М.: ИПУ РАН, 2011. C. 79-86.

3. Павлов О. В. Динамические задачи планирования в управлении проектами // Управление в технических, эргатических, организационных и сетевых системах: сб. материалов конф. СПб.: ГНЦ РФ ОАО «Концерн «ЦНИИ «Электроприбор», 2012. C. 1055-1058.

4. Павлов О.В. Динамические модели планирования производства с учетом эффекта обучения // Проблемы управления и моделирования в сложных системах: труды XVI международной конференции (30 июня — 3 июля 2014 г., Самара, Россия). Самара: Самарский НЦ РАН, 2014. С. 369-375.

5. Павлов О. В. Динамическая оптимизация производственной деятельности предприятия с учетом эффекта кривой обучения // Вестник Самарского государственного экономического университета. 2015. № 3(125). C. 88-92.

6. Беллман Р. Динамическое программирование. М.: Издательство иностранной литературы, 1960.

7. Калихман И. Л., Войтенко М.А. Динамическое программирование в примерах и задачах. М.: Высш. школа, 1979.

References

1. Wright T.P. Factors affecting the cost of airplanes. Journal of the aeronautical sciences, 1936, Vol. 3, no. 4, pp. 122-128 [in English]

2. Pavlov O.V. Mathematical models of management of dynamic systems. Theory of active systems. Trudy mezhdunarodnoi nauchno-prakticheskoi konferentsii. Tom II. [Proceedings of the International research and practice conference Vol II]. V.N. Burkov, D.A. Novikov (Eds.). M., IPU RAN, 2011, pp. 79-86 [in Russian].

3. Pavlov O.V. Dynamic tasks of planning in projects management. Sbornik materialov konferentsii «Upravlenie v tekhnicheskikh, ergaticheskikh, organizatsionnykh i setevykh sistemakh» [Conference information package «Management in technical, ergatic, organizational and network systems»]. SPB., GNTs RF OAO «Kontsern «TsNII «Elektropribor», 2012, pp. 1055-1058 [in Russian].

4. Pavlov O.V. Dynamic models of production planning taking into consideration the effect of learning. Problemy upravleniia i modelirovaniia v slozhnykh sistemakh: Trudy XVI mezhdunarodnoi konferentsii (30 iiunia-3 iiulia 2014 g, Samara, Rossiia) [Problems of management and modeling in complex systems: Proceedings of the XVI international conference (June 30-July 3, 2014, Samara, Russia)]. Samara, Samarskii NTs RAN, 2014, pp. 369-375 [in Russian].

5. Pavlov O.V. Dynamic optimization of productive activity of an enterprise taking into consideration the effect of the learning curve. Vestnik Samarskogo gosudarstvennogo ekonomicheskogo universiteta [Vestnik of Samara State University of Economics], 2015, no. 3(125), pp. 89-92 [in Russian].

6. Bellman R. Dynamic programming. M., Izdatel'stvo inostrannoi literatury, 1960 [in Russian].

7. Kalikhman I.L., Voytenko M.A. Dynamic programming in examples and tasks. M., Vyssh. Shkola, 1979 [in Russian].

O.V. Pavlov*

SOLVING DYNAMIC PROPORTIONAL INCENTIVE TASK CONSIDERING THE EFFECT OF THE LEARNING CURVE

The dynamic problem of proportional incentive taking into consideration the effect of the learning curve is formulated and solved. The problem reduces to the solution of two interconnected dynamic problems for the center and agent. A numerical algorithm for solving dynamic problem of incentive is developed. The numerical solution using dynamic programming of Bellman is received. The investigation of the influence of different types of control functions of center on the choice by the agent of actual production volumes is carried out.

Key words: effect of the learning curve, dynamic programming, optimal production volumes, dynamic proportional system of incentives.

Статья поступила в редакцию 12/IX/2015. The article received 12/IX/2015.

* Pavlov Oleg Valerievich (pavlov@ssau.ru), Faculty of Economics and Management, Samara State Aerospace University, 34, Moskovskoye shosse, Samara, 443086, Russian Federation.

i Надоели баннеры? Вы всегда можете отключить рекламу.