Научная статья на тему 'Три лика динамического программирования'

Три лика динамического программирования Текст научной статьи по специальности «Математика»

CC BY
259
41
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ / РЕКУРСИВНОЕ НИСХОДЯЩЕЕ ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ / МЕМОИЗАЦИЯ РЕКУРСИВНЫХ ПРОГРАММ / ИТЕРАТИВНОЕ ВОСХОДЯЩЕЕ ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ / ТЕОРЕМА О НЕПОДВИЖНОЙ ТОЧКЕ ТАРСКОГО КНАСТЕРА / РЕШЕНИЕ КОНЕЧНЫХ ИГР / СИНТАКСИЧЕСКИЙ АНАЛИЗ КОНТЕКСТНО-СВОБОДНЫХ ЯЗЫКОВ / DYNAMIC PROGRAMMING / RECURSIVE DESCENDING DYNAMIC PROGRAMMING / MEMOIZATION OF RECURSIVE PROGRAMS / ITERATIVE ASCENDING DYNAMIC PROGRAMMING / KNASTER - TARSKI FIXPOINT THEOREM / SOLUTION OF A FINITE GAME / CONTEXT-FREE PARSING

Аннотация научной статьи по математике, автор научной работы — Шилов Николай Вячеславович

Работа посвящена некоторым методическим аспектам динамического программирования и решению одной олимпиадной задачи с использованием динамического программирования. Новым является интерпретация метода восходящего динамического программирования в терминах вычисления наименьшей неподвижной точки монотонных функционалов. Такая трактовка позволяет единообразно решать как классические оптимизационные задачи, так и задачи, в которых оптимизационная составляющая не просматривается явно (например, задача синтаксического анализа контекстно-свободных языков алгоритмом Коукера Янгера Касами). Она же позволяет унифицировать общую схему динамического программирования в виде шаблона проектирования алгоритмов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Шилов Николай Вячеславович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THREE FACES OF DYNAMIC PROGRAMMING

The paper discusses some methodological issues of Dynamic Programming by study of some programming contest problem A methodological novelty consists in treatment (interpretation) of ascending Dynamic Programming as least fix-point computation (according to Knaster Tarski fix-point theorem). This interpretation leads to an uniform approach to classical optimization problems as well as to problems where optimality is not explicit (Cocke Younger Kasami parsing algorithm for example). This interpretation leads also to an opportunity to design a unified template for imperative Dynamic Programming in a form of algorithm design template.

Текст научной работы на тему «Три лика динамического программирования»

УДК 519.6 + 519.7

Н. В. Шилов

Институт систем информатики им. А. П. Ершова СО РАН пр. Акад. Лаврентьева, 6, Новосибирск, 630090, Россия

Новосибирский государственный университет ул. Пирогова, 2, Новосибирск, 630090, Россия

Новосибирский государственный технический университет пр. Карла Маркса, 20, Новосибирск, 630092, Россия

E-mail: shilov@iis.nsk.su

ТРИ ЛИКА ДИНАМИЧЕСКОГО ПРОГРАММИРОВАНИЯ *

Работа посвящена некоторым методическим аспектам динамического программирования и решению одной олимпиадной задачи с использованием динамического программирования. Новым является интерпретация метода восходящего динамического программирования в терминах вычисления наименьшей неподвижной точки монотонных функционалов. Такая трактовка позволяет единообразно решать как классические оптимизационные задачи, так и задачи, в которых оптимизационная составляющая не просматривается явно (например, задача синтаксического анализа контекстно-свободных языков алгоритмом Коукера - Янгера - Касами). Она же позволяет унифицировать общую схему динамического программирования в виде шаблона проектирования алгоритмов.

Ключевые слова: динамическое программирование, рекурсивное нисходящее динамическое программирование, мемоизация рекурсивных программ, итеративное восходящее динамическое программирование, теорема о неподвижной точке Тарского - Кнастера, решение конечных игр, синтаксический анализ контекстно-свободных языков.

Введение

О бросании кирпичей с высокой башни. Рассказывают, что Галилео Галилей открыл закон равноускоренного движения при свободном падении тел опытным путем, сбрасывая разные предметы со знаменитой Падающей башни в итальянском городе Пиза. Но вот недавно мой коллега по институту за чашкой чая предложил мне следующую головоломку о бросании кирпичей с высокой башни.

1. Марка кирпичей по прочности - это максимальная высота Н (в метрах), при падении с которой кирпич не разбивается (но при падении с высоты (Н + 1) метров разбивается). Надо определить марку кирпичей опытным путем, сбрасывая их с разных уровней башни высотой в сто метров. Считается, что: уровни в башне следуют через каждый метр; если кирпич не разбивается и при падении с 100-го уровня, марку кирпича принимают за 100; прочность кирпича не изменится, если он не разбился при падении. Сколько бросаний вам для этого

* В основу работы положен мастер-класс «Заметки о парадигмах программирования», проведенный автором 5 ноября 2010 г. в рамках школы-семинара «Искусство программирования» на очном туре XI Открытой Всеси-бирской олимпиады по программированию им. И. В. Поттосина, и одноименный цикл лекций автора на Зимней школе НГУ-РагаИек «Теория и практика программирования», которая прошла с 31 января по 5 февраля 2011 г. в Новосибирском государственном университете. Автор выражает свою благодарность Евгению Викторовичу Бо-дину, регулярно снабжающему его новыми головоломками за чаепитием, и Владиславу Евгеньевичу Кузькову за изящное решение, изложенное в последней части этой статьи.

ISSN 1818-7900. Вестник НГУ. Серия: Информационные технологии. 2012. Том 10, выпуск 2 © Н. В. Шилов, 2012

достаточно, если у вас только два кирпича? Какое число бросаний является минимальным для определения марки кирпича?

Головоломка хороша не только для двух сотрудников лаборатории теоретического программирования. Для ее решения нужно придумать алгоритм (т. е. определить, с каких этажей и в какой последовательности бросать) и доказать, что этот алгоритм оптимален (меньшим числом бросаний обойтись нельзя). Если сделать башню пониже, скажем, высотой только в 10 метров, ее можно предложить школьникам 5-6-х классов для решения, например, подбором. Головоломку со стометровой башней можно предложить старшеклассникам: найти решение и доказать, что оно оптимально. И, наконец, эта головоломка может быть обобщена и представлена в одном из двух следующих вариантов.

2. Каково минимальное число бросаний NH, достаточное в любом случае для определения марки кирпичей в башне высотой H метров, если у вас есть только два кирпича?

3. Каково минимальное число бросаний MH,B, достаточное в любом случае для определения марки кирпичей в башне высотой H метров, если у нас есть только B кирпичей?

Легко видеть, что для решения исходной головоломки надо вычислить значение N100, а NH = MH2 для любого значения H. Теперь весь вопрос - как научиться вычислять значения MH,B для произвольных натуральных значений H и B.

Задача для самостоятельного решения: решите исходную головоломку 1 и задачу 2.

Мы начнем знакомство с динамическим программированием с решения именно задачи 3 1, и используем ее функциональное решение 2 как вариант «gentle introduction» в область динамического программирования оптимизационных задач. Затем рассмотрим, как повысить эффективность функционального решения при помощи так называемой мемоизации - техники исполнения функциональных алгоритмов с использованием памяти. Далее перейдем от использования памяти в функциональном алгоритме к императивному итеративному алгоритму решения той же задачи и, главное, предложим трактовку динамического программирования как вычисления наименьшей неподвижной точки монотонного функционала. Такая трактовка позволит нам предложить некоторый унифицированный шаблон.

Первый лик динамического программирования:

рекурсивный метод решения оптимизационных задач

Задачи 2 и 3 - это оптимизационные задачи, т. е. задачи на вычисление оптимальных значений. Метод динамического программирования был разработан как раз для решения оптимизационных задач посредством рекурсивного сведения поиска оптимального решения к поэтапному поиску оптимальных решений: план или программа действий, приводящая к оптимальному результату и состоящая из нескольких шагов, остается оптимальной на любом своем шаге.

Для примера разберем задачу 2. Переформулируем ее следующим эквивалентным образом: каково минимальное число бросаний NH, достаточное в любом случае для определения марки кирпичей в башне, с которой сбрасывать кирпичи можно с H уровней, если у нас есть только два кирпича?

Оптимальный (по количеству бросаний) метод начинается с некоторого шага: «сбросить первый кирпич с уровня h...». Предположим, мы как-то выбрали h, тогда верно равенство

Nh = 1 + max{(h - 1), N(H-h)}, правая часть которого имеет следующий смысл:

1) «плюс 1» соответствует первому бросанию;

1 Когда эта статья уже была готова, Теодор Ясонович Заркуа, профессор Грузинского университета им. Святого Андрея Первозванного Патриаршества Грузии, сообщил автору, что эта задача хорошо известна и активно используется в олимпиадном программировании (например, М1р://аст.11тш.га/ргоЫет.а8рх?8расе=1&пит=1223).

2 Именно «функциональное», а не «рекурсивное» решение, так как здесь речь идет о решении в функциональной парадигме, а не императивной. Подробно разница между парадигмами программирования обсуждена в [1] и научно-популярной статье для школьников [2].

2) (h - 1) соответствует случаю, когда после первого бросания кирпич разбился и у нас остался единственный кирпич, который надо последовательно бросать с уровней 1, 2, ... (h - 1);

3) N(h - h) соответствует случаю, когда после первого бросания кирпич остался цел, и нам осталось определить марку этой пары кирпичей сбрасыванием их с (H - h) уровней [(h + 1) ... H];

4) «max» выбирает худший из случаев, описанных в 2 и 3.

Как оптимальным образом выбрать h, мы пока не знаем. Но нас интересует оптимальный метод, дающий минимальное число бросаний, и поэтому мы можем выписать следующее равенство:

Nh = min!< h< н (1 + max{(h - 1), N(h-h)}) = 1 + min < h< h max{(h - 1), N(h- h)}.

Кроме того, можно выписать еще одно очевидное равенство N0 = 0.

Заметим, что последовательность натуральных чисел N0, Nb ... NH, ..., которые удовлетворяют этим двум равенствам, единственна. Действительно, N0 определено, N определяется только через N0; N2, - только через N0 и Nj; NH - только через N0, N1, . N(H- j).

Следующий шаг - переход от последовательности чисел N0, Nb ... NH, ..., которые удовлетворяют этим двум равенствам, к функции N: N ^ N, которая является решением системы функциональных уравнений

N(0) = 0,

N(H) = 1 + min!< h < н max{(h - 1), N(H - h)}.

Как следует из рассуждения о единственности последовательности чисел N0, Nb ... NH, ..., данная система уравнений имеет единственное решение N: H NH.

Осталось сделать последний шаг - заметить, что эта система функциональных уравнений является определением рекурсивной функции, т. е. рекурсивным алгоритмом. Это и есть (исторически) первый лик динамического программирования: рекурсивный метод решения оптимизационных задач.

В такой форме динамическое программирование было введено Ричардом Беллманом в 1950-х гг., он же предложил сам термин «динамическое программирование» [3; 4]. Но этот термин имеет мало общего с программированием для ЭВМ, которое только зарождалось 1950-е гг. Существительное «программирование» тогда имело значение «планирование» (например, в названии «линейное программирование»). А прилагательное «динамическое» указывает на смену состояний, как, например, в названиях «динамические системы» или «динамическая логика».

Имя Р. Беллмана сохранено в названиях «принцип оптимальности Беллмана» и «уравнение Беллмана». Этот принцип фактически уже был сформулирован в начале этого раздела: план, программа действий, приводящая к оптимальному результату и состоящая из нескольких шагов, остается оптимальной на любом своем шаге, в частности после первого шага. А уравнение Беллмана - это рекурсивное уравнение для целевой функции (значения которой оптимизируются), выражающее значение целевой функции перед исполнением очередного шага через ее значения после исполнения этого шага. Например, в случае задачи об оптимальном числе бросаний двух кирпичей это уже знакомое нам уравнение

N(H) = 1 + min^ h< нmax{(h - 1), N(H- h)}.

Задача для самостоятельного решения: выпишите уравнение Беллмана для функции M: N х N ^ N, M: (H, B) MH,B, которая вычисляет числа M0,0, M10, ... MHB, ...

Второй лик динамического программирования:

рекурсия + мемоизация

Давайте попробуем вычислить одно значение функции N, например, N(4), в полном соответствии с ее рекурсивным определением в леворекурсивном порядке (т. е. всегда первым вычисляется самый левый самый внутренний вызов): N(4) = 1 + minj< h < 4 max{(h - 1), N(4 - h)} =

= 1 + min{max{0, N(3)}, max{1, N(2)}, max{2, N(1)}, max{3, N(0)}} = = 1 + min{max{0, 1 + min{max{0, n(2)}, max{1, n(1)}, max{2, n(0)}}},

max{1, N(2)}, max{2, N(1)}, max{3, N(0)}} =

= 1 + min{max{0, 1 + min{max{0, 1 + min{max{0, N(1)}, max{1, N(0)}}},

max{1, N(1)}, max{2, N(0)}}},

max{1, N(2)}, max{2, N(1)}, max{3, N(0)}} = ... = 3.

Уже на представленной части вычислений можно заметить, что многократно приходится вычислять значения функции N в одних и тех же «точках» (т. е. при одних и тех же значениях аргументов): в частности N(2) и N(1) вычислялись многократно.

Возможный вариант оптимизации состоит в том, чтобы вычислять только новые 3 вызовы функции N, сохранять их значения в памяти (в виде списка или хеш-таблицы), а значения повторных 4 вызовов функции N уже брать из памяти. Эта техника хорошо известна в функциональном программировании как мемоизация (memoization) [5].

Предположим, можно без исполнения вызова функции (т. е. статически) предсказать (или «угадать») конечное множество всех «нужных точек», которые могут возникнуть во время вычислений целевой функции в интересующей нас «целевой точке». Тогда можно применить метод «восходящего динамического программирования», состоящий в следующем.

1. Вычислить и сохранить множество значений функции во всех нужных «тривиальных» точках. Например, в случае функции N интересующее нас значение - это N(H), а значение в тривиальной точке - это N(0) в точке 0, его можно сохранить в ячейке N[0] массива int array N [0..H], где H - заданная высота башни.

2. Пополнить множество уже вычисленных значений функции значениями в новых «промежуточных» точках, которые можно вычислить непосредственно по уже сохраненным значениям функции в точках. Например, в случае функции N, если множество уже вычисленных значений N(0) в точке 0, ... N(K) в точке K (0 < K < H) записано в элементах массива N[0], ... N[K], то множество вычисленных значений функции N можно пополнить значением N(K + 1) в точке (K + 1) посредством простого присваивания

N[K + 1] := 1 + minj< к< К max{(k - 1), N[K- k]}.

3. Повторять шаг 2, пока не будет вычислено значение целевой функции в нужной «целевой» точке. В случае задачи 1, которую мы обсуждаем, предыдущий шаг надо выполнить H раз, когда в элемент массива N[H] будет записано значение N(H) в точке H.

Заметим, что метод восходящего динамического программирования уже не рекурсивный, а итеративный.

Задача для самостоятельного решения: запрограммируйте метод восходящего динамического программирования для вычисления числа MH,B для заданных значений H и B.

Третий лик динамического программирования:

вычисление неподвижной точки монотонного функционала

Попробуем формализовать описание итеративного метода восходящего динамического программирования. Для этого понадобятся операции на множествах, итеративный псевдокод для представления алгоритма и так называемые «условия частичной корректности» для спецификации алгоритма.

Условия частичной корректности [6; 7] схематически записываются в виде {B}A{C}, где A - это алгоритм; B - «предусловие» на входные данные; C - «постусловие» на результаты работы алгоритма; другое известное название для условий частичной корректности - тройки Хоара. Говорят, что тройка {B}A{C} истинна (или что алгоритм частично корректен по отношению к предусловию и постусловию), если на любых входных данных, которые удовлетворяют свойству B, алгоритм A или не останавливается (зацикливается, зависает и т. п.), или останавливается с выходными результатами, которые удовлетворяют свойству C.

3 Для тех значений аргументов, для которых ранее функция не вычислялась.

4 Для тех значений аргументов, для которых функция уже была вычислена ранее.

Наш вариант формализации метода восходящего динамического программирования:

{D - непустое множество, 2D - множество всех подмножеств D;

S и P - «тривиальное» и «целевое» подмножества D;

F: 2d ^ 2d - всюду определенный 5 монотонный 6 функционал 7}\\ Предусловие. var X, Y : subsets of D;

X:= S; repeat Y:= X; X:= F(X) until (P n X* 0 orX = Y).

{P n X * 0 P n T * 0, где T- это наименьшее 8 подмножество D такое, что Sc Tи F(T) = T}\\ Постусловие.

В этой формализации присваивание <X":= S» соответствует шагу 1 метода, присваивание «X:= F(X)» в теле цикла repeat - until соответствует шагу 2, а часть условия выхода из цикла «P n X * 0» - проверке условия на шаге 3 метода. Дополнительная переменная Y, присваивание «Y:= X» и проверка «X = Y» нужны для завершения работы алгоритма в случае, если мы не угадали множество нужных «тривиальных» точек.

В случае задачи об оптимальном числе бросаний двух кирпичей в башне высоты H имеем:

• D - это множество всех пар натуральных чисел (m, n), где m соответствует числу уровней, среди которых надо определить марку кирпичей, а n - возможному числу бросаний;

• S = {(0, 0)} - множество, состоящее из единственной «тривиальной» точки, а P = {(H, n) : n - оптимальное число бросаний в башне с H уровнями} - целевое множество, состоящее из единственной «целевой» точки;

• F - отображение, которое сопоставляет множеству пар Xc D новое множество пар F(X) = {(m, n)eD | существуют m таких чисел n0, ... nm _ ь что (0, n0), ... (m - 1, nm _ i) e X и n = 1 + min!< k < m max{(k - 1), nm - k}}.

Может показаться, что при такой интерпретации невозможно проверить условие P n X * 0 в силу неконструктивности определения множества P. Однако это не так: условие P n X* 0 эквивалентно проверяемому условию 3ne [0..H]: (H, m) e X.

В этой части мы докажем частичную корректность специфицированного алгоритма и его завершаемость для конечных множеств, а в следующей обсудим примеры использования такой интерпретации динамического программирования.

Частичная корректность алгоритма следует из теоремы Кнастера - Тарского о неподвижной точке 9. Мы не будем приводить ни полную формулировку этой теоремы, ни ее обобщение (принадлежащее Тарскому); ограничимся формулировкой следствия из этой теоремы без доказательства.

Следствие (из теоремы Кнастера - Тарского о неподвижной точке [8]). Пусть D - непустое множество, а G: 2D ^ 2D - всюду определенный монотонный функционал. Тогда существует наименьшее подмножество T c D такое, что G(T) = T.

Утверждение 1. Пусть D - непустое множество, G: 2D ^ 2D - всюду определенный монотонный функционал, T c D - его наименьшая неподвижная точка, а R0, R1, ... - последовательность подмножеств D, определенная по следующему правилу: R0 = 0 и Rk + 1= G(Rk) для любого k > 0. Тогда эта последовательность - монотонно неубывающая и содержится в T: R0 c R1 c R2 c ... Rkc Rk + 1 c ...c T.

Доказательство. Так как R0 = 0, то R0 c R1. В силу монотонности F, R1 = G(R0) c G(R1) = = R2; продолжая этот процесс, получаем Rk = G(Rk __ 1) c G(Rk) = Rk + 1 для любого k > 0. По аналогичным соображениям для любой неподвижной точки W c D функции G имеют место соотношения R0 c Wи Rk = G(Rk_ 1) c G(W) = Wдля любого k > 0. В частности, для наименьшей неподвижной точки Tc D функции G имеют место соотношения Rk c T для любого k > 0. ■

5 Определенный на всех подмножествах Б.

6 Такой, что для любых 51,52 с Б, если с 52, то F(S1) с ^(52).

7 Функция или отображение, у которой аргументами являются множества.

8 Содержащееся в любом другом Я с Б таком, что F(R) = Я.

9 Неподвижной точкой какой-либо функции / и ^ и называется любое решение уравнения Ах) = х.

Утверждение 2. Формализованный алгоритм восходящего динамического программирования частично корректен по отношению к своим предусловию и постусловиию.

Доказательство. Предположим, что предусловие алгоритма выполнено и алгоритм завершает работу. Тогда в силу следствия из теоремы Кнастера - Тарского о неподвижной точке множество T - это наименьшая неподвижная точка отображения G: X S u F(X). Теперь заметим, что для любого k > 0 значение переменной X после k-й итерации цикла равно Rk + ь значение Y равно Rk, и, в силу утверждения 1, Rk с T. Поэтому если завершение цикла repeat -until произошло по условию P n X Ф 0, то P п ТФ 0. В противном случае (если P n X = 0) завершение цикла произошло по условию X = Y, т. е. значение переменной X равно наименьшей неподвижной точке T, и поэтому P п Т= 0. Таким образом, постусловие выполнено. ■

Утверждение 3. Если выполнено предусловие формализованного алгоритма восходящего динамического программирования и, кроме того, множество D конечно, то алгоритм завершает свою работу не более чем за |D| итераций цикла repeat - until.

Доказательство. Будем использовать обозначения, введенные в утверждениях 1 и 2. Как было показано в доказательстве утверждения 1, множества

R0 с Rx с R2 с ... Rk с Rk + 1 с ...с Т с D образуют неубывающую цепь. Если множество . конечно, то различными в ней могут быть только первых |D| множеств, т. е. Rk = Т начиная с k = |D| (возможно раньше). Но, как было замечено в доказательстве утверждения 2, для любого k > 0 значение переменной X после k-й итерации цикла равно Rk + 1, значение Y равно Rk. Следовательно, цикл repeat - until выполнит не более чем |D| итераций. ■

Примеры неподвижной точки монотонного функционала

Кратко рассмотрим два алгоритма, которые получаются в результате конкретизации формализации метода восходящего динамического программирования.

Решение конечных позиционных игр. Теория игр чрезвычайно разнообразна [9]; мы же займемся только конечными позиционными играми двух игроков «Л» (Алисы) и «В» (Боба). Такая игра - это шестерка G = (PA, PB, MA, MB, FA, FB), где

• PA и PB - непересекающиеся конечные множества «позиций» для Алисы и Боба;

• МЛ с PA х (PA u PB) и MB с PB х (PA u PB) - множества «ходов» для Алисы и Боба;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

• FA с (PA u PB) и FB с (PA u PB) - непересекающиеся множества «выигрышных позиций» для Алисы и Боба.

Можно сказать, что G - это ориентированный граф, все вершины которого «поделены» между Алисой и Бобом, и, кроме того, для Алисы и Боба выделены выигрышные вершины. Сессия игры G - это конечная или бесконечная последовательность позиций p0, ... pk, ..., в которой каждая соседняя пара позиций (pk, pk + 1) - ход (Алисы или Боба). Партия - это или бесконечная сессия G, в которой не встречается выигрышных позиций (ни Алисы, ни Боба), или конечная сессия, содержащая только одну выигрышную позицию в качестве своего последнего члена. Конечная партия выиграна игроком X e {Л, B}, если партия заканчивается выигрышной позицией этого игрока (из FA для Алисы и из FB для Боба). Стратегия игрока X е {Л, B} - это произвольное подмножество его ходов (т. е. стратегия Алисы S с МЛ, стратегия Боба S с MB). Стратегия игрока X е {Л, B} называется выигрышной, если любая партия, в которой игрок использует только эту стратегию, выиграна этим игроком. Решить игру G - значит вычислить множества позиций партий WA и WB, в которых Алиса и Боб соответственно имеют выигрышные стратегии.

Решить игру G можно следующим образом. Легко видеть, что WA и WB - это наименьшие множества позиций, для которых верны следующие равенства:

• Wa = Fa u {pe Pa\Fb | 3p': (p,p')eMA &p'e Wa} u {pe Pb\Fb | Vp': (p,p')eMB &p'e WA},

• Wb = Fb u {pe Pb\Fa | 3p': (p, p')eMB & p'e Wb} u ^e Pa\Fa | Vp': (p, p')eMA & p'e Wb}. Заметим, что следующие две функции

• WinA : X {pe Pa\Fb | 3p': (p,p')eMA &p'eX} u ^e Pb\Fb | Vp': (p,p')eMB &p'eX},

• WinB : X {pe Pb\Fa | 3p': (p, p')eMB & p'eX} u {pe Pa\Fa | Vp': (p, p')eMA & p'eX}

являются всюду определенными монотонными функционалами на (PAuPB). Поэтому множества WA и WB можно вычислить с использованием формализованного метода восходящего динамического программирования, если принять соответственно

• Fa в качестве S, WinA в качестве F, и 0 - в качестве P;

• FB в качестве S, WinB в качестве F, и 0 - в качестве P.

Согласно утверждению 3, множества WA и WB будут вычислены как заключительные значения переменной X, причем число итераций цикла repeat - until будет не более |PAuPB|.

Задача для самостоятельного решения: запрограммируйте метод восходящего динамического программирования для решения игры в числа и игры в даты.

• Игра в числа. Позициями в этой игре являются натуральные числа от 1 до 109. Игроки ходят строго по очереди: Алиса - Боб - ... Ходы для обоих игроков совпадают: из позиции p можно походить в позицию (p + 1) или в позицию (p + 10). Проигрывает тот игрок, который первым назовет число 100 или большее.

• Игра в даты. Позициями в этой игре являются даты 2011 и начала 2012 г. - от 1 января 2011 г. до 31 января 2012 г. Игроки ходят строго по очереди. Ходы для обоих игроков совпадают: из даты p можно походить в следующую календарную дату или в то же число следующего календарного месяца; например, из 1 января 2011 г. можно походить как во 2 января 2011 г., так и в 1 февраля 2012 г., но из 30 января 2011 г. можно походить только в 31 января 2011, поскольку даты «30 февраля 2011 г.» не существует. Проигрывает тот игрок, который первым назовет дату 2012 г.

Синтаксический анализ контекстно-свободных языков. Теория синтаксического анализа - хорошо развитое направление программирования [10; 11]. Особое значение имеет синтаксический анализ контекстно-свободных языков (к-с языков). Первым формально обоснованным методом синтаксического анализа к-с языков стал алгоритм Коука - Янгера -Касами, который мы приведем (с обоснованием) далее.

Алфавит - это произвольное конечное множество A, состоящее из «символов». Слово в алфавите A - это любая конечная последовательность символов из A. Язык в алфавите A -это любое множество слов в этом алфавите A. В частности, А* - стандартное обозначение для языка всех слов 10 в алфавите А. Для двух слов w' и w'' пишут w' = w'' и говорят, что слова синтаксически совпадают, если w' и w'' - две одинаковые последовательности символов; говорят, что w' является подсловом w'', если w'' = uw'v, где u и v - произвольные слова (пустые в том числе).

Контекстно-свободная грамматика (к-с грамматика) - это четверка G = (N, T, P, S), где

• N и T непересекающиеся алфавиты нетерминальных и терминальных символов,

• P c N х (N u T)* - конечное множество «продукций», каждая из которых имеет вид «n — w», где n e N, w e (N u T)*,

• S e N - «стартовый символ».

Говорят, что к-с грамматика находится в нормальной форме Хомского, если стартовый символ не используется в правых частях продукций, и все ее продукции имеют вид n—n'n'' или n—^t, где n,n',n'' e N - нетерминальные символы, а t e T - терминальный символ.

Вывод в G - это конечная последовательность слов w0, ... wk, wk + 1, ... wm, m>0, в объединенном алфавите (N u T), в которой каждое следующее слово wk + 1 получается из предыдущего wk в результате однократного применения какой-либо продукции, т. е. wk можно представить в виде w'nw'', а wk +1 - в виде w'ww'', где (n — w) - продукция G. Для слов w',w'' в объединенном алфавите (NuT) принято писать w' ^ w'' и говорить, что w'' выводится из w', если существует вывод w0, ... wk, wk + 1, ... wm, m > 0, который начинается со слова w', а заканчивается словом w''. Язык, порождаемый грамматикой G, есть множество L(G) всех слов терминального алфавита, которые выводятся из стартового символа: L(G) = {we T* | S ^ w}.

Язык называется контекстно-свободным (к-с языком), если он порождается некоторой к-с грамматикой. Синтаксический анализа для к-с языка - это сопоставление слов в терми-

10 Включая пустое слово s.

нальном алфавите с его к-с грамматикой с целью распознать слова языка и отвергнуть слова, не входящие в язык. Произвести синтаксический анализ какого-либо слова w в соответствии с к-с грамматикой G - значит построить множество всех пар (n, u), где n - нетерминал из N, а u - подслово w такое, что n ^ u.

Две к-с грамматики называются эквивалентными по языку, если они порождают один и тот же к-с язык. Известно (см. [10. C. 352-358), что для каждой к-с грамматики, которая не порождает пустого слова, можно построить эквивалентную по языку к-с грамматику в нормальной форме Хомского 11 (в случае, если пустое слово порождается, достаточно добавить только одну продукцию S ^ в, где S - стартовый символ, а в - пустое слово). Поэтому, не теряя общности, мы можем считать, перед нами стоит задача синтаксического разбора для не содержащего пустого слова к-с языка, порожденого к-с грамматикой G в нормальной форме Хомского.

Итак, пусть G = (N, T, P, S) - к-с грамматика в нормальной форме Хомского, L = L(G) -порожденный ею язык, а w e T* - произвольное слово в терминальном алфавите, синтаксический разбор которого надо произвести. Рассмотрим множество D всех пар вида (n, u), где n -нетерминал из N, а u - непустое подслово w, и его подмножество SA = {(n, u)e D | n ^ u}.

Легко видеть, что SA - это наименьшее подмножество D, для которого верно следующее равенство:

• SA = {(n, t) e D | t e T, (n ^ t) e P} u {(n, u)e D | 3(n', u'),(n'', u'') e SA: u = u'u'' и (n ^ n'n'') e P}.

Заметим, что функция

• derive: X {(n, u) e D | 3(n', u'),(n'', u'') e X : u = u'u'' и (n ^ n'n'') e P}

является всюду определенным монотонным функционалом на D. Поэтому множество SA можно вычислить с использованием формализованного метода восходящего динамического программирования, если принять {(n, t)e D | teT, (n^t)eP} в качестве S, derive - в качестве F, и {(S, w)} - в качестве P. Это и есть алгоритм Коука - Янгера - Касами синтаксического анализа к-с языков в «теоретико-множественной» форме. Согласно утверждению 3, при построении множества SA число итераций цикла repeat - until будет не более |D| = |N| х |w| или O(|w|), если считать грамматику фиксированной. Знаменитая оценка сложности O(|w|3) алгоритма Коука - Янгера - Касами в классической «матричной» форме получается за счет того, что на каждой итерации этого цикла реализуется проверка условия (3(n', u'),(n'', u'') e X : u = = u'u'' и (n ^ n'n'') e P) перебором уже полученных пар (n, u).

А ларчик просто открывался...

Эта статья началась с головоломки (про оптимальное число бросаний двух кирпичей из башни высотой в сто метров) и двух ее задач-обобщений (об оптимальном бросании двух кирпичей в башне заданной высоты и об оптимальном бросании данного числа кирпичей в башне заданной высоты). Головоломка пока так и не решена, вторая задача решена теоретически, третья предложена для самостоятельного решения на компьютере.

Сейчас, когда рассказ о трех ликах динамического программирования завершен, можно решить и головоломку, и ее обобщения. Только для этого понадобится следующий новый вариант обобщения головоломки (нумерация продолжает нумерацию из части 1).

4. У вас есть башня неограниченной высоты. Какова максимальная высота H(N, В), которой достаточно для определения марки кирпичей, если у вас B кирпичей, а общее число разрешенных испытаний (бросаний) N?

Для решения этой задачи попробуем составить уравнение Беллмана, которому должна удовлетворять искомая функция H: N х N ^ N. Выберем произвольные n, b > 0 и пусть h = H(n, b). Выберем оптимальный по числу бросаний алгоритм для высоты h и b кирпичей и пусть m = M(h, b).

H(n, k) = (H(n - 1, k - 1) + 1) + H(n - 1, k).

11 Мы не обсуждаем сложность перевода грамматики в эквивалентную по языку к-с грамматику в нормальной форме Хомского. Подробнее об этом можно прочитать в работе [12].

Смысл этого уравнения прост: первое слагаемое в правой части соответствует случаю, когда первый кирпич разбился при первом бросании, а второе - тому, что не разбился. Остается дополнить это уравнение очевидными соотношением H(l, 1) = 1, H(n, 0) = H(0, k) = 0 и... получить биномиальные коэффициенты в качестве решения

H(N, B) = N! I (B! x (N - B)!), а треугольник Паскаля - как эффективный метод вычисления значений функции H(M, B). Отсюда получаем

. M(H, B) = min{m e N j m! I (B! x (m - B)!) > H},

. N(H) = min{n e N j nx(n + 1)I2 > H},

• минимальное число бросаний двух кирпичей с башни высотой сто метров равно 14.

Список литературы

1. Шилов Н. В. Заметки о трех парадигмах программирования II Компьютерные инструменты в образовании. 2010. № 2. С. 24-37.

2. Шилов Н. В. Заметки о парадигмах программирования II Потенциал. 2010. № 4. С. 33-

3S.

3. Беллман Р. Динамическое программирование. М.: Иностр. лит., 19б0.

4. Щербина О. А. Методологические аспекты динамического программирования II Динамические системы. 2007. Вып. 22. С. 21-3б.

5. Астапов Д. Рекурсия + мемоизация = динамическое программирование II Практика функционального программирования. 2009, № 3. С. 17-33. URL: http:IIfprog.ruI2009Iissue3I dmitry-astapov-recursion-memoization-dynamic-programming (дата обращения: 1S.02.2011).

6. Грис Д. Наука программирования. М.: Мир, 19S4.

7. Шилов Н. В. Основы синтаксиса, семантики, трансляции и верификации программ: Учеб. пособие. Новосибирск, 2011.

S. Knaster B., Tarski A. Un théorème sur les fonctions d'ensembles II Ann. Soc. Polon. Math. 192S. Vol. б. P. 133-134.

9. Оуэн Г. Теория игр. М.: Мир, 1979.

10. Ахо А. В., Ульман Дж. Д. Теория синтаксического анализа, перевода и компиляции: В 2 т. М.: Мир, 197S. Т. 1.

11. Ахо А. В., Лам М. С., Сети Р., Ульман Дж. Д. Компиляторы: принципы, технологии и инструментарий. 2-е изд. М.: Вильямс, 200S.

12. Lange M., Leiß H. To CNF or not to CNF? An Efficient Yet Presentable Version of the CYK Algorithm II Informatica Didactica. 2009. Vol. S. URL: http:IIwww.informatica-didactica.deI cmsmadesimpleIindex.php?page=LangeLeiss2009_en (дата обращения: 1S.02.2011).

Материал поступил в редколлегию 23.04.2012

N. V. Shilov

THREE FACES OF DYNAMIC PROGRAMMING

The paper discusses some methodological issues of Dynamic Programming by study of some programming contest problem A methodological novelty consists in treatment (interpretation) of ascending Dynamic Programming as least fixpoint computation (according to Knaster - Tarski fix-point theorem). This interpretation leads to an uniform approach to classical optimization problems as well as to problems where optimality is not explicit (Cocke - Younger - Kasami parsing algorithm for example). This interpretation leads also to an opportunity to design a unified template for imperative Dynamic Programming in a form of algorithm design template.

Keywords: Dynamic programming, recursive descending dynamic programming, memoization of recursive programs, iterative ascending dynamic programming, Knaster - Tarski fixpoint theorem, solution of a finite game, context-free parsing.

i Надоели баннеры? Вы всегда можете отключить рекламу.