Научная статья на тему 'Эффективные численные методы решения задачи PageRank для дважды разреженных матриц'

Эффективные численные методы решения задачи PageRank для дважды разреженных матриц Текст научной статьи по специальности «Математика»

CC BY
244
56
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
PAGERANK / РАЗРЕЖЕННОСТЬ / РАНДОМИЗАЦИЯ / МЕТОД ФРАНКАВУЛЬФА / L1-ОПТИМИЗАЦИЯ

Аннотация научной статьи по математике, автор научной работы — Аникин А. С., Гасников А. В., Горнов А. Ю., Камзолов Д. И., Максимов Ю. В.

В работе приводятся три метода поиска вектора PageRank (вектора ФробениусаПеррона стохастической матрицы) для дважды разреженных матриц. Все три метода сводят поиск вектора PageRank к решению задачи выпуклой оптимизации на симплексе (или седловой задаче). Первый метод базируется на обычном градиентном спуске. Однако особенностью этого метода является выбор нормы l1 вместо привычной евклидовой нормы. Второй метод базируется на алгоритме Франка-Вульфа. Третий метод базируется на рандомизированном варианте метода зеркального спуска. Все три способа хорошо учитывают разреженность постановки задачи.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Аникин А. С., Гасников А. В., Горнов А. Ю., Камзолов Д. И., Максимов Ю. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Эффективные численные методы решения задачи PageRank для дважды разреженных матриц»

УДК 519.688

А. С. Аникин1, А. В. Гасников2'3, А.Ю. Горнов1, Д. И. Камзолов2''3, Ю. В. Максимов2'3'4, Ю. Е. Нестеров4'5

Институт динамики систем и теории управления СО РАН 2 Московский физико-технический институт (государственный университет) 3Институт проблем передачи информации РАН 4Факультет компьютерных наук, НИУ «Высшая школа экономики» 5 Center for operations research and econometrics of the Universite Catholique de Louvain, Belgium

Эффективные численные методы решения задачи PageRank для дважды разреженных матриц

В работе приводятся три метода поиска вектора PageRank (вектора Фробениуса-Перрона стохастической матрицы) для дважды разреженных матриц. Все три метода сводят поиск вектора PageRank к решению задачи выпуклой оптимизации на симплексе (или седловой задаче). Первый метод базируется на обычном градиентном спуске. Однако особенностью этого метода является выбор нормы 11 вместо привычной евклидовой нормы. Второй метод базируется на алгоритме Франка-Вульфа. Третий метод базируется на рандомизированном варианте метода зеркального спуска. Все три способа хорошо учитывают разреженность постановки задачи.

Ключевые слова: PageRank, разреженность, рандомизация, метод Франка-Вульфа, 11-оптимизация.

A.S. Anikin1, A. V. Gasnikov2'3, A. Yu. Gornov1, D.I. Kamzolov2'3, Yu. V. Maksimov2'3'4, Yu. E. Nesterov4'5

institute for System Dynamics and Control Theory of SB RAS 2Moscow Institute of Physics and Technology (National Research University) 3Institute for Information Transmission Problems of RAS 4Faculty of Computer Science, Higher School of Economics (National Research University) 5 Center for operations research and econometrics of the Universite Catholique de Louvain, Belgium

Effective numerical methods for huge-scale linear systems with double-sparsity and applications to PageRank

In this paper, we propose three methods for solving the PageRank problem for the matrices with both row and column sparsity. All the methods lead to the convex optimization problem over the simplex. The first one is based on the gradient descent in L1 norm instead of the Euclidean one. The idea of the second method is the Frank-Wolfe conditional gradient algorithm. The last one is a randomized version of the mirror descent algorithm. We prove convergence rates of these methods for sparse problems and the numerical experiments also support their effectiveness.

Key words: PageRank, sparsity, randomization, Frank-Wolfe conditional gradient, l1-optimization.

1. Введение

В данной работе мы сконцентрируемся на решении задачи PageRank и ее окрестностях. Хорошо известно (Брин-Пейдж, 1998 [1, 2]), что задача ранжирования -даеЬ-страниц при-

водит к поиску вектора Фробениуса-Перрона стохастической матрицы хТР = х. Размеры

матрицы могут быть колоссальными (в современных реалиях это сто миллиардов на сто

миллиардов). Выгрузить такую матрицу в оперативную память обычного компьютера не представляется возможным. Задачу PageRank можно переписать как задачу выпуклой оптимизации (Назин-Поляк, 2011 [3]; Ю.Е. Нестеров, 2012 [4,5]; Гасников-Дмитриев, 2015 [6])

в разных вариантах: минимизация квадратичной формы ЦАх — 6||2 и минимизация бесконечной нормы IIАх — на единичном симплексе. Здесь А = Рт — I, I — единичная матрица. К аналогичным задачам приводят задачи анализа данных (Ridge regression, LASSO [7]), задачи восстановления матрицы корреспонденций по замерам трафика на линках в компьютерных сетях [8] и многие другие задачи. Особенностью постановок этих задач, так же как и в случае задачи PageRank, являются колоссальные размеры.

В данной статье планируется сосредоточиться на изучении роли разреженности матрицы А, на использовании рандомизированных подходов и на специфике множества, на котором происходит оптимизация. Симплекс является (в некотором смысле) наилучшим возможным множеством, которое может порождать (независимо от разреженности матрицы А) разреженность решения (см., например, п. 3.3 С. Бубек, 2014 [9], это тесно связано с 11-оптимизацией [10]).

Все, о чем здесь написано, хорошо известно на таком уровне грубости. Детально поясним, в чем заключаются отличия развиваемых в статье подходов от известных подходов. Прежде всего мы вводим специальный класс дважды разреженных матриц (одновременно разреженных и по строкам и по столбцам).1 Такие матрицы, например, возникают в методе конечных элементов и в более общем контексте при изучении разностных схем.2 Если считать, что матрица А имеет размеры п х п, а число элементов в каждой строке и столбце не больше чем s ^ п, то число ненулевых элементов в матрице может быть sn. Кажется, что это произведение точно должно возникать в оценках общей сложности (числа арифметических операций типа умножения или сложения двух чисел типа double) решения задачи (с определенной фиксированной точностью). Оказывается, что для первой постановки (минимизация квадратичной формы на симплексе) сложность может быть сделана пропорциональна s2 ln(2 + n/s2) (разделы 2 и 3), а для второй (минимизация бесконечной нормы) и того меньше — s ln п (раздел 4).

Первая задача может решаться обычным прямым градиентным методом с 1-нормой в прямом пространстве [11], [12] — нетривиальным тут является в том числе организация работы с памятью. В частности, требуется хранение градиента в массиве, обновление элементов которого и вычисления максимального/минимального элемента должно осуществляться за время, не зависящие от размера массива (то есть от п). Тут оказываются полезными фибоначчиевы и бродалевские кучи [13]. Основная идея — не рассчитывать на каждом шаге градиент функции заново АТAxk+i, а пересчитывать его, учитывая, что xk+i = хк + ек, где вектор ек состоит в основном из нулей:

Ат Ахк+х = Ат Ахк + Ат Аек.

Детали будут изложены в разделе 2. Аналогичную оценку общей сложности планируется получить методом условного градиента Франка-Вульфа [14], большой интерес к которому появился в последние несколько лет в основном в связи с задачами BigData (М. Ягги [15], Аршуи-Юдицкий-Немировский [16], Ю.Е. Нестеров [17]). Аккуратный анализ работы этого метода также при правильной организации работы с памятью позволяет (аналогично предыдущему подходу) находить такой х, что ЦАх — Ь||2 ^ £ за число арифметических операций

/ s2 ln(2 + n/s2) О [п +--

£2

)

причем оценка оказывается вполне практической. Этому будет посвящен раздел 3.

1 Заметим, что за счет специального «раздутия» изначальной матрицы можно обобщить приведенные в статье оценки и подходы с класса дважды разреженных матриц на матрицы, у которых есть небольшое число полных строк и/или столбцов. Такие задачи встречаются в приложениях заметно чаще.

2Применительно к ранжированию швЬ-страниц, это свойство означает, что входящие и выходящие степени всех web-страниц равномерно ограничены.

Вторая задача (минимизации ЦАх — на единичном симплексе) с помощью техники Юдицкого-Немировского, 2012 (см. п. 6.5.2.3 [18]) может быть переписана как седловая задача на произведение двух симплексов. Если применять рандомизированный метод зеркального спуска (основная идея которого заключается в вычислении вместо градиента Ах стохастического градиента, рассчитываемого по следующему правилу: с вероятностью Х\ он равен первому столбцу матрицы А, с вероятностью Х2 - второму и т.д.), то для того, чтобы обеспечить с вероятностью ^ 1 — а неравенство ЦАх — ^ е достаточно выполнить

арифметических операций. К сожалению, этот подход не позволяет в полном объеме учесть разреженность матрицы А. В статье предлагается другой путь, восходящий к работе Григориадиса-Хачияна, 1995 [19] (см. также [20]). В основе этого подхода лежит рандомизация не при вычислении градиента, а при последующем проектировании (согласно ^Ь-расстоянию, что отвечает экспоненциальному взвешиванию) градиента на симплекс. Предлагается вместо честной проекции на симплекс случайно выбирать одну из вершин симплекса (разреженный объект!) так, чтобы математическое ожидание проекции равнялось бы настоящей проекции [20]. В работе планируется показать, что это можно эффективно делать, используя специальные двоичные деревья пересчета компонент градиента [6]. В результате планируется получить следующую оценку для дважды разреженных матриц:

Напомним, что при этом число ненулевых элементов в матрице А может быть вп. Возникает много вопросов относительно того, насколько все это практично. К сожалению, на данный момент наши теоретические оценки говорят о том, что константа в 0() может иметь порядок 102. Подробнее об этом будет написано в разделе 4.

В данной статье при специальных предположениях относительно матрицы PageRank Р (дважды разреженная) мы предлагаем методы, которые работают по наилучшим известным сейчас оценкам для задачи PageRank в условиях отсутствия контроля спектральной щели матрицы PageRank [6]. А именно, полученная в статье оценка (см. разделы 2, 3)

сложности поиска такого х, что ЦАх — Щ2 ^ £, является на данный момент наилучшей при в ^ у/п для данного класса задач. Быстрее может работать только метод МСМС (для матрицы с одинаковыми по строкам внедиагональными элементами)

требующий, чтобы спектральная щель а была достаточно большой [6].

Приведенные в статье подходы применимы не только к квадратным матрицам А и не только к задаче PageRank. В частности, можно обобщать приведенные в статье подходы на композитные постановки [21]. Тем не менее свойство двойной разреженности матрицы А является существенным. Если это свойство не выполняется и имеет место, скажем, только разреженность в среднем по столбцам, то приведенные в статье подходы могут быть доминируемы рандомизированными покомпонентными спусками. Если матрица А сильно вытянута по числу строк (такого рода постановки характерны для задач анализа данных), то покомпонентные методы применяются к двойственной задаче [22], [23], если по числу столбцов (такого рода постановки характерны для задач поиска равновесных конфигураций в больших транспортных/компьютерных сетях), то покомпонентные методы применяются к прямой задаче [24], [25]. Подчеркнем, что при условии двойной разреженности А с в ^ у/п нам неизвестны более эффективные (чем приведенные в данной статье) способы

0(п 1п(п/а)/е2)

0(п + 81п п 1п(п/а)/е2).

0(1п п 1п(п/а)/(ае2))

решения описанных задач. В частности, это относится и к упомянутым выше покомпонентным спускам.

В заключительном пятом разделе работы приводятся результаты численных экспериментов.

2. Прямой градиентный метод в 1-норме

Задача поиска вектора PageRank может быть сведена к следующей задаче выпуклой оптимизации [12] (далее для определенности будем полагать 7 = 1, в действительности, по этому параметру требуется прогонка)

1 п

л™||2 , 7 ^ 2

f(а0 = 2||АЖ||2 + ^

где А = Рт — I, I — единичная матрица, е = (1,..., 1)т,

, Л Г у, у < 0,

(у)+ По, у< 0.

При этом мы считаем, что в каждом столбце и каждой строке матрицы Р не более s ^ \[п элементов отлично от нуля (Р — разрежена). Эту задачу предлагается решать обычным градиентным методом, но не в евклидовой норме, а в 1-норме (см., например, [11]):

Xk+i = + arg mini f (xk) + (Vf(xk),h) + Ц||h||l)>,

h:{h,e)=0l 2 J

где L = max ||А^г)||2 + 1 ^ 3 ( А(г) — г-й столбец матрицы А). Точку старта х0 итераци-

i=l,...,n

онного процесса выберем в одной из вершин симплекса.

Для достижения точности е2 по функции потребуется сделать

0(LR2/e2) = 0(\/е2)

итераций [11]. Не сложно проверить, что пересчет градиента на каждой итерации заключается в умножении АтAh, что может быть сделано за 0(s2). Связано это с тем, что вектор h всегда имеет только две компоненты

1 ( max df(xk)/дхг — min df(xk)/дхг\ и — max df(xk)/дхг — min df(xk)/дхг 8 у г=1,...,п г=1,...,п J 8 у г=1,...,п г=1,...,п

отличные от нуля (такая разреженность получилась благодаря выбору 1-нормы), причем эти компоненты определяются соответственно как

arg min df (xk )/дхг и arg max df (xk)/дхг.

г=1,...,п г=1,...,п

Это можно пересчитывать (при использовании кучи для поддержания максимальной и минимальной компоненты градиента) за О (s 2 ln(2 + n/s2)). Указанная оценка достигается следующим образом: группа из п координат разбивается на s2 + 1 непересекающихся групп по не более чем n/s2 в каждой. Операция обновления компоненты градиента осуществляется в соответствующей ей группе (за время О (ln(2 + n/s2)) с помощью бинарной кучи [13]). Выбор минимальной компоненты градиента осуществляется просмотром не более чем s2 + 1 вершин кучи (в вершине кучи расположен минимальный элемент). Аналогичным образом поддерживается набор куч с максимальным элементом в корне для поиска максимальной компоненты градиента. Важно отметить, что логарифмический фактор указанного вида не улучшаем. Последнее следует из неулучшаемости оценки скорости сортировки 0(п ln п),

)

основанной на попарном сравнении элементов. Таким образом, с учетом препроцессинга и стоимости первой итерации О(п) общая трудоемкость предложенного метода будет

что заметно лучше многих известных методов [6].

Некоторая проблема состоит в том, что в решении могут быть маленькие отрицательные компоненты, и требуется прогонка по 7. Также для того, чтобы сполна использовать разреженность, требуется либо «структура разреженности» (скажем, заранее известно, что матрица А имеет отличные от нуля элементы только в в/2 окрестности диагонали), либо препроцессинг. В нашем случае (впрочем, это относится и к последующим разделам) пре-процессинг заключается в представлении матрицы по строкам в виде списка смежности: в каждой строке отличный от нуля элемент хранит ссылку на следующий отличный от нуля элемент, аналогичное представление матрицы делается и по столбцам. Заметим, что препроцессинг помогает ускорять решения задач не только в связи с более полным учетом разреженности постановки, но и, например, в связи с более эффективной организацией рандомизации [6].

Обратим внимание на то, что число элементов в матрице Р, отличных от нуля, даже при наложенном условии разреженности (по строкам и столбцам) все равно может быть достаточно большим вп. Удивляет то, что в оценке общей трудоемкости этот размер фактически никак не присутствует. Это в перспективе (при правильной организации работы с памятью) позволяет решать задачи колоссальных размеров. Более того, даже в случае небольшого числа не разреженных ограничений вида

можно «раздуть» пространство (не более чем в два раза), в котором происходит оптимизация (во многих методах, которые учитывают разреженность, это число входит подобно рассмотренному примеру, так что такое раздутие не приведет к серьезным затратам), и переписать эту систему в виде Ах = Ь, где матрица будет иметь размеры О(п) х О(п), но число отличных от нуля элементов в каждой строке и столбце будет 0(1). Таким образом, допускается небольшое число «плотных» ограничений.

В заключение заметим, что после переформулировки исходной задачи мы ушли от оптимизации на симплексе и стали оптимизировать на гиперплоскости, содержащей симплекс. Проблема тут возникает из-за того, что нужно оценить 11-размер множества Лебега функции f (х) для уровня f (хо), где х0 <Е Sn(1) — точка старта (см. [11]), 5*га(1) — единичный симплекс в Мга. Можно показать, что это приводит к уже использованной нами выше оценке R = 0(1). Но, к сожалению, точного значения R мы не знаем. Как следствие, при практической реализации метода мы не можем просто сделать предписанное число итераций и остановиться. Однако выход есть. В данной задаче мы знаем оптимальное значение: f* = 0. Сделав N = 1/е2 итераций, можно за O(sn) арифметических операций проверить, выполняется ли условие f (xn) ^ £2/2 или нет. Если нет, то N = 3N, и продолжаем итерационный процесс (брать ли число 3 или какое-то другое > 1, можно определить исходя из того, как соотносятся sn и s2/e2, чем больше второе первого, тем меньше надо брать это число). Минус тут в том, что тогда оценка получится

{ai, х) = bi, i = 1,..., т = 0(1)

а не

как хотелось бы. С другой стороны, избавляться совсем от sn в данном случае и не обязательно, поскольку в следующем разделе предлагается метод, где этих проблем нет.

3. Метод условного градиента Франка—Вульфа

Перепишем задачу поиска вектора PageRank следующим образом

f (х) = \||Ax||2 ^ min . 2 x€Sn(1)

Для решения этой задачи будем использовать метод условного градиента Франка-Вульфа [14] - [17]. Напомним, в чем состоит метод.

Выберем одну из вершин симплекса и возьмем точку старта Х\ в этой вершине. Далее по индукции, шаг которой имеет следующий вид. Решаем задачу

{Vf(xk),у)^ min .

yesn(i)

Обозначим решение этой задачи через

ук = (0,..., 0,1, 0,..., 0),

где 1 стоит на позиции

ik = arg min df (xk)/dxl.

i=1,...,n

Положим

2

Xk+1 = (1 - lk)xk + lkУк, lk = , к = 1, 2,

Имеет место следующая оценка [14] - [17]

f (xn ) = f (xN) - f* <

2

'P^p

2LVR

N + 1' где

R2 ^ max ||w — хЦ2 Lv ^ max (h,ATAh) = max ||АЛ,||2, 1 ^ p ^ те.

С учетом того, что оптимизация происходит на симплексе, мы выберем р = 1. Не сложно показать, что этот выбор оптимален. В результате получим, что R2 = 4,

L1 = max ЦА®Ц2 < 2.

i=1,...,n

Таким образом, чтобы f (xn) ^ £2/2 достаточно сделать N = 32е-2 итераций. В действительности, число 32 можно почти на порядок уменьшить немного более тонкими рассуждениями (детали мы вынуждены здесь опустить).

Сделав дополнительные вычисления стоимостью О(п), можно так организовать процедуру пересчета V f(хк) и вычисления arg min df (xk)/dx%, что каждая итерация будет иметь

г=1,...,п

сложность О (s2 ln(2 + n/s2)). Для этого вводим

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

к-1

ßk = П(1 — ), Zk = Хк/ßк, = 7к/ßk+1.

r=1

Тогда итерационный процесс можно переписать следующим образом:

Zk+1 = Zk + 1к У к.

Пересчитывать АтAzk+i при известном значении АтAzk можно за О (s2 ln(2 + n/s2)). Далее, задачу

ik+i = arg min df (xk+i)/dx%

i=l,...,n

можно переписать как

ik+i = argmin(AT Azk+i)\

i=l,...,n

Поиск ik+i можно также осуществить за 0(s2 ln(2 + n/s2)). Определив в конечном итоге zn , мы можем определить xn , затратив дополнительно не более

0(п + ln N) = О(п)

арифметических операций. Таким образом, итоговая оценка сложности описанного метода будет

/ s2 ln(2 + n/s2) О [п +--

е2

) •

Стоит отметить, что функционал, выбранный в этом примере, обеспечивает намного лучшую оценку ||Аж||2 ^ е по сравнению с функционалом из раздела 4, который обеспечивает лишь ||Аж||те ^ е. Наилучшая (в разреженном случае без условий на спектральную щель матрицы Р [6]) из известных нам на данный момент оценок

О(п + s ln п ln(n/a)/e2)

(см. раздел 4) для ||Аж||те может быть улучшена приведенной в этом разделе оценкой, поскольку ||Аж||2 может быть (и так часто бывает) в ~ ^/п раз больше ||Аж||те, а s ^ л/п.

4. Седловое представление задачи PageRank и рандомизированный зеркальный спуск в форме Григориадиаса—Хачияна

Перепишем задачу поиска вектора PageRank следующим образом:

f(х) = ||Аж|U ^ min

xes„ (1)

Следуя [18], эту задачу можно переписать седловым образом:

min max (Ах, у). В свою очередь последнюю задачу можно переписать как

min max (Ax,Ju),

xesn(i) ueS2„(i)

где

J - [In? In] •

В итоге задачу можно переписать, с сохранением свойства разреженности, как

min max (ш,Ах). xes„(i) wes,2„(i)

Следуя [20], опишем эффективный и интерпретируемый способ решения этой задачи. Пусть есть два игрока А и Б. Задана матрица (антагонистической) игры А — Ца^||, где \äij | ^ 1, cnj — выигрыш игрока А (проигрыш игрока Б) в случае, когда игрок А выбрал

стратегию г, а игрок Б - стратегию ]. Отождествим себя с игроком Б. И предположим, что игра повторяется N ^ 1 раз (это число может быть заранее неизвестно [20], однако для простоты изложения будем считать это число известным). Введем функцию потерь (игрока Б) на шаге к:

/к(х) = {шк, Ах), X е Бп(1),

где шк е ^2п(1) — вектор (вообще говоря, зависящий от всей истории игры до текущего момента включительно, в частности, как-то зависящий и от текущей стратегии (не хода) игрока Б, заданной распределением вероятностей (результат текущего разыгрывания (ход Б) игроку А неизвестен)) со всеми компонентами, равными 0, кроме одной компоненты, соответствующей ходу А на шаге к, равной 1. Хотя функция Д(х) определена на единичном

к

симплексе, по «правилам игры» вектор х^ имеет ровно одну единичную компоненту, соответствующую ходу Б на шаге к, остальные компоненты равны нулю. Обозначим цену игры (в нашем случае С = 0)

С = max min (ш,Ах) = min max (ш,Ах) (теорема фон Неймана о минимаксе). wes2n(i) xesn(i) xesn(i) шeS2„(i)

Пару векторов (ш,х), доставляющих решение этой минимаксной задаче (т.е. седловую точку), назовем равновесием Нэша. По определению (это неравенство восходит к Ханнану [26])

1 N

min — У^ fk (х) ^ С. xeSn(i) Nf^Jky ' к=1

Тогда, если мы (игрок Б) будем придерживаться следующей рандомизированной стратегии (см., например, [6], [19], [20]), выбирая [хк}:

1) р1 = (п-1, ...,п-1).

2) Независимо разыгрываем случайную величину j(k) такую, что Р(j(к) = j) = рк.

3) Полагаем хк^к) = 1, хк = 0, j = j(k).

4) Пересчитываем

к+1 к ( ¡21п п ~ \ . , р^ ~ pj ехр I - у —■ атз\, 3 = 1,...,n,

где г(к) — номер стратегии, которую выбрал игрок А на шаге к;3

то с вероятностью ^ 1 — а

1 N 1 N Г2 f \

N £ А^)— ^1) N £Л« «УN+ z^2^),

т.е. с вероятностью ^ 1 — а наши (игрока Б) потери ограничены:

3Заметим, что эта стратегия имеет естественную интерпретацию. Мы (игрок Б) описываем на текущем шаге игрока А вектором, компоненты которого - сколько раз игрок А использовал до настоящего момента соответствующую стратегию. Согласно этому вектору частот мы рассчитываем вектор своих ожидаемых потерь (при условии, что игрок А будет действовать согласно этому частотному вектору). Далее, вместо того, чтобы выбирать наилучшую (для данного вектора частот А) стратегию, дающую наименьшие потери, мы используем распределение Гиббса с параметром у/21п те/Ж (экспоненциально взвешиваем с этим параметром вектор ожидаемых потерь с учетом знака). С наибольшей вероятностью будет выбрана наилучшая стратегия, но с ненулевыми вероятностями могут быть выбраны и другие стратегии.

1 "

N

(Хк) ++ 2^21п(а-1)) . к=\ ^ '

Самый плохой для нас случай (с точки зрения такой оценки) — это когда игрок А тоже действует (выбирая [шк}) согласно аналогичной стратегии (только игрок А решает задачу максимизации).4 Если и А и Б будут придерживаться таких стратегий, то они сойдутся к равновесию Нэша (седловой точке), причем довольно быстро [20]: с вероятностью 1 — а:

\хиИго = тах (ш,Ахи) — тах тт (ш,Ах) ^ тах (ш,Ахи) — тт (ши, шей'2п(1) шей2п(1) хеэп(1) ш^в2П(1) хеяп (1)

1 м 1 м

< тах (ш,Ахм) — -1 V(шк,Ахк) + (шк,Ахк)— тт (йм,Ах) < ^ (^1п(2п) + 2^21п(2/а)) + (^п + 2^2 1п(2/а)) < < (^1п(2п)+2^21п(2/а)),

где

1 М 1 * Х^ = 1Ухк, йм = 1Ушк.

N ^ ' N ^

&=1 к=1

Таким образом, чтобы с вероятностью ^ 1 — а иметь ||Ахм^ е, достаточно сделать

1п(2п) + 81п(2/а)

N = 16-~- итераций;

е2

8 1пп(1пп + 1п(а 1))~

0[ п + -———п+-———^ — общее число арифметических операций,

где число в ^ у/п — ограничивает сверху число ненулевых элементов в строках и столбцах матрицы Р.

Нетривиальным местом здесь является оценка сложности одной итерации 0(в1пп). Получается эта оценка исходя из оценки наиболее тяжелых действий шаг 2 и 4. Сложность тут в том, что чтобы сгенерировать распределение дискретной случайной величины, принимающей п различных значений (в общем случае) требуется О(п) арифметических операций — для первого генерирования (приготовления памяти). Последующие генерирования могут быть сделаны эффективнее — за 0(1пп). Однако в нашем случае есть специфика, заключающаяся в том, что при переходе на следующий шаг вероятностей в распределении могли как-то поменяться. Если не нормировать распределение вероятностей, то можно считать, что остальные вероятности остались неизменными. Оказывается, что такая специфика позволяет вместо оценки О(п) получить оценку 0(в1пп).

Замечание. Опишем точнее эту процедуру. У нас есть сбалансированное двоичное дерево высоты 0(1с§2 п) с п листом (дабы не вдаваться в технические детали, считаем, что число п — есть степень двойки, понятно, что это не так, но можно взять, скажем, наименьшее натуральное т такое, что 2т > п, и рассматривать дерево с 2т листом) и с 0(п)

4Игрок А пересчитывает

к+1 к ( /~21п(2та) „ .

Рг ~ РI ехр I у ——--а1з(к) ), г = 1,..., 2 п,

где ](к) — номер стратегии, которую выбрал игрок Б на шаге к.

общим числом вершин. Каждая вершина дерева (отличная от листа) имеет неотрицательный вес, равный сумме весов двух ее потомков. Первоначальная процедура приготовления дерева, отвечающая одинаковым весам листьев, потребует О(п) операций. Но сделать это придется всего один раз. Процедура генерирования дискретной случайной величины с распределением, с точностью до нормирующего множителя, соответствующим весам листьев, может быть осуществлена с помощью случайного блуждания из корня дерева к одному из листьев. Отметим, что поскольку дерево двоичное, то прохождение каждой его вершины при случайном блуждании, из которой идут два ребра в вершины с весами а > 0 и Ь > 0, осуществляется путем подбрасывания монетки («приготовленной» так, что вероятность пойти в вершину с весом а — есть а/(а + Ь)). Понятно, что для осуществления этой процедуры нет необходимости в дополнительном условии нормировки: а + Ь = 1. Если вес какого-то листа алгоритму необходимо поменять по ходу работы, то придется должным образом поменять дополнительно веса тех и только тех вершин, которые лежат на пути из корня к этому листу. Это необходимо делать, чтобы поддерживать свойство: каждая вершина дерева (отличная от листа) имеет вес, равный сумме весов двух ее потомков.

Итак, выше в этом разделе была описана процедура генерирования последовательности

к

Xсо сложностью

компоненты — частоты, с которыми мы использовали соответствующие стратегии, что ||Ажм^ е с вероятностью ^ 1 — а.

5. Программная реализация

Рассматриваемые в работе методы реализованы авторами в рамках единой программной системы на языке C++. Работоспособность и корректность реализации проверена с использованием компиляторов GCC (GNU Compiler Collection, версии: 4.8.4, 4.9.3, 5.2.1), clang (C language family frontend for LLVM, версии: 3.4.2, 3.5.2, 3.6.1, 3.7.0), icc (Intel C Compiler, версия 15.0.3) на операционных системах GNU/Linux, Microsoft Windows и Mac

Для удобства введем следующие обозначения рассматриваемых в работе методов: NL1 — метод из раздела 2, FW — метод из раздела 3 и GK — метод из раздела 4.

5.1. Хранение разреженной матрицы

Для хранения данных разреженной матрицы А используется широко распространенный формат CSR (Compressed Sparse Row), позволяющий работать с матрицами произвольной структуры. Поскольку для рассматриваемых методов существует необходимость обращения к элементам как матрицы А (вычисление функции), так и матрицы Ат ( вычисление градиента), в текущей программной реализации осуществляется хранение в памяти обеих матриц. Это, естественно, влечет за собой удвоение объема потребляемой оперативной памяти, но радикальным образом улучшает быстродействие соответствующих вычислительных процедур.

5.2. Поиск минимального/максимального компонента градиента

Методы NL1 и FW требуют наличия информации о минимальной/максимальной компоненте градиента — номере (индексе) соответствующей переменной. Поскольку идеология

0(п + s ln п ln(n/a)/e2),

на основе которой можно построить такой частотный вектор:

OS X.

методов подразумевает выполнение большого числа «легких» итераций, поиск таких компонент должен быть эффективно реализован. С учетом того, что все рассматриваемые методы учитывают разреженность решаемой задачи и в итоге производят модификацию конечного (и весьма небольшого относительно п) числа компонент градиента, в текущей реализации применяется подход, предложенный в работе [4]. Основной его идеей является построение бинарного дерева, реализующего вычисление требуемой функции от п переменных (в нашем случае — min/max), и механизм быстрого обновления (за O(lnn)) вычисленного ранее значения в случае изменения одной переменной (вместо «полного» поиска за О(п)).

Реализация таких деревьев выполнена в виде шаблонных классов C++, что позволяет задавать требуемую функцию - обработчик данных на этапе компиляции и обеспечивает максимальное быстродействие при вызове этой функции относительно других вариантов реализации: функторов (std::function + lambda), указателей на функцию или применение виртуального метода.

Длина обрабатываемого деревом вектора в общем случае не равна степени двойки, поэтому реализованные классы деревьев создают при необходимости дополнительные узлы на соответствующих уровнях и при обработке данных учитывают это обстоятельство, напрямую «проталкивая» данные таких «некратных» узлов на вышестоящий уровень для последующей обработки.

Поскольку используемые в работе деревья должны реализовывать не только поиск минимального/максимального значений градиента, но и соответствующего им индекса, то в каждом узле такого дерева хранятся и обрабатываются пары «индекс-значение». Такой подход увеличивает объем памяти, занимаемый деревом, но существенным образом улучшает его быстродействие, поскольку исключается необходимость обращения в общем случае к случайным элементам вектора градиента, что весьма затратно с точки зрения работы кэша современных процессоров. Такое «совместное» хранение пар «индекс-значение» существенно улучшает «локальность» данных для процессора при обработке узлов.

Также для рассматриваемых деревьев реализован механизм отсечений — если получаемый функцией-обработчиком результат от данных с «дочерних» узлов не меняет содержимое текущего узла, то, очевидно, дальнейшее «продвижение» на вышестоящие уровни не имеет смысла и будет бесполезной тратой времени и вычислительных ресурсов. Применение этого механизма на практике показало его полную оправданность — например, при решении методом FW задачи web-Google (см. ниже) с числом переменных п = 875 713, полная высота дерева поиска минимального компонента градиента равна 20 (219 < п < 220), а средняя «высота работы» алгоритма обновления этого дерева при наличии механизма отсечений — 5.

5.3. Генерация дискретной случайной величины с требуемой вероятностью

Для работы метода GK требуется наличие генератора дискретной случайной величины с требуемой вероятностью (алгоритм такой генерации подробно изложен в разделе 4). Реализация требуемого дискретного генератора выполнена с использованием вычислительных деревьев, описанных в разделе 5.2. Отличие в реализации состоит в том, что дерево для рассматриваемого генератора реализует функцию суммирования вероятностей и работает не с парами «индекс-значение», а напрямую со значениями (вероятностями). Также выполнена оптимизация алгоритма генерации — достаточно всего лишь одного подбрасывания монетки для поиска нужного листа (переменной): генерируем случайную величину 0 ^ г ^ р, где р — значение вероятности в корневом узле; начиная с корневого узла, проверяем условие г ^ ра, где ра — значение вероятности в «дочернем» узле а; если условие выполняется — переходим на узел а, в противном случае вычисляем г = г — ра и переходим на «дочерний» узел ; процедуру выполняем до тех пор, пока не достигнем требуемый нам лист (переменную).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

5.4. Вычисление значения функции

Наличие значения функции в текущей точке для рассматриваемых методов, вообще говоря, не требуется. Но данная информация может быть полезна в качестве критерия останова, для построения графика сходимости метода и т.п. Для вычисления (обновления) значения функции можно применить подход с использованием деревьев из раздела 5.2, реализующих операцию суммирования, но это влечет за собой дополнительные вычислительные расходы (0(1пп) на каждое обновление). Поэтому в текущей реализации для методов КЬ1 и FW используется прямое обновление суммы:

= ^ Ь.2, где b = Axk.

i=1

Рассматриваемые методы в процессе своей работы производят изменение отдельных элементов вектора Xk на некоторую величину Ах, что влечет за собой изменение s элементов вектора Ь:

Abi = Aij ■ Axj.

Зная эту величину мы можем обновить значение оптимизируемой функции:

f+ = fk + 2ЪгАЪг - (Abi)2.

Для метода FW требуется сделать уточнение. Нетривиальным моментом, позволившим существенно увеличить скорость его работы, стало избавление от линейной (за О(п)) операции масштабирования вектора Xk на каждой итерации (см. раздел 3). Рассмотрим этот подход более подробно. Пусть х1 — стартовая точка, тогда X. = (1 - li)xi + 1Ш = У1 — т.к. = 1, Хз = (1 - ъ)х. + 12У2 = (1 - ъ)(х. + У.),

Х4 = (1 - 1з)Хз + ЪУз = (1 - ъ)(1 - 7з) (х2 + ^У2 + (1_7J(1_73)Уз^ ,

Xk+i = ßk(^ Х2 + Е = ßk^ уi + Е iiy?j = ßk Xk, k

где ßk = П (1 - lr), 7k = lk/ßk.

r=2

Вполне очевидно, что мы можем (разреженно) обновлять содержимое вектора Xk указанным образом на каждой итерации. Актуальным становится вопрос такого учета коэффициента ßk, который не нарушает разреженность и позволяет осуществлять вычисление (пересчет) функции/градиента на каждой итерации алгоритма. Считаем, что у нас уже есть вычисленное значение функции/градиента (рассматриваем задачу ||Аж||.) в некоторой точке, тогда

1) В случае изменения (путем умножения на некоторое а) коэффициента ß, значение функции пересчитывается как

/ + = о2/.

Значение компонент градиента, соответственно, должно быть масштабировано на а, но, т.к. метод не требует собственно значений компонент, а только индекс минимального элемента, эту процедуру можно опустить. Если же требуется значение нормы градиента (например, в качестве одного из критерия остановки), то она пересчиты-вается очевидным образом:

ЦЫЬ = а| ЫЬ.

2) В случае изменения какой-либо компоненты вектора ж (без изменения значения /) на некоторое Ах^ производится обновление 8 элементов вектора Ь = Ах на величину

А Ьг = Агу ■ Аху = А^ ■ Ах у. Для каждого такого Аbi обновляется значение функции

/+ = / + ^(2ЬгАЪi — (АЪг)2)

и s компонент градиента g

Адk = А^ • Аbi = Aik • Аbi.

Таким образом, в процессе работы метода непосредственное умножение ж на коэффициент /3 (что требует О(п) операций) не производится, эта операция осуществляется только в конце, когда необходимо вернуть «истинное» значение оптимизируемых переменных ж* = /n •xn . Применение описанного подхода позволило существенным образом увеличить быстродействие реализованного алгоритма.

Проведенные вычислительные эксперименты показали, что представленные схемы прямого обновления суммы (вместо применения деревьев) не ведут к каким-либо значительным накоплениям ошибок округления. После завершения процедуры минимизации для проверки производилось «честное» вычисление /(ж*).

6. Численные эксперименты

Приводимые в работе результаты численных экспериментов получены на вычислительной системе, имеющей следующие характеристики:

• ubuntu server 14.04, x86_64,

• Intel Core i5-2500K, 16 Гб ОЗУ,

• используемый компилятор — gcc-5.2.1,

параметры сборки:-std=c++11 -O2 -mcmodel=small -DNDEBUG.

Поведение рассматриваемых методов исследовалось на задачах PageRank различной размерности с матрицами 3-х типов:

1) диагональная, с задаваемым числом диагоналей: пd = 1,3,5,... Каждая строка/столбец матрицы содержит (nd — 1)/2 + 1 ^ s ^ nd ненулевых элементов;

2) со случайно генерируемой структурой. Каждая строка/столбец матрицы содержит ровно ненулевых элементов;

3) построенная из web-графов, загруженных с сайта Стэнфордского университета [27]. Строки/столбцы матрицы А содержат произвольное число ненулевых элементов (см. табл. 1).

Для всех проводимых экспериментов задавалось значение е = 10-4. Для методов NL1 и FW в качестве стартовой точки выбрана первая вершина единичного симплекса жо = (1, 0,..., 0), критерий остановки — ¡(жк) = 1/2||Ажк||| ^ £2/2. Метод GK останавливался по достижению требуемого числа итераций (N), после завершения алгоритма производилась проверка ||Axn^ е.

Указанное в результатах время отражает только работу метода оптимизации, т.е. не включает в себя загрузку/генерацию А/Ат, инициализацию деревьев, первоначальное «полное» вычисление функции/градиента и т.п.

Таблица1

Характеристики матрицы А для задач с швЪ-графами

Число ненулевых элементов

web-graph в строке в столбце среднее

мин. макс. мин. макс.

Stanford, n = 281903 2 38607 1 256 9.2

NotreDame, n = 325729 2 10722 1 3445 5.51

BerkStan, n = 685230 1 84209 1 250 12.09

Google, n = 875713 1 6327 1 457 6.83

Проведенные вычислительные эксперименты позволили сделать следующие выводы:

1) К сожалению, реализация метода СК показала неудовлетворительные результаты — авторам так и не удалось достичь стабильного выполнения условия ^ е.

Поиск причин подобного поведения привел к интересным наблюдениям. Добавление вычисления функции на итерациях (что изначально не требуется и существенно снижает быстродействие) показало, что метод довольно быстро спускается в точку, которая в ряде случаев удовлетворяет требуемому условию, но после этого значение функции начинает расти и метод приходит в точку х^, где требуемое условие нарушено. Попытки разобраться с причиной такого поведения выявили, что в процессе оптимизации ряд компонент векторов р^ и р^ принимают очень большие значения, вплоть до машинной бесконечности в случае выполнения достаточно большого числа итераций. Очевидно, что такие значения вероятностей приводят к тому, что генератор псевдослучайных чисел просто не может "попасть" в остальные "маленькие" компоненты, которые в итоге оказываются исключены из процесса оптимизации, а метод оперирует переменными только из весьма небольшого множества. Выполнение периодического перемасштабирования векторов рг и р^ (так, чтобы сумма их компонент стала равна 1) не изменили наблюдаемое поведение. Так же было замечено, что рассматриваемый эффект несколько ослабевает с увеличением значения N, но не исчезает полностью, а лишь сдвигается во времени — см. рис. 1.

сек

Рис. 1. Поведение метода СК при различном значении N, А — случайная, п = 102, в = 3

Разумным объяснением этому неприятному факту, на наш взгляд, может быть машинная арифметика, вносящая свой вклад в виде накопления погрешностей, а также «неидеальная» (с точки зрения математики) работа генератора псевдослучайных чисел (хотя в реализации используется хорошо проверенный на практике генератор MersenneTwister). Мы вынуждены констатировать, что хорошие теоретические оценки для метода ОК пока дали весьма посредственные практические результаты.

2) Быстродействие методов на задачах с диагональной матрицей А (см. табл. 2, рис. 2) существенно выше (особенно это касается метода FW), чем в случае постановок со случайной А (см. табл. 3, рис. 3). Это связано с тем, что кэш центрального процессора при работе с диагональной матрицей работает в существенно более «комфортных» условиях, поскольку производятся последовательные операции чтения/записи смежных элементов векторов х и Ь = Ах. Операции обновления деревьев поиска минимального/максимального компонент градиента также осуществляются в смежных компонентах. Структура диагональных матриц такова, что обработав одну строку матрицы, мы получаем в кэше такой набор компонент векторов х и Ь, что обработка следующей строки почти не потребует обращения к ячейкам оперативной памяти, причем этот эффект практически не зависит от размерности задачи (при фиксированном па). Это хорошо видно на примере постановок с в = 3 — при росте размерности задачи на 5 порядков имеем рост времени работы алгоритма не более чем на 50%.

Таблица2

Время (с) решения задачи PageRank, А — диагональная

метод КЬ1 метод FW

п время итерации время итерации

па = 3; 2 ^ § ^ 3

102 4.089 3948632 0.007 14142

103 4.221 3950392 0.008 14142

104 4.575 3950392 0.009 14142

105 4.814 3950392 0.010 14142

106 5.143 3950392 0.010 14142

107 5.566 3950392 0.010 14142

108 6.021 3950392 0.010 14142

па = 11; 6 ^ 8 ^ 11

102 14.655 2100964 0.041 14749

103 37.796 5101072 0.041 16956

104 39.170 5101072 0.062 19995

105 39.897 5101072 0.064 24495

106 41.004 5101072 0.065 24495

107 43.917 5101072 0.068 24495

па = 51; 26 ^ 8 ^ 51

103 529.240 5216119 1.552 46447

104 535.348 5216119 1.045 29991

105 537.419 5216119 1.741 49235

106 549.782 5216119 1.758 49235

107 552.271 5216119 1.789 49235

па = 101; 51 ^ 8 ^ 101

104 1935.198 5175085 6.464 49925

105 1962.307 5175085 9.097 68646

106 1940.331 5175085 9.134 68646

Рис. 2. Решение задачи PageRank, А — диагональная, п = 106, п^ = 101

Для матриц со случайной структурой начинаются «хаотичные» запросы к ячейкам памяти, что резко снижает эффективность работы кеша, которая в общем случае падает при увеличении п, поскольку растет размер обрабатываемых векторов х и Ь, которые кэшируются при таких «хаотичных» запросах всё хуже и хуже.

Таблица3

Время (с) решения задачи PageRank, А — случайная

метод N1/1 метод FW

п время итерации время итерации

в = 3

102 0.003 1999 0.023 39734

103 0.031 17748 0.118 190601

104 0.233 141739 0.414 632954

105 2.374 840617 2.107 2009854

106 16.171 4020388 9.355 6203826

107 56.694 11669495 32.442 17916520

108 173.070 19988053 121.258 43390838

я = 1 1

102 0.013 590 0.173 44706

103 0.072 5106 0.593 142109

104 0.568 40029 2.123 450873

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

105 6.342 299382 10.374 1482735

106 78.383 2025423 60.715 4753809

107 503.385 11272158 219.988 14693667

8 = 51

103 0.891 3851 11.681 162015

104 8.383 31372 42.824 510444

105 77.137 241191 164.751 1621686

106 1300.194 1683845 1152.805 5082774

107 11250.461 10627974 5432.107 17479622

8 = 01

104 29.540 29127 168.124 529685

105 304.419 225146 650.878 1696708

106 4692.729 1607834 4619.220 5267738

Рис. 3. Решение задачи PageRank, А — случайная матрица, п = 107, s = 51

3) Весьма неожиданным эффектом стало быстродействие метода FW для задач с web-графами (см. табл. 4, рис. 4 и 5). Проведенные эксперименты показали, что число итераций, потребовавшихся для получения решения с требуемой точностью, для всех таких постановок оказалось меньше, чем размерность задачи.

Метод NL1 на 2-х задачах этого типа, к сожалению, показал весьма посредственные результаты, что, на наш взгляд, связано с тем, что он модифицирует 2 переменных за итерацию (в отличие от метода FW), причем выбирает эти переменные таким образом, что регулярно попадает на «неудачные» строки/столбцы матрицы А. Поясним этот момент более подробно. В табл. 1 приведены характеристики разреженности матрицы А, где отражено, что существуют «длинные» строки/столбцы (с большим s), выбор которых на итерации влечет за собой существенный объем вычислений. Метод NL1 в процессе работы регулярным образом выбирает эти «длинные» строки/столбцы, что дает очень высокую стоимость соответствующей итерации. Обозначим sr — число ненулевых элементов в текущей (обрабатываемой методом) строке матрицы A, sc — в текущем столбце. Очевидно, что чем меньше эти значения, тем «легче» итерация и выше быстродействие метода. В табл. 5 показаны величины этих параметров, которые показывают, что для задачи web-BerkStan средняя стоимость итерации (оценивается по значению sr • sc, т.е. числу обрабатываемых за итерацию элементов матрицы А) для метода NL1 оказалась на порядок выше, чем у метода FW. При этом для задачи web-Stanford метод NL1 показывает намного более удачный выбор строк/столбцов, показывая результаты, вполне сопоставимые с методом FW. Заметим также, что при решении подобных постановок с «реальной» структурой матрицы А, отдельные итерации рассматриваемых методов (максимальное значение sr •Sc в табл. 5) по стоимости могут быть сопоставимы с полным вычислением функции/градиента.

Таблица4

Время (с) решения задачи PageRank для web-графов

web-граф п метод NL1 метод FW

время итерации время итерации

Stanford 281903 0.145 93152 0.008 14142

NotreDame 325729 700.810 3816436 0.526 38014

BerkStan 685230 38161.847 12315700 0.536 19990

Google 875713 113.643 1083996 0.278 37313

Таблица5

Стоимость итерации для задач c web-графами

Stanford BerkStan

NL1 FW NL1 FW

мин. 1.0 1.0 1.0 1.0

sr макс. 34.0 4.0 84209.0 84209.0

среднее 3.9 3.9 2278.4 148.6

мин. 2.0 2.0 1.0 1.0

Sc макс. 37.0 3.0 244.0 83.0

среднее 2.9 2.8 15.7 6.2

мин. 3.0 3.0 2.0 2.0

Sr • Sc макс. 1258.0 12.0 15494456.0 6989347.0

среднее 11.7 11.3 84304.3 7507.5

Рис. 4. Решение задачи web-NotreDame

Рис. 5. Решение задачи web-BerkStan

7. Заключение

Данная статья представляет собой запись доклада А.В. Гасникова на Традиционной математической школе Б.Т. Поляка в июне 2015 года. Метод из раздела 2 был предложен Ю.Е. Нестеровым в ноябре 2014 года. Этот метод впоследствии дорабатывался А.В. Гасниковым, А.С. Аникиным, А.Ю. Горновым, Д.И. Камзоловым и

Ю.В. Максимовым. Подход из раздела 3 был предложен в апреле 2015 А.В. Гасниковым и А.Ю. Горновым. Подход дорабатывался Ю.В. Максимовым. Поход из раздела 4 был предложен А.В. Гасниковым в 2012 году (по-видимому, в это время и был введен класс дважды разреженных матриц в задачах huge-scale оптимизации, при попытке перенести результаты Григориадиса-Хачияна [19] на разреженный случай). Подход дорабатывался А.С. Аникиным. Численные эксперименты проводились А.С. Аникиным и Д.И. Камзоловым.

Исследование авторов в части 4 выполнено в ИППИ РАН за счет гранта Российского научного фонда (проект 14-50-00150), исследование в части 3 выполнено при поддержке гранта РФФИ 15-31-20571-мол_а_вед, исследование в части 2 - при поддержке гранта РФФИ 14-01-00722-а.

Литература

1. Brin S., Page L. The anatomy of a large-scale hypertextual web search engine // Comput. Network ISDN Syst. 1998. V. 30(1-7). P. 107-117.

2. Langville A.N., Meyer C.D. Google's PageRank and beyond: The science of search engine rankings. Princeton University Press, 2006.

3. Назин А.В., Поляк Б.Т. Рандомизированный алгоритм нахождения собственного вектора стохастической матрицы с применением к задаче PageRank // Автоматика и телемеханика. 2011. № 2. C. 131-141.

4. Nesterov Y.E. Subgradient methods for huge-scale optimization problems // CORE Discussion Paper. 2012. V. 2012/2.

5. Nesterov Y.E. Efficiency of coordinate descent methods on large scale optimization problem // SIAM Journal on Optimization. 2012. V. 22, N 2. P. 341-362.

6. Гасников А.В., Дмитриев Д.Ю. Об эффективных рандомизированных алгоритмах поиска вектора PageRank // ЖВМиМФ. 2015. Т. 55, № 3. C. 355-371.

7. Hastie T., Tibshirani R., Friedman R. The Elements of statistical learning: Data mining, Inference and Prediction. Springer, 2009.

8. Zhang Y., Roughan M., Duffield N., Greenberg A. Fast Accurate Computation of Large-Scale IP Traffic Matrices from Link Loads // In ACM Sigmetrics. 2003. San Diego, CA.

9. Bubeck S. Convex optimization: algorithms and complexity //In Foundations and Trends in Machine Learning. 2015. V. 8, N 3-4. P. 231-357. arXiv:1405.4980.

10. Candes E.J, Wakin M.B., Boyd S.P. Enhancing Sparsity by Reweighted l1 Minimization. J. Fourier Anal. Appl. 2008. V. 14. P. 877-905.

11. Allen-Zhu Z, Orecchia L. Linear coupling: An ultimate unification of gradient and mirror descent. e-print, 2014. arXiv:1407.1537.

12. Гасников А.В., Двуреченский П.Е., Нестеров Ю.Е. Стохастические градиентные методы с неточным оракулом. e-print, 2015. arXiv:1411.4218.

13. Cormen T.H., Leiserson C.E., Rivest R.L., Stein C. Introduction to Algorithms, Second Edition. The MIT Press, 2001.

14. Frank M., Wolfe P. An algorithm for quadratic programming // Naval research logistics quarterly. 1956. V. 3, N 1-2. P. 95-110.

15. Revisiting J.M. Frank-Wolfe: Projection-free sparse convex optimization // Proceedings of the 30th International Conference on Machine Learning, Atlanta, Georgia, USA, 2013. https://sites.google.com/site/frankwolfegreedytutorial

16. Harchaoui Z., Juditsky A., Nemirovski A. Conditional gradient algorithms for norm-regularized smooth convex optimization // Math. Program. Ser. B. 2015. http://www2.isye.gatech.edu/~nemirovs/ccg_revised_apr02.pdf

17. Nesterov Yu. Complexity bounds for primal-dual methods minimizing the model of objective function // CORE Discussion Papers. 2015/03.

18. Juditsky A., Nemirovski A. First order methods for nonsmooth convex large-scale optimization, II. In: Optimization for Machine Learning. Eds. S. Sra, S. Nowozin, S. Wright. MIT Press, 2012. http://www2.isye.gatech.edu/~nemirovs/MLOptChapterII.pdf

19. Grigoriadis M., Khachiyan L. A sublinear-time randomized approximation algorithm for matrix games // Oper. Res. Lett. 1995. V. 18, N 2. P. 53-58.

20. Гасников А.В., Нестеров Ю.Е., Спокойный В.Г. Об эффективности одного метода рандомизации зеркального спуска в задачах онлайн оптимизации // ЖВМ и МФ. 2015. Т. 55, № 4. С. 55-71. arXiv:1410.3118.

21. Nesterov Yu. Gradient methods for minimizing composite functions // Math. Prog. 2013. V. 140, N 1. P. 125-161.

22. Shalev-Shwartz S., Zhang T. Accelerated proximal stochastic dual coordinate ascent for regularized loss minimization // Proceedings of the 31th International Conference on Machine Learning, ICML 2014, Beijing, China, 21-26 June 2014. P. 64-72. arXiv:1309.2375.

23. Zheng Q., Richtarik P., Zhang T. Randomized dual coordinate ascent with arbitrary sampling. e-print, 2015. arXiv:1411.5873.

24. Fercoq O., Richtarik P. Accelerated, Parallel and Proximal Coordinate Descent. e-print, 2013. arXiv:1312.5799.

25. Qu Z., Richtarik P. Coordinate Descent with Arbitrary Sampling I: Algorithms and Complexity. e-print, 2014. arXiv:1412.8060.

26. Lugosi G., Cesa-Bianchi N. Prediction, learning and games. New York: Cambridge University Press, 2006.

27. Stanford Large Network Dataset Collection, Web graphs. http://snap.stanford.edu/data/#web.

References

1. Brin S., Page L. The anatomy of a large-scale hypertextual web search engine. Comput. Network ISDN Syst. 1998. V. 30(1-7). P. 107-117.

2. Langville A.N., Meyer C.D. Google's PageRank and beyond: The science of search engine rankings. Princeton University Press, 2006.

3. Nazin A.V., Polyak B.T. Randomized algorithm to determinethe eigenvector of a stochastic matrix with application to the PageRank problem. Autom. Remote Control. 2011. V. 72, N 2. P. 342-352.

4. Nesterov Y.E. Subgradient methods for huge-scale optimization problems. CORE Discussion Paper. 2012. V. 2012/2.

5. Nesterov Y.E. Efficiency of coordinate descent methods on large scale optimization problem. SIAM Journal on Optimization. 2012. V. 22, N 2. P. 341-362.

6. Gasnikov A.V., Dmitriev D.Yu. On efficient randomized algorithms for finding the PageRank vector. Zh. Vychisl. Mat. Mat. Fiz. 2015. V. 55, N 3. P. 355-371.

7. Hastie T., Tibshirani R., Friedman R. The Elements of statistical learning: Data mining, Inference and Prediction. Springer, 2009.

8. Zhang Y., Roughan M., Duffield N., Greenberg A. Fast Accurate Computation of Large-Scale IP Traffic Matrices from Link Loads. In ACM Sigmetrics. 2003. San Diego, CA.

9. Bubeck S. Convex optimization: algorithms and complexity. In Foundations and Trends in Machine Learning. 2015. V. 8, N 3-4. P. 231-357. arXiv:1405.4980

10. Candes E.J., Wakin M.B., Boyd S.P. Enhancing Sparsity by Reweighted 11 Minimization. J. Fourier Anal. Appl. 2008. V. 14. P. 877-905.

11. Allen-Zhu Z, Orecchia L. Linear coupling: An ultimate unification of gradient and mirror descent. e-print, 2014. arXiv:1407.1537.

12. A. Gasnikov, P. Dvurechensky, Yu. Nesterov Stochastic gradient methods with inexact oracle. Automation and Remote Control. e-print, 2015. arXiv:1411.4218.

13. Cormen T.H., Leiserson C.E., Rivest R.L., Stein C. Introduction to Algorithms, Second Edition. The MIT Press, 2001.

14. Frank M., Wolfe P. An algorithm for quadratic programming. Naval research logistics quarterly. 1956. V. 3, N 1-2. P. 95-110.

15. Revisiting J.M. Frank-Wolfe: Projection-free sparse convex optimization. Proceedings of the 30th International Conference on Machine Learning, Atlanta, Georgia, USA, 2013. https://sites.google.com/site/frankwolfegreedytutorial

16. Harchaoui Z., Juditsky A., Nemirovski A. Conditional gradient algorithms for norm-regularized smooth convex optimization. Math. Program. Ser. B. 2015. http://www2.isye.gatech.edu/~nemirovs/ccg_revised_apr02.pdf

17. Nesterov Yu. Complexity bounds for primal-dual methods minimizing the model of objective function // CORE Discussion Papers. 2015/03.

18. Juditsky A., Nemirovski A. First order methods for nonsmooth convex large-scale optimization, II. In: Optimization for Machine Learning. Eds. S. Sra, S. Nowozin, S. Wright. MIT Press, 2012. http://www2.isye.gatech.edu/~nemirovs/MLOptChapterII.pdf

19. Grigoriadis M., Khachiyan L. A sublinear-time randomized approximation algorithm for matrix games. Oper. Res. Lett. 1995. V. 18, N 2. P. 53-58.

20. Gasnikov A.V., Nesterov Yu.E., Spokoiny V.G. On the efficiency of a randomized mirror descent algorithm in online optimization problems. Zh. Vychisl. Mat. Mat. Fiz. 2015. V. 55, N 4. P. 582-598. arXiv:1410.3118.

21. Nesterov Yu. Gradient methods for minimizing composite functions. Math. Prog. 2013. V. 140, N 1. P. 125-161.

22. Shalev-Shwartz S., Zhang T. Accelerated proximal stochastic dual coordinate ascent for regularized loss minimization. Proceedings of the 31th International Conference on Machine Learning, ICML 2014, Beijing, China, 21-26 June 2014. P. 64-72. arXiv:1309.2375.

23. Zheng Q., Richtarik P., Zhang T. Randomized dual coordinate ascent with arbitrary sampling. e-print, 2015. arXiv:1411.5873.

24. Fercoq O., Richtarik P. Accelerated, Parallel and Proximal Coordinate Descent. e-print, 2013. arXiv:1312.5799.

25. Qu Z., Richtarik P. Coordinate Descent with Arbitrary Sampling I: Algorithms and Complexity. e-print, 2014. arXiv:1412.8060.

26. Lugosi G., Cesa-Bianchi N. Prediction, learning and games. New York: Cambridge University Press, 2006.

27. Stanford Large Network Dataset Collection, Web graphs. http://snap.stanford.edu/data/#web.

Поступила в редакцию 8.11.2015.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.