Научная статья на тему 'Прогнозирование масштабируемости задачи умножения разреженной матрицы на вектор при помощи модели коммуникационной сети'

Прогнозирование масштабируемости задачи умножения разреженной матрицы на вектор при помощи модели коммуникационной сети Текст научной статьи по специальности «Математика»

CC BY
274
61
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ВЫСОКОСКОРОСТНАЯ КОММУНИКАЦИОННАЯ СЕТЬ / МАСШТАБИРУЕМОСТЬ / РАЗРЕЖЕННАЯ МАТРИЦА / КОЛЛЕКТИВНЫЕ ОПЕРАЦИИ / ИМИТАЦИОННОЕ МОДЕЛИРОВАНИЕ / HIGH-SPEED INTERCONNECTION NETWORK / SCALABILITY / SPARSE MATRIX / COLLECTIVE OPERATIONS / SUPERCOMPUTER SIMULATION

Аннотация научной статьи по математике, автор научной работы — Пожилов Илья Александрович, Семенов Александр Сергеевич, Макагон Дмитрий Викторович

В ОАО «НИЦЭВТ» ведутся работы по созданию высокоскоростной коммуникационной сети с топологией 4D-Top и суперкомпьютера на базе этой сети и коммерческих микропроцессоров. К концу 2012 года планируется выпуск кристалла маршрутизатора (СБИС). В статье рассмотрены два подхода к реализации алгоритма умножения разреженной матрицы на плотный вектор, получены теоретические оценки объема коммуникаций в каждом случае. Оба алгоритма реализованы с использованием МРІ+ОрепМР, также рассмотрена реализация для параллельной потактовой имитационной модели разрабатываемой коммуникационной сети. Исследование показало возможность лучшего масштабирования данной задачи на суперкомпьютере с разрабатываемой в ОАО «НИЦЭВТ» сетью (по результатам моделирования) по сравнению с существующими суперкомпьютерами «Ломоносов» в НИВЦ МГУ и BlueGene/P на ВМиК МГУ. Максимальная достигнутая производительность составила на модели 346 Гфлопс на 2048 узлах, на суперкомпьютере «Ломоносов» 11,6 Гфлопс на 256 узлах, а на BlueGene/P 8,3 Гфлопс на 1024 узлах. Для проверки адекватности модели было произведено сравнение результатов моделирования с результатами на девятиузловом прототипе коммуникационной сети, разрабатываемой в ОАО «НИЦЭВТ»; максимальное отклонение результатов модели от реального прототипа составило 32%, среднее отклонение 13% для разных наборов параметров.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Пожилов Илья Александрович, Семенов Александр Сергеевич, Макагон Дмитрий Викторович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Scalability prediction of the sparse matrix-vector multiplication using the interconnection network simulator

A 4D-torus high-speed interconnect for supercomputers is being developed at JSC NICEVT. The router ASIC is to be issued by the end of 2012. This article analyzes two variants of sparse matrix-vector multiplication (SpMV) implementation. For each case theoretical communication estimate is given. Both algorithms are implemented using MPI+OpenMP, also an implementation for the interconnection network simulator is considered. Results on the simulator configured to correspond to the multidimensional torus interconnect being developed at JSC NICEVT show better SpMV scalability compared with performance results of Lomonosov supercomputer at RCC MSU and BlueGene/P at CMC MSU. Sustained SpMV performance for the simulator is 346 GFlops on 2048 computational nodes, for Lomonosov 11.6 Gflops on 256 nodes and 8.3 GFlops for BlueGene/P on 1024 nodes. To confirm the simulator results adequacy the prototype cluster consisting of 9 nodes was simulated. The results for various parameters showed an average deviation of 13% and maximum deviation of 32%.

Текст научной работы на тему «Прогнозирование масштабируемости задачи умножения разреженной матрицы на вектор при помощи модели коммуникационной сети»

ЯлГЙОяО/

Уфа : УГАТУ. 2012_____________________________^______________________________Т. 16, №6(51). С. 158-163

МАТЕМАТИЧЕСКОЕ И ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ ВЫЧИСЛИТЕЛЬНЫХ МАШИН...

УДК 519.688, 004.77

И. А. Пожилов, А. С. Семенов, Д. В. Макагон

ПРОГНОЗИРОВАНИЕ МАСШТАБИРУЕМОСТИ ЗАДАЧИ УМНОЖЕНИЯ РАЗРЕЖЕННОЙ МАТРИЦЫ НА ВЕКТОР ПРИ ПОМОЩИ МОДЕЛИ КОММУНИКАЦИОННОЙ СЕТИ

В ОАО «НИЦЭВТ» ведутся работы по созданию высокоскоростной коммуникационной сети с топологией 40-тор и суперкомпьютера на базе этой сети и коммерческих микропроцессоров. К концу 2012 года планируется выпуск кристалла маршрутизатора (СБИС). В статье рассмотрены два подхода к реализации алгоритма умножения разреженной матрицы на плотный вектор, получены теоретические оценки объема коммуникаций в каждом случае. Оба алгоритма реализованы с использованием МР1+ОрепМР, также рассмотрена реализация для параллельной потактовой имитационной модели разрабатываемой коммуникационной сети. Исследование показало возможность лучшего масштабирования данной задачи на суперкомпьютере с разрабатываемой в ОАО «НИЦЭВТ» сетью (по результатам моделирования) по сравнению с существующими суперкомпьютерами «Ломоносов» в НИВЦ МГУ и В1иеСепе/Р на ВМиК МГУ. Максимальная достигнутая производительность составила на модели 346 Гфлопс на 2048 узлах, на суперкомпьютере «Ломоносов» - 11,6 Гфлопс на 256 узлах, а на В1иеСепе/Р - 8,3 Гфлопс на 1024 узлах. Для проверки адекватности модели было произведено сравнение результатов моделирования с результатами на девятиузловом прототипе коммуникационной сети, разрабатываемой в ОАО «НИЦЭВТ»; максимальное отклонение результатов модели от реального прототипа составило 32%, среднее отклонение - 13% для разных наборов параметров. Высокоскоростная коммуникационная сеть; масштабируемость; разреженная матрица; коллективные операции; имитационное моделирование

ВВЕДЕНИЕ

В ОАО «НИЦЭВТ» ведется проект по созданию высокоскоростной коммуникационной сети [1, 2] и суперкомпьютера на базе этой сети и коммерческих микропроцессоров.

Сеть проектировалась таким образом, чтобы эффективно поддерживать задачи с мелкозернистым параллелизмом, в которых основными требованиями являются высокий темп выдачи коротких сообщений и низкая коммуникационная задержка.

Такие задачи обычно связаны с построением и обработкой графов, больших нерегулярных массивов данных, сильно разреженных матриц. Концепция сети и главные архитектурные принципы были сформулированы после проведения подробного имитационного моделирования [3] в рамках проекта по разработке отечественного суперкомпьютера «Ангара».

Сеть поддерживает детерминированную и адаптивную передачу пакетов, отказоустойчивость на канальном уровне и обход отказавших каналов и узлов. Однако основной отличительной чертой сети является эффективная поддержка односторонних коммуникаций (библиотека 8НМЕМ). Поддерживаются неблокирующие записи, чтения, атомарные операции,

а также асинхронные коллективные операции (по виртуальной древовидной подсети).

Основная модель программирования -MPI и / или SHMEM. Библиотека SHMEM является простым и удобным средством для увеличения продуктивности программирования и оптимизации критически важных мест кода в MPI-программах (благодаря переходу на односторонние коммуникации).

Реализованная библиотека SHMEM соответствует стандартной библиотеке Cray SHMEM с дополнениями, позволяющими более эффективно выполнять типовые операции. Библиотека MPI реализована на основе MPICH2 поверх SHMEM.

В настоящее время разработан прототип сети на ПЛИС, состоящий из 9 узлов, соединенных в двумерный тор 3x3. В каждом узле находятся два процессора Intel Xeon Е5620 2,4 ГГц (Westmere), доступно 2 ГБ RAM, сервисная сеть 1 Гбит/с Ethernet. Прототип сетевого адаптера использует ПЛИС Xilinx Virtex 5 FX100 speed grade 2, интерфейс PCI Express genl x8 (20 Гбит/с) и каналы с пропускной способностью 6,25 Гбит/с в каждую сторону. К концу 2012 года планируется подготовить и выпустить маршрутизатор на кристалле (СБИС).

Текущие характеристики производительности прототипа следующие: темп выдачи сообщений - 14,62 миллионов в секунду, полная

Контактная информация: 8-963-770-61-00

коммуникационная задержка удаленной записи между соседними узлами - 2,6 мкс (задержка на один хоп - 0,7 мкс), достигаемая чистая пропускная способность канала - 523 МБ/с, достигаемая чистая пропускная способность при выдаче из сети - 1524 МБ/с.

Для кристалла маршрутизатора (СБИС) планируется использовать интерфейс PCI Express gen2 x16 (80 Гбит/с) и каналы с пропускной способностью 75 Гбит/с в каждую сторону. Достигаемая чистая пропускная способность канала предположительно увеличится до 6,3 ГБ/с в каждую сторону, достигаемая чистая пропускная способность при выдаче из сети как минимум до 6 ГБ/с, ожидаемая коммуникационная задержка между соседними узлами не превысит 500 нс. Сетью на базе СБИС предполагается объединять процессоры, по вычислительной мощности сопоставимые с процессорами Intel Westmere, установленными на прототипе.

1. ЗАДАЧА УМНОЖЕНИЯ РАЗРЕЖЕННОЙ МАТРИЦЫ НА ВЕКТОР

Умножение разреженной матрицы на плотный вектор является задачей с интенсивным нерегулярным доступом к памяти (DIS-задачей), ее производительность во многом определяется возможностями коммуникационной сети.

В приложениях обычно требуется выполнение нескольких итераций умножения фиксированной матрицы на вектор, что приводит к необходимости производить обмен полученными на очередной итерации частями полного результата между вычислительными узлами для начала следующей итерации. Данную задачу в силу ее простоты довольно часто используют для оценки производительности суперкомпьютеров, на ее основе построен метод сопряженных градиентов, включенный в пакет оценочных тестов NPB.

Существует несколько стандартных способов параллельной реализации умножения разреженной матрицы на вектор [4]. В первом алгоритме «Allgather» матрицу разрезают на горизонтальные полоски и распределяют по вычислительным узлам. В этом случае каждому узлу необходимо иметь в своем распоряжении весь умножаемый вектор, в результате умножения на узле получается часть нового вектора, которая должна рассылаться всем узлам при помощи операции, соответствующей операции MPI_ Allgather. Во втором алгоритме матрицу разрезают вертикально и распределяют по узлам, то-

гда каждый узел получает частичную сумму для каждого элемента вектора, итоговая сумма получается для каждого узла при помощи операции, аналогичной MPI_Reduce_scatter.

Недостатком указанных алгоритмов является неэффективное использование коммуникационной сети: в силу разреженности матрицы большинство элементов плотного вектора не используются при вычислении. Причем этот эффект увеличивается с ростом числа узлов, так как при этом на каждый узел в среднем приходится все меньшее количество ненулевых элементов матрицы.

В третьем алгоритме «Alltoall» матрица распределяется так же, как в первом алгоритме, то есть горизонтально по вычислительным узлам, но каждый узел после окончания счета рассылает всем узлам только требуемые каждому из этих узлов элементы. Соответственно, каждый узел получает из сети только нужные ему для счета элементы, а не весь вектор.

Приведем оценку объема коммуникаций для первого и третьего алгоритмов. В первом случае каждый узел получает в результате вычислений n / p элементов, которые рассылаются остальным узлам, откуда получаем оценку n(p - 1) элементов результирующего вектора, где n -размер матрицы, p - количество вычислительных узлов. Видно, что общий объем коммуникаций растет пропорционально количеству вычислительных узлов, что накладывает ограничения на масштабируемость.

Для третьего алгоритма получаем, что в худшем случае каждому узлу необходимо nd / p элементов, где d - среднее количество ненулевых элементов в строке. Эта оценка получена из замечания, что каждый узел обладает n/p строками исходной матрицы, в каждой из которых в среднем имеется d ненулевых элементов, каждый из которых в худшем случае (если их горизонтальные индексы различны) требует один элемент результата предыдущей итерации. Далее, от каждого из оставшихся узлов в среднем требуется nd/p2 элементов, если же не считать сам получающий узел (он уже обладает необходимой информацией), то от каждого узла будет получено nd(p - 1)/p2, а суммарный объем будет nd(p - 1)/p. Для большого числа узлов (p - 1)/p близко к единице, откуда окончательно получаем оценку общего объема пересылок по сети nd. В итоге получается, что общий объем пересылок в случае третьего алгоритма не зависит от количества вычислительных узлов.

Таким образом, при p>d алгоритм «Alltoall» будет требовать меньше пересылок, чем первый алгоритм, причем с ростом числа узлов количество элементов, требуемое каждому узлу, уменьшается, что увеличивает возможности алгоритма по масштабированию.

2. ИМИТАЦИОННАЯ МОДЕЛЬ

Для оценки производительности на тестовых программах создана на языке Charm++ параллельная потактовая имитационная модель разрабатываемой коммуникационной сети [3]. Модель хорошо масштабируется при использовании большого количества узлов вычислительного кластера.

В модели реализована параметризованная обобщенная схема маршрутизатора разрабатываемой в ОАО «НИЦЭВТ» сети с топологией многомерный тор. Модель позволяет варьировать размеры буферов, число виртуальных каналов, инжекторов и эжекторов (входов / выходов из кроссбара для выдачи и приема пакетов в / из сети), изменять алгоритмы работы блоков маршрутизации и арбитража. Входные виртуальные каналы одного направления могут подключаться к кроссбару либо напрямую, либо через входной арбитр.

При прохождении пакета через маршрутизатор используется конвейер, включающий стадии анализа заголовка, выбора дальнейшего маршрута, выставления запроса входному / выходному арбитру, ожидания ответа от арбитра, перемаршрутизацию/переход в другую виртуальную подсеть при выполнении определенных условий (таймаута ожидания, например). Задержки на выполнение каждой стадии могут быть явно заданы, так же как и параметры конвейеризации (предварительный арбитраж) и используемая стратегия арбитража.

К каждому маршрутизатору подключена упрощенная модель процессора (условно -ShmemPE), которая реализует как функции сетевого адаптера по формированию и интерпретации пришедших пакетов (для выполнения, например, чтений из памяти моделируемого узла), так и функции собственно вычислительного процессора, исполняющего некоторую вычислительную задачу. Интерфейс PCI Express, связывающий процессор с адаптером, моделируется приближенно, учитывается практически только пропускная способность. Реальный процессор и память не моделируются вообще.

Для удобства программирования вычислительных задач для процессора ShmemPE имити-

руемая программа выполняет коммуникации при помощи функций интерфейса SHMEM. Эти функции разбивают сообщения на один или несколько сетевых пакетов (с учетом максимального размера сетевого пакета) и не возвращают управление в имитируемую программу до тех пор, пока не дождутся отправки сообщения в сеть в случае shmem_put или окончания выполнения барьера в случае shmem_barrier.

3. РЕАЛИЗАЦИЯ

Для имитации выполнения итерационного метода в реализациях выполняется подряд несколько итераций умножения разреженной матрицы на вектор.

На модели разрабатываемой коммуникационной сети были реализованы два алгоритма: первый, основанный на коллективной операции Allgather (реализованной программно, т. е. без аппаратной поддержки со стороны маршрутизатора), а также третий, основанный на операции Alltoall, с отправкой только необходимых участков результирующего вектора.

Для моделирования выполнения алгоритма «Alltoall» для случайно сгенерированной матрицы с параметрами n = 10240000, d = 10 и d = = 50 был произведен расчет необходимого объема пересылок между каждой парой узлов, в результате получена квадратная матрица пересылок размером pxp, где p - количество моделируемых вычислительных узлов (от 2 до 2048). Далее производился запуск модели и выполнялись указанные отправки в режиме «по кольцу»: узел с номером j отправляет сообщение необходимого объема узлам с номерами j + 1, j + 2, ..., np, 0, 1, ..., j - 2, j - 1 в указанном порядке. Рассылка завершается барьерной синхронизацией, которая гарантирует получение каждым узлом данных, необходимых для начала очередной итерации.

Далее из результатов выполнения OpenMP-реализации теста на одном узле прототипа вычисляется среднее время, необходимое для выполнения пары операций (вещественное сложение и умножение во внутреннем цикле алгоритма) при фиксированном значении параметров n и d. Это упрощение связано с отсутствием модели процессора и памяти, что вынуждает считать зависимость времени, затрачиваемого на вычисление результата на одном узле, линейной относительно числа строк матрицы (при фиксированном размере плотного вектора). В итоге в предположении последовательного

выполнения вычислений, а затем - коммуникаций, вычисляется итоговая производительность.

Для проверки адекватности модели производилось сравнение результатов моделирования прототипа коммуникационной сети с результатами на прототипе. Максимальное отклонение модели прототипа от прототипа составило 32 %, среднее отклонение - 13 % при моделировании рассматриваемой задачи для разного набора параметров, что позволяет с большей надежностью относиться к результатам моделирования будущей системы.

Для сравнения результатов моделирования с результатами на существующих суперкомпьютерах первый и третий алгоритмы были реализованы при помощи MPI и OpenMP. В реализации первого алгоритма использовалась операция MPI_Allgather, третьего алгоритма — MPI_Alltoall.

4. РЕЗУЛЬТАТЫ МОДЕЛИРОВАНИЯ И ВЫПОЛНЕНИЯ АЛГОРИТМОВ НА СУПЕРКОМПЬЮТЕРАХ

На рис. 1 представлено ускорение работы алгоритмов на существующих суперкомпьютерах и на модели сетей 3D-тор и 4D-тор, а также достигаемая максимальная абсолютная производительность. Выполнение тестов производилось на суперкомпьютере «Ломоносов» в НИВЦ МГУ (процессоры Intel Xeon X557G, интеркон-нект InfiniBand 4x QDR), а также на кластере IBM BlueGene/P, установленном на факультете ВМиК МГУ. Параметры модели соответствуют характеристикам сети на основе кристалла маршрутизатора (СБИС).

На первом алгоритме все суперкомпьютеры и модель показывают плохую производительность и масштабируемость. Первый алгоритм опережает третий только на относительно небольшом числе узлов.

На третьем алгоритме для большого числа узлов ускорение на модели для сети опережает ускорение на BlueGene/P, для 1G24 узлов ускорение на модели сети 3D-тор составляет 323 раза, на модели сети 4D-тор - 469 раз, на BlueGene/P - 2G9 раз. Рост производительности на суперкомпьютере «Ломоносов» останавливается для 512 узлов, ускорение при этом составляет 41 раз.

На реальных суперкомпьютерах время выполнения вычислений в 1GG итерациях третьего алгоритма (см. рис. 2) масштабируется почти линейно с ростом числа узлов, такое же допущение сделано и в реализации данной задачи

для модели сети. В реализации с использованием МР1 пришедшие данные раскладываются по своим местам в умножаемом векторе, однако на рисунке видно, что эта составляющая также хорошо масштабируется. Поэтому в третьем алгоритме все зависит от масштабирования рассылки «все-всем», которая на суперкомпьютерах «Ломоносов» и Б1иеОепе/Р реализована при помощи коллективной операции МР1_АШоа11. Напомним, что суммарный объем сообщений по всем узлам в третьем алгоритме остается постоянным с ростом числа узлов. На суперкомпьютере «Ломоносов» время выполнения 100 операций МР1_АШоа11 в рамках задачи падает от 10 с на 4 узлах до 1,5 с на 512 узлах, на Б1иеОепе/Р те же операции выполняются 43 с на 4 узлах, на 1024 узлах - 1,5 с. На модели сети 3Б-тор на 8 узлах рассылка «все-всем» занимает 2,3 с, на 1024 узлах - 0,1 с. Результаты показывают, что именно рассылка «все-всем» приводит к падению ускорения производительности алгоритма.

Результаты рассылки «все-всем» на модели ограничены теоретической пиковой пропускной способностью, которая равна пиковой бисекционной пропускной способности сети, что косвенно подтверждает правильность результатов.

Среди возможных причин лучшей масштабируемости результатов на модели по сравнению с Б1иеОепе/Р, в котором также используется сеть 3Б-тор, можно назвать две. Во-первых, если на Б1иеОепе/Р, число узлов меньше 512, то используется не тор, а решетка, у которой бисекционная пропускная способность в два раза ниже, чем у тора. В модели для заданного числа узлов всегда используется тор. Во-вторых, ин-жекция и эжекция пакетов из сети в модели реализованы идеализированно, не моделируется память и процессор, что может повлечь завышение оценки.

Тем не менее, полученные результаты показывают возможность получения высокой реальной производительности на задаче умножения разреженной матрицы на вектор на модели разрабатываемой коммуникационной сети.

ЗАКЛЮЧЕНИЕ

В статье при помощи имитационного моделирования показана возможность хорошего масштабирования производительности задачи умножения разреженной матрицы на вектор на модели коммуникационной сети, разрабатываемой в ОАО «НИЦЭВТ».

Рис. 1. Ускорение производительности (в логарифмической шкале) различных алгоритмов умножения разреженной матрицы на вектор (n = 1G24GGGG, d = 1G) на суперкомпьютерах «Ломоносов» и IBM BlueGene/P, а также на модели разрабатываемой коммуникационной сети. А1 - первый алгоритм

«Allgather», A3 - третий алгоритм «Alltoall»

120 100 8 80

5 60 -Н е

р 40

со

20

0

□ Время на раскладку вектора

□ Время счета

И Время МР!_А!Цоа!!_____________

П п

в 16 32 64 128 256 512 1024

Количество узлов (BlueGene/P)

10

* 8 -Н

е

°_ 6 -н

of .

s 4 44 е р

рВ 2

0

□ Время счета

□ Время рассылки 'все-всем'

_в_

8 „16 32 64 128 256 ,512 1024 2048

Количество узлов (модель)

Рис. 2. Профиль выполнения 100 итераций третьего алгоритма «A11toa.11» умножения разреженной матрицы на вектор (п = 10240000, d = 10) на суперкомпьютерах «Ломоносов», 1БМ Б1иеОепе/Р и на модели разрабатываемой коммуникационной сети 3Б-тор

В ближайшем будущем планируется реализация в модели сети «аппаратной» поддержки коллективных операций, исследование с их помощью различных вариантов реализации задачи умножения разреженной матрицы на вектор.

Также планируется увеличить точность моделирования выдачи и приема сообщений через PCI Express, рассматривается возможность использования моделей реальных процессоров с моделью коммуникационной сети.

СПИСОК ЛИТЕРАТУРЫ

1. Симонов А. С., Жабин И. А., Макагон Д. В. Разработка межузловой коммуникационной сети с топологией «Многомерный тор» и поддержкой глобально адресуемой памяти для перспективных отечественных суперкомпьютеров // Перспективные направления развития средств вычислительной техники: сб. тез. докл. М.: ОАО «Концерн «Вега», 2011. С. 17-19.

2. Отечественная коммуникационная сеть 3Б-тор с поддержкой глобально адресуемой памяти для суперкомпьютеров транспетафлопсного уровня производительности / А. А. Корж [и др.] // Параллельные вычислительные технологии (ПаВТ’2010): тр. международн. науч. конф. (Уфа, 29 марта - 2 апреля 2010 г.) [Электронный ресурс]. Челябинск: Изда-тельск. центр ЮУрГУ, 2010. С. 227-237.

3. Моделирование российского суперкомпьютера «Ангара» на суперкомпьютере / Л. К. Эйсымонт [и др.] // Суперкомпьютерные технологии в науке, образовании и промышленности / под ред. акад. В. А. Садовничего, акад. Г. И. Савина, чл.-корр. РАН

B. В. Воеводина. М.: Изд-во Московск. ун-та, 2009.

C. 145-150.

4. Корж А. А. Распараллеливание задачи умножения разреженной матрицы на вектор на вычис-

лительных кластерах с минимальной аппаратной поддержкой РОА8 // Параллельные вычислительные технологии (ПаВТ’2009): тр. международн. науч. конф. (Н.-Новгород, 30 марта - 3 апреля 2009 г.). Челябинск: Изд-во ЮУрГУ, 2009. С. 813.

ОБ АВТОРАХ

Пожилов Илья Александрович, науч. сотр. ОАО «НИЦЭВТ». Дипл. математик, системн. программист (ВМиК МГУ, 2012). Иссл. в обл. имитационного моделирования коммуникационных сетей и параллельного программирования.

Семенов Александр Сергеевич, нач. сектора ОАО «НИЦЭВТ». Дипл. математик, системн. программист (ВМиК МГУ, 2004). Канд. техн. наук по архитектуре суперкомпьютеров (МАИ, 2010). Иссл. в обл. параллельного программирования и прикладного ПО суперкомпьютеров.

Дмитрий Викторович Макагон, нач. отдела ОАО «НИЦЭВТ». Дипл. инженер-математик (МИЭТ, 2006). Иссл. в обл. параллельного программирования и архитектуры высокоскоростных коммуникационных сетей.

i Надоели баннеры? Вы всегда можете отключить рекламу.