Научная статья на тему 'Сибирский суперкомпьютерный центр коллективного пользования и его применение для создания вычислительных технологий'

Сибирский суперкомпьютерный центр коллективного пользования и его применение для создания вычислительных технологий Текст научной статьи по специальности «Математика»

CC BY
94
16
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ЦЕНТР КОЛЛЕКТИВНОГО ПОЛЬЗОВАНИЯ / ЧИСЛЕННОЕ МОДЕЛИРОВАНИЕ / СУПЕРКОМИЬЮТЕРНАЯ ТЕХНОЛОГИЯ / МАГМАТИЧЕСКИЕ ВУЛКАНЫ / УРАВНЕНИЯ ТЕОРИИ УПРУГОСТИ / СО-ДИЗАЙН / ЭНЕРГОЭФФЕКТИВНОСТЬ

Аннотация научной статьи по математике, автор научной работы — Глинский Борис Михайлович, Черных Игорь Геннадьевич, Мартынов Валерий Николаевич, Сапетина Анна Федоровна, Винс Дмитрий Владимирович

В работе описано развитие двух направлений деятельности, инициированных академиком А. С. Алексеевым в ИВМиМГ СО РАН: суисркомиьютсрный центр коллективного пользования и активная сейсмология с использованием мощных виброссйсмичсских источников. Представлены основные этапы развития центра коллективного пользования „Сибирский суперкомпьютерный центр“ ИВМиМГ СО РАН (ЦКП СССКЦ), его роль в решении больших задач математического моделирования в Сибирском отделении РАН. Другое направление связано с развитием идей виброеейемичеекого мониторинга ссйсмоопасных объектов. Математическое моделирование задачи мониторинга живущих магматических вулканов показало принципиальную возможность ирод сказания катастрофических извержений методом виброеейемичеекого мониторинга. Численное моделирование выполнено с использованием многоуровневой суисркомиьютсрной технологии, развиваемой авторами, включающей со-дизайн, исследование масштабируемости алгоритмов на основе имитационного моделирования и оценку энергоэффективноети алгоритмов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Глинский Борис Михайлович, Черных Игорь Геннадьевич, Мартынов Валерий Николаевич, Сапетина Анна Федоровна, Винс Дмитрий Владимирович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Сибирский суперкомпьютерный центр коллективного пользования и его применение для создания вычислительных технологий»

THE SIBERIAN SUPERCOMPUTER CENTER FOR COLLECTIVE USE AND ITS APPLICATION FOR THE CREATION OF COMPUTATIONAL TECHNOLOGIES

B. Glinskiy, I. Chernykh, V. Martynov, A. Sapetina, D. Weins

Institute of Computational Mathematics and Mathematical Geophysics SB EAS,

630090, Novosibirsk, Russia

The paper describes the development of two directions of activity initiated by Academician A.S. Alekseev in the ICMMG SB RAS: a supercomputer center for collective use and active seismology using powerful vibroseismic sources. The main stages of the development of the Center for Collective Use „Siberian Supercomputer Center" ICMMG SB RAS, its role in solving large problems of mathematical modeling in the Siberian Branch of the Russian Academy of Sciences are presented.

Another direction is associated with the development of ideas for vibroseismic monitoring of seismic objects. Mathematical modeling of living magmatic volcanoes monitoring problem has shown the principal possibility of prediction of catastrophic eruptions by the method of vibroseismic monitoring. Numerical simulation using multi-level supercomputer technology developed by the authors, including co-design, scalability of algorithms based on simulation, and an estimation of the energy efficiency of algorithms was performed.

Key words: center of collective use, numerical modeling, supercomputer technology, magmatic volcanoes, equations of the theory of elasticity, co-design, energy efficiency.

References

1. Alekseev A. S., Lavrentev M. A. Informacionnve i vvchislitelnve texnologii / A. S. Alekseev // Nauka v Sibiri. Novosibirsk. 2000. N 44-45.

2. Ale kseev A. S. et al. O programme rabot po sozdanivu seti informacionno vvchislitelnvx sistem (Centrov) v Sibirskom otdelenii AN SSSR // Novosibirsk, 1987. (Preprint / RAN. Sib. otd-nie. VCz; 467).

3. Alekseev A.S. et al. Akademicheskava regionalnava set Sibiri / / Novosibirsk, 1983. (Preprint / RAN. Sib. otd-nie. VCz; 467).

4. Alekseev A.S. et al. Istoriva razvitiva Sibirskogo superkompvuternogo centra, ego tekushhee sostovanie i perspektivv razvitiva // Sib. zhurn. vvchisl. matematiki RAN. 2005. V. 8. N 3. P. 179-187.

5. Alekseev A.S., Glinskij B.M., Sobisevich A.L., Kovalevskij V. V., Xajretdinov

M.S. Aktivnava sejsmologiva s moshhnvmi vibracionnvmi istochnikami. Novosibirsk: IVMiMG SO „"

Manshtejn A.K., Seleznev V.S., Serdyukov S.V., Solovev V. M., Sobisevich A.L., Sobisevich L.E., Xajretdinov M.S., Chichinin I.S., Yushin V.I. Novve geotexnologiii i kompleksnve geofizicheskie metodv izucheniva vnutrennej strukturv i dinamiki geosfer. Monografiva. M.: OIFZ RAN, 2002. 475p.

7. Alekseev A.S., Glinskij B.M., Imomnazarov X. X, Kovalevskij V. V., Sobisevich

L.E., Xajretdinov S.M., Cibulchik G.M. Monitoring geometrii i fizicheskix svojstv ""

sejsmoopasnvx uchastkov zemnoj korv // Statva v kollektivnoj monografii „Izmeneniva prirodnoj sredv i klimata. Prirodnve katastrofv. Chast 1". Pod red. akademika N.P. Laverova. T. 1. M.: IFZ RAN. 2008. P. 179-222.

8. Glinskij B. M. Sibirskij Superkompyuternvj Centr Kollektivnogo Polzovaniva: etapv razvitiva, tekushhee sostovanie i perspektivv // Problemv informatiki. 2013. N 3(20). P. 72-84.

9. RSC Tornado Cluster Architecture. [Electron, res.]: http://www.rscgroup.ru/ru/ our-technologies/266-klasternaya-arhitektura-rsk-tornado

10. Glinskiy B. XL. Martynov V. N., Sapetina A. F. 3D modeling of seismic wave fields in a medium specific to volcanic structures // Yakutian Math. J. 2015. N 22(3). P. 84-98.

11. Glinskiy B.M., Kulikov I.M., Chernykh I.G., Snytnikov A.V., Sapetina A.F., Weins D. V. The integrated approach to solving large-size physical problems on supercomputers // RuSCDavs 2017. CCIS. 2017. V. 793. P. 278-289. DOI: 10.1007/978-3-319-71255-0.22

12. Glinskiy B.M., Sapetina A.F., Martynov V.N., Weins D.V., Chernykh I.G. The hybrid-cluster multilevel approach to solving the elastic wave propagation problem // PCT 2017, CCIS. 2017. V. 753. P. 261-274. DOI: 10.1007/978-3-319-67035-5_19

13. Sapetina A.F. Supercomputer-aided comparison of the efficiency of using different mathematical statements of the 3D geophysical problem // Bulletin of the Novosibirsk Computing Center, Series: Numerical Analysis. 2016. N 18. P. 57-66.

14. Glinskiy B., Kulikov I., Snytnikov A., Romanenko A., Chernykh I.,Vshivkov V. Co-design of Parallel Numerical Methods for Plasma Physics and Astrophysics // Supercomputing Frontiers and Innovations. 2014. V. 1, I. 3. P. 88-98.

15. Glinsky, B., Kulikov, I., Chernykh, I., Weins, I).. Snytnikov, A., Nenashev, V., Andreev, A., Egunov, V., Kharkov, E. The Co-design of Astrophvsical Code for Massively Parallel Supercomputers // Proceedings of 16th International Conference on Algorithms and Architectures for Parallel Processing (ICA3PP) LNCS, 2016. N 10049. P. 342-353.

16. blhn M. Stable Discretization Scheme for the Simulation of Elastic Waves / M. Bihn, T.A. Weiland // Proceedings of the 15th IMACS World Congress on Scientific Computation, Modelling and Applied Mathematics (IMACS 1997). 1997. V. 2. P. 75-80.

17. Glinskij B.M., Karavaev D.A., Kovalevskij V. V., Martynov V.N. Chislennoe modelirovanie i eksperimentalnve issledovaniva grvazevogo vulkana „Gora Karabetova" vibrosejsmicheskimi metodami // Vvchislitelnve metodv i programmirovanie. Moskva, 2010. V. 11. N 1. P. 95-104.

18. Karavaev D. A. Parallelnava realizaciva metoda chislennogo modelirovaniva volnovvx polej v trexmernvx modelvax neodnorodnvx sred. // Vestnik Nizhegorodskogo universiteta im. N.I. Lobachevskogo. 2009. N 6(1). P. 203-209.

19. Glinskij B.M., Martynov V. N., Sapetina A.F. Texnologiva superkompvuternogo 3D modelirovaniva sejsmicheskix volnovvx polej v slozhno postroennvx sredax // Vestnik Yuzhno-Uralskogo Gosudarstvennogo Universiteta. Vvchislitelnava matematika i informatika. 2015. V. 4. N 4. P. 101-116.

20. Karavaev D. A. Modelirovanie sejsmicheskix polej diva sred s sushhestvenno neodnorodnv'm raspredelenie uprugix parametrov // Interekspo Geo-Sibir. 2017. V. 4. N 1. P. 201-204.

21. Komatitsch D. An unsplit convolutional perfectly matched layer improved at grazing incidence for the seismic wave equation // GEOPHYSICS. 2008. V. 73, N 4. P. T51-T61.

22. Karavaev D.A., Glinsky B.M., Kovalevsky V. V. A Technology of 3D Elastic Wave

Propagation Simulation Using Hybrid Supercomputers // CEUR Workshop Proceedings. „RuSCDavs

"

23. Podkorytov D., Rodionov A., Sokolova O., Yurgenson A. Using Agent-Oriented Simulation System AGNES for Evaluation of Sensor Networks // PaCT 2010. LNCS, V. 6235. P. 247250, Springer, Springer, Heidelberg.

24. вышки В.М., Макснемко М.А., Мкальемко В. С!.. Иобюноу А.Э., Снекмукн ¡.в., Какауаеу Б. А., Робкокутоу Б.1., Ушэ Б.У. ОкЛгагЬешуа рагаПеЬукЬ а^огИтоу (11уа superkompyuterov екгаАорвпо] proizvoditelnosti па сепоуе imitacionnogo тоёеПюташуа // 1п£огтасюппуе texnologii 1 уусЫвШеЫуе sistemy, 20131, N 4. Р. 3-14.

СИБИРСКИЙ СУПЕРКОМПЬЮТЕРНЫЙ ЦЕНТР КОЛЛЕКТИВНОГО ПОЛЬЗОВАНИЯ И ЕГО ПРИМЕНЕНИЕ ДЛЯ СОЗДАНИЯ ВЫЧИСЛИТЕЛЬНЫХ ТЕХНОЛОГИЙ

Б.М. Глинский, И. Г. Черных, В.Н. Мартынов, А. Ф. Сапетина, Д. В. Вине

Институт вычислительной математики и математической геофизики СО РАН,

630090, Новосибирск, Россия

УДК 681.32

В работе описано развитие двух направлений деятельности, инициированных академиком А. С. Алексеевым в ИВМиМГ СО РАН: суперкомпьютерный центр коллективного пользования и активная сейсмология с использованием мощных вибросейсмических источников. Представлены основные этапы развития центра коллективного пользования „Сибирский суперкомпьютерный центр" ИВМиМГ СО РАН (ЦКП СССКЦ), его роль в решении больших задач математического моделирования в Сибирском отделении РАН.

Другое направление связано с развитием идей вибросейсмического мониторинга сейсмоопас-ных объектов. Математическое моделирование задачи мониторинга живущих магматических вулканов показало принципиальную возможность предсказания катастрофических извержений методом вибросейсмического мониторинга. Численное моделирование выполнено с использованием многоуровневой суперкомпьютерной технологии, развиваемой авторами, включающей со-дизайн, исследование масштабируемости алгоритмов на основе имитационного моделирования и оценку энергоэффективности алгоритмов.

Ключевые слова: центр коллективного пользования, численное моделирование, суперкомпьютерная технология, магматические вулканы, уравнения теории упругости, со-дизайн, энергоэффективность.

Введение. В мае 1963 года в составе СО АН был организован Вычислительный центр (ВЦ), который стал основой в создании вычислительного центра коллективного пользования (ВЦКП) [1, 2]. Машинный парк ВЦ, оснащенный передовой отечественной вычислительной техникой, за несколько лет стал одним из самых мощных в стране на тот период времени [3]. Позднее на технических и программных ресурсах ВЦ был создан Главный производственный Вычислительный Центр (ГПВЦ), предоставлявший вычислительные услуги институтам СО РАН. В 1990-х годах ГПВЦ был демонтирован из-за быстрого роста стоимости электроэнергии и аренды международных каналов связи.

Однако потребность в высокопроизводительных вычислениях для решения больших задач математического моделирования осталась и возросла, следовательно, Сибирскому отделению нужны были современные мощные вычислительные ресурсы. В 2000-е годы ключевую роль в восстановлении ВЦ КП сыграл академик Анатолий Семенович Алексеев. Осталась кабельная сеть ВЦ КП, и достаточно было установить в ИВМиМГ (бывший ВЦ)

Исследование выполнено за счет поддержки грантов РФФИ № 16-07-00434, 16-01-00455, 18-07-00757, 18-37-00279, НИР № 0315-2016-0009 с использованием ресурсов ЦКП „Сибирский Суперкомпьютерный Центр" ИВМиМГ СО РАН.

СО РАН компьютер Silicon Graphics с большой оперативной памятью и выходом в сеть, как в течение одного года 15 институтов СО РАН подключились к этой сети [4]. Формально

ССКЦ КП был создан в 2001 г, по Постановлению Президиума СО РАН № 100 от 6 марта

"

"

По существу, благодаря усилиям академика А. С, Алексеева при ИВМиМГ началось

"

"

"

координировал работу суперкомпьютерных центров в филиалах Сибирского отделения: Иркутске, Красноярске, Томске и Омске. Анатолий Семенович хорошо понимал, что высокопроизводительные вычисления необходимы для моделирования в фундаментальных и прикладных исследованиях в механике, физике, химии, геологии, геофизики, биологии и других дисциплинах. Благодаря его всесторонней поддержке был создан в ННЦ суперкомпьютерный центр, вошедшей впоследствии в пятерку лучших академических центров. После ухода Анатолия Семеновича его дело продолжил академик Б. Г. Михайленко,

Другое направление деятельности академика А. С. Алексеева связано с созданием активного вибросейсмического мониторинга сейсмоопасных объектов — очагов землетрясений и вулканических структур [5, 6, 7], поисков предвестников землетрясений (см. статью А. Л. Собнсевпча, Л. Е. Собнсевпча в этом журнале). Неотъемлемой частью этого направления стало математическое моделирование процессов, происходящих в сложно построенных геофизических средах. А это потребовало в дальнейшем создания новых суперкомпьютерных технологий для решения вычислительно сложных задач на современных и будущих суперкомпьютерах.

В рамках этой статьи в качестве примера остановимся на моделировании магматических вулканов с целью создания вибросейсмического мониторинга живущего вулкана Эльбрус на основе нового технологического подхода, включающего со-дизайн, имитационное моделирование и оценку энергоэффективности вычислительного алгоритма.

1. ЦКП Сибирский суперкомпьютерный центр ИВМиМГ СО РАН. На рис. 1 приведена динамика развития вычислительных ресурсов ЦКП ССКЦ с 2005 года. Архитектурные особенности, инфраструктура машинных залов, программное обеспечение и инструментальные средства разработки для кластера НКС-ЗОТ подробно описаны в работе [8].

В этой статье остановимся на описании нового кластера НКС-1П, введенного в эксплуатацию в 2017 году и задачах, решаемых на ресурсах ЦКП ССКЦ. Кластер НКС-1П построен на базе архитектур РСК Торнадо и РСК Торнадо Phi [9] и состоит из 16 узлов, на каждом из которых установлен 1 процессор Intel Xeon Phi 7290 KNL (1.5 Ггц, 72 ядра, 16 ГБ кэш MCDRAM) и 96 гигабайт DDR4 памяти, а также из 20 узлов, на каждом из которых установлены 2 процессора Intel Xeon E5-2697v4 (2.6 Ггц, 16 ядер) и 128 гигабайт DDR4 памяти. В качестве системы хранения данных установлена параллельная файловая система Intel Lustre ЕЕ емкостью 200 ТВ. Сетевой интерконнект — Intel Omni Path производительность 100 гигабит/е. Совместно с ИГиЛ СО РАН дополнительно установлены 7 вычислительных узлов, на каждом из которых установлены 2 процессора Intel Xeon E5-2697v4 (2.6 Ггц, 16 ядер) и 256 гигабайт DDR4 памяти. Увеличенный объем памяти обусловлен спецификой задач, решаемых в институте гидродинамики. Пиковая производительность кластера 91 ТФ. К)! 1С. Охлаждение кластера НКС-1П осуществля-

Рис. 1. Динамика развития вычислительных ресурсов ЦКП ССКЦ

Рис. 2. Кластер НКС 1-П ЦКП ССКЦ ИВМиМГ СО РАН

ется горячей водой с температурой до 65 градусов Цельсия. Инженерная инфраструктура кластера построена с запасом увеличения вычислительной мощности минимум в 4 раза без дополнительных расходов па систему охлаждения. В перспективе планируется расширение кластера путем закупки узлов с процессорами Intel архитектуры Cascade Lake-SP, а также узлов с процессорами Эльбрус. Форм-фактор системных плат под процессоры Эльбрус позволяет поместить решение в стандартный узел РСК Торнадо. На рис. 2 представлен кластер НКС-1П. На текущий момент кластер НКС-1П используется для широкого круга задач численного моделирования институтами СО РАН: НК СО РАН, ИХКиГ СО РАН, ИВМиМГ СО РАН, ИГиЛ СО РАН, ИНГГ СО РАН, ИЯФ СО РАН и др. Машинный зал ЦКП ССКЦ ИВМиМГ СО РАН подготовлен для расширения вычислительных мощностей па базе архитектуры РСК Торнадо до 5 ПФЛОПС.

2. Суперкомпьютерная технология моделирования вулканических структур на ресурсах ССКЦ. Вулканы, в том числе и спящие, являются потенциальной угрозой внезапного возникновения мощных катастрофических явлений. Необходимость предсказания извержений, которые могут быть вызваны готовящейся вспышкой вулканической

деятельности, является актуальной задачей. Для этого необходимо проводить мониторинг состояния вулкана, отслеживать изменения параметров внутренней среды, их вариации, и делать по ним прогноз извержений. Последнее требует предварительного тщательного комплексного исследования процессов, проходящих внутри вулканов и на их поверхности, Одним из инструментов для проведения такого исследования является активный вибросейсмический мониторинг [5-7], Получаемая в его ходе информация сложна для интерпретации и требует проведения предварительного и сопутствующего математического моделирования процессов, происходящих внутри исследуемого геофизического объекта с учетом особенностей его строения. Обычно рельеф исследуемого объекта достаточно сложен и не позволяет расположить на нем площадную систему наблюдения для решения обратной задачи геофизики, В связи с этим приходится многократно решать прямую задачу, варьируя параметры моделируемой среды так, чтобы результаты численного и натурного экспериментов качественно совпадали. Такой подход позволяет рассмотреть возможные типы строения магматических и грязевых вулканов и их различные состояния, чтобы выделить основные эффекты, возникающие в данных, фиксируемых системой наблюдения на поверхности вулкана (сейсмограммы), и для облегчения их интерпретации при непосредственном мониторинге.

Таким образом, мы сталкиваемся с проблемой проведения крупномасштабного численного моделирования процессов распространения упругих волн для вулканических структур различного строения при вибросейсмическом мониторинге. Решение такой задачи требует использования новейших суперкомпьютерных технологий [10-12], Особо следует отметить современные подходы, опирающиеся на понятие со-дизайна. Под этим в контексте математического моделирования физических процессов понимается построение физико-математической модели явления, численного метода, параллельного алгоритма и его программной реализации, эффективно использующей архитектуру суперкомпьютера [11, 12], Численное решение полной системы уравнений теории упругости с соответствующими начальными и граничными условиями лежит в основе моделирования распространения сейсмических волн в сложно построенных упругих неоднородных средах,

В данной работе рассматриваются две постановки искомой системы в соответствии с концепцией ео-дизайна, одна, записанная в терминах вектора скоростей смещений и = (и,у,-ю)Т и тензора напряжений а = (ахх,ауу,ахх,аху,ахх,аух,)т и вторая, записанная в терминах вектора смещении и = (иу,ш)т [13].

Рассмотрим сначала первый вариант. Уравнения в векторной форме могут быть представлены в следующем виде:

р^и = а + ^ (1,х,У,г)

(1)

I = ви

(2)

Л

д О

дх

_д_ ду

О О

д ду

д

дх

— — О

а.. д г

д о д

о д о д д

д г

дх

д дг д

дуА

В

(А + 2и) £

^ ду

А дх: А дх: Ц ду

и д

О

(А+2и) ду

А д г А д г

А ду И дх:

(А+2и) д

И дх: И ду

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

где г - время, р (х,у,г) - плотноеть, А (х,у,г), ц (х,у,г) - параметры Ламе,

Предполагается, что параметры упругой среды зависят от трех пространственных переменных X. V н X.

В качестве области моделирования в обоих случаях выступает изотропная 31) неоднородная сложно построенная упругая среда, представляющая собой параллелепипед, одна из граней которого является свободной поверхностью (плоскость г = 0), Рассмотрим прямоугольную декартову систему координат так, что ось О/ направлена вертикально вниз, а оси Ох и Оу лежат на свободной поверхности.

Начальные условия и граничные условия на свободной поверхности имеют вид:

У|

г^о

0, и|

г^о

О,

ая

хг 1 г^0

О,

У у

уг 1 г^о

О,

(

гг| г^0

0.

(3)

При численном моделировании на основе решения системы (1)—(3) на каждом шаге по времени требуется хранить в памяти ЭВМ как минимум 12 трехмерных массивов содержащих информацию о неизвестных и = (и,у,-ю)тУ = (ухх,ууу,у гг,уху,ухг[

,)

т

и о

параметрах среды р, А, ц. При моделировании ,,больших" ЗБ сред в таком случае для проведения расчета требуется большой объем оперативной памяти.

Это количество можно сократить, перейдя к постановке динамической теории упругости в терминах вектора смещений (7 = (7,У,Ш)т = ди 11 уменьшив, таким образом, количество неизвестных.

Рассмотрим уравнения движения для смещений:

р

дЮ_ дг2

[Л] У + ^ (г,х,у,*)

и закон Гука, переписанный в смещениях:

У

[В] и.

(4)

(5)

Выразим компоненты напряжений из (5) и подставим их в (4), В итоге получим уравнения Ламе для смещений:

рд2(( = [С] и + и (1,х,у,г) , (6)

дг2

с =

(А + 2м) дЪ + М

ду

+

в2 \ дх2 )

(А + М)

д2 дхдх

(А + М) ф (А + М) -£тх

(А + 2М) -§2 + м(-д2 + £2

(А + М)

(А + М) дУх

(А + 2М) + м(+

(А + М) дЬу

В обеих постановках предполагается, что правая часть (массовая сила) имеет следующий вид: и (Ь,х,у,г) = Гхг + Гу] + Ргк7 где г, и, к - единичные направляющие векторы координатных осей.

О

О

2

д

Например, для источника типа „центр давления" получим представление: — (¿,х,у,г) = 8 (х — хо) 8 (у — уо) 8 (г — г0) f (£), где (х0,у0,г0) - координаты источиика, а ^ (х) - дельта функция.

Для численного решения поставленных задачи (1)-(3) и (6) применяются известные конечно-разностные схемы на сдвинутых сетках [16], хорошо себя зарекомендовавшие для решения системы уравнений динамической теории упругости. Расчет сеточных коэффициентов проводится на основе интегральных законов сохранения. Рассмотрены схемы 2-го порядка аппроксимации по времени и 2-го и 4-го порядка аппроксимации по пространству. Подробное описание разностных приведено в статьях [16-19],

Для того чтобы исключить ложные отражения от границ моделируемой области, каждая из границ моделируемого параллелепипеда, за исключением свободной поверхности, располагающейся на верхней грани, окружается поглощающим слоем. Во внутренности волновое поле рассчитывается по первоначальным конечно-разностным уравнениям, а при попадании волны в зону поглощения происходит расчет по новым формулам с демпфирующими параметрами, реализующий подход (Т'Я-РМ I. к созданию поглощающих границ. Описание выбранного подхода и выбор значений демпфирующих параметров для численных расчетов в соответствующих поглощающих слоях проводится на основе результатов работы [20],

2,1, Модель вулкана Эльбрус и численные эксперименты. В качестве приближенной модели вулкана Эльбрус (рис, 3) рассмотрим многослойную среду с включениями в виде эллипсов и цилиндров с параметрами, указанными в табл. 1, Подробное описание геофизической модели можно найти в [13], Вулканическая постройка лежит на гранитном блоке +1; эффузивные породы слагают вулканический конус +11; ниже нулевой отметки можно выделить 8 слоев. Магматические очаги представлены в виде эллипсоидов, верхний очаг с горизонтальными и вертикальными осями 9 и 6 км (р=2,1 г/см3; Ур=2.2 км/с), материнский магматический очаг — 24 и 13 км (р=1,8 г/см3; Ур=1.9 км/с); диаметр бывшего канала 130 м, диаметр предполагаемого подпитывающего канала 250 м. Средний канал — цилиндр диаметром 160 м.

Для данной модели вулкана Эльбрус проведен ряд вычислительных экспериментов. Каждый расчет проводился на 11 узлах кластера НКС-ЗОТ (П'Г. оснащенных графическими картами. Для моделирования процесса на 12000 шагов по времени тратится в

среднем чуть больше полутора часов. Система возбуждения для всех расчетов состоит из

"

свободной поверхности в левой части расчетной области в одной плоскости с осью симметрии магматических каналов и камер.

Для численного моделирования распространения сейсмических волн в моделях сред, характерных для вулканических структур, разработан комплекс параллельных алгоритмов и программ, позволяющих проводить конструирование модели сложной геометрии и расчеты одновременно по нескольким программам для этой модели.

Расчет может производиться одновременно для 31) модели среды и нескольких 21) сечений с целью облегчения интерпретации и получения необходимой информации об особенностях строения волнового поля для выбранной геофизической модели, системы наблюдения и положения источника.

Для расчетов разработанным программам требуется набор входных файлов с информацией о моделируемой среде и параметрами расчета в определенном формате. Входная информация содержит физические размеры модели, количество шагов дискретизации по

Таблица 1

Значения упругих параметров вулкана Эльбрус

Vp, км/с Vs, км/с р, г/см3

Слой +11 2,85 1,65 2,4

Слой +1 3,1 1,79 2,66

Слой I 3,2 1,82 2,7

Слой II 5,9 3,42 2,85

Слой III 6,22 3,59 2,62

Слой IV 5,82 3,37 2,7

Слой V 5,97 3,45 2,75

Слой VI 6,43 3,72 2,78

Слой VII 6,95 4,03 2,81

Слой VIII 8,1 4,68 2,85

трем пространственным направлениям и по времени, информацию о точечном источнике сейсмических волн (его несущая частота и расположение) и информацию о системе наблюдения, Результатом работы программы является набор бинарных файлов, содержащих снимки волнового поля в указанных плоскостях и теоретические сейсмограммы,

В качестве моделируемой среды взят фрагмент предложенной приближенной модели стратовулкана Эльбрус, включающий в себя только верхнюю магматическую камеру в форме эллипсоида и прилегающий к ней подпитывающий канал, расположенные в пяти-слойной среде.

На рис, 4 представлены результаты расчетов для двух сред в виде теоретических сейсмограмм, Разница между этими средами заключается в том, что в одном случае верхний канал заполнен магмой (момент извержения), а во втором случае он сливается с окружающими слоями (равновесное состояние). Отчетливо выделяется магматический канал, что позволяет сделать вывод о возможности мониторинга уровня магмы в выводящем канале вулкана. Таким образом можно осуществлять вибросейсмический мониторинг живущих магматических вулканов.

Исследования показывают, что сейсмическое поле вулканов имеет сложную структуру, зависящую от геометрии исследуемых объектов и их реологических характеристик, и именно это обстоятельство позволяет проводить вибросейсмический мониторинг этих сейсмоопасных объектов. Проводя регулярные вибросейсмические зондирования и отслеживая в динамике поведение сейсмического поля по сейсмотрассам можно проследить существенные изменения напряженно-деформированного состояния исследуемого объекта, которые могут привести к катастрофическим явлениям извержениям. Насколько известно авторам, в такой постановке задача мониторинга решается впервые,

2,2, Технологические особенности численного моделирования. Разработка высокопроизводительного программного обеспечения для моделирования физических процессов на современных суперЭВМ — отдельная сложная задача. Поход к ее решению, безусловно,

VII

Рис. 3. Приближенная геофизическая модель вулкана Эльбрус и схема вибросейсмического мониторинга.

требует анализа успешности использования архитектуры суперЭВМ, численного метода и программной реализации.

Современные суперкомпьютеры все чаще оснащены ускорителями. Этот тренд, в том числе, задается лидерами списка ТОРбОО. Разработка программного кода для таких гибридных систем требует дополнительных знаний и времени, но позволяет получить значительный прирост производительности. Графические ускорители хорошо подходят для решения конечно-разностных уравнений, благодаря своей массивно-параллельной архитектуре и быстрому доступу к памяти устройства. Наряду с другими российскими и зарубежными вычислительными системами, GPU оснащен и кластер HKC-30T+GPU ССКЦ ИВМиМГ СО РАН (http://www2.sscc.ru). В данной работе разработка программ велась с учетом особенностей его архитектуры.

Для корректности сравнения успешности применения двух, указанных выше, математических постановок были выбраны аналогичные по построению конечно-разностные схемы на сдвинутых сетках и вспомогательные методы поглощающих границ CFS-PML.

В ИВМиМГ предложен и успешно применен на различных задачах многоуровневый подход, изложенный в работах [12-15]. Он состоит из трех стадий. Первая стадия — это применение концепции со-дизайна, в основе которой лежит разработка вычислительных

Рис. 4. Теоретические сейсмограммы для компоненты II. А среда без верхнего канала (равновесное состояние вулкана). В среда, содержащая верхний канал, заполненный магмой (момент извержения)

С разница между сейсмограммами А и В

технологий с учетом параллелизма па всех стадиях решения задачи. Вторая стадия — это проведение имитационного моделирования исполнения разработанных алгоритмов и кодов па большом количестве ядер с учетом целевой вычислительной архитектуры дня оценки масштабируемости вычислительного алгоритма 123—241. Третья стадия — это оценка эпергоэффективпости алгоритмов и кодов дня целевых архитектур.

Применим данный подход дня решения вычислительно сложной задачи моделирования распространения сейсмических волн в гетерогенной упругой среде, требующей применения современных еуперкомпыотерпых технологий.

2.3. Программная реализация, в рамках со-дизайна. Концепцию со-дизайна можно сформулировать в виде шести взаимосвязанных пунктов: выбор физической постановки задачи; выбор математической постановки задачи; разработка численных методов решения математической постановки физической задачи; выбор структур данных и параллельного алгоритма; учет особенностей архитектуры суперкомпьютера; выбор инструментов разработки.

В данной работе применение со-дизайна начинается с выбора математической постановки. С цолыо сравнения разработаны параллельные реализации решения динамической задачи теории упругости дня двух математических постановок. Это постановка в терминах скоростей смещения и напряжений (1)-(3) и постановка в терминах смещения (4)-(6), описанных выше. Основная разница между этими системами — это количество неизвестных и, соответственно, уравнений. Но, несмотря па то, что в случае постановки в смещениях уравнений меньше, расчет вторых производных вычислительно более сложен, чем расчет первых производных. Таким образом, численной решение уравнений (6) потенциально более вычислительно-сложное, чем решение уравнений (1)-(2), вне зависимости от метода решения, по, очевидно, менее требовательное к объему оперативной памяти, из-за меньшего (в три раза) количества неизвестных.

Расчет скоростей смещений и напряжений требует большего количества оперативной памяти (требуется хранить как минимум 18 ЗБ массивов с неизвестными), по при этом суммарно производится меньшее количество операций с плавающей точкой (57 операций

Таблица 2

Сравнение быстродействия алгоритмов

Кол-во узлов Время, с

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Расчет скоростей смещения и напряжения Расчет смещений Расчет смещений

15 183,1

15 174,8

8 247,4

для расчета значений в одной ячейке на один шаг по времени), Расчет смещений наоборот требует меньшее количество оперативной памяти (минимум 6 3D массива с неизвестными), но большее количество операций (98 операций на один шаг по времени), что позволяет лучше переиспользовать данные. Это особенно актуально для реализации на GPU, так как память устройства не велика, особенно для расчета больших геофизических задач, а возможность переиспользования данных может позволить более эффективно работать с памятью ускорителя, которая подразделяется на несколько типов, скорость доступа к которым сильно различается.

Для сравнения быстродействия обоих подходов проведены расчеты одинаковых сред с размером сетки 1500 х 700 х 2100 узлов по пространству и 1000 шагов по времени. Взята сетка, близкая к максимально входящей в память 45 графических карт (15 вычислительных узлов кластера HKC-30T+GPU) при расчете скоростей смещения и напряжения. При расчете смещений на такой же по размеру сетке используется практически в два раза меньше оперативной памяти, и он может быть проведен минимум на 8 узлах вместо 15, Результаты измерений представлены в табл. 2, Расчеты смещений и скоростей смещения и напряжения на одинаковом количестве узлов занимают примерно одинаковое количество времени (расчет смещений проходит чуть быстрее).

Проведенные эксперименты демонстрируют, что подход, основанный на расчете смещений, быстрее и при этом позволяет проводить расчеты для очень больших сеток, запрашивая меньшее количество свободных узлов. Это позволяет быстрее получать доступ к ним в условиях очереди на кластере, обеспечивая при этом приемлемое время расчета (несколько часов для реальной полномасштабной задачи).

На шаге рассмотрения численного метода решения трехмерной динамической задачи теории упругости был выбран конечно-разностный метод, как наиболее „гибкий" и широко применяемый. Заранее отметим, что явные конечно-разностные схемы достаточно хорошо ложатся на архитектуру графического ускорителя (GPU), так как предполагают построение вычислительных сеток, которые непосредственно проецируются на GPU-архитектуру и подразумевают независимые вычисления искомых значений в каждой ячейке расчетной области для следующего шага,

В качестве инструментов разработки использовалась программно-аппаратная архитектура CUDA (Compute Unified Device Architecture) для организации работы с GPU и программный интерфейс MPI (Message Passing Interface) для организации параллельного исполнения на вычислительных узлах кластера. Эти инструменты позволяют организовать одновременное исполнение огромного числа параллельных процессов для получения максимальной эффективности.

Для построения математической модели структуры, характерной для магматических вулканов, применялся специализированный построитель численных трехмерных моделей неоднородных упругих сред. Разработанный построитель модели позволяет конструировать сложные 3D модели неоднородных упругих сред, близкие к реальным объектам исследования [18, 22],

На основе описанных методов создан комплекс программ для разных вычислительных архитектур: программы, численно решающие 3D задачу динамической теории упругости в скоростях смещения и напряжениях для кластера с классической массивно-параллельной архитектурой и для гибридного кластера, оснащенного графическими ускорителями; программа, численно решающая 3D задачу динамической теории упругости в смещениях для гибридного кластера, оснащенного графическими ускорителями; программа численно решающая 2D задачу динамической теории упругости в скоростях смещения и напряжениях для одного узла гибридного кластера с тремя графическими ускорителями.

Последняя реализация позволяет одновременно проводить до 40 различных вариантов расчетов на кластере HKC-30T+GPU всего за несколько минут. Это позволяет быстро подобрать кинематические характеристики изучаемой среды. Данный подход применяется для моделирования грязевого вулкана Гора Карабетова и магматического вулкана Эльбрус,

2.4, Имитационное моделирование. Второй шаг многоуровневого подхода к разработке высокопроизводительных научных кодов предполагает проведение имитационного моделирования исполнения разработанных программ на большом числе ядер. Для моделирования распределенных систем наилучшим образом подходит распределенное имитационное моделирование на основе передачи сообщений. Для имитационного моделирования исполнения параллельных программ на большом числе вычислительных ядер авторами многоуровневого подхода был использован мультиагентный подход, благодаря таким своим свойствам, как децентрализация, самоорганизация и интеллектуальность поведения. Среди множества платформ мультиагентного моделирования была выбрана распределенная адаптирующаяся система моделирования AGNES [23], так как она показала свою эффективность при моделировании телекоммуникационных и информационных сетей, системы оперативного управления распределенной вычислительной системой. Система AGNES впервые была применена для исследования масштабируемости при исполнении на большом числе вычислительных ядер ряда параллельных задач моделирования физических процессов [24], Для исследования масштабируемости параллельных алгоритмов был проведен модельный эксперимент по их исполнению на большом числе вычислительных ядер (до 106), Результаты моделирования представлены на рис, 5, Слева приведены результаты верификации модельных расчетов (сравнивались результаты реальных и модельных расчетов для двух подходов решения сейсмической задачи). Справа результаты модельных расчетов. Показано, что при решении данной задачи эффективно можно использовать около 1 млн вычислительных ядер.

По результатам моделирования можно сделать несколько выводов: так как схема взаимодействия для обоих подходов по сути одна, то их масштабируемость отличается незначительно; исследуемые алгоритмы подходят для исполнения на большом числе вычислительных ядер,

2.5, Оценка энергоэффективности. Понятие энергоэффективности для научных высокопроизводительных приложений в данной работе определяется суммой следующих свойств: эффективное использование ускорителя вычислений; минимизация обменов меж-

Рис. 5. Масштабируемость алгоритма в зависимости от числа моделируемых ядер (горизонтальная ось в логарифмическом масштабе)

ALU and memory utilization

BD

3D 10 10 С

Tesla 2090M (displacement problem) Tesla K40 (d Isplacement problem) 9 Arithmetic logical u nit utilization 9 Memory utilization

Рис.6. Процент использования блока арифметико-логических операций (ALU) и памяти (memory) для

расчета смещений для разных моделей GPU

ду вычислительными узлами; хорошая балансировка загрузки программы. Минимизация обменов позволяет уменьшить время простоя процессора или ускорителя. Хорошая балансировка загрузки позволяет равномерно загрузить вычислительную систему. В случае хорошей балансировки рабочей загрузки и стабильной балансировки узла мы можем сделать последовательность запусков программы, чтобы показать соотношение между потребляемой мощностью и использованием ядер. Наиболее энергоэффективные алгоритмы дают лучшие значения флоне /Вт (Дж/'е),

Дня исследования энергоэффективности алгоритма численного моделирования ноля скоростей смещения и напряжений и ноля смещений в данной работе использовались графические ускорители Xvidia Tesla К40М GPU с CUDA 7.5 и Xvidia Tesla 2090M GPU с CUDA 6.5. Для обеих реализаций уровни утилизации (Рис. 6 — 7) показывают, что производительность ядра, скорее всего, ограничена .натентностью арифметических операций или операций с памятью.

Средняя мощность К40М GPU при расчете смещений 149 Вт, при расчете напряжений 156 Вт. Энергоэффективности дня алгоритма расчета смещений 9 Гфлоие/Вт, дня расчета напряжений 12 Гфлопс/Вт па Tesla 2090М GPU. Для Tesla К40М GPU достигнута эперго-эффективпость дня алгоритма расчета смещений 9 Гфлопс/Вт, дня расчета напряжений 12 Гфлопс/Вт без изменения кода.

ALU and memory utilization

Tesfe 2090M (stress problem! Tesla K4D (stress problem)

t Arithmetic logical unit utilizatKjn t Memory utilization

Рис. 7. Процент использования блока арифметико-логических операций (ALU) и памяти (memory) для расчета скоростей смещения и напряжений для разных моделей GPU

Заключение. В данной работе представлено развитие двух направлений, сформулированных академиком А. С. Алексеевым: развитие ЦКП ССКЦ ИВМиМГ СО РАН дня решения вычислительно сложных задач в различных областях естествознания; моделирование вибросейсмического мониторинга гетерогенных сред с использованием современных сунеркомиьютерных технологий. Рассмотрен подход к созданию вибросейсмического метода мониторинга вулканических структур на основе моделирования вулканических структур с применением динамической теории упругости. Рассмотрен магматический тин вулканов. Разработаны алгоритмы и комплексы программ дня проведения численных экспериментов на основе многоуровневого подхода, предложенного авторами работы. На основании модельных исследований сделан вывод о возможности вибросейсмического мониторинга вулканов этого тина.

Список литературы

1. Алексеев A.C. Лаврентьев М.А. Информационные и вычислительные технологии /7 Наука в Сибири. Новосибирск. 2000. № 44 45.

2. Алексеев А. С. и др. О программе работ но созданию сети информационно вычислительных систем (Центров) в Сибирском отделении АН СССР / Новосибирск, 1987. (Препринт / РАН. Сиб. отд-ние. ВЦ; 467).

3. Алексеев А. С. и др. Академическая региональная сеть Сибири / Новосибирск, 1983. (Препринт / РАН. Сиб. отд-ние. ВЦ; 467).

4. Алексеев А. С. и др. История развития Сибирского сунсркомньютсрнох'о центра, его текущее состояние и перспективы развития /7 Сиб. жури, вычисл. математики РАН. 2005. Т. 8. № 3. С. 179 187.

5. Алексеев A.C., Глинский Б.М., Совисевич А.Л., Ковалевский В.В., Хайрет-1111 юн М. С. и др. Активная сейсмология с мощными вибрационными источниками: Отв. ред.

Г. М. Цибульчик. Новосибирск: ИВМиМГ СО РАН, Филиал „Гео" Издательства СО РАН, 2004. С. 387.

6. Алексеев A.C., Глинский Б.М., Емапов А.Ф., Кашуп В.Н., Ковалевский В. В., Манштейн А.К., Селезнев B.C., Сердюков C.B., Соловвев В.М., Совисевич А.Л., Совисевич Л.Е., Хайретдинов М.С., Чичипип U.C., Юшин В. И. Новые геотехиологи-ии и комплексные геофизические методы изучения внутренней структуры и динамики геосфер. Монография. М.: ОИФЗ РАН, 2002.

7. Алексеев А. С., Глинский Б.М., Имомназаров Х.Х, Ковалевский В. В., Сови-севич Л. е., Хайр етдинов С. М!., Цивульчик Г. К-!. Мониторинг геометрии и физических свойств „поверхностной" и „очаговой" дилатансных зон методом вибросейсмического просвечивания сейсмоопасных участков земной коры // Статья в коллективной монографии „Изменения

"

рова. Т. 1. М.: ИФЗ РАН. 2008. С. 179-222.

8. Глинский Б. М. Сибирский Суперкомпьютерный Центр Коллективного Пользования: этапы развития, текущее состояние и перспективы // Проблемы информатики. 2013. № 3(20). С. 7284.

9. Архитектура РСК Торнадо. [Electron. res.]: http://www.rscgroup.ru/ru/ our-technologies/266-klasternaya-arhitektura-rsk-tornado

10. Glinskiy B. XL. Martynov V. X., Sapetina A. F. 3D modeling of seismic wave fields in a medium specific to volcanic structures // Yakutian Math. J. 2015. X 22(3). P. 84-98.

11. Glinskiy B.M., Kulikov I.M., Chernykh I.G., Snytnikov A.V., Sapetina A.F., Weins D. V. The integrated approach to solving large-size physical problems on supercomputers // RuSCDavs 2017. CCIS. 2017. V. 793. P. 278-289. DOI: 10.1007/978-3-319-71255-0.22

12. Glinskiy B.M., Sapetina A.F., Martynov V.X., Weins D.V., Chernykh I.G. The hybrid-cluster multilevel approach to solving the elastic wave propagation problem // PCT 2017, CCIS. 2017. V. 753. P. 261-274. DOI: 10.1007/978-3-319-67035-5_19

13. Sapetina A.F. Supercomputer-aided comparison of the efficiency of using different mathematical statements of the 3D geophysical problem // Bulletin of the Novosibirsk Computing Center, Series: Numerical Analysis. 2016. N 18. P. 57-66.

14. Glinskiy В., Kulikov I., Snytnikov A., Romanenko A., Chernykh I.,Vshivkov V. Co-design of Parallel Numerical Methods for Plasma Physics and Astrophysics // Supercomputing Frontiers and Innovations. 2014. V. 1, I. 3. P. 88-98.

15. Glinsky, В., Kulikov, I., Chernykh, I., Weins, D., Snytnikov, A., Nenashev, V., Andreev, A., Egunov, V., Kharkov, E. The Co-design of Astrophvsical Code for Massively Parallel Supercomputers // Proceedings of 16th International Conference on Algorithms and Architectures for Parallel Processing (ICA3PP) LNCS, 2016. N 10049. P. 342-353.

16. blhn M. Stable Discretization Scheme for the Simulation of Elastic Waves / M. Bihn, T.A. Weiland // Proceedings of the 15th IMACS World Congress on Scientific Computation, Modelling and Applied Mathematics (IMACS 1997). 1997. V. 2. P. 75-80.

17. Глинский Б.М., Караваев Д. А., Ковалевский В. В., Мартынов В.Н. Численное

"

сейсмическими методами // Вычислительные методы и программирование. Москва, 2010. Т. 11. № 1. С. 95-104.

18. Караваев Д. А. Параллельная реализация метода численного моделирования волновых полей в трехмерных моделях неоднородных сред. // Вестник Нижегородского университета им. Н.И. Лобачевского. 2009. № 6(1). С. 203-209.

19. Глинский Б.М., Мартынов В.Н., Сапетина А.Ф. Технология суперкомпьютерного 3D моделирования сейсмических волновых полей в сложно построенных средах // Вестник Южно-Уральского Государственного Университета. Серия: Вычислительная математика и информатика. 2015. Т. 4, № 4. С. 101-116.

20. Караваев Д. А. Моделирование сейсмических полей для сред с существенно неоднородным распределение упругих параметров // Интерэкспо Гео-Сибирь. 2017. Т. 4. № 1. С. 201-204.

21. Komatitsch D. An unsplit convolutional perfectly matched layer improved at grazing incidence for the seismic wave equation // GEOPHYSICS. 2008. V. 73, N 4. P. T51-T61.

22. Karavaev D. A., Glixsky В.М., Kovalevsky V. V. A Technology of 3D Elastic Wave Propagation Simulation Using Hybrid Supercomputers /7 CEUR Workshop Proceedings. „RuSCDavs 2015 — Proceedings of the 1st Russian Conference on Supercomputing Days 2015" 2015. P. 26-33.

23. Podkorytov D., Rodioxov A., Sokolova O., Yurgexsox A. Using Agent-Oriented Simulation System AGNES for Evaluation of Sensor Networks /7 PaCT 2010. LNCS, V. 6235. P. 247 250, Springer, Springer, Heidelberg.

24. Глинский Б.М., Марченко M.A., Михайленко Б. Г., Родионов А. С., Черных И. Г., Караваев Д. А., Подкорытов Д-И., Вине Д. В. Отображения параллельных алгоритмов для суперкомпьютеров экзафлопеной производительности на основе имитационного моделирования /7 Информационные технологии и вычислительные системы. 20131. № 4. С. 3 14.

Глинский Борис Михайлович д-р техн. наук, проф., главн. науч. сотр. Института вычислительной математики и математической геофизики СО РАН, e-mail: gbm<3sscc .ru,

Окон чил Новосибирский государственный университет в 1967 1\ Печатных работ 106. Область научных интересов: вычислительные системы, моделирование сейсмических нолей, имитационное моделирование.

Graduated from Novosibirsk State University in 1967, Full Professor, Doctor of Engineering Sciences. Amount of papers 106. Area of scientific interests: computing systems, modeling of vibroseismical areas, simulation modeling.

Черных Игорь Геннадьевич канд. физ.-мат. наук, зав. лаб. СМ Института вычислительной математики и математической геофизики СО РАН, e-mail: chernykhSparbz. sscc.ru,

В 2002 году окончил ФИТ году защитил диссертацию степени кандидата физико-наук по специальности

НГУ, в 2006

на соискание математических

05.13.11 „Математическое обеспечение вычислительных машин, комплексов и компьютерных сетей" и продолжил работать в ИВ-

МиМГ СО РАН. С 2011 года работает в ЦКП

"

2017 году возглавил лабораторию Суперкомпьютерного моделирования, в состав которой вошел ЦКП ССКЦ. Имеет более 30 рейтинговых публикаций в области решения прикладных задач с использованием суперкомпьютер-

иого моделирования. Область профессиональных интересов включает в себя высокопроизводительные вычисления, астрофизика, астрохимия, химическая кинетика.

Author of more than 30 rating publications in the field of HPC, chemical kinetics, astrophysics. Educational Degrees: Ph.D. in Computer Science, December, 2006, Institute of Computational Mathematics and Mathematical Geophysics Siberian Branch of Russian Academy of Science (ICMMG SB RAS), Lavrentjeva ave.6, Novosibirsk, 630090, Russia. Title: ChemPAK: code for numerical simulation of direct chemical kinetics problems using supercomputers. Work conducted at: Institute of Computational Mathematics and Mathematical Geophysics Siberian Branch of Russian Academy of Science. Scientific advisor: Prof. V.A. Vshivkov Diploma in Computer Science, .June 2002, Novosibirsk State University, Russia. Title: Development of CORBA-elient for distributed visualization system in geophysics. Work conducted at: Novosibirsk State University. Scientific Advisor: A. I. Kulikov. Research Interests: High Performance Computing (HPC), Co-Design, Code optimization techniques for many core processors, Hardware, HPC in Astrophysics, HPC in Chemical Engineering, Numerical simulation and HPC.

Мартынов Валерий Николаевич канд. физ.-мат. наук, етарш. научи, сотр. Института вычислительной математики и математической геофизики СО РАН, e-mail: vnm® nmsf.sscc.ru,

Область профессиональных интересов: технологии сунеркомньютерно-

го 3D моделирования сейсмических волновых полей в сложно построенных средах.

Research Interests: Modeling seismic wave fields in 3D environments.

Сапетина Анна Федоровна — инженер Института вычислительной математики и математической геофизики СО РАН, e-mail: afsapetina® gmail.com,

В 2012 г. окончила магистратуру ММФ НГУ, в 2018 г. аспирантуру ИВМиМГ. Область профессиональных интересов: математическое моделирование физических сред, параллельные алгоритмы, теория упругости, вибросейсмический мониторинг, высокопроизводительные вычисления, GPU. Сапетиной А. Ф. развиваются подходы к математическому моделированию вулканических структур для создания необходимого математического и программного аппарата, обеспечивающего возможность активного вибросейсмического мониторинга.

Educational Degrees: Master's degree in Applied Mathematics and Informatics, 2012, Novosibirsk State University. Graduated from postgraduate school of Institute of Computational Mathematics and Mathematical Geophysics Siberian Branch of Russian Academy of Science (ICMMG SB RAS) in 2018. Research Interests: Mathematical modeling of physical media, Parallel algorithm, Elasticity theory, Vibroseismic monitoring, High-performance computing, GPU. Sapetina A. F. develops approaches to

mathematical modeling of volcanic structures to create the necessary mathematical algorithms and software that provide the possibility of using active vibroseismic monitoring. Parallel algorithms and software optimized for the hybrid cluster architecture for modeling seismic wave fields in 3D environments, typical of magmatic volcanoes, has been developed.

Вине Дмитрий Владимирович — канд. техн. наук, науч. сотр. Института вычислительной математики и математической геофизики СО РАН, e-mail: vins@sscc.ru.

Окончил ИВТ СибГУТИ в 2009 г., в 2016 году защитил диссертацию на соискание степени кандидата технических наук по специальности „Вычислительные машины, комплексы и компьютерные сети". С 2009 года работает в лаборатории ССКЦ (сейчас Суперкомпьютерного моделирования) ИВМиМГ СО РАН. Область научных интересов: системы имитационного моделирования, имитационное моделирование управляющих и вычислительных процессов для высокопроизводительных вычислительных систем, системы управления суперкомпьютерами, исследование поведения параллельных алгоритмов.

Graduated from SibSUTI in 2009. Ph.D. in Technical Sciences in 2016. Research Interests: simulation of control and computing processes for high-performance computing systems, supercomputer control systems, the behavior of parallel algorithms.

Дата поступления — 03.10.2018

i Надоели баннеры? Вы всегда можете отключить рекламу.