Научная статья на тему 'ЭВОЛЮЦИЯ ВЫСОКОПРОИЗВОДИТЕЛЬНЫХ РЕСУРСОВ В ИАПУ ДВО РАН'

ЭВОЛЮЦИЯ ВЫСОКОПРОИЗВОДИТЕЛЬНЫХ РЕСУРСОВ В ИАПУ ДВО РАН Текст научной статьи по специальности «Прочие технологии»

CC BY
31
5
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ / МНОГОПРОЦЕССОРНЫЕ ВЫЧИСЛИТЕЛЬНЫЕ РЕСУРСЫ / АРХИТЕКТУРА ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМ

Аннотация научной статьи по прочим технологиям, автор научной работы — Харитонов Дмитрий Иванович

Рассмотрена история развития высокопроизводительных ресурсов, использованных в ИАПУ ДВО РАН и Центре коллективного пользования «Дальневосточный вычислительный ресурс» с 1980-х годов по настоящее время. Приводятся общие сведения об архитектуре многопроцессорных вычислительных комплексов, данные по их производительности и местоположению в рейтинге высокопроизводительных систем. Представлены примеры исследований, проведенных на вычислительных комплексах, а также уровень загрузки и количество пользователей центра коллективного пользования.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по прочим технологиям , автор научной работы — Харитонов Дмитрий Иванович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

EVOLUTION OF HIGH-PERFORMANCE RESOURCES IN THE INSTITUTE OF AUTOMATION AND CONTROL PROCESSES FEB RAS

The article discusses the development history of high-performance resources used in the IACP FEB RAS and the Shared Resource Center “Far Eastern Computing Resource” from the 1980s to the present time. General information about the multiprocessor computing systems architecture is provided along with information on their performance and position in the rating of high-performance systems. Examples of studies carried out on computing systems, as well as the level of workload and the number of users of the Shared Resource Center are considered.

Текст научной работы на тему «ЭВОЛЮЦИЯ ВЫСОКОПРОИЗВОДИТЕЛЬНЫХ РЕСУРСОВ В ИАПУ ДВО РАН»

Информационные технологии

Вестник ДВО РАН. 2021. № 4

УДК 004.272 DOI: 10.37102/0869-7698_2021_218_04_11

Д.И. ХАРИТОНОВ

Эволюция

высокопроизводительных ресурсов в ИАПУ ДВО РАН

Рассмотрена история развития высокопроизводительных ресурсов, использованных в ИАПУ ДВО РАН и Центре коллективного пользования «Дальневосточный вычислительный ресурс» с 1980-х годов по настоящее время. Приводятся общие сведения об архитектуре многопроцессорных вычислительных комплексов, данные по их производительности и местоположению в рейтинге высокопроизводительных систем. Представлены примеры исследований, проведенных на вычислительных комплексах, а также уровень загрузки и количество пользователей центра коллективного пользования.

Ключевые слова: параллельные вычисления, многопроцессорные вычислительные ресурсы, архитектура вычислительных систем.

Evolution of high-performance resources in the Institute of Automation and Control Processes FEB RAS. D.I. KHARITONOV (Institute of Automation and Control Processes, FEB RAS, Vladivostok).

The article discusses the development history of high-performance resources used in the IACP FEB RAS and the Shared Resource Center "Far Eastern Computing Resource" from the 1980s to the present time. General information about the multiprocessor computing systems architecture is provided along with information on their performance and position in the rating of high-performance systems. Examples of studies carried out on computing systems, as well as the level of workload and the number of users of the Shared Resource Center are considered.

Key words: parallel computations, multiprocessor computing resources, computing systems architecture.

В первоначальном названии Института автоматики и процессов управления была добавка «с Вычислительным центром ДВНЦ СО АН СССР», так как он был сформирован в 1971 г. на базе Отдела технической кибернетики Дальневосточного филиала СО АН СССР и Объединенного вычислительного центра вузов г. Владивостока и ДВНЦ СО АН СССР.

Потребность в вычислительных ресурсах в то время ощущалась очень остро, поэтому для оснащения ИАПУ современной вычислительной техникой были установлены прямые контакты с предприятием-изготовителем, и современные ЭВМ приобретались в обмен на поставляемые институтом программные и другие научные продукты. В 1982 г. при строительстве здания ИАПУ был сооружен большой и просторный вычислительный центр коллективного пользования с удаленным доступом для институтов Академгородка г. Владивостока. На рис. 1 изображен машинный зал этого центра, занимавший 800 м2 в отдельной пристройке, в подвальных помещениях которой располагались установки охлаждения оборудования. На дополнительных площадях стояли терминалы доступа к достаточно производительной по тем временам электронно-вычислительной машине EC-1061, а позднее и к более новой ЕС-1066. Последняя была в 2,5 раза производительнее, чем ЕС-1061, имела меньшие размеры. За пять лет, вплоть до 1993 г., Минским

ХАРИТОНОВ Дмитрий Иванович - кандидат технических наук, старший научный сотрудник (Институт автоматики и процессов управления ДВО РАН, Владивосток). E-mail: demiurg@dvo.ru

Рис. 1. Вычислительный зал Института автоматики и процессов управления в 1986 г.

производственным объединением вычислительной техники было выпущено всего чуть более 400 таких машин.

ЭВМ ЕС-1061 принадлежала к семейству ЕС ЭВМ-2, аналогичному и программно совместимому с сериями System/360 и System/370 фирмы IBM. В ЕС-1061 уже появилась поддержка виртуальной памяти, вычислений с 128-битной точностью и автоматического повторения сбойных команд. Стандартный интерфейс внешних устройств, аппаратно совместимый с интерфейсом мейнфреймов IBM, позволял подключать к машине широкий набор внешних накопителей и периферийных устройств, разработанных по программе ЕС ЭВМ. Интересно отметить, что производительность ЭВМ ЕС-1061 составляла 2 MFLOPS (2 млн операций в секунду) при объеме оперативной памяти 8 мегабайт, а ЭВМ ЕС-1066 - 5,5 MFLOPS при объеме памяти до 32 мегабайт.

В первые годы существования Института возникли два направления исследований, непосредственно связанных с высокопроизводительными вычислениями и предназначенных для привлечения и «облегчения жизни» потребителей: компьютерная графика и компьютерные сети. С середины 1970-х годов исследования по компьютерной графике были связаны с приложениями в области автоматизации научных исследований, системами автоматизированного проектирования (САПР), геоинформатикой. Ученые из Института автоматики и процессов управления разработали одну из первых графических универсальных систем ДИСГРАФ [1, 2], функционировавшую вначале на отечественной ЭВМ БЭСМ-6, а затем и на ЭВМ серии ЕС. ДИСГРАФ активно применялся для интерактивной визуализации во многих задачах, связанных с тематикой ИАПУ и других институтов ДВНЦ АН СССР, эта система была внедрена во многих заинтересованных организациях, отмечена медалями ВДНХ в 1979 г. Прикладные результаты САПР были получены в судостроении и в дальнейшем развивались в совместных работах с ДВВИМУ в интересах судостроительных проектных организаций страны.

В начале 1980-х годов в ИАПУ выполнялись первые работы по исследованию и построению распределенных вычислительных систем на Дальнем Востоке. Так как в мире пока не существовало единой компьютерной сети типа Интернет, каждая страна создавала собственные корпоративные и национальные сети. Надо отметить, что без стандарта

архитектуры открытых систем, опубликованного Международной организацией стандартов как ISO 7498 в 1984 г. и доработанного к 1994 г. как ISO/IEC 7498-1:1994, межсетевое взаимодействие было весьма затруднено. В Советском Союзе самым масштабным был проект «Академсеть», в котором участвовали ведущие академические и отраслевые институты. Эта сеть была призвана объединить вычислительные ресурсы наиболее крупных городов страны и предоставлять их удаленным пользователям. Сотрудники Института автоматики и процессов управления принимали активное участие в данном проекте и входили в различные рабочие группы координационного комитета Академсети. Так, в Институте было создано сетевое программное обеспечение, которое эксплуатировалось на участке сети, объединявшей две площадки института - в центре Владивостока и в Академгородке, и которое проходило экспериментальную проверку на глобальном маршруте Владивосток-Москва-Рига-Вена. В то время разрабатывались первые планы создания дальневосточной академической подсети.

1990-е годы в Институте автоматики и процессов управления были не самыми простыми в отношении суперкомпьютерных вычислений. Однако и тогда институт старался поддерживать определенный технологический уровень оборудования. Так, в начале 1990-х появился малый суперкомпьютер МВС-100 (рис. 2), название которого получено от проекта 1992 г. разработки Института прикладной математики им. М.В. Келдыша РАН и научно-исследовательского института «Квант» и которое можно расшифровать как «многопроцессорная вычислительная система производительностью до 100 GFLOPS». Базовым вычислительным элементом для этой многопроцессорной системы был выбран векторно-конвейерный Intel i860 производительностью 100 MFLOPS, во многом сходный по архитектуре с первыми образцами векторно-конвейерного суперкомпьютера Cray-1. Младшей моделью семейства МВС-100 была плата-ускоритель, содержащая один или два вычислительных модуля и вставляемая внутрь ПК. Более мощный вариант многопроцессорной системы, эксплуатировавшийся в институте в то время, содержал 16 модулей по 2 процессора общей пиковой производительностью в 3,2 GFLOPS. Сотрудники института успешно работали с этой многопроцессорной системой. Их опыт, в частности, был подытожен в инструкции по применению программной имитации векторного вычислителя на процессорном элементе Intel i860, использовавшейся в различных институтах России.

Современный этап становления в ИАПУ ДВО РАН центра коллективного пользования высокопроизводительными ресурсами начался в 1999 г. с организации лаборатории суперкомпьютерных и распределенных вычислительных технологий, превратившейся со временем в значительное научное подразделение, в котором работали более 20 сотрудников (1 доктор наук и 5 кандидатов наук), занимавшихся не только высокопроизводительными научными вычислениями, но также телекоммуникациями и сетевыми технологиями. Руководил лабораторией д.ф.-м.н., проф. Е.А. Нурминский. Первым из многопроцессорных вычислительных комплексов нового поколения в ИАПУ ДВО РАН появился кластер МВС1000/16. Он был компактным (рис. 3), состоял из 16 вычислительных узлов, размещенных в одном шасси. Каждый узел кластера был оснащен процессором Intel

Рис. 2. Малый суперкомпьютер МВС-100.

Рис. 3. Кластер МВС1000/16. 1999 г. Узлы: 16 x 1 CPU.

Процессор: Pentium III (Coopermine) 800 MHz (256 kb cache). Оперативная память: 16 x 512 MB = 8 GB. Управляющая сеть: Ethernet 100 Mbps. MPI сеть: Ethernet 1 Gbps.

Пиковая производительность: 16 x 0,8 = 12,8 GFLOPS

Pentium III, работающим на частоте 800 MHz и 8 гигабайтами оперативной памяти. Несомненно современный для того времени кластер мог выполнять одну операцию с плавающей точкой за такт, достигая производительности в 0,8 GFLOPS.

Если сравнить производительность одного этого процессора с большой вычислительной машиной EC-1066, то получится, что один Intel Pentium III работал в 150 раз быстрее, а в сравнении с процессором из МВС-100 он был быстрее в 8 раз! Что было бы, конечно, удивительно, если бы не закон Мура, согласно которому количество транзисторов, размещаемых на кристалле интегральной схемы, удваивается каждые 24 месяца. Как следствие закона Мура, производительность компьютеров также растет по экспоненциальному закону и заставляет как рядовых пользователей, так и суперкомпьютерные центры постоянно обновлять вычислительное оборудование. Поэтому меньше чем через 2 года после первого кластера в ЦКП появился еще один компактный многопроцессорный комплекс МВС1000/17 (рис. 4), аналогичный по архитектуре, но по общей производительности почти в 3 раза превышающий первый. Интересно отметить, что этот комплекс отработал 10 лет, а после еще одной модернизации 5 лет использовался в качестве учебного кластера для студентов.

В 2004 г. постановлением президиума ДВО РАН от 24.06.2004 г. № 82 на базе лаборатории суперкомпьютерных и распределенных вычислительных технологий был сформирован Центр коллективного пользования уникальным аналитическим оборудованием ДВО РАН «Дальневосточный вычислительный ресурс» (ЦКП ДВВР). Причем, согласно регламенту, ЦКП ДВВР с момента его организации безвозмездно оказывает услуги для заказчиков, проводящих работы по государственным договорам, ведомственным грантам и в рамках государственных технических заданий, а также в образовательных целях. Таким образом, ИАПУ вернулся к выполнению первоначально заложенных при его создании функций. При недостатке финансирования на существенное увеличение вычислительных мощностей, чтобы не отставать от мировых тенденций, сотрудники ЦКП создавали миниатюрные кластеры на базе производительных рабочих станций. Так, в 2004 г. был создан кластер Aleph (рис. 5) на самых популярных в то время процессорах Intel Pentium IV, а в 2006 г. - кластер FastRun (рис. 6) на

Рис. 4. Кластер МВС1000/17. 2001 г. Узлы: 17 x 2 CPU.

Процессор: Pentium III (Coopermine) 1 GHz (256 kb cache). Оперативная память: 17 x 1 GB = 17 GB. Управляющая сеть: Ethernet 100 Mbps. MPI сеть: Ethernet 1 Gbps.

Пиковая производительность: 17 x 2 GFLOPS = 34 GFLOPS

Рис. 5. Кластер Aleph. 2004 г.

Узлы: 4 х 1 HT CPU.

Процессор: Pentium IV 3,0 GHz.

Оперативная память: 4 х 2 = 8 GB.

Управляющая и MPI сеть: Ethernet 1 Gbps.

Пиковая производительность: 4 х 5 GFLOPS = 20 GFLOPS

перехвативших лидерство процессорах AMD Athlon X2. Производительность этих кластеров была 20 GFLOPS и 32 GFLOPS соответственно, что хотя и сравнимо с машинами предыдущего поколения МВС1000/17, однако благодаря меньшему количеству узлов позволяло выполнять вычислительные задачи быстрее и открывалась возможность заниматься разработкой программного обеспечения для новых систем. Конечно, с такими ресурсами центр коллективного пользования вряд ли мог претендовать на звание суперкомпьютерного центра, и ИАПУ продолжил искать варианты обновления своего машинного парка.

Такой случай представился в 2007 г., когда в Межведомственном суперкомпьютерном центре РАН настало

время обновить флагманскую вычислительную систему МВС-15000ВM, которую применяли в исследованиях 639 пользователей из 107 организаций. Этот кластер в 2005 г. занимал 56-е место в мировом рейтинге TOP-500 и мог по праву считаться суперкомпьютером мирового уровня. При замене на систему следующего поколения в целях продления жизненного цикла суперкомпьютер МВС-15000ВМ был разбит на сегменты, которые были переданы в филиалы МСЦ РАН в Санкт-Петербурге и Казани, в ИПХФ РАН в Черноголовке, а также, благодаря стараниям академика Владимира Алексеевича Левина, в ИАПУ ДВО РАН. С этого момента ЦКП ДВВР получил право называться суперкомпьютерным центром.

Конструктивно МВС-15000ВМ был реализован с использованием принципиально новых технологических решений - блейд-серверов IBM JS20, каждый из которых содержал два двухъядерных процессора упрощенной архитектуры IBM PowerPC 970FX и быстродействующей сети c низкой латентностью Myrinet. Блейд-серверы обеспечили возможность концентрации большой вычислительной мощности на ограниченной площади и низкое энергопотребление, а Myrinet сеть с быстродействием в 2 раза большим, чем в ранее использованном Ethernet 1 Gbps, и с латентностью примерно в 50 раз меньшей существенно повысила КПД работы параллельных программ. Надо отметить, что в настоящее время большинство суперкомпьютерных кластеров используют подобные архитектурные решения.

Рис. 6. Кластер FastRun. 2006 г.

Узлы: 4 х 1 dual core CPU.

Процессор: Athlon X2 3,8+ GHz.

Оперативная память: 4 х 4 = 16 GB.

Управляющая и MPI сеть: Ethernet 1Gbps.

Пиковая производительность: 4 х 8 GFLOPS = 32 GFLOPS

Рис. 7. Кластер МВС-15000. 2008 г. Узлы: 84 x 2 64-bit CPU.

Процессор: IBM PowerPC 970 2,2 GHz (512 kb cache). Оперативная память: 84 x 4 GB = 336 GB. Управляющая сеть: 2 x Ethernet 1 Gbps. MPI сеть: Myrinet.

Пиковая производительность: 84 x 17,6 GFLOPS = 1,48 TFLOPS

В августе 2007 г. в Институт автоматики и процессов управления была передана первая половина оборудования из МСЦ РАН, сразу после получения которой было оборудовано новое серверное помещение с системой кондиционирования и мощными источниками бесперебойного питания. Уже 24 октября 2007 г. состоялось торжественное открытие суперкомпьютерного центра с вычислительным кластером, являвшимся самым мощным суперкомпьютером на Дальнем Востоке и в Восточной Сибири вплоть до Томска. 27 марта 2008 г. первая половинка кластера МВС-15000 (рис. 7) из 42 узлов вошла в восьмой рейтинг Т0П-50 самых производительных суперкомпьютеров СНГ на 42-м месте. В следующем году, после получения и установки второй половины кластера, положение вычислительной системы в этом рейтинге не поменялось. С появлением оборудования мирового уровня у Центра коллективного пользования фактически появилась новая миссия по привлечению и обучению пользователей суперкомпьютерного оборудования. На рис. 8 видно, как каждый раз с появлением новых кластеров в ЦКП ДВВР приходили новые пользователи.

О)

с; ш

I-лз m о л с; о с о

ь-

U О) Т S

с; о

Рис. 8. Количество пользователей ЦКП ДВВР (по горизонтали - год, месяц)

Одним из крайне интересных исследований, выполнявшихся в то время на кластере, было моделирование характеристик плавучего ротора огромной ветроэнергетической установки [3, 4], что актуально, учитывая начавшийся переход к использованию возобновляемых источников энергии во всем мире. Моделировавшаяся ветроэнергетическая морская установка отличалась наличием крупногабаритных турбин (диаметром 100, 200 или даже 500 м) с вертикальными лопастями, которые при медленном вращении вокруг вертикальной оси удерживаются на поверхности воды вращающимся торообразным понтоном

Рис. 9. Эскиз внешнего вида ветроэнергетической морской установки

(рис. 9). При этом частота вращения ротора измеряется единицами оборотов в минуту и лопасти ротора движутся не быстрее ветра, что сильно контрастирует с большими пропеллерными ветроустановками, лопасти которых рассекают воздух со скоростями до 100 м/с! Для цифрового моделирования размер радиуса ротора был принят равным 100 м (рис. 10), и показано, что мощность ветроустановки на выходе может превышать 10 МВт при скорости ветра в 16 м/с, при этом коэффициент мощности турбины близок к теоретическому пределу. Такие характеристики энергетической установки превышают показатели традиционных ветряных установок и делают ее реальным конкурентом на энергетическом рынке будущего. Это исследование заслужило серебряную медаль Международной выставки изобретений в Женеве в 2012 г.

Рис. 10. Внешний вид плавучего ротора

Большая вычислительная техника, согласно закону Мура, обычно эксплуатируется не более 6, в крайнем случае 8 лет, так как за этот срок на порядок меняется энергоэффективность оборудования. В результате затраты на электроэнергию, необходимую для работы вычислительной техники, становятся несоразмерно большими, фактически сравнимыми с покупкой нового оборудования, а старое устаревает морально. В 2011 г. вместо морально устаревшего кластера МВС-15000 в рамках программы обновления приборной базы Президиума ДВО РАН был закуплен новый кластер с более чем в 10 раз большей производительностью. Кластер был назван SMH11 (рис. 11), так как имел гибридную архитектуру и основывался на оборудовании производства компании Super Micro Computer Inc. При выборе конфигурации кластера был проанализирован опыт работы с пользователями и было решено использовать узлы разной конфигурации. SMH11 имел 35 вычислительных узлов трех типов:

17 шт. 4 х 12-ядерных процессоров AMD Opteron 6164HE 1,7 GHz (163,2 GFLOPS пиковой производительности каждый) и 64 GB оперативной памяти;

10 шт. 4 х 12-ядерных процессоров AMD Opteron 6174 2,2 GHz (211 GFLOPS пиковой производительности каждый) и 128 GB оперативной памяти; Рис. 11. Кластер SMH11. 2011 г. 8 шт. 2 х 4-ядерных процессоров Intel Xeon L5609,

32 GB оперативной памяти и два графических ускорителя NVIDIA Tesla M2050 (по 515 GFLOPS пиковой производительности каждый).

Системная и сервисная сети кластера были построены с использованием передовой технологии Infiniband 4xQDR, обеспечивавшей производительность 40 Gbps, что в 20 раз превосходило производительность сети предыдущего кластера. Кроме того, впервые в ЦКП появилось оборудование с так называемыми графическими ускорителями NVIDIA Tesla, фактически в 3 раза более производительными, чем обычные процессоры. Однако, поскольку применение ускорителей ограничивалось специализированными пакетами прикладного программного обеспечения, ими была оснащена только малая часть кластера.

Являясь более масштабной вычислительной системой, кластер SMH11 позволил получить новый опыт и в области управления ресурсами. После того, как был настроен сбор статистики о задачах пользователей, оказалось, что специфика загрузки кластеров довольно сильно изменяется со временем. Это заставило вводить в администрирование вычислительных ресурсов понятия о политике распределения ресурсов, выделении квот, резервировании ресурсов во времени. Было также обнаружено, что автоматизация запуска постоянного потока задач может на порядок изменить количество заданий, проходящих через вычислительную систему.

С появлением кластера SMH11 на новый уровень вышел и процесс привлечения пользователей. Специалисты ЦКП читали лекции по компьютерным сетям и теории параллельных вычислений для студентов ДВФУ, а также организовывали мероприятия по суперкомпьютерному образованию для сотрудников ДВО РАН и университетов Владивостока. Почти каждый год проходили мероприятия по суперкомпьютерному образованию, в которых участвовали представители таких международных компаний, как Sun Microsystems,

NVIDIA Corporation, Intel Corporation. Далее представлен список мероприятий, в проведении которых участвовали сотрудники ЦКП:

2011 г. Лекториум SUN. Компиляторы, методы оптимизации, виртуальные машины JAVA;

2012 г. Лекции Суперкомпьютерного консорциума «Практика использования многопроцессорных вычислительных систем»;

2013 г. Лекции NVIDIA. Технологии программирования GPU (CUDA);

2014 г. Практикум Intel. Программное обеспечение Intel для решения исследовательских задач;

2015 г. Конференция Intel Software 2015: HPC Code Modernization Workshop for Xeon® & Xeon PhiTM;

2016 г. Конференция Intel Software 2016: HPC Code Modernization Workshop for Intel® Xeon® & Xeon Phi™;

2017 г. Практикум Intel® Software 2017: Code Modernization & Artificial Intelligence Workshop;

2018 г. Практикум Intel Software 2018: практический тренинг для разработчиков ПО.

Последний этап эволюции суперкомпьютерных ресурсов ЦКП ДВВР относится к

2016 г., когда с июля по октябрь Федеральное агентство научных организаций провело довольно длительную и обстоятельную процедуру отбора заявок на модернизацию оборудования подведомственных суперкомпьютерных центров. С учетом того, что до модернизации ЦКП ДВВР являлся самым производительным в ДФО, рабочая группа поддержала заявку ИАПУ ДВО РАН, и в результате открытого конкурентного процесса институт получил финансирование ФАНО на закупку оборудования производительностью 56 TFLOPS с использованием только процессоров общего назначения. При выборе комплектации кластера приоритет отдавался решениям, подходящим для широкого спектра задач, и уже к 9 декабря 2016 г. был заключен контракт на поставку оборудования, которое в полном составе было смонтировано в начале февраля 2017 г. После этого в течение месяца проводилось полное тестирование всех вычислительных узлов, коммутационного оборудования и систем хранения данных, и к середине марта кластер был полностью готов к использованию (рис. 12). В результате модернизации ЦКП «Дальневосточный вычислительный

Рис. 12. Суперкомпьютерные ресурсы ЦКП ДВВР в 2017 г. Справа расположен кластер Ш.^17 пиковой производительностью 56 TFLOPS

ресурс» вышел на новый уровень - в 26-й редакции рейтинга Т0П-50 суперкомпьютеров СНГ он занял 37-ю строчку. При этом на новом оборудовании выросли быстродействие и экономичность - параллельные программы на новом кластере работают от 3 до 8 раз быстрее по сравнению с предыдущим, но даже без учета эффективности использования процессоров новый кластер потребляет в 2,5 раза меньше электроэнергии на единицу вычислительной мощности.

Несмотря на существенное увеличение в 2017 г. количества вычислительных ресурсов, все последние годы загрузка оборудования ЦКП ДВВР находится на максимальном уровне (см. таблицу), и теперь простой оборудования наблюдается только из-за длительных отключений электроэнергии, а также при плановых работах по обновлению программного обеспечения.

Фактическая загрузка оборудования ЦКП, %

2017 г. 2018 г. 2019 г. 2020 г.

Всего 99,97 100,00 98,08 100,00

В интересах третьих лиц 47,11 44,92 49,55 55,00

За последнее десятилетие услугами ЦКП успели воспользоваться более 100 пользователей из 18 институтов РАН, проводящих исследования по самым разнообразным научным направлениям, в числе которых наноструктуры и нанотехнологии, молекулярная динамика, квантовая химия, биоинформатика, обработка спутниковых данных, океанология и геофизика. Ежегодный отчет по количеству публикаций пользователей, сделанных с применением вычислительных ресурсов ЦКП, превышает 40 публикаций, в том числе самого высокого уровня. В качестве примера можно привести две статьи 2018 г.: одна - от коллектива авторов из ИАПУ ДВО РАН: «Two-Dimensional In-Sb Compound on Silicon as a Quantum Spin Hall Insulator» [5], другая - от авторов из Объединенного института высоких температур РАН: «Simulation of ultrafast bursts of subpicosecond pulses: In pursuit of efficiency» [6]. Коллектив из ИАПУ провел исследование атомной и электронной

Рис. 13. Свойства двумерного соединения 1п^Ь на кремнии [5].

а - атомная структура элементарной ячейки (1п, Sb) / Si (111)-2У3х2л'3 (зеленый ромб) и связанная прямоугольная ячейка (красный прямоугольник),

Ь - часть расчетной ячейки (1п, Sb) / Si (111), содержащая бороздку в слое (1п, Sb), с - электронный спектр (1п, Sb) / Si (111), полученный с d-электронами 1п, исключенными из расчета, d - краевой спектр, рассчитанный вдоль направления к одномерной BZ

структуры двумерного соединения (1п, $Ь)-2'^3х2^3, синтезированного на подложке Si (111), продемонстрировав его электронные свойства (рис. 13). В статье коллектива из ОИВТ представлены результаты по моделированию процесса удаления материала с помощью лазерных импульсов и показано, что многоимпульсный подход демонстрирует увеличение эффективности на порядок по сравнению с одноимпульсным [6]. Менее чем за 2 года эти публикации набрали 13 и 16 международных цитирований соответственно, что свидетельствует о высокой конкурентности получаемых на оборудовании ЦКП ДВВР результатов моделирования.

Таким образом, основываясь на статистике потребления суперкомпьютерных ресурсов, принимая во внимание рост числа пользователей по годам и результаты их публикационной деятельности, можно сделать следующие выводы. Во-первых, многопроцессорные вычислительные системы в ИАПУ ДВО РАН - это востребованный ресурс научной деятельности коллективного пользования. Во-вторых, постоянный прогресс в области элементарной базы компьютерной техники диктует необходимость периодического обновления суперкомпьютерного оборудования, и каждое такое обновление до сих пор существенно расширяло круг пользователей ЦКП. И в-третьих, уровень фактической загрузки оборудования ЦКП, учитывая его возраст, свидетельствует о необходимости увеличения производительности многопроцессорных систем более чем на порядок, т.е. о необходимости очередного эволюционного витка масштабной модернизации ЦКП.

ЛИТЕРАТУРА

1. Бобков В.А. Графический пакет ДИСГРАФ и его приложения: автореф. дис. ... канд. физ.-мат. наук. Дубна, 1977. 21 с.

2. Бобков В.А. и др. Интерактивная графическая система ДИСГРАФ // Интерактивные системы: тр. Сов.-фин. симпоз. Тбилиси, 1979. C. 240-247.

3. Калугин Е.А., Чебоксаров В.В. Исследование лопасти ветроустановки с переменной геометрией // Во-логдинские чтения. 2010. № 78. С. 48-49.

4. Чебоксаров Вик. В., Чебоксаров Вал. В. Вертикальная циркуляция воздуха в низкоскоростной ветротур-бине поперечного потока с поворотными лопастями // Письма в Журнал технической физики. 2008. Т. 34, вып. 2. С. 19-27.

5. Gruznev D.V., Eremeev S.V., Bondarenko L.V. et al. Two-dimensional In-Sb compound on silicon as a quantum spin hall insulator // Nano Lett. 2018. Vol. 18 (7). P. 4338-4345.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

6. Povarnitsyn M.E., Levashov P.R., Knyazev D.V. Simulation of ultrafast bursts of subpicosecond pulses: In pursuit of efficiency // Appl. Phys. Lett. 2018. Vol. 112, N 5. 051603. - https://doi.org/10.1063/L5012758 (дата обращения: 15.04.2021).

i Надоели баннеры? Вы всегда можете отключить рекламу.