Научная статья на тему 'Применение суперкомпьютерной обработки данных от измерительных систем для проведения экспериментов с обратной связью'

Применение суперкомпьютерной обработки данных от измерительных систем для проведения экспериментов с обратной связью Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
199
32
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
PIV / EXPERIMENTAL DATA PROCESSING / EXPERIMENTS WITH FEEDBACK / LABORATORY MODEL OF TROPICAL CYCLONE / SUPERCOMPUTER / ЛАБОРАТОРНАЯ МОДЕЛЬ ТРОПИЧЕСКОГО ЦИКЛОНА / ОБРАБОТКА ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ / СУПЕРКОМПЬЮТЕР / ЭКСПЕРИМЕНТЫ С ОБРАТНОЙ СВЯЗЬЮ

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Щапов Владислав Алексеевич, Евграфова Анна Валерьевна, Масич Григорий Федорович, Павлинов Александр Михайлович, Попова Елена Николаевна

Цель разработки создание технологии сопряжения измерительных систем и суперкомпьютера для проведения экспериментов с обратной связью. Технология используется для экспериментального исследования формирования циклонического вихря над локализованным источником тепла при наличии связи между интенсивностью нагрева и скоростью течения. Характеристики течения, полученные в результате обработки на суперкомпьютере изображений методом цифровой трассерной визуализации (Particle Image Velocimetry PIV), служат входными параметрами для системы нагрева лабораторной установки в ходе проведения измерений. Основная сложность при реализации данного подхода связана с решением целого ряда научно-технических задач, которые рассматриваются в данной статье.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Щапов Владислав Алексеевич, Евграфова Анна Валерьевна, Масич Григорий Федорович, Павлинов Александр Михайлович, Попова Елена Николаевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Using of supercomputer in measurement data processing for realization of experiments with feedback

The main goal is a development of the novel technique for the integration of measurement system and supercomputer for the realization of the experiments with feedback. The new technique is used for the experimental study of laboratory analog of tropical cyclone with a feedback between velocity of the flow and the heating. Characteristics of the flow obtained by real-time processing in supercomputer are used as input parameters of the heating system in the course of experiment. Realization of controlled feedback between velocity and the heating required solution of a number of technical problems such as data acquisition, data storage, real-time data processing, integration of PIV (Particle Image Velocimetry) and heating control systems and others. (In Russian). (in Russian).

Текст научной работы на тему «Применение суперкомпьютерной обработки данных от измерительных систем для проведения экспериментов с обратной связью»

УДК 004.75

В. А. Щапов, А. В. Евграфова, Г. Ф. Масич, А. М. Павлинов, Е. Н. Попова, А. Н. Сухановский, Д. П. Чугунов

Применение суперкомпьютерной обработки данных от измерительных систем для проведения экспериментов с обратной связью

Аннотация. Цель разработки — создание технологии сопряжения измерительных систем и суперкомпьютера для проведения экспериментов с обратной связью. Технология используется для экспериментального исследования формирования циклонического вихря над локализованным источником тепла при наличии связи между интенсивностью нагрева и скоростью течения. Характеристики течения, полученные в результате обработки на суперкомпьютере изображений методом цифровой трассерной визуализации (Particle Image Velocimetry— PIV), служат входными параметрами для системы нагрева лабораторной установки в ходе проведения измерений. Основная сложность при реализации данного подхода связана с решением целого ряда научно-технических задач, которые рассматриваются в данной статье.

Ключевые слова и фразы: суперкомпьютер, обработка экспериментальных данных, PIV,

лабораторная модель тропического циклона, эксперименты с обратной связью.

Введение

В природных и технологических процессах часто существует связь между гидродинамическими и термодинамическими характеристиками. Так изменение скорости или топологии течения может привести к росту или уменьшению выделения тепла в результате тех или иных термодинамических процессов (горение, конвективный теплообмен, конденсация, химические реакции и т.д.). Данная работа сфокусирована на исследовании процесса выделения скрытого тепла при формировании крупномасштабных атмосферных вихрей, таких как тропические циклоны, которые в различных регионах называются также ураганами и тайфунами. Проблема генезиса и эволюции тропических циклонов

Работа выполнена при поддержке РФФИ №17-45-590846 р_урал_а и программы фундаментальных исследований УрО РАН, проект №15-7-1-25.

© В. А. Щлпов, А. В. Евграфова, Г. Ф. Млсич, А. М. Идвлинов, Е. Н. Попова,

А. Н. СухАновский, Д. П. Чугунов, 2018 © Институт механики сплошных СРЕД УРО РАН, 2018 © Программные системы: теория и приложения (дизайн), 2018

ПО] 10.25209/2079-3316-2018-9-1-3-19

стоит сейчас очень остро, так как ежегодно они приводят к большому количеству жертв и колоссальному экономическому ущербу. Основное внимание уделяется улучшению систем прогнозирования. Качество прогноза существенно зависит от используемых математических моделей.

Несмотря на наличие высокопроизводительных многопроцессорных систем, возможности численного моделирования до сих пор серьезно ограничены. Основная масса расчетов проводится на сетках с пространственным разрешением 2-3 км, а процессы, протекающие на подсеточных масштабах, учитываются при помощи различных математических моделей. Это касается эффектов связанных с турбулентностью, роль вторичных течений, характерный размер которых составляет 1-3 км, до настоящего времени является неучтенной.

Еще одной серьезной проблемой при численном моделировании реальных атмосферных течений является большое количество используемых параметров (влажность, сжимаемость, различные физические свойства среды и т.д.). В силу того, что время полномасштабного 3Ю расчета занимает порядка недели, проверить роль каждого из входящих в модель управляющих параметров практически невозможно.

Ограниченные возможности математического моделирования атмосферных течений обусловили подъем интереса к использованию лабораторного моделирования в геофизической гидродинамике. На основе подхода, предложенного в [1] используя измерения методом Р1У, удалось показать, что структура лабораторного конвективного вихря подобна структуре тропического циклона [2-5].

Сравнение проводилось как с результатами натурных наблюдений, так и с результатами численных моделей, используемых метеорологами для прогноза эволюции и траектории движения реальных тропических циклонов [6, 7]. Эксперимент показал, что структура циклонического вихря существенно зависит от вязкости жидкости, что хорошо согласуется с результатами натурных наблюдений (в случае атмосферных течений имеется в виду турбулентная вязкость). Таким образом, несмотря на очевидные ограничения, связанные с тем, что в лабораторном эксперименте невозможно прямое моделирование атмосферных течений, он позволяет на основе реальной физической системы исследовать целый ряд явлений, наблюдаемых в атмосфере.

В представленной работе описана технология интеграции измерительных и вычислительных систем, предназначенная для проведения эксперимента по изучению формирования циклонического вихря над локализованным источником тепла при наличии связи между

интенсивностью нагрева и скоростью течения. Единственная попытка реализовать связь между интенсивностью нагрева и скоростью течения, в связи с изучением тропических циклонов, была предпринята около 50 лет тому назад [8]. В данной работе скорость экзотермической химической реакции зависела от скорости течения. Было показано, что центральная часть наблюдаемого циклонического вихря качественно подобна стене «глаза» тропического циклона.

Малое количество лабораторных исследований, посвященных изучению тропических циклонов, обусловлено рядом причин. Прежде всего отметим узкий диапазон параметров, в котором наблюдается формирование лабораторного аналога тропического циклона [3-5]. Предлагаемый подход открывает новые, широкие возможности благодаря контролируемой связи между скоростью течения и нагревом. Основная сложность при реализации данного подхода связана с решением целого ряда научно-технических задач, связанных с разработкой и сопряжением различных элементов системы, таких как сбор данных, хранение данных, обработка данных и контроль нагрева.

1. Методика измерений

Рабочая кювета представляет собой цилиндрическую полость радиусом 15 см и осью вращения, совпадающей с осью г цилиндрической системы координат, имеющей начало в центре дна кюветы (рис. 1а). Кювета установлена на стенде, обеспечивающем равномерное вращение. Подогрев жидкости осуществляется при помощи медного теплообменника радиусом 5,2 см, расположенного в начале координат заподлицо с дном модели. Питание нагревателя производится при помощи стабилизированного источника тока. В качестве рабочей жидкости используется силиконовое масло (число Прандтля |Рг|=66 при 25 °С). Поверхность жидкости всегда свободна. Высота слоя жидкости Н в экспериментах не меняется и составляет 3 см.

Для измерения двух (горизонтальных) компонент скорости методом Р1У используется измерительная система «Полис», разработанная и изготовленная в Институте теплофизики им. С.С. Кутателадзе СО РАН (г. Новосибирск). Двойной импульсный ^-УаО лазер, блок управления и компьютер располагались на неподвижной платформе. Цифровая видеокамера была закреплена во вращающейся системе координат (рис. 1б). Для формирования лазерного луча во вращающейся системе координат была смонтирована система из шести оптических зеркал.

Методика измерений поля скорости состоит в следующем. В жидкость вводятся сферические светоотражающие частицы — трассеры,

(а) расположение системы (б) схема измерения скоростей: 1 — лазер, 2 — координат оптическая насадка, 3 — лазерный нож, 4 —

светоотражающие частицы, 5 — цифровая видеокамера, 6 — оптические зеркала

Рис. 1. Вид экспериментальной установки

средний размер которых составляет 10 мкм. Исследуемая область жидкости освещается при помощи лазерного ножа. Лазер генерирует два импульса с заданной задержкой по времени. Цифровая камера регистрирует распределение интенсивности света в освещаемой области. Все регистрируемое поле разбивается на ячейки (опросные области), внутри которых вычисляется корреляция изображений частиц и по максимуму коэффициента корреляции определяется среднее для данной ячейки значение двумерного вектора смещения, а по нему находится скорость. Погрешность метода Р1У зависит от ряда факторов, таких как плотность распределения трассеров, величина задержки по времени и других. В данной работе величина погрешности измерения скоростей не превышает 5%.

Эксперимент с обратной связью подразумевает обработку данных непосредственно в ходе измерений. Программное обеспечение, поставляемое с системой «Полис», не предоставляет такую возможность. Вторая проблема обусловлена тем, что метод Р1У ресурсоемкий и при частоте измерений в 0,5 Гц производительности персонального компьютера недостаточно для их обработки в режиме измерений.

Характерное время требуемое для обработки одного измерения на персональном компьютере сильно варьируется в зависимости от параметров обработки и производительности ПК, как правило это десятки секунд. Поэтому процесс обработки перенесен на параллельную вычислительную систему—суперкомпьютер. При этом вычислительная часть процесса обработки будет линейно масштабироваться с ростом

ge/ib

Рис. 2. Схема обработки экспериментальных данных на суперкомпьютере

числа вычислительных узлов. Таким образом, путем увеличения количества вычислительных узлов, используемых для обработки данных, можно получить скорость обработки достаточную для проведения экспериментов с обратной связью.

2. Обработка экспериментальных данных на суперкомпьютере

Перенос обработки данных на суперкомпьютер в режиме реального времени требует подключения измерительной системы к интерконнекту суперкомпьютера, решения задачи эффективного распределения потока измерений по вычислительным узлам и возврата результатов обработки от вычислительных узлов на экспериментальную установку. Отметим также, что наш подход, описанный в работах [9,10], основан на сочетании парадигмы вычислений в памяти и параллелизме транспортных end-to-end потоков данных для решения проблем передачи данных по скоростным протяженным сетям.

На рис. 2 приведена схема обработки данных от экспериментальной установки PIV на суперкомпьютере «Тритон».

Данные измерений (пары фотографий) загружаются программным обеспечением экспериментальной установки и передаются менеджеру потоков данных. В ответ на запросы вычислительных узлов менеджер потоков данных отдает им следующее доступное в его очереди измерение. После обработки данных вычислительные узлы передают результаты менеджеру потоков данных. Управляющее программное обеспечение экспериментальной установки запрашивает у менеджера новые результаты, и после их получения принимает решение о формировании управляющих воздействий на исследуемый объект. Так как каждое исходное измерение получает уникальный возрастающий номер,

то управляющее программное обеспечение установки может правильно обрабатывать получаемые результаты обработки, даже если они будут получены в другом порядке.

2.1. Программно-аппаратная платформа обработки экспериментальных данных

В качестве вычислительной системы обработки экспериментальных данных используется суперкомпьютер «Тритон», пиковой производительностью 23,1 Тфлопс, построенный на базе процессоров Intel Xeon E5450 (поколение Harpertown, SSE 4.1) и Intel Xeon E5-2690v4 (поколение Broadwell, AVX 2.0). Вычислительные узлы объединены InfiniBand (20 Гбит/с DDR и 56 Гбит/с FDR на узлах Harpertown и Broadwell соответственно) и Ethernet (1 Гбит/с на узлах Harpertown и 10 Гбит/с FDR на узлах Broadwell) интерконнектами.

Менеджером потоков данных является сервер приложений HP ProLiant DL360p Gen8 (2x Intel Xeon CPU E5-2660, 2.20 ГГц; RAM 128 Гб), подключенный к сети на скорости 10 Гбит/с с использованием сетевой карты Mellanox.

Используется сетевая инфраструктура Пермского федерального исследовательского центра (ПФИЦ) УрО РАН, объединяющая по оптическим средам площадки институтов ПФИЦ (рис. 3) на скоростях 1-10 Гбит/с или кратных им. Соединение сети ПФИЦ по оптоволоконному каналу связи с суперкомпьютерным центром ИММ УрО РАН в Екатеринбурге выполнено на скорости 3х10 Гбит/с и решает задачу доступа к интерконнекту суперкомпьютера URAN [11].

На текущем этапе используется канал связи 1 Гбит/с между экспериментальной установкой PIV и сервером приложений и канал связи 10 Гбит/с между сервером приложений и интерконнектом суперкомпьютера «Тритон».

Программная компонента платформы реализована программным обеспечением SciMQ [12,13], развернутым на сервере приложений. SciMQ состоит из следующих основных компонентов: (1 ) Менеджер потоков данных;

(2) База метаданных (БД);

(3) WebUI — веб-интерфейс к системе.

Менеджер потоков данных—это высокопроизводительный сервер очередей, разработанный авторами и рассчитанный на эффективную работу с большими сообщениями, размер которых может достигать десятков мегабайт, что необходимо для передачи данных экспериментов

Рис. 3. Инфраструктура ПФИЦ УрО РАН

Р1У. Менеджер отвечает за управление передаваемыми пользовательскими сообщениями (измерениями отдельных экспериментов) в очередях, включая их получение от экспериментальных установок, промежуточное хранение, распределение по запросам вычислительных узлов суперкомпьютеров и/или по запросам от других внешних систем.

Применение концепции очередей для передачи данных позволило разделить измерительную и вычислительные системы друг от друга, отказаться от необходимости синхронизации на уровне вычислительных узлов и изолировать задачу распределения и сбора данных от вычислительных узлов в одной подсистеме — менеджере потоков данных. Помимо этого применение данного подхода позволило естественным образом получить параллелизм передачи данных на участке от менеджера потока данных до суперкомпьютеров, что позволяет существенно повысить эффективность передачи данных в случае использования удаленного на большое расстояние супервычислителя (рис. 4).

Рис. 4. Параллелизм передачи данных

2.2. Адаптация алгоритма обработки PIV для работы на кластере

В качестве базового алгоритма обработки данных был использован алгоритм, реализованный в коде PIVlab [14], опубликованном под лицензией BSD.

Изначально алгоритмы PIVlab были написаны на языке Matlab, из-за чего было невозможно их прямое использование на суперкомпьютере «Тритон». Алгоритмы были переписаны на языке программирования C++ и оптимизированы с использованием математических библиотек Intel MKL, Intel IPP и путем ручной векторизации некоторых блоков алгоритмов с использованием SSE и AVX инструкций. В коде используется динамический выбор оптимизированных реализаций в зависимости от возможностей процессора, что позволяет эффективно использовать суперкомпьютер «Тритон», построенный на процессорах разных поколений.

Так как в случае обработки данных для управления экспериментом важна не только суммарная производительность системы, но и время обработки отдельного измерения, было принято решение использовать для обработки каждого отдельного измерения вычислительные узлы целиком, а разные измерения обрабатывать разными вычислительными узлами. В этом случае внутренние взаимодействия, необходимые алгоритмам в процессе обработки измерения, локализованы внутри вычислительного узла без необходимости использования сети интеркон-некта суперкомпьютера. А интерконнект использовался только для загрузки исходных измерений на обработку и для отправки результатов расчетов.

Распараллеливание процесса обработки измерения по ядрам вычислительного узла реализовано с использованием библиотеки Intel TBB. Удалось внедрить эффективный параллелизм обработки, использующий все доступные ядра вычислительного узла, практически на всех стадиях, за исключением начальной распаковки сжатых PNG изображений, получаемых от экспериментальной установки. На этой стадии используются только два потока по числу изображений в каждом измерении.

Реализованные оптимизации и распараллеливания позволили ускорить обработку каждого измерения в среднем в 180 раз по сравнению с оригинальной Matlab реализацией алгоритма. Эффективность распараллеливания зависит от используемых параметров алгоритма. Время распаковки изображений (распараллеливается на два потока по числу изображений в измерении) и сохранения результата практически постоянно, а время обработки, которая масштабируется линейно, сильно зависит от параметров алгоритма. В настоящий момент в экспериментах каждое измерение обрабатывалось в 4 потока—это позволило получить максимальную суммарную пропускную способность подсистемы обработки измерений.

3. Блок контроля температуры

Особенностью представленного эксперимента является связь между нагревом и скоростью движения. Таким образом, происходит моделирование выделения скрытого тепла в пограничном слое тропического циклона.

В качестве локализованного нагревателя используется медный теплообменник радиусом 5,2 см и толщиной 1 см, расположенный в центральной области заподлицо с дном модели. Питание нагревателя производится при помощи стабилизированного источника тока.

Для контроля граничных условий используется термопара, расположенная внутри теплообменника вблизи границы с жидкостью. Медь-константановая термопара подключена к регулятору температуры Термодат-17Е5. Прибор позволяет задавать целевую температуру или мощность нагрева вручную с лицевой панели, либо дистанционно путем подачи команд по интерфейсу RS-485.

Такое управление было выбрано для сопряжения экспериментальной установки с программным обеспечением, осуществляющим анализ структуры течения. Управляющий сигнал прибора (низковольтные импульсы с изменяемой скважностью) поступает на оптосимисторный силовой блок, включенный в разрыв цепи питания нагревателя. Таким

образом, коэффициент использования мощности Кр нагревателя варьируется от нуля до 1 с точностью в 1%.

Для изменения максимальной мощности нагревателя использован лабораторный автотрансформатор, включенный в промышленную сеть. Контроль за корректностью задания Ро обеспечивается путем измерения напряжения и тока через нагреватель. В итоге мгновенное значение мощности задается в виде Р = Ро х Кр.

Для каждого эксперимента устанавливается функциональная связь между средней скоростью течения над нагревателем и температурой (или мощностью) нагревателя: характеристики течения, полученные в результате обработки изображений методом Р1У служат входными параметрами для системы нагрева. Эти параметры вычисляются с необходимой частотой и записываются в файлы уставок и периодически считываются программой управления регулятором температуры.

При необходимости задания обратной связи по мощности в файле уставки мощности содержится коэффициент Кр, а в файле уставки температуры содержится максимально допустимая температура установки. Для задания температуры дна Кр устанавливается равным единице, а требуемая температура Т^ заносится в файл уставки температуры. При этом регулятор температуры работает как пропорционально-интегрально-дифференциальный (ПИД) регулятор, обеспечивая быстрый выход системы на требуемый режим и минимизируя колебания температуры в теплообменнике.

4. Описание тестовых экспериментов

Разработанный комплекс для реализации экспериментов с обратной связью апробирован на тестовом эксперименте. Тестовый эксперимент проводился следующим образом. Экспериментальная модель помещалась на вращающийся стенд. Для достижения состояния твердотельного вращения требуется около 2 часов (для периода вращения Т = 77 с). После того, как было достигнуто состояние твердотельного вращения, запускался процесс измерений при помощи системы Р1У «Полис». Одновременно с этим для организации затравочного радиального течения в течение 30 секунд был организован нагрев постоянной мощности (около 30% от максимальной). После организации начального радиального движения нагрев переводился в режим обратной связи, в котором мощность нагрева была пропорциональна средней скорости радиального движения в области нагрева.

На рис. 5 показаны временные зависимости мощности нагрева (пропорциональной средней радиальной скорости) и кинетической

(а) мощность нагрева в процентах от максимальной

(б) кинетическая энергия циклонического движения

Рис. 5. Динамика выхода на квазистационарный режим

(а) в момент £ = 100 с (б) в момент £ = 1500 с

Рис. 6. Векторные поля скорости

энергии циклонического движения. Хорошо видно, что при заданной связи между мощностью и скоростью течения выход на квазистационарный режим происходит достаточно быстро (за время 5-6 оборотов модели). Характерные колебания средней скорости и кинетической энергии являются особенностью конвективных вихревых течений в рассматриваемой системе.

На рис. 6 показаны векторные поля скорости для двух моментов времени, показывающие различные стадии формирования циклониче-

ского вихря. Проведенный эксперимент показал работоспособность сложной связки системы измерений, многопроцессорной вычислительной системы и системы контроля нагрева. Следующим шагом будет детальное исследование влияния функциональных зависимостей между интенсивностью нагрева и структурой течения.

5. Заключение

Реализованная территориально распределенная программно-аппаратная система (платформа) для проведения научных экспериментов с обратной связью предоставляет принципиально новый инструмент проведения научных исследований, поскольку перенос сложных вычислений с управляющего компьютера экспериментальной установки на удаленный суперкомпьютер позволяет управлять установкой в темпе проведения эксперимента.

Ключевая особенность описанного подхода заключается в использовании парадигмы вычислений в памяти, при которой интенсивный поток измеряемых данных поступает в память вычислительных узлов суперкомпьютера для их обработки и формировании для установки управляющих воздействий.

Представленные в этой статье первые лабораторные эксперименты направлены на исследование функциональной связи между нагревом и скоростью течения при изучении механизмов образования тропических циклонов.

Доступные для использования вычислительные мощности и скорости оптических сетей позволяют выполнять детальное исследование влияния различных зависимостей между интенсивностью нагрева и структурой течения на характеристики циклонического вихря. А именно, планируется постоянная лазерная подсветка для использования высокоскоростных камер с частотой измерений 25 и 50 Гц и получения кадров непосредственно с камеры. Это позволит применить представленный подход для управления быстропротекающими процессами. Планируется реализация загрузчика из архивных видеозаписей проведенных экспериментов.

Список литературы

[1] Г. П. Богатырев. «Возбуждение циклонического вихря или лабораторная модель тропического циклона», Письма в ЖЭТФ, 51:11 (1990), с. 557559.14

[2] А. В. Евграфова, А. Н. Сухановский, Е. Н. Попова. «Потоки углового момента во вращающемся слое с локализованным нагревом», Вычислительная механика сплошных сред, 9:4 (2016), с. 498-508, . 4

[3] V. Batalov, A. Sukhanovsky, P. Frick. "Laboratory study of differential rotation in a convective rotating layer", J. Geophys. Astrophys. Fluid Dyiiam., 104:4 (2010), pp. 349-368, . 4 5

[4] A. Sukhanovskii, A. Evgrafova, E. Popova. "Laboratory study of a steady-state convective cyclonic vortex", Quarterly Journal of the Royal Meteorological Society, 142:698 (2016), pp. 2214-2223, d . 45

[5] A. Sukhanovskii, A. Evgrafova, E. Popova. "Non-axisymmetric structure of the boundary layer of intensive cyclonic vortex", Dynamics of Atmospheres and Oceans, 80 (2017), pp. 12-28, . 45

[6] J. A. Zhang, R.F. Rogers, D. S. Nolan, F.D. Marks (Jr.). "On the characteristic height scales of the hurricane boundary layer", Mon. Weather Rev., 139 (2011), pp. 2523-2535, .4

[7] R. K. Smith, M. T. Montgomery, J. Persing. "On steady-state tropical cyclones", Q. J. R. Meteorol. Soc., 140 (2014), pp. 2638-2649, . 4

[8] R. K. Hadlock, S.L. Hess. "A laboratory hurricane model incorporating an analog to release of latent heat", J. Atmos. Sci., 25:2 (1968), pp. 161-177, d . ts

[9] V. Shchapov, G. Masich, A. Masich. "Platform for parallel processing of intense experimental data flow on remote supercomputers", Procedia Computer Science, 66 (2015), pp. 515-524, I . ' -

[10] Р. Степанов, А. Масич, В. Щапов, А. Сухановский, А. Игумнов, Григорий Масич. «Обработка на супервычислителе потока экспериментальных данных», Вестник УГАТУ, 16:3(48) (2012), с. 126-133, jji. Ь

[11] А. Ю. Берсенев, А. С. Игумнов, А. Г. Масич, Г. Ф. Масич, В. А. Щапов. «Исследование и анализ производительности распределенного интеркон-некта вычислительной среды в УрО РАН», Суперкомпьютерные дни в России, Труды международной конференции (26-27 сентября 2016 г., г. Москва), Изд-во МГУ, М., 2016, с. 199-210. 8

[12] V. A. Shchapov, A. G. Masich, G.F. Masich. "The technology of processing intensive structured dataflow on a supercomputer", Journal of Systems and Software, 127 (2017), pp. 258-265, I . t«

[13] G. Masich, V. Shchapov. «Программная платформа передачи интенсивных потоков данных на удаленные суперкомпьютеры», Proceedings of the 1st Russian Conference on Supercomputing RuSCDays 2015 (Moscow, Russia, September 28-29, 2015), CEUR Workshop Proceedings, т. 1482, 2015, с. 720-731. t8

[14] W. Thielicke, E. J. Stamhuis. "PIVlab — towards user-friendly, affordable

and accurate digital particle image velocimetry in MATLAB", Journal of Open Research Software, 2:1 (2014), e.30, url:. ю

Рекомендовал к публикации Программный комитет

Шестого национального суперкомпьютерного форума НСКФ-2017

Пример ссылки на эту публикацию:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В. А. Щапов, А. В. Евграфова, Г. Ф. Масич, А. М. Павлинов, Е. Н. Попова, А. Н. Сухановский, Д. П. Чугунов. «Применение суперкомпьютерной обработки данных от измерительных систем для проведения экспериментов с обратной связью». Программные системы: теория и приложения, 2018, 9:1(36), с. 3-19. 10.25209/2079-3316-2018-9-1-3-19

URL http://psta.psiras.ru//read/psta2018_l_3-19.pdf

Об авторах:

Владислав Алексеевич Щапов

Кандидат технический наук, младший научный сотрудник лаборатории телекоммуникационных и информационных систем ИМСС УрО РАН, доцент кафедры информационных технологий и автоматизированных систем ПНИПУ. Область научных интересов: Высокопроизводительные и распределенные вычислительные системы.

ЩШ^Шь

e-mail:

0000-0002-7791-2150 shchapov@icmm.ru

Анна Валерьевна Евграфова

Кандидат физико-математических наук, младший научный сотрудник лаборатории физической гидродинамики ИМСС УрО РАН, ассистент кафедры общей физики ПГНИУ. Область научных интересов: конвекция, геофизическая гидродинамика, турбулентность, спиральность.

0000-0001-5629-1220 e-mail: eav@icmm.ru

Григорий Федорович Масич

Кандидат технический наук, заведующий лабораторией телекоммуникационных и информационных систем ИМСС УрО РАН, доцент кафедры информационных технологий и автоматизированных систем ПНИПУ. Область научных интересов: научные сети, транспортные протоколы, вычислительные системы.

0000-0003-0338-2158 e-mail: masich@icmm.ru

Александр Михайлович Павлинов

Кандидат физико-математических наук, младший научный сотрудник лаборатории физической гидродинамики ИМСС УрО РАН. Область научных интересов: магнитная гидродинамика, автоматизация измерений, конвекция в жидких металлах.

МИ 0000-0002-0270-1391 e-mail: pam@icmm.ru

Елена Николаевна Попова

Кандидат физико-математических наук, инженер-исследователь лаборатории физической гидродинамики ИМСС УрО РАН. Область научных интересов: конвекция, геофизическая гидродинамика, турбулентность.

ММ 0000-0002-8114-2670 e-mail: popovadu@icmm.ru

Андрей Николаевич Сухановский

Кандидат физико-математических наук, старший научный сотрудник лаборатории физической гидродинамики ИМСС УрО РАН. Область научных интересов: конвекция, геофизическая гидродинамика, магнитная гидродинамика, турбулентность, спиральность.

МИ 0000-0003-3178-0217 e-mail: san@icmm.ru

Денис Петрович Чугунов

Ведущий инженер лаборатории телекоммуникационных и информационных систем ИМСС УрО РАН

МИ 0000-0002-3753-1636 e-mail: chugunov@icmm.ru

UDC 004.75

Vladislav Shchapov, Anna Evgrafova, Grigoriy Masich, Alexander Pavlinov, Elena Popova, Andrei Sukhanovskii, Denis Chugunov. Using of supercomputer in measurement data processing for realization of experiments with feedback.

Abstract. The main goal is a development of the novel technique for the integration of measurement system and supercomputer for the realization of the experiments with feedback. The new technique is used for the experimental study of laboratory analog of tropical cyclone with a feedback between velocity of the flow and the heating. Characteristics of the flow obtained by real-time processing in supercomputer are used as input parameters of the heating system in the course of experiment. Realization of controlled feedback between velocity and the heating required solution of a number of technical problems such as data acquisition, data storage, real-time data processing, integration of PIV (Particle Image Velocimetry) and heating control systems and others. (In Russian).

Key words and phrases: supercomputer, experimental data processing, PIV, laboratory model of tropical cyclone, experiments with feedback.

References

[1] G. P. Bogatyrev. "Excitation of cyclonic vortex or laboratory model of tropical cyclone", .JETP Lett., 51:11 (1990), pp. 630-633, url.

[2] A. V.~Yevgrafova, A. N.~Sukhanovskiy, Ye. N.~Popova. "Fluxes of angular momentum in a rotating layer with localized heat source", Vychislitel'naya mekhanika sploshnykh sred, 9:4 (2016), pp. 498-508 (in~Russian).

[3] V. Batalov, A. Sukhanovsky, P. Frick. "Laboratory study of differential rotation in a convective rotating layer", J. Geophys. Astrophys. Fluid Dynam., 104:4 (2010), pp. 349-368,

[4] A. Sukhanovskii, A. Evgrafova, E. Popova. "Laboratory study of a steady-state convective cyclonic vortex", Quarterly Journal of the Royal Meteorological Society, 142:698 (2016), pp. 2214-2223,

[5] A.~Sukhanovskii, A.~Evgrafova, E.~Popova. "Non-axisymmetric structure of the boundary layer of intensive cyclonic vortex", Dynamics of Atmospheres and Oceans, 80 (2017), pp. 12-28,

[6] J. A."Zhang, R. F."Rogers, D. S."Nolan, F.D."Marks (Jr.). "On the characteristic height scales of the hurricane boundary layer", Mon. Weather Rev., 139 (2011), pp. 2523-2535,

[7] R. K.~Smith, M. T.~Montgomery, J.~Persing. "On steady-state tropical cyclones", Q. J. R. Meteorol. Soc., 140 (2014), pp. 2638-2649,

© V. Shchapov, A. Evgrafova, G. Masich, A. Pavlinov, E. Popova, A. Sukhanovskii. D. Chugunov, 2018

© Institute of Continuous Media Mechanics of UB RAS, 2018 © Program Systems: Theory and Applications (design), 2018

DOI 10.25209/2079-3316-2018-9-1-3-19 OSS'

[8] R. K. Hadlock, S. L. Hess. "A laboratory hurricane model incorporating an analog to release of latent heat", ./. Atmos. Set., 25:2 (1968), pp. 161—177,

[9] V.~Shchapov, G.~Masich, A.~Masich. "Platform for parallel processing of intense experimental data flow on remote supercomputers", Procedia Computer Science, 66 (2015), pp. 515-524,

[10] R.~Stepanov, A.~Masich, V.~Shchapov, A.~Sukhanovskiy, A.~Igumnov, Grigoriy Masich. "Processing on the supercalculator of the stream of experimental data", Vestnik UGATU, 16:3(48) (2012), pp. 126-133 (in~Russian).

[11] A. Yu. Bersenev, A. S. Igumnov, A. G. Masich, G. F. Masich, V. A. Shchapov. "MPI efficiency over ethernet interconnect on long distances", Superkomp'yuternyye dni v Rossii, Trudy mezhdunarodnoy konferentsii (26-27 sentyabrya 2016 g., g. Moskva), Izd-vo MGU, M., 2016, pp. 199-210 (in Russian).

[12] V. A. Shchapov, A. G. Masich, G. F. Masich. "The technology of processing intensive structured dataflow on a supercomputer", Journal of Systems and Software, 127 (2017), pp. 258-265,

[13] G.~Masich, V.~Shchapov. "The software platform of transmission of intense data streams on remote supercomputers", Proceedings of the 1st Russian Conference on Supercomputing RuSCDays~2015 (Moscow, Russia, September 28-29, 2015), CEUR Workshop Proceedings, vol. 1482 , 2015, pp. 720-731 (in Russian).

[14] W. Thielicke, E. J. Stamhuis. "PIVlab — towards user-friendly, affordable and accurate digital particle image velocimetry in MATLAB", Journal of Open Research Software, 2:1 (2014), e30, url.

Sample citation of this publication:

Vladislav Shchapov, Anna Evgrafova, Grigoriy Masich, Alexander Pavlinov,

Elena Popova, Andrei Sukhanovskii, Denis Chugunov. "Using of supercomputer

in measurement data processing for realization of experiments with feedback".

Program Systems: Theory and Applications, 2018, 9:1(36), pp. 3-19. (In Russian). 10.25209/2079-3316-2018-9-1-3-19

turn) http : //psta.psiras . ru//read/psta2018_l_3- 19 .pdf

i Надоели баннеры? Вы всегда можете отключить рекламу.