Научная статья
УДК 551.513:551.515.2
doi:10.37614/2949-1185.2023.2.2.010
ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ В МОДЕЛЯХ ОБЩЕЙ ЦИРКУЛЯЦИИ АТМОСФЕРЫ
Константин Геннадьеви Орлов1, Игорь Викторович Мингалев2, Екатерина Алфеевна Федотова3, Виктор Степанович Мингалев4
1-4Полярный геофизический институт, Апатиты, Россия 1orlov@pgia.ru, https:orcid/org/0000-0002-3317-3480 2mingalev_i@pgia.ru, https:orcid/org/0000-0002-5968-6188 3https:orcid/org/0000-0002-6020-5927 4https:orcid/org/0000-0003-0341-6901
Аннотация
В данной работе изложен способ организации параллельных вычислений на графических процессорах с использованием технологии CUDA применительно к модели общей циркуляции нижней и средней атмосферы Земли. Эта модель разрабатывается в Полярном геофизическом институте и основана на численном интегрировании полной системы уравнений динамики вязкого атмосферного газа на пространственной сетке с высоким разрешением в сферическом слое вокруг поверхности Земли. В модель включен блок расчета переноса солнечного и теплового излучения, который также использует параллельные вычисления на основе технологии CUDA. Ключевые слова:
модель общей циркуляции атмосферы, параллельные вычисления, технология CUDA, перенос излучения Original article
PARALLEL CALCULATIONS IN MODELS OF THE GENERAL ATMOSPHERE CIRCULATION
Konstantin G. Orlov1, Igor V. Mingalev2, Ekaterina A. Fedotova3, Viktor S. Mingalev4
1-4Polar Geophysical Institute, Apatity, Russia 1orlov@pgia.ru, https:orcid/org/0000-0002-3317-3480 2mingalev_i@pgia.ru, https:orcid/org/0000-0002-5968-6188 3https:orcid/org/0000-0002-6020-5927 4https:orcid/org/0000-0003-0341-6901
Abstract
This paper describes a method for organizing parallel computing on graphics processors using CUDA technology, in relation to the general circulation model of the lower and middle atmosphere of the Earth. This model is being developed at the Polar Geophysical Institute and is based on the numerical integration of a complete system of equations for the dynamics of viscous atmospheric gas on a high-resolution spatial grid in a spherical layer around the Earth's surface. The model includes a block for calculating the transfer of solar and thermal radiation, which also uses parallel calculations based on CUDA technology. Keywords:
general atmospheric circulation model, parallel computing, CUDA technology, radiation transfer Введение
Авторами данной работы в течение нескольких лет разрабатывается модель общей циркуляции нижней и средней атмосферы Земли, основанная на численном интегрировании полной системы уравнений газовой динамики. Данная модель вместе со всеми блоками описания физических процессов полностью реализована на графических процессорах с использованием технологии CUDA.
В атмосфере Земли постоянно протекают следующие основные физические процессы. Происходит поглощение и рассеяние атмосферным газом солнечного излучения в частотных диапазонах УФ, видимом и ближнем ИК, а также испускание, поглощение и рассеяние собственного излучения и излучения поверхности Земли в дальнем и среднем ИК-диапазонах. Постоянно происходит образование облаков, их испарение и движение, а также выпадение осадков. Динамика облаков сильно влияет на нагрев-охлаждение атмосферного газа за счет поглощения и испускания излучения. Еще один важный процесс — это фотохимические и химические процессы, в частности, образование и разрушение озона. Концентрация озона сильно влияет на скорость нагрева атмосферного газа солнечным излучением в стратосфере и мезосфере. Следующий процесс — движение атмосферного газа, обусловленное полем
давления и ускорением внешних массовых сил. Движение сильно влияет на распределения облаков и концентрации озона и тем самым на скорость нагрева атмосферного газа излучением. В свою очередь, неравномерный нагрев атмосферного газа излучением оказывает большое влияние на поле давления. Существенную роль играют взаимодействие атмосферного газа с поверхностью Земли и приповерхностный пограничный слой. Точность описания перечисленных процессов определяет качество модели и ее способность воспроизводить общую циркуляцию атмосферы, которая является весьма сложной.
В моделях общей циркуляции атмосферы Земли, которые развиваются более 50 лет, используются разные подходы к описанию движения атмосферы, переноса излучения в ней и динамики облаков, а также используются разные методы для численного интегрирования по времени уравнений движения атмосферы. Анализ достижений в создании этих моделей представлен в работах (Четверушкини др., 2020; Толстых, 2016).
По предназначению модели общей циркуляции атмосферы Земли можно разделить на разные группы. В первую группу входят модели, предназначенные для прогноза погоды. В этих моделях область моделирования простирается от поверхности Земли до высот 25-30 км. Во вторую группу входят модели, предназначенные для моделирования изменений климата. В этих моделях область моделирования обычно простирается от поверхности Земли до высот 40-70 км. В третью группу входят модели, предназначенные для исследования протекающих в атмосфере Земли физических процессов и влияния этих процессов на общую циркуляции атмосферы. К этой группе относится разрабатываемая авторами этой работы модель общей циркуляции нижней и средней атмосферы. Отдельную группу образуют модели верхней атмосферы Земли.
В настоящее время для глобального среднесрочного прогноза ведущие прогностические центры используют численные негидростатические модели с горизонтальным разрешением 10-30 км. Спектральными полулагранжевыми моделями являются модель ЕЦСПП (ECMWF) (Hortal, 1999), модель Navy/FNMOC/NRL (USA), модель Метео-Франс (Météo France) (Courtier et al., 1992) и модель JMA (Japan). Негидростатическими моделями, использующими разностную дискретизацию по широте и долготе, являются модель Met Office (UK) (Staniforth et al., 2014), модели ICON (Wan et al., 2013; Zängl et al., 2015), ICON-IAP (Gassmann, 2013) и модель DWD (Germany) (Zängl et al., 2015), а также последняя версия модели GFS (NCEP USA).
Существуют две отечественные модели для глобального среднесрочного прогноза: модель ПЛАВ (Толстых и др., 2015; Толстых и др., 2019) и спектральная модель Гидрометцентра России (Розинкина и др., 2019). В этих моделях используется приближение гидростатики. В последних версиях модели ПЛАВ описание радиационного нагрева и подсеточных процессов в целом соответствует моделям ведущих прогностических центров. В модели Гидрометцентра России используется существенно более грубое описание радиационного нагрева. Имеются региональные негидростатические модели прогноза погоды, например, европейская модель COSM и американские модель WRF-ARW, разработанная в NCAR, и модель WRF-NMM, разработанная в NCEP (Ek et al., 2003).
В настоящее время наиболее совершенными моделями климатической системы являются две модели. Первая из них — это модель AM3, созданная в Лаборатории геофизической гидродинамики США (GFDL). Подробное описание этой модели приведено в работе (Donner et al., 2011). Модель AM3 является частью модели Земной системы, которая также создана в этой лаборатории. В этой модели используется сетка кубическая сфера, и учитываются перенос 85 малых газовых составляющих и химические реакции между ними, а также динамика 20 компонент аэрозолей. Кроме того, учитывается влияние аэрозолей на процесс образования капель в облаке.
Вторая модель — это свободно распространяемая модель CAM5, созданная в Национальном центре атмосферных исследований (NCAR). Модель CAM5 является составной частью совместной модели Земной системы CESM1. В этой модели можно использовать 4 различных блока решения уравнений динамики атмосферы: конечно-объемный эйлеров по горизонтали, лагранжев по вертикали на равномерной широтно-долготной сетке; блок с использованием спектральных элементов на кубической сфере, а также спектральный эйлеров и конечно-разностный полулагранжев. В эту модель включены блок описания микрофизических процессов в облаках, а также блок атмосферной химии, который описывает основные процессы, связанные с малыми газовыми составляющими и аэрозолями.
Также имеются так называемые химико-климатические модели такие, как модель SOCOL (Muthers et al., 2014), которые предназначены для моделирования климата с детальным учетом фотохимических реакций в нижней и средней атмосфере.
На высотах более 20 км линии поглощения атмосферных газов становятся очень узкими, а коэффициент молекулярного поглощения очень быстро изменяется при изменении частоты. Для гарантированного достижения точности 1 % и лучше при расчетах поля излучения разрешение по частоте должно составлять примерно 0,001 см"1. Расчеты с таким высоким разрешением по частоте называются полилинейными или эталонными (Line-by-Line) и требуют столь больших вычислительных затрат, что их нельзя использовать в моделях общей циркуляции атмосферы в настоящее время и в обозримом будущем.
Во всех вышеупомянутых моделях применяются методы быстрого расчета потоков излучения, основанные на замене реальной зависимости коэффициента молекулярного поглощения от частоты на более удобную для расчетов модельную зависимость. При этом узкие спектральные каналы, лежащие в достаточно большом частотном интервале, по определенному алгоритму объединяются в группы так, чтобы у каналов из одной группы оптические параметры атмосферного газа были близки между собой. Каждая группа заменяется на один широкий модельный канал. В итоге несколько миллионов узких спектральных каналов заменяются на несколько десятков или несколько сотен модельных каналов. Процедуру построения указанных модельных каналов называют построением параметризации молекулярного поглощения. Для проверки точности построенной параметризации результаты расчета поля излучения в модельных каналах сравниваются с результатами эталонных расчетов, в которых шаги сетки по частоте в несколько раз меньше полуширины контуров линий поглощения атмосферных газов на верхней границе области моделирования.
Отметим, что при построении параметризаций молекулярного поглощения для расчета поля излучения на высотах 0-70 км нужно учитывать, что ниже высоты 15 км вклад водяного пара в коэффициент молекулярного поглощения является существенным, а вклад озона мал, а выше высоты 20 км снижается вклад водяного пара и возрастает вклад озона. По этой причине спектры поглощения на малых и больших высотах существенно отличаются.
В радиационных блоках всех вышеупомянутых моделей применяются параметризации, обеспечивающие хорошую точность (в пределах 0,5 К/сутки) расчетов скоростей нагрева-выхолаживания атмосферы только на высотах до 20 км в безоблачной атмосфере. На высотах более 25 км точность указанных параметризаций существенно ухудшается из-за того, что при построении этих параметризаций не учитывались различия спектров поглощения в средней и нижней атмосфере. Другой недостаток радиационных блоков существующих моделей заключается в том, что в них при численном решении уравнения переноса излучения используется двухпотоковое приближение, которое заведомо не может обеспечить приемлемую точность расчета при наличии облачных слоев.
Краткое описание текущей версии модели
Динамическое ядро нашей модели описано в работе (Четверушкин и др., 2018) и основано на численном интегрировании полной системы уравнений динамики сжимаемого вязкого атмосферного газа на пространственной сетке с высоким разрешением с помощью явной консервативной схемы, которая имеет 2-й порядок точности по времени и 3-й по пространственным переменным. В модели учитываются рельеф земной поверхности и используется равномерная сетка по высоте с шагом 200 м а также специальная сетка по широте и долготе, которая является комбинацией нескольких широтно-долготных сеток с постоянным шагом. У всех сеток шаг по широте одинаков и составляет 15/32° (3 84 узла по широте). Ближайшие к полюсам узлы сетки удалены от полюсов по широте на половину шага. Максимальный шаг сетки по долготе используется вблизи полюсов на расстоянии по широте менее 1,5°. Когда расстояние по широте от ближайшего полюса лежит в пределах от 1,5 до 3°, используется шаг сетки по долготе в 2 раза меньше, чем вблизи полюсов. Когда расстояние по широте от ближайшего полюса лежит в пределах от 3 до 7°, используется шаг сетки по долготе в 4 раза меньше, чем вблизи полюсов. Когда расстояние по широте от ближайшего полюса лежит в пределах от 7 до 15°, используется шаг сетки по долготе в 8 раз меньше, чем вблизи полюсов. Когда расстояние по широте от ближайшего полюса лежит в пределах от 15 до 30°, используется шаг сетки по долготе в 16 раз меньше, чем вблизи полюсов. Когда расстояние по широте от ближайшего полюса превышает 30°, используется шаг сетки по долготе в 32 раза меньше, чем вблизи полюсов. В текущем варианте этот шаг составляет на низких широтах 15/32° (768 узлов по долготе). Описанная сетка не имеет сильного сгущения узлов вблизи полюсов. Верхняя граница области моделирования была расположена на высоте 85 км над уровнем океана.
В радиационном блоке нашей модели используются две новые параметризации молекулярного поглощения, одна из которых предназначена для расчета поля собственного излучения атмосферы в диапазоне частот от 10 до 2000 см-1 (Мингалев и др., 2018; Четверушкин и др., 2020), а вторая предназначена для расчета поля солнечного излучения в диапазоне частот от 2000 до 50000 см-1 в интервале высот от поверхности Земли до 100 км. При построении этих параметризаций учитывается изменение спектров поглощения атмосферы с высотой из-за изменения вкладов водяного пара и озона, а также учитывается нарушение локально термодинамического равновесия в верхней атмосфере в полосах поглощения озона с длинами волн около 9,6 мкм и полосах поглощения углекислого газа с длинами волн около 15,6 мкм, а также 4,2 и 2,7 мкм. Кроме того, для численного решения уравнения переноса излучения вместо двух потокового приближения и используется метод дискретных ординат и расчетная сетка по зенитным углам с шагом около 9° (Игнатьев и др., 2015), что обеспечивает расчет полей солнечного и теплового излучения с учетом сильного рассеяния в облаках.
В текущей версии модели температура поверхности Земли задается по модели NRLMSIS-00, а пространственные распределения концентрации озона и других малых составляющих воздуха, важных для расчета поля излучения, заданы по аналитическим формулам, которые аппроксимируют имеющиеся экспериментальные данные. В нашу модель пока не включены полноценные блок расчета концентрации озона, блок расчета температуры поверхности Земли и блок расчета концентраций и размеров различных аэрозольных частиц, определяющих динамику облаков (аэрозольный блок). Также в текущей версии модели атмосфера считается безоблачной. После включения в нашу модель полноценного аэрозольного блока планируется сравнить результаты расчетов и определить, как влияет учет облачности на общую циркуляцию атмосферы.
Программная реализация
Программа для параллельных вычислений на GPU имеет следующий вид. Вычисления разделяются на большое число параллельно выполняемых нитей, причем все нити выполняют одинаковый набор инструкций, но каждая нить обрабатывает свои данные. Нити объединяются в блоки. Каждый блок нитей выполняется на одном мультипроцессоре видеокарты. Код нити записывается в CUDA-функции (ее называют также CUDA-ядром). Число блоков нитей и число нитей в блоке указывается при вызове CUDA-функции. Нити в блоке объединяются в порции (порцию называют warp). Для чипов GK 104 и GK 110 один warp содержит 192 нити. Крайне важным для оптимизации работы с общей памятью видеокарты является использование возможностей GPU объединять несколько запросов к общей памяти в один (coalescing). В противном случае они выполняются последовательно, что очень сильно замедляет работу программы. Правильное использование упомянутой выше возможности позволяет получить максимальное быстродействие при работе с общей памятью.
Для реализации моделей на GPU с использованием технологии CUDA и явной схемы расщепления были созданы три CUDA-функции, каждая из которых соответствует одному из трех шагов расщепления по пространственным направлениям, а также были созданы три CUDA-функции, которые вычисляют приращения консервативных переменных за счет потоков этих переменных по разным пространственным направлениям, обусловленных вязкостью и теплопроводностью. Последовательный вызов этих последних трех CUDA-функций обеспечивает выполнение четвертого шага расщепления, во время которого учитываются эффекты вязкости и теплопроводности. Для хранения физических переменных и их приращений были введены трехмерные массивы, хранящиеся в глобальной памяти GPU. Первое измерение в этих массивах — по долготе, второе — по широте, а третье — по высоте.
При выполнении CUDA-функции, соответствующей шагу расщепления по вертикальному направлению, каждая вычислительная нить совершает проход по высоте и считывает необходимые данные из общей памяти GPU в регистровые переменные, а затем вычисляет потоки консервативных переменных в вертикальном направлении и источниковые члены, а также новые значения консервативных переменных для вертикального столба узлов сетки над заданной точкой поверхности Земли. Все нити для узлов сетки с одинаковой широтой объединены в один блок, то есть нумерация нитей в блоке одномерная. Блоки занумерованы по широте, то есть их нумерация также одномерная (рис.). Их число равно размеру сетки по широте. Число нитей в каждом блоке равно размеру сетки в зональном направлении, причем нити не обмениваются данными между собой. При этом используется только общая память GPU и регистровая память мультипроцессора, но не используется разделяемая память мультипроцессора.
Проход нитей при выполнении CUDA-функции, соответствующей шагу расщепления по вертикальному направлению
При выполнении CUDA-функции, соответствующей шагу расщепления по зональному направлению, вычислительные нити и их разделение на блоки организованы также, как и для CUDA-функции, соответствующей шагу расщепления по вертикальному направлению. При этом каждая вычислительная нить совершает проход по высоте и на каждом шаге прохода считывает необходимые данные из общей памяти GPU в элементы массивов в разделяемой памяти мультипроцессора, а затем нити одного блока вычисляют потоки консервативных переменных в зональном направлении и новые значения консервативных переменных для узлов сетки на заданных высоте и широте и записывают эти значения в массивы в общей памяти GPU.
При выполнении CUDA-функции, соответствующей шагу расщепления по меридиональному направлению, каждая вычислительная нить совершает проход по широте с юга на север через узлы сетки, расположенные на заданной высоте и долготе, и считывает необходимые данные из общей памяти GPU в регистровые переменные, а затем вычисляет потоки консервативных переменных в меридиональном направлении, а после этого вычисляет новые значения консервативных переменных в указанных узлах сетки. Все нити для узлов сетки с одинаковой высотой объединены в один блок, то есть нумерация нитей в блоке одномерная. Блоки занумерованы по высоте, то есть их нумерация также одномерная. Их число равно размеру сетки по высоте. Число нитей в каждом блоке равно размеру сетки в зональном направлении, причем нити не обмениваются данными между собой. При этом используется только общая память GPU и регистровая память мультипроцессора, но не используется разделяемая память мультипроцессора.
При описанной выше организации работы CUDA-функций с общей памятью GPU выполняются условия оптимизации, обеспечивающие параллельный доступ нитей к общей памяти GPU (coalescing).
CUDA-функции, которые вычисляют приращения консервативных переменных за счет обусловленных вязкостью и теплопроводностью потоков этих переменных по трем пространственным направлениям, организованы аналогично трем описанным выше CUDA-функциям. Каждая CUDA-функция вычисляет потоки физических переменных в своем направлении и приращения физических переменных за счет этих потоков, а затем прибавляет рассчитанные приращения к приращениям физических переменных за счет потоков, вычисленных предыдущей CUDA-функцией в другом направлении.
Заключение
Представленный в данной работе способ организации параллельных вычислений с помощью технологии CUDA на графических процессорах позволил авторам при численном моделировании общей циркуляции атмосферы Земли получить быстродействие, сравнимое с быстродействием сервера или кластера, содержащих от 64 до 128 многоядерных процессоров последнего поколения. Например, в наших расчетах быстродействие графического процессора Nvidia GTX 1080 Ti более чем в 200 раз превышало быстродействие четырехъядерного процессора Intel Core i7 при использовании технологии Open MP и восьми вычислительных потоков.
В настоящее время по соотношению цена/производительность графические процессоры являются оптимальной параллельной архитектурой с общей памятью для решения многих задач численного моделирования. Производительность этих процессоров растет быстрее, чем производительность центральных процессоров. Использование параллельных вычислений на графических процессорах открывает новые возможности по моделированию сложных физических процессов.
Список источников
1. Игнатьев Н. И., Мингалев И. В., Родин А. В., Федотова Е. А. Новый вариант метода дискретных ординат для расчета собственного излучения в горизонтально однородной атмосфере // Журнал вычислительной математики и математической физики. 2015. Т. 55, № 10, С. 1741-1755.
2. Мингалев И. В., Федотова Е. А., Орлов К. Г. Построение параметризаций молекулярного поглощения в нижней и средней атмосфере Земли в ИК-диапазоне // Оптика атмосферы и океана, 2018. Т. 31, № 10. С. 779-786.
3. Розинкина И. А., Астахова Е. Д., Цветков В. И. и др. Развитие систем детерминированного и ансамблевого численного прогнозирования погоды на основе глобальной спектральной модели атмосферы Гидрометцентра России в 2009-2019 гг. // Гидрометеорологические исследования и прогнозы. 2019. Вып. 4(374), C. 54-76.
4. Толстых М. А., Желен Ж. Ф., Володин Е. М. и др., Разработка многомасштабной версии глобальной модели атмосферы ПЛАВ // Метеорология и гидрология. 2015. № 6. С. 25-35.
5. Толстых М. А. Глобальные модели атмосферы: современное состояние и перспективы развития // Труды гидрометеорологического научно-исследовательского центра Российской Федерации. 2016. № 359. С. 532.
6. Толстых М. А., Фадеев Р. Ю., Шашкин В. В. и др. Развитие глобальной полулагранжевой модели атмосферы ПЛАВ в 2009-2019 гг. // Гидрометеорологические исследования и прогнозы. 2019. Вып. 4(374). C. 77-91.
7. Четверушкин Б. Н., Мингалев И. В., Орлов К. Г., Чечеткин В. М., Мингалев В. С., Мингалев О. В. Газодинамическая модель общей циркуляции нижней и средней атмосферы Земли // Математическое моделирование. 2017. Т. 29, № 8. С. 59-73.
8. Четверушкин Б. Н., Мингалев И. В., Чечеткин В. М., Орлов К. Г., Федотова Е. А., Мингалев В. С., Мингалев О. В. Расчет собственного излучения атмосферы в модели общей циркуляции нижней и средней атмосферы Земли // Математическое моделирование. 2020. Т. 32, № 11, С. 29-46.
9. Courtier P., Freydier C., Geleyn J.-F., Rabier F., Rochas M. The ARPEGE project at Météo-France. Procs. of the ECMWF seminar on numerical methods in atmospheric models 1991. Reading, UK: 1992. Vol. 2. P. 192-208.
10. Donner L., Wyman B. L., Hemler R. S., et al. The dynamical core, physical parameterizations, and basic simulation characteristics of the atmospheric component AM3 of the GFDL Global Coupled Model CM3. J. Climate. 2011, Vol. 24, P. 3484-3519.
11. Ek M. B. Implementation of Noah land surface model advances in National Centers for Environmental Prediction Operational Mesoscale Eta model, et al. J. Geoph. Res., 2003, Vol. 108, No. D22, 8851.
12. Gassmann A. A global hexagonal C-grid non-hydrostatic dynamical core (ICON-IAP) designed for energetic consistency. Q. J. Roy. Meteorol. Soc. 2013, Vol. 139, P. 152-175.
13. Hortal M. Aspects of the numerics of the ECMWF model. Recent developments in numerical methods for atmospheric modelling. Procs. of the ECMWF Seminar 7-11 September 1998. Reading, UK: 1999. P. 50.
14. Muthers S., Ane J. G., Stenke A., et al. The coupled atmosphere-chemistry-ocean model SOCOL-MPIO. Geosci. Model Dev. Discuss., 2014, 7, 3013-3084.
15. Staniforth A., Melvin T., Wood. N. GungHo. A new dynamical core for the Unified Model. ECMWF Seminar on Numerical Methods for Atmosphere and Ocean Modelling, 2-5 September 2013, ECMWF, Reading, UK. 2014. P. 15-30.
16. Wan H., Giorgetta M. A., Zängl G., Restelli M., Majewski D., Bonaventura L., Fröhlich K., Reinert D., Ripodas P., Kornblueh L., Förstner J. The ICON-1.2 hydrostatic atmospheric dynamical core on triangular grids. Part 1: Formulation and performance of the baseline version . Geosci. Model Dev. 2013, Vol. 6, P. 735-763.
17. Zängl G., Reinert D., Ripodas P., Baldauf M. The ICON (ICOsahedral Non-hydrostatic) modelling framework of DWD and MPI-M: Description of the non-hydrostatic dynamical core. Q. J. Roy. Meteorol. Soc. 2015, Vol. 141, P. 563-579.
References
1. Ignat'ev N. I., Mingalev I. V., Rodin A. V., Fedotova E. A. Novyy variant metoda diskretnykh ordinat dlya rascheta sobstvennogo izlucheniya v gorizontal'no odnorodnoy atmosfere [A new version of the discrete ordinate method for the calculation of the intrinsic radiation in horizontally homogeneous atmospheres]. Zhurnal vychislitel'noj matematiki i matematicheskoj fiziki [Computational Mathematics and Mathematical Physics], 2015, vol. 55, no. 10, pp. 1713-1726. (In Russ.).
2. Mingalev I. V., Fedotova E. A. and Orlov K. G. Postroenie parametrizacij molekuljarnogo pogloshhenija v nizhnej i srednej atmosfere Zemli v IK diapazone [Parameterization of the Infrared Molecular Absorption in the Earth's Lower and Middle Atmosphere]. Optika atmosfery i okeana [Atmospheric and Oceanic Optics], 2018, vol. 31, no. 06, pp. 582-589. (In Russ.).
3. Rozinkina I. A., Astakhova E. D., Tsvetkov V. I., et al. Razvitie sistem determinirovannogo i ansamblevogo chislennogo prognozirovanija pogody na osnove global'noj spektral'noj modeli atmosfery Gidrometcentra Rossii v 2009-2019 gg. [Development of deterministic and ensemble numerical weather prediction systems based on the global spectral atmospheric model of the Hydrometcentre of Russia in 2009-2019]. Gidrometeorologicheskie issledovanija iprognozy [Hydrometeorological Research and Forecasting], 2019, vol. 4, no. 374, pp. 54-76 (In Russ.).
4. Tolstykh M. A., Geleyn J. F., Volodin E. M., et al. Razrabotka mnogomasshtabnoj versii global'noj modeli atmosfery PLAV [Development of the multiscale version of the SL-AV global atmosphere model]. Meteorologija i gidrologija [Russian meteorology and hydrology], 2015, no. 6, pp. 25-35 (In Russ.).
5. Tolstykh M. A. Global'nye modeli atmosfery: sovremennoe sostojanie i perspektivy razvitija [Global atmospheric models: current state and development prospects]. Trudy gidrometeorologicheskogo nauchno-issledovatel'skogo centra Rossijskoj Federacii [Proceedings of the Hydrometeorological Research Center of the Russian Federation], 2016, no. 359, pp. 5-32. (In Russ.).
6. Tolstykh M. A., Fadeev R. Yu., Shashkin V. V. et al. Razvitie global'noj polulagranzhevoj modeli atmosfery PLAV v 2009-2019 gg. [Development of SL-AV global semi-Lagrangian atmosphere model in 2009-2019]. Gidrometeorologicheskie issledovanija iprognozy [Hydrometeorological Research and Forecasting], 2019, vol. 4, no. 374, pp. 77-91 (In Russ.).
7. Chetverushkin B. N., Mingalev I. V., Orlov K. G., Chechetkin V. M., Mingalev V. S., Mingalev O. V. Gazodinamicheskaja model' obshhej cirkuljacii nizhnej i srednej atmosfery Zemli [Gas-Dynamic General Circulation Model of the Lower and Middle Atmosphere of the Earth]. Matematicheskoe modelirovanie [Math. Models Comput. Simul], 2018, vol. 10, no. 2, pp. 176-185 (In Russ.).
8. Chetverushkin B. N., Mingalev I. V., Chechetkin V. M., Orlov K. G., Fedotova E. A., Mingalev V. S., and Mingalev O. V. Raschet sobstvennogo izluchenija atmosfery v modeli obshhej cirkuljacii nizhnej i srednej atmosfery Zemli [Calculating the Natural Atmospheric Radiation Using the General Circulation Model of the Earth's Lower and Middle Atmosphere]. Matematicheskoe modelirovanie [Mathematical Models and Computer Simulations], 2020, vol. 32, no. 11, pp. 29-46 (In Russ.).
9. Courtier P., Freydier C., GeleynJ.-F., Rabier F., Rochas M. The ARPEGE project at Météo-France, Procs. of the ECMWF seminar on numerical methods in atmospheric models 1991, Reading, UK: 1992, vol. 2, pp. 192-208.
10. Donner L., Wyman B. L., Hemler R. S., et al. The dynamical core, physical parameterizations, and basic simulation characteristics of the atmospheric component AM3 of the GFDL Global Coupled Model CM3. J. Climate, 2011, vol. 24, pp. 3484-3519.
11. Ek M. B. Implementation of Noah land surface model advances in National Centers for Environmental Prediction Operational Mesoscale Eta model, et al. J. Geoph. Res., 2003, vol. 108, no. D22, 8851.
12. Gassmann A. A global hexagonal C-grid non-hydrostatic dynamical core (ICON-IAP) designed for energetic consistency. Q. J. Roy. Meteorol. Soc., 2013, vol. 139, pp. 152-175.
13. Hortal M. Aspects of the numerics of the ECMWF model. Recent developments in numerical methods for atmospheric modelling. Procs. of the ECMWF Seminar 7-11 September 1998, Reading, UK: 1999, pp. 50.
14. Muthers S., Ane J. G., Stenke A. et al. The coupled atmosphere-chemistry-ocean model SOCOL-MPIO. Geosci. Model Dev. Discuss, 2014, vol. 7, pp. 3013-3084.
15. Staniforth A., Melvin T., Wood. N. Gung Ho. A new dynamical core for the Unified Model. ECMWF Seminar on Numerical Methods for Atmosphere and Ocean Modelling, 2-5 September 2013, ECMWF, Reading, UK, 2014, pp. 15-30.
16. Wan H., Giorgetta M. A., Zängl G., Restelli M., Majewski D., Bonaventura L., Fröhlich K., Reinert D., Ripodas P., Kornblueh L., Förstner J. The ICON-1.2 hydrostatic atmospheric dynamical core on triangular grids. Part 1: Formulation and performance of the baseline version. Geosci, Model Dev., 2013, vol. 6, pp. 735-763.
17. Zängl G., Reinert D., Ripodas P., Baldauf M. The ICON (ICO sahedral non-hydrostatic) modelling framework of DWD and MPI-M: Description of the non-hydrostatic dynamical core. Q. J. Roy. Meteorol. Soc., 2015, vol. 141, pp. 563-579.
Информация об авторах
К. Г.Орлов — кандидат физико-математических наук, заместитель директора по научной работе;
И. В. Мингалев — доктор физико-математических наук, и. о. директора Полярного геофизического института;
Е. А. Федотова — младший научный сотрудник;
В. С. Мингалев — доктор физико-математических наук, профессор, зав. сектором. Information about the authors
K. G. Orlov — PhD (physics and mathematics sciences), learning secretary; I. V. Mingalev — doctor of physic-mathematic sciences, leading scientist; E. A. Fedotova — junior researcher;
V. S. Mingalev — doctor of physic-mathematic sciences, professor, head of sector.
Статья поступила в редакцию 10.04.2023; одобрена после рецензирования 17.04.2023; принята к публикации 03.05.2023. The article was submitted 10.04.2023; approved after reviewing 17.04.2023; accepted for publication 03.05.2023.