Научная статья на тему 'Распределенный метод сопоставления астрономических каталогов на платформе Apache Spark'

Распределенный метод сопоставления астрономических каталогов на платформе Apache Spark Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
240
25
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АСТРОНОМИЧЕСКИЕ КАТАЛОГИ / РАСПРЕДЕЛЁННЫЕ ВЫЧИСЛЕНИЯ / ОБЛАЧНЫЕ ВЫЧИСЛЕНИЯ / APACHE SPARK / HEALPIX

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Глотов Евгений Сергеевич, Герасимов Сергей Валерьевич, Мещеряков Александр Валерьевич

В работе предложен горизонтально-масштабируемый алгоритм сопоставления астрономических каталогов, реализованный на платформе распределенных вычислений Apache Spark. Метод обеспечивает необходимую точность сопоставления каталогов и хорошую производительность в сравнении с лучшими реализациями подобных систем, доступными в астрономическом сообществе. Горизонтальная масштабируемость предложенного метода была подтверждена с помощью экспериментов на кластере, развёрнутом в облаке Microsoft Azure.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Распределенный метод сопоставления астрономических каталогов на платформе Apache Spark»

УДК 004.75

Глотов Е.С.1, Герасимов С.В.1, Мещеряков А.В.23

1 Московский государственный университет им. М.В. Ломоносова, г. Москва, Россия

2 Институт космических исследовании Россиискои академии наук, г. Москва, Россия

3 Казанскии (Приволжскии) федеральным университет, Казань, Россия

РАСПРЕДЕЛЕННЫЙ МЕТОД СОПОСТАВЛЕНИЯ АСТРОНОМИЧЕСКИХ КАТАЛОГОВ

НА ПЛАТФОРМЕ APACHE SPARK

АННОТАЦИЯ

В работе предложен горизонтально-масштабируемый алгоритм сопоставления астрономических каталогов, реализованный на платформе распределенных вычислений Apache Spark. Метод обеспечивает необходимую точность сопоставления каталогов и хорошую производительность в сравнении с лучшими реализациями подобных систем, доступными в астрономическом сообществе. Горизонтальная масштабируемость предложенного метода была подтверждена с помощью экспериментов на кластере, развёрнутом в облаке Microsoft Azure.

КЛЮЧЕВЫЕ СЛОВА

Астрономические каталоги; распределённые вычисления; облачные вычисления; Apache Spark; HEALPix.

Glotov E.S.1, Gerasimov S.V.1, Meshcheryakov A.V.23

1 Lomonosov Moscow State University, Moscow, Russia 2 Space Research Institute of the Russian Academy of Sciences, Moscow, Russia 3 Space Kazan (Volga Region) Federal University, Kazan, Russia

DISTRIBUTED METHOD FOR CROSSMATCHING OF ASTRONOMICAL CATALOGS

BASED ON APACHE SPARK PLATFORM

ABSTRACT

In the article а horizontally-scalable algorithm for matching astronomical catalogs, based on Apache Spark, distributed computing platform, is proposed. The method provides the necessary accuracy and good performance compared to the best systems available in the astronomical community. Horizontal scalability of the proposed method was confirmed by experiments on a cluster deployed in the Microsoft Azure cloud service.

KEYWORDS

Cross-matching; astronomical catalogs; distributed computing; cloud computing; Apache Spark; HEALPix.

Введение

Основным источником данных о небесных объектах в современнои наблюдательнои астрофизике являются цифровые обзоры неба, представляющие собои наборы большого числа астрономических изображении, полученных телескопом в заданном спектральном диапазоне, и покрывающие значительные участки звездного неба. Для поиска астрономических объектов и извлечения их признаков из изображении астрономы используют последовательность преобразовании - т.н. конвеиер обработки астрономических изображении (подробнее см., например, [1]). Конечная цель работы конвеиера - получение каталога астрономических объектов.

Астрономическии каталог представляет собои таблицу всех обнаруженных на изображениях неба объектов (галактик, звезд, астероидов и др.); множество столбцов таблицы представляет собои фиксированным набор своиств, выделенных из изображения объекта: небесные координаты, яркость, размер, форма, морфология, и другие признаки. В настоящее время в общедоступных астрономических архивах (см., например, [2]) собраны более 10 тыс. каталогов, полученных на основе данных наблюдении из небесных обзоров. Необходимо отметить, что объем данных небесных обзоров и их каталогов сеичас переживает взрывнои рост. Так, самыи известныи

оптический обзор неба на сегодняшний день, SDSS-III [3], на момент своего завершения в 2013 году содержал астрономическии каталог размером 3.4 ТБ. В ключевом проекте следующего десятилетия, в обзоре неба телескопом LSST [4] ожидаемыи объем каталогов составит около 15 петабаит и будет содержать информацию о более чем 350 миллиардах объектов.

Увеличение количества независимых источников информации об известных астрономических объектах (данные наблюдении в разных спектральных диапазонах, полученные в разное время, разными телескопами) критически важно для решения задачи их точнои классификации и измерения физических характеристик. Также важнои практическои задачеи для современных небесных обзоров является поиск новых астрономических объектов в непрерывном потоке данных наблюдении, поступающих в виде астрономических каталогов, непосредственно с телескопа. Для поиска новых небесных объектов новьш каталог, поступившии с телескопа, необходимо сопоставить в реальном времени с астрономическими каталогами, полученными ранее. Таким образом, задача сопоставления астрономических каталогов имеет важное практическое значение для наблюдательнои астрофизики.

Современные объемы данных астрономических каталогов из небесных обзоров требуют распределенного хранения. В свете экспоненциального роста ожидаемого объема данных астрономических каталогов в ближаишем будущем, при построении системы для сопоставления астрономических каталогов необходимо заложить требование ее горизонтальнои масштабируемости.

Целью настоящеи работы является разработка распределенного горизонтально-масштабируемого метода сопоставления астрономических каталогов. Предложенным здесь метод сопоставления каталогов разрабатывался для встраивания в распределенную систему обработки и анализа больших массивов астрономических данных [1] на платформе Apache Spark [5].

Статья построена следующим образом. В следующем разделе дана формальная постановка задачи сопоставления астрономических каталогов и сделан обзор имеющихся подходов к ее решению. Далее описан предлагаемыи нами распределенныи метод сопоставления астрономических каталогов на платформе Apache Spark. Затем представлены выполненные эксперименты, которые подтверждают точность и горизонтальную масштабируемость предложенного метода. В последнем разделе представлены наши выводы.

Задача сопоставления астрономических каталогов и методы ее решения

В настоящеи работе будет рассматриваться классическая задача сопоставления (кросс-отождествления) двух астрономических каталогов по небесным координатам, которая может быть формализована следующим образом. Определения:

• Астрономический объект - кортеж, состоящий из идентификатора, сферических координат RA (прямое восхождение) и DEC (склонение), и прочих характеристик небесного объекта: X= [id, ra, dec, [features]];

• Каталог астрономических объектов - двумерная таблица, строками которой являются астрономические объекты.

Дано:

• А, В - каталоги астрономических объектов;

• dist(X,Y) = haversine(X, Y) - функция углового расстояния на сфере между астрономическими объектами X и Y;

• radius - максимально допустимое угловое расстояние между отождествлёнными объектами (радиус сопоставления).

Наити каталог астрономических объектов С:

с = { [X, Y]: X ЕА, Ye В, VW Е В: dist(X, Y) < dist(X, W), VU E A: dist(X, Y) < dist(U, X), dist(X, Y) < radius]. Качество сопоставления оценивается по следующим метрикам:

T, r ■■ л Countreai & found

• Точность (precision) =---;

Countfound П r 11-v Countreai & found

• Полнота (recall) =---,

Countreai

где числа Countreal, Countf0und и Countreal &f0und представляют собои, соответственно: точное число сопоставлении (пар объектов из двух каталогов), наиденное число сопоставлении предложенным нами методом и наиденное число сопоставлении одновременно являющимися точными. Для поиска точных сопоставлении двух каталогов, в качестве эталона, мы будем использовать популярную программу TOPCAT [6] (см. раздел Эксперименты). В рамках формальнои

постановки задачи, представленнои выше, мы ввели важное требование для разрабатываемого метода: точность и полнота сопоставления должны составлять 100%.

Отметим, что в такои постановке задача сопоставления двух астрономических каталогов сводится к задаче поиска для каждого объекта первого каталога ближаишего соседа внутри радиуса сопоставления среди всех объектов второго каталога. Ниже рассмотрены несколько распространенных методов сопоставления астрономических каталогов, которые находят применение в современных астрономических исследованиях.

В статье [7] представлен алгоритм сопоставления каталогов с помощью скользящего окна. Первым этапом алгоритма является сортировка объектов в каталогах по значению их склонения. Далее для каждого окна выбирается минимальное и максимальное значение склонения, находятся минимальныи и максимальным порядковые номера объектов обоих каталогов, значение склонения которых входит в окно. Для каждого объекта первого каталога выбираются близкие по координате RA объекты второго каталога, среди них при помощи перебора находится ближаишии. Вычислительная сложность данного алгоритма составляет O(nlogm), где т, п - число объектов 1 и 2 каталога. К недостаткам метода можно отнести сложность распараллеливания (в виду сильного пересечения по данным между соседними окнами), что затрудняет создание его эффективнои распределеннои реализации.

Современные реляционные СУБД позволяют строить пространственныи индекс на разнообразных древовидных иерархических структурах данных (например, R-деревьях - см. [8]). В частности, сопоставление каталогов в популярнои астрономическои СУБД CasJobs [9] может осуществляться с использованием быстрого поиска ближаишего соседа на основе пространственного индекса.

Эффективным решением для построения распределенных алгоритмов сопоставления каталогов является разбиение небеснои сферы на неперекрывающиеся области и сопоставление объектов в каждои области независимо от других. При таком подходе необходимо предусмотреть дополнительную обработку объектов из разных областеи, расположенных рядом с границеи (далее - граничные эффекты). В статье [10], небесная сфера разбивалась на срезы заданнои ширины по однои из небесных координат (DEC). В работе [11] было предложено иерархическое разбиение небеснои сферы HEALPIX (англ. Hierarchical Equal Area isoLatitude PIXelization), каждым уровень которого разбивает сферу на клетки (ячеики разбиения) равнои площади (рис. 1). Использование HEALPix позволяет снизиты затраты! на обработку граничнык эффектов (см., например, [12]).

Рис. 1. Первые 4уровня разбиения HEALPix

В работах [12] и [13] предложены схожие алгоритмы сопоставления астрономических каталогов на основе HEALPix, состоящие из следующих этапов: (i) считывание координат объектов и получение индексов HEALPix для каждого объекта, (ii) группировка объектов по ключу - индексу HEALPix, (iii) поиск сопоставления между объектами двух каталогов внутри каждои клетки HEALPix с учетом объектов на границах соседних клеток, (iv) объединение результатов. Данным подход широко используется при сопоставления астрономических каталогов. В частности, он реализован в наиболее популярных приложениях для анализа астрономических каталогов: TOPCAT [6], CDS X-Match [14], Large Survey Database [15].

Предложенное решение

Система обработки астрономических данных [1] построена на базе фреимворка распределенных вычислении Apache Spark [5].

Apache Spark предоставляет широкии набор возможностеи для распределеннои обработки данных, включая возможность чтения и записи в распространенные распределенные фаиловые системы, кэширование данных в памяти для многоразового использования, удобным механизм использования сторонних библиотек, возможность работы в интерактивном режиме, а также большои набор встроенных методов обработки данных, включая методы интеллектуального анализа данных. Spark - это масштабируемая платформа анализа данных, которая включает в себя

примитивы для вычислении в оперативнои памяти. Основнои абстракциеи Spark являются устоичивые распределенные наборы данных (RDD, англ. Resilient Distributed Datasets).

При разработке распределенного алгоритма сопоставления каталогов астрономических объектов на базе Apache Spark за основу был взят метод, предложенным в статье [13]. Указанным подход позволяет разбить задачу на большое число подзадач, каждая из которых выполняется практически независимо от других. Способ обработки граничных эффектов, выбранным в данном решении, также представляется эффективным и имеет низкие накладные расходы (см. ниже в разделе Эксперименты).

Предлагаемым нами алгоритм сопоставления каталогов состоит из следующих этапов:

1. Считывание объектов из каталогов в распределенные массивы (RDD);

2. Нахождение для каждого объекта индексов HEALPix (клеток) с учетом граничных эффектов

и возможнои фильтрациеи;

3. Группировка объектов в новые массивы по ключу - индексу клетки;

4. Соединение по ключу двух сгруппированных массивов;

5. Поиск наилучшего сопоставления между объектами каталогов в пределах каждои клетки;

6. Устранение дубликатов, появившихся при учете граничных эффектов;

7. Запись отобранных пар объектов в объединенным каталог.

В качестве языка реализации алгоритма в Apache Spark был выбран язык программирования Java. Ниже подробно рассмотрены этапы, непосредственно реализующие логику метода.

Учёт граничных эффектов. Предложенным метод позволяет учесть граничные эффекты с минимальными накладными расходами. Учет границ проводится только для того каталога, для которого ведется поиск сопоставлении в другом каталоге. Границеи для клетки HEALPix некоторого уровня разбиения назовем все клетки HEALPix более высокого уровня разбиения, окрестность которых не полностью входит внутрь даннои клетки (рис. 2). Каждым объект нужно поместить во все клетки низкого уровня разбиения, с которыми пересекается окрестность его клетки высокого уровня разбиения. Уровень разбиения для границы выбирается так, чтобы клетка HEALPix данного уровня вмещала не менее четырех площадеи кругов сопоставления объектов (4п * radius2) в каталогах. Тогда можно гарантировать, что для всех объектов будет наидено глобально наилучшее сопоставление, а не локально лучшее внутри конкретнои клетки. Для выбранного нами радиуса сопоставления каталогов, равного 1 секунде дуги, для учета граничных эффектов был выбран 16 уровень разбиения HEALPix. Следует отметить, что число дубликатов, появившихся в результате учета граничных эффектов, экспоненциально зависит от разницы между базовым и граничным уровнями разбиения. Например, если при разнице в 12 уровнеи разбиения число дубликатов составляет всего 0.1% от общего числа объектов, то при разнице в 4 уровня дублирование составляет уже 26%, что является значителыныш показателем.

Рис. 2. Обработка граничных эффектов в предложенном методе

Фильтрация. Эта операция может быть полезна в случае если первый астрономический каталог существенно меньше второго, либо сосредоточен в определенное области неба. В этом случае, множество клеток HEALPix, в которых расположены объекты первого каталога, невелико.

Фильтрация заключается в отсеивании объектов из второго каталога, расположенные в клетках, не граничащих с клетками для объектов первого каталога. Фильтрация позволяет иногда значительно ускорить дальнеишие шаги алгоритма, начиная с группировки объектов по клеткам разбиения (сокращение размера второго каталога позволит быстрее произвести сопоставление).

Поиск наилучшего сопоставления внутри клетки. После того, как объекты сгруппированы в массивы по клеткам (с учетом граничных эффектов), каждую клетку можно обрабатывать независимо от других. Чтобы сопоставить каталоги «А» и «B» в клетке разбиения c индексом «i», нужно наити для каждого объекта из «A¿ » ближаишии к нему объект из «B¿». Алгоритм состоит из следующих шагов:

1. Сортировка каталога «A¿ » по склонению (dec)

2. V Хв £ «B¿»: бинпоиск ХА £ «A¿»: IXA. dec — XB.decl < radius;

3. V Хв £ «B¿»: V ХА £ «A¿»: IXA. dec — XB. dec| < radius:

Если dist(XA,XB) < minDist(XA,B), то обновляем ближаишии к ХА объект;

4. На выходе массив Хв, ближаиших к каждому ХА.

Сложность алгоритма сопоставления - 0((т + n)logm), где m, п - число объектов 1 и 2 каталога, расположенных в клетке с индексом «i».

Устранение дубликатов. Дубликаты появляются в результате учета граничных эффектов. Для каждого объекта первого каталога может возникнуть от 1 до 4 сопоставлении из второго каталога. Для устранения дубликатов требуется сгруппировать массив пар объектов по ключу -идентификатору первого объекта из пары, выбрать объект, ближаишии к искомому объекту в его группе, и записать его в результирующии массив.

Эксперименты

Для экспериментов по сопоставлению каталогов астрономических объектов были выбраны следующие каталоги:

• GALEX DR6: 222 554 652 объекта, общий размер файлов - 11.3 ГБ

• SDSS DR12: 794 013 968 объектов, общий размер файлов - 40 ГБ

• 3XMM DR5: 396 910 объектов, общий размер файлов - 18.7 МБ

Также для проведения экспериментов по определению зависимости скорости работы метода от данных из каталогов GALEX и SDSS были случаиным образом отобраны половина и четверть объектов, и из них были созданы дополнительные каталоги.

Сравнительно небольшои объем данных обусловлен тем фактом, что для реализации алгоритма сопоставления каталогов в классическои постановке задачи объект должен содержать всего 3 поля: идентификатор (ID), значение прямого восхождения (right ascension, RA) и склонения (declination, DEC). Идентификатор кодируется 64-разрядным целым беззнаковым числом, а координаты - числом с плавающеи точкои двоинои точности. Остальные признаки могут использоваться для применения новых техник сопоставления с целью улучшения качества, но их рассмотрение выходит за рамки даннои статьи.

Для сравнения качества и скорости работы предложенного метода с существующими решениями, работающими на локальнои машине, развернут тестовьш стенд со следующими характеристиками:

Аппаратура:

• Intel core i7 4770k (4 ядра, 4 ГГц);

• 32ГБ ОЗУ (1866 МГц);

• SSD Kingston KC400 (550/530 МБ/с (чтение/запись)).

Программное обеспечение:

• Windows 10;

• TOPCAT;

• Java Runtime Environment 7;

• Apache Spark 2.0.0: локальный режим, 1 - 4 ядра, 5ГБ ОЗУ на ядро.

Было произведено сравнение результата выполнения предложенного алгоритма с результатами выполнения программы TOPCAT в качестве эталонного решения. В результате сопоставления каталогов 3XMM и % SDSS в обоих случаях выявлено 14492 сопоставления, все сопоставления, обнаруженные TOPCAT, были обнаружены предложенным алгоритмом. В результате сопоставления каталогов % GALEX и % SDSS обе программы выдали 2558814 сопоставления, все обнаруженные сопоставления совпали. Результаты данных экспериментов подтверждают качество обработки граничных эффектов предложенным методом, благодаря чему полнота и точность метода составляют 100% в рамках формальнои постановки задачи.

На рис. 3 представлено сравнение скорости работы TOPCAT и предложенного метода на

локальной машине. Предложенный метод на одном ядре процессора работает быстрее в 2.8 раза за счет эффективного соединения каталогов и поиска ближайших соседей. При выделении программе всех четырех ядер процессора скорость работы возросла еще в 3.7 раз.

Так как алгоритм использует разбиение HEALPix, возникла необходимость в оценке скорости работы в зависимости от используемого уровня разбиения. Число клеток HEALPix находится в степеннои зависимости от уровня разбиения, а число объектов в однои клетке обратно пропорционально числу клеток. Число клеток напрямую влияет на степень параллелизма алгоритма, а число объектов в клетке влияет на время обработки каждого из параллельных вычислителен Также следует отметить, что из-за неравномерности покрытия неба цифровыми обзорами, в некоторых клетках может содержаться значительно больше объектов, чем в остальных. Таким образом, критическии путь алгоритма зависит от баланса между размером клетки и числом объектов в неи. На третьем уровне разбиение HEALPix содержит 768 клеток, рассматривать уровни ниже не имеет смысла из-за недостаточнои степени параллелизма. На 12 уровне разбиение содержит более 200 миллионов клеток, что практически равносильно числу объектов в исходных каталогах, и уровни выше рассматривать не имеет смысла, так как из-за них будет происходить повышение объема данных, а не его понижение. Наилучшую скорость алгоритм показал при использовании HEALPix уровня 5 (рис. 4). Число клеток на данном уровне составило 12288, что является хорошим ресурсом параллелизма. Время сопоставления каталогов SDSS и GALEX составило 673 секунды. Число дублеи при учете граничных эффектов составило 0.4%.

2000 -

1500

X

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

X 1000

Е 500

СП

ш ü со

1722

1 08 )

480 300 210 57 30 7 2 619 1 169

132 96 28 ■ 84 1

Чтение и индексация GALEX

Чтение и индексация SDSS

Соединение и

поиск сопоставлений

Устранение дублей

Общее время

TOPCAT ■ Предложенный метод: 1 ядро

4 ядра

Рис. 3. Сравнение времени сопоставления И каталогов GALEX и SDSS в ТОРСАТ и предложенным методом на 1 и 4 ядрах процессора

X

ш

СП

о

>

12 11 10 9 8 7 6 5 4 3

5

4

120 354 222 1

14 15

14 1

16 15 0/3 с.

8 15

14

0 50 100 150 200 250 300 350 400 450 500 550 600 650 700 750 800 850 900 Время сопоставления каталогов по этапам в секундах

■ Чтение и индексация GALEX ■ Чтение и индексация SDSS

■ Соединение и поиск сопоставлений ■ Устранение дублей

Рис. 4. Время сопоставления каталогов GALEX DR6 и SDSS DR12 в зависимости от уровня HEALPix

На рис. 5 представлена зависимость скорости сопоставления каталогов предложенным методом в зависимости от числа объектов. Наблюдается линейная зависимость скорости работы метода от объема входных данных.

0

1

168 216 169

114 52 84 120 _57 ■

28 1 2 6 15

800 -

673

700

600 -

s

¡u 500 -

X

I 400 -336

" 300

К

£ 200 со

100 0

Чтение и Чтение и Соединение и Устранение Общее время

индексация индексация SDSS поиск дублей

GALEX сопоставлений

■ Четверти каталогов ■ Половины каталогов ■ Полные каталоги

Рис. 5. Скорость сопоставления каталогов предложенным методом в зависимости от числа объектов

Эксперимент по оценке влияния фильтрации на скорость работы алгоритма проводился на каталогах 3XMM и SDSS. Сопоставление каталога небольшого размера с каталогом большого размера с использованием фильтрации дало прирост скорости в 2.8 раза. При этом считывание большого каталога ускорилось в 2 раза, а само сопоставление составило 2 секунды вместо 2 минут (рис. 6).

600 -

и 500 -

к

Ü 400 -342

X

il 300 -

481

162

■ 132

1 2 2 1

.0

° 200

ш

¡D 100

Чтение и Чтение и Соединение и Устранение Общее время

индексация индексация SDSS поиск дублей

3XMM сопоставлений

Без фильтрации С фильтрацией

Рис. 6. Сравнение времени сопоставления каталогов 3XMM и SDSS с фильтрацией и без

Для оценки масштабируемости метода в инфраструктуре облачных вычислении Microsoft Azure был развернут тестовый стенд. Его аппаратная составляющая представляет собой кластер из связанных локальнои сетью узлов в количестве от 2 до 12 со следующими характеристиками:

• 1/3 Intel Xeon E5-2673 v3 (4 ядра, 2.4 ГГц);

• 28ГБ ОЗУ;

• SSD.

Программное обеспечение:

• Java Runtime Environment 7;

• Apache Spark 2.0.0: От 8 до 48 потоков, по 4 потока на узел, 5ГБ ОЗУ на ядро.

Входные и выходные данные размещаются в облачном хранилище данных, связанном с каждым узлом кластера. Скорость чтения и записи в хранилище составляет 100МБ/с на любом узле кластера.

Эксперименты по оценке масштабируемости алгоритма проводились на полных каталогах GALEX и SDSS. На одном и том же числе потоков кластер показал скорость работы около 2 раз ниже,

1

2

0

чем на локальной машине. Это связано с тем, что хранилище кластера имеет скорость доступа в несколько раз ниже, чем накопитель, установленным на локальнои машине, процессоры узлов кластера имеют более низкую тактовую частоту, а также на локальнои машине нет необходимости передавать данные по сети. Также результаты экспериментов (рис. 7) показывают линеиную зависимость скорости работы алгоритма от числа узлов в кластере.

1400 -

1200

1200 -

Ü

i 1000 -

X

| 800 -720

о

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Ü 600 -

СП

! 400 -276 336 264

S. 264 216 222

со " ' '

84

200 114

....... 216 222

14 > llír II9654

15 4125 14 14

Чтение и Чтение и Соединение и Устранение Общее время

индексация индексация SDSS поиск дублей

GALEX сопоставлений

0

■ Локальный режим: 8 ■ Кластер: 8 16 32 48 ядер

Рис. 7. Скорость сопоставления каталогов предложенным методом в зависимости от числа ядер в кластере

Выводы

В работе предложен горизонтально-масштабируемый алгоритм сопоставления астрономических каталогов, реализованным на платформе распределенных вычислении Apache Spark. Метод обеспечивает необходимую точность сопоставления каталогов и хорошую производительность в сравнении с лучшими реализациями подобных систем, доступными в астрономическом сообществе. В частности, в нераспределенном режиме созданным алгоритм в несколько раз превосходит по скорости сопоставления каталогов популярную систему TOPCAT. Горизонтальная масштабируемость предложенного метода была подтверждена с помощью экспериментов на кластере, развернутом в облаке Microsoft Azure.

Мы видим следующие направления развития предложенного здесь базового метода распределенного сопоставления астрономических каталогов:

• Исследование возможности дальнейшего улучшения предложенного алгоритма в части скорости сопоставления объектов внутри клеток разбиения (см., например, [13]);

• Исследование проблемы сопоставления более двух каталогов (см., например, [16]) в реальном времени;

• Использование при сопоставлении каталогов дополнительных свойств объектов (помимо небесных координат), что позволит снять возможную проблему неоднозначности кросс-отождествления объектов исключительно по координатам.

Работа поддержана Российским фондом фундаментальных исследований (гранты РФФИ №14-22-03111 офи_м и №15-29-07085 офи_м). Авторы благодарят компанию Microsoft за облачные ресурсы, предоставленные коллективу в рамках программы "Microsoft Azure for Research". А.В. Мещеряков также благодарен финансированию за счет средств субсидии в рамках государственной программы повышения конкурентоспособности Казанского (Приволжского) федерального университета.

Литература

1. Герасимов С.В. и др. Архитектура системы обработки больших массивов астрономических данных //Материалы 4-й Всероссийской научно-технической конференции «Суперкомпьютерные технологии» (СКТ-2016). Ростов-на-Дону, 2016. Т. 2. С. 144-148.

2. Strasbourg astronomical Data Center (CDS) // URL:http://vizier.u-strasbg.fr/viz-bin/VizieR.

3. Alam S. et al. The eleventh and twelfth data releases of the Sloan Digital Sky Survey: Final data from SDSS-III //The Astrophysical Journal Supplement Series. - 2015. - Т. 219. - №. 1. - С. 12.

4. Ivezic Z. et al. Large Synoptic Survey Telescope: From science drivers to reference design //Serbian Astronomical Journal.

- 2008. - Т. 176. - С. 1-13.

5. Zaharia M. et al. Spark: cluster computing with working sets //HotCloud. - 2010. - Т. 10. - С. 10-10.

6. Taylor M. TOPCAT: tool for operations on catalogues and tables //Astrophysics Source Code Library. - 2011. - Т. 1. - С. 01010.

7. Devereux D. et al. An O (N log M) Algorithm for Catalogue Crossmatching //Astronomical Data Analysis Software and Systems XIV. - 2005. - Т. 347. - С. 346.

8. Guttman A. R-trees: a dynamic index structure for spatial searching. - ACM, 1984. - Т. 14. - №. 2. - С. 47-57.

9. Li N., Szalay A. CASJobs: A workflow environment designed for large scientific catalogs //2008 Third Workshop on Workflows in Support of Large-Scale Science. - IEEE, 2008. - С. 1-8.

10. Nieto-Santisteban M. A., Thakar A. R., Szalay A. S. Cross-matching very large datasets //National Science and Technology Council (NSTC) NASA Conference. - 2007.

11. Gorski K. M. et al. HEALPix: a framework for high-resolution discretization and fast analysis of data distributed on the sphere //The Astrophysical Journal. - 2005. - Т. 622. - №. 2. - С. 759.

12. Zhao Q. et al. A paralleled large-scale astronomical cross-matching function //International Conference on Algorithms and Architectures for Parallel Processing. - Springer Berlin Heidelberg, 2009. - С. 604-614.

13. Pineau F. X., Boch T., Derriere S. Efficient and Scalable Cross-Matching of (Very) Large Catalogs //Astronomical Data Analysis Software and Systems XX. - 2011. - Т. 442. - С. 85.

14. CDS X-Match service // URL:http://cdsxmatch.u-strasbg.fr/xmatch.

15. Juric M. Large Survey Database // URL:http://research.majuric.org/trac/wiki/LargeSurveyDatabase.

16. Pineau F. X. et al. Probabilistic multi-catalogue positional cross-match //arXiv preprint arXiv:1609.00818. - 2016.

References

1. Gerasimov S.V. i dr. Arkhitektura sistemy obrabotki bol'shikh massivov astronomicheskikh dannykh //Materialy 4-y Vserossiyskoy nauchno-tekhnicheskoy konferentsii «Superkomp'yuternye tekhnologii» (SKT-2016). Rostov-na-Donu, 2016. T. 2. S. 144-148.

2. Strasbourg astronomical Data Center (CDS) // URL:http://vizier.u-strasbg.fr/viz-bin/VizieR.

3. Alam S. et al. The eleventh and twelfth data releases of the Sloan Digital Sky Survey: Final data from SDSS-III //The Astrophysical Journal Supplement Series. - 2015. - T. 219. - №. 1. - S. 12.

4. Ivezic Z. et al. Large Synoptic Survey Telescope: From science drivers to reference design //Serbian Astronomical Journal.

- 2008. - T. 176. - S. 1-13.

5. Zaharia M. et al. Spark: cluster computing with working sets //HotCloud. - 2010. - T. 10. - S. 10-10.

6. Taylor M. TOPCAT: tool for operations on catalogues and tables //Astrophysics Source Code Library. - 2011. - T. 1. - S. 01010.

7. Devereux D. et al. An O (N log M) Algorithm for Catalogue Crossmatching //Astronomical Data Analysis Software and Systems XIV. - 2005. - T. 347. - S. 346.

8. Guttman A. R-trees: a dynamic index structure for spatial searching. - ACM, 1984. - T. 14. - №. 2. - S. 47-57.

9. Li N., Szalay A. CASJobs: A workflow environment designed for large scientific catalogs //2008 Third Workshop on Workflows in Support of Large-Scale Science. - IEEE, 2008. - S. 1-8.

10. Nieto-Santisteban M. A., Thakar A. R., Szalay A. S. Cross-matching very large datasets //National Science and Technology Council (NSTC) NASA Conference. - 2007.

11. Gorski K. M. et al. HEALPix: a framework for high-resolution discretization and fast analysis of data distributed on the sphere //The Astrophysical Journal. - 2005. - T. 622. - №. 2. - S. 759.

12. Zhao Q. et al. A paralleled large-scale astronomical cross-matching function //International Conference on Algorithms and Architectures for Parallel Processing. - Springer Berlin Heidelberg, 2009. - S. 604-614.

13. Pineau F. X., Boch T., Derriere S. Efficient and Scalable Cross-Matching of (Very) Large Catalogs //Astronomical Data Analysis Software and Systems XX. - 2011. - T. 442. - S. 85.

14. CDS X-Match service // URL:http://cdsxmatch.u-strasbg.fr/xmatch.

15. Juric M. Large Survey Database // URL:http://research.majuric.org/trac/wiki/LargeSurveyDatabase.

16. Pineau F. X. et al. Probabilistic multi-catalogue positional cross-match //arXiv preprint arXiv:1609.00818. - 2016.

Поступила 21.10.2016

Об авторах:

Глотов Евгений Сергеевич, магистрант второго года обучения лаборатории Технологий программирования кафедры Автоматизации систем вычислительных комплексов факультета Вычислительной математики и кибернетики Московского государственного университета им. М.В. Ломоносова, glot.unltd@gmail.com;

Герасимов Сергей Валерьевич, инженер факультета Вычислительной математики и кибернетики Московского государственного университета им. М.В. Ломоносова, sergun@gmail.com;

Мещеряков Александр Валерьевич, научный сотрудник Института космических исследований РАН, Казанского (Приволжского) федерального университета, mesch@iki.rssi.ru.

i Надоели баннеры? Вы всегда можете отключить рекламу.