Научная статья на тему 'Настройка выполнения параллельных программ'

Настройка выполнения параллельных программ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
118
40
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Телегин П. Н.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Настройка выполнения параллельных программ»

вычислительных ресурсах МВС может быть интегрирована в СУРЗ МВС.

Литература

1. Киселев Е.А. Построение информационного графа параллельной программы на основе данных профилирования и трассировки // Научный сервис в сети Интернет: экзафлопсное будущее: тр. Междунар. суперкомп. конф. (19-24 сентября 2011, г. Новороссийск). М.: Изд-во МГУ, 2011. С. 541-546.

2. Chou Chen-Ling, MarculescuRadu. Contention-aware Application Mapping for Network-on-Chip Communication Architectures. Computer Design, 2008. ICCD 2008. IEEE Intern. Conf. 2008.

3. NAS Parallel Benchmarks/ URL: http://www.nas.nasa. gov/publications/npb.html (дата обращения: 10.09.2012).

4. Аладышев О.С., Киселев Е.А., Корнеев В.В., Шабанов Б.М. Программные средства построения коммуникационной схемы многопроцессорной вычислительной системы. Высокопроизводительные вычислительные системы: матер. VII Междунар. науч. молодеж. школы. Таганрог: Изд-во ТТИ ЮФУ, 2010. С. 76-79.

5. Greening D.R. Parallel simulated annealing techniques, Emergent computation. 1991, pp. 293-306.

6. Баранов А.В., Киселев А.В., Киселев Е.А., Корнеев В.В., Семенов Д.В. Программный комплекс «Пирамида» организации параллельных вычислений с распараллеливанием по

данным // Научный сервис в сети Интернет: суперкомпьютерные центры и задачи: тр. Междунар. суперкомп. конф. (20-25 сентября 2010, г. Новороссийск). М.: Изд-во МГУ, 2010. С. 299-302.

References

1. Kiselev E.A., Trudy Mezhdunar. superkomp. konf. «Nauchny servis v seti Internet: ekzaflopsnoe buduschee» [Proc. of the Intern. Supercomp. Conf. «Scientific services in the Internet: exascale future»], Moscow, MSU, 2011, pp. 541-546.

2. Chou Chen-Ling, Marculescu Radu, IEEE Intern. Conf. ««Computer Design», 2008, pp. 5-10.

3. NAS Parallel Benchmarks, Available at: http://www.nas. nasa.gov/publications/npb.html (accessed 10 September 2012).

4. Aladyshev O.S., Kiselev E.A., Korneev V.V., Shaba-nov B.M., Materialy 7 Mezhdunar. Nauch. Molodezhnoy Shkoly [Proc. of the 7th Intern. Workshop on Modern School], Taganrog, Taganrog Technolog. Inst. of Southern Federal Univ., 2010, pp. 76-79.

5. Greening D.R., Emergent computation, 1991, pp. 293-306.

6. Baranov A.V., Kiselev A.V., Kiselev E.A., Korneev V.V., Semenov D.V., Trudy Mezhdunar. Superkomp. Konf. «Nauchny servis v seti Internet: superkomp. centry i zadachi» [Proc. of the Intern. Supercomp. Conf. «Scientific services in the Internet: supercomputing centers and objectives»], Moscow, MSU, 2010, pp. 299-302.

УДК 004.272, 004.31

НАСТРОЙКА ВЫПОЛНЕНИЯ ПАРАЛЛЕЛЬНЫХ ПРОГРАММ

П.Н. Телегин, к.т.н., зав. отделом (Межведомственный суперкомпьютерный центр РАН, Ленинский просп., 32а, г. Москва, 119991, Россия, ptelegin@jscc.ru)

Статья посвящена разработке методов оптимизации настройки выполнения программ для параллельных вычислительных систем с распределенной памятью (в данном случае на выбранном оборудовании). Настройка выполнения - это выбор параметров для параллельной программы с учетом специфики используемого оборудования. Под параметрами подразумеваются схема параллельного выполнения программы и распределение работы между процессорами (ядрами). В статье рассматривается выполнение программы, над которой предварительно проведена параллельная декомпозиция и выделены псевдолинейные участки, представляющие собой простые операции, структуры ветвления, циклы и неструктурированные участки с одним входом и выходом. Описаны декомпозиция программы и ее выполнение в потоковой, динамической и статической схемах. Исследованы три способа оценки времени работы программных фрагментов - предсказание времени работы, профилирование, оценка пользователем. Описан эффект усиления при предсказании времени работы программных фрагментов. Отношение времени коммуникаций к времени операций в процессорах велико, поэтому требуется тщательный анализ программы для принятия решения о ее параллельном выполнении. Исследуется планирование параллельных циклов. Приводятся формулы оценки эффективности выполнения циклов в разных схемах для разных случаев множеств передаваемых данных. Описанные методы оценки производительности реализованы в системе автоматизированного распараллеливания Ratio. Приведено сравнение предсказанного и реального ускорений программы интегрирования. Параллельная программа, использующая динамическую модель, была построена с помощью системы автоматизированного распараллеливания Ratio и выполнялась на суперкомпьютере МВС-100К.

Ключевые слова: параллельная программа, эффективность выполнения программ, настройка программ, модель программы, автоматическое распараллеливание, кластер, планирование, схема программы, декомпозиция программы.

TUNING EXECUTION OF PARALLEL PROGRAMS

Telegin P.N., Ph.D., Head of Department (Joint Supercomputer Center of RAS, 32a, Leninsky Av., Moscow, 119991, Russia, ptelegin@jscc.ru) Аbstract. The article describes issues related to development of optimization methods for tuning programs for distributed memory parallel computers. Optimization tuning of parallel programs for given hardware is discussed. Tuning means choice

of parameters of the parallel program for specific hardware. Parameters are the scheme of parallel execution and distribution of work among processors or cores. We consider execution of program with pre-made parallel decomposition and determined pseudolinear sections, including simple operation, branching structure, loops and unstructured regions with a single input and output. Program decomposition and its execution in flow, dynamic and static schemes is described. Three ways to estimate execution time of program fragments are investigated: time prediction, profiling, user assertion. Effect of magnification in predicting execution time of program fragments is described. The ratio of communication time operations time in processors is large, thus a careful program analysis to make a decision on parallel execution is required. Scheduling parallel loops is described. Formulas for efficiency estimation of the loops executions for different schemes and different transferred data sets are presented. The described method performance estimations was implemented in the automatic parallelization tool Ratio. Parallel program utilizing dynamic scheme was built using by Ratio parallelization tool and executed on MVS-100K supercomputer. The comparison of predicted and actual acceleration for application program is given.

Keywords: parallel program, programs efficiency, program tuning, program models, automatic parallelization, cluster, scheduling, program scheme, program decomposition.

Быстродействие программы на вычислительных кластерах зависит от того, насколько удачно она распараллелена. Для распараллеливания программы необходимо определить, что и как в программе будет выполняться параллельно. Однако для эффективной работы программы на кластере этого недостаточно. Различные вычислительные системы имеют разные параметры, влияющие на выполнение программ, - скорость работы процессоров, памяти, сетевых соединений. Поэтому для результативной работы распараллеленной программы на кластерной вычислительной системе нужно определить схему выполнения программы и распределение работы между процессорами (ядрами), то есть провести настройку выполнения параллельной программы.

Для такой настройки используются параллельная декомпозиция программы, оценки времени выполнения программных фрагментов на заданном оборудовании и параметры коммуникационной сети.

Декомпозиция программы

В качестве основного элемента параллельной декомпозиции, над которым производятся действия, рассматривается псевдолинейный участок, являющийся последовательностью блоков (программных структур) [1].

В качестве блоков рассмотрим следующие: Op - простой оператор языка, в том числе содержащий вызовы подпрограмм; If — структура ветвления (if-then-else, case); Lp — цикл (явный или неявный); Sd — неструктурированный участок программы с одним входом и выходом.

Цикл может содержать дополнительные выходы (такие, как leave). В случае, если дополнительный выход приходится не на конец цикла, цикл может рассматриваться либо как сложный заголовок блока If, либо как элемент блока Sd. Декомпозиция может быть выполнена вручную или с помощью анализатора программ, таких как BERT-77 [2] или Ratio.

Рассмотрим пример анализа декомпозиции и выбора схемы загрузки для потоковой, динамической и статической моделей выполнения программ [3]. Представим псевдолинейный участок:

op1 lp2

op3

CALL S1(X) DO 1=1, N CALL S2(Y(I)) ENDDO CALL S3(Z)

В данном примере подпрограммы не имеют побочного эффекта и псевдолинейный участок состоит из трех независимых блоков: op 1, lp2 и op3. Цикл lp2 является параллельным. Время исполнения примем равным: op1 - 25 мс, lp2 - 100 мс, op3 - 35 мс.

В потоковой или динамической схеме master/ worker (хозяин-слуга) master во время выполнения программы производит распределение работы между процессами worker (рис. 1). Обозначим m число частей, на которые разбит цикл lp2.

Master

f N. f N

Worker 1 Worker 2

call S1 call S3

Г \ С \

Worker 3.1 Worker 3.m

do ... do .

call S2 call S2

enddo enddo

V ^ J

Рис. 1. Распределение работы в потоковой и динамической схемах

В потоковой схеме для процессов хозяин и слуга используются разные коды программы, а в динамической - программная схема SPMD (одинаковый код программы для всех процессов).

Для динамической схемы имеем следующую программу: IF(master) THEN

! «хозяин»

n_parts = n_workers = m+2 ! вычисление количества параллельных частей DO i_part=1, n_workers

receive data from worker w ! получение данных от «слуги»

load_worker(w, i_part) ! отправка «слуге» очередных данных

! данных или признака окончания

ENDDO ELSE

work = .true.

DOWHILE(work)

отправка признака готовности получение очередного задания part goto (1, 2, 3, 4), part

1 receive x from master call s1(x) ! op1

send x to master goto 5

2 receive z from master call s3(z) ! op3

send z to master goto 5

3 receive imin, imax, y(imin:imax) from master DO i = imin, imax ! lp2

call s2(y(i)) ENDDO

send y(imin:imax) to master goto 5

4 work = .false. ! завершение работы

5 CONTINUE ENDDO

ENDIF

broadcast(x, y, z) ! рассылка данных

При использовании четырех ядер и m=4 получим загрузку ядер, представленную на рисунке 2, как для потоковой, так и для динамической схемы.

Разбиение цикла при m=10 представлено на рисунке 3.

Ядро 4

Ядро 3

Ядро 2

Ядро 1

60 70 время, мс

□ Master OWorkerl HWorker2 QWorker3.1 □Worker3.2 E3Worker3.3 DWorker3.4

Рис. 2. Загрузка в потоковой схеме ядер при разбиении цикла на 4 части

Ядро 4 Ядро 3 Ядро 2 Ядро 1

У/у /ушы

...X//.

v™

—1-1—1

время, мс

□ Master BWorkerl QWorker2 DWorker3.1

■Worker3.2 QWorker3.3 HWorker3.4 DWorker3.5

□Worker3.6 DWorker3.7 DWorker3.8 OWorker3.9 BWorker3.10

Рис. 3. Загрузка в потоковой схеме ядер при разбиении цикла на 10 частей

Таким образом, путем мелкого разбиения цикла можно добиться лучшей загрузки, в данном примере время сократилось с 60 до 55 мс. Однако в реальности время организации работы параллельных частей и передачи данных ограничивает разбиение.

Можно заметить, что в потоковой и динамической схемах память узлов используется неэффективно из-за значительного дублирования данных. Статическая модель основывается на распределении данных (в первую очередь массивов) между локальной памятью каждого узла. Как правило, при увеличении количества узлов объем памяти, требуемый узлом, уменьшается. Рассматриваемый псевдолинейный участок в предположении, что n делится нацело на 4, может быть представлен как программа в статической модели:

real y(n/N_nodes)

low = P*(n/N_nodes)+1 if(current_node .eq. node1) then s1(x)

else if(current_node .eq. node2) then

s3(z) endif

high = (P+1)*(n/N_nodes) do I = low, high

call s2(y(I- P*(n/N_nodes)) enddo

Диаграмма загрузки при разбиении памяти на 4 ядра представлена на рисунке 4.

Ядро 4

Ядро 3

Ядро 2

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Ядро 1

llllllllillllllll ГШ

шиш ......... IIIII

Lv4vL\\\

оооо '////

0 10 20 30 40 50 60 70

время, мс

HOP1 DOP3 DLP2.1 EJLP2.2 BLP2.3 DLP2.4

Рис. 4. Загрузка в статической схеме ядер при разбиении цикла на 4 части

Оценка времени выполнения

Методы оценки времени работы. Для планирования вычислений требуется оценка времени выполнения передачи данных программным блоком. Оценка времени выполнения программных элементов является сложной задачей. Рассмотрим три способа оценки времени работы программных фрагментов: предсказание времени работы, результат профилирования, оценка пользователем.

0

10

20

30

40

50

0

10

20

30

40

50

60

Предсказание времени работы. Время оценивается путем анализа программного кода. Основной проблемой данной оценки являются нечеткие и неполные данные.

В системе Ratio определяется время выполнения инструкций для конкретной вычислительной системы, которое является основой в определении времени выполнения инструкций. При определении времени выполнения составных программных объектов для ветвлений присваиваются вероятности переходов, для циклов оценивается количество итераций. В тех случаях, когда количество итераций не может быть получено путем анализа заголовка цикла (например, значения параметров цикла вводятся из файла), используются размерности массивов, обрабатываемых в цикле.

Эксперименты, проведенные с Ratio, показывают недостатки данного метода:

- невозможность предсказать результат оптимизации произвольного компилятора для конкретной вычислительной системы, влияющий на время выполнения; проблема усугубляется тем, что в последовательной и параллельной программах оптимизация может проводиться по-разному;

- в случаях косвенной оценки числа итераций цикла иногда наблюдается эффект усиления: если размерности массивов были выбраны программистом с запасом, то при глубоком вложении циклов ошибки оценки количества итераций увеличивались в геометрической прогрессии.

Профилирование. В системе Ratio возможно генерирование текста со вставленным кодом профилирования. Чтобы время выполнения программы значительно не замедлялось, профилируются не отдельные инструкции, а объекты, на основании данных о которых принимается решение о выборе схемы параллельного выполнения, а также определяется количество итераций для каждого цикла. Основным недостатком данного метода является то, что для профилирования пользователь выполняет задачу существенно меньшего объема, чем требуется. Из-за этого могут меняться соотношения между частями программы и оценки эффективности.

Оценка пользователем. Пользователь дает указания автоматической или автоматизированной системе о значениях ключевых переменных, количестве итераций циклов, а также о времени выполнения участков программы. Недостаток данного подхода в том, что от пользователя требуется знание программы и основ распараллеливания. Система в диалоге может указать, какие параметры требуются, но при этом от пользователя все равно может потребоваться изучение программы. Указание времени выполнения пользователем является интуитивно неясным, так как речь идет о выполнении на разных системах.

Таким образом, каждый из перечисленных подходов имеет существенные недостатки. Для их

сокращения система Ratio использует все три подхода.

Время коммуникаций. Время передачи данных между процессорами кластера определяется двумя базовыми параметрами: латентностью и временем передачи единицы информации.

Как можно заметить, в системах с распределенной памятью латентность при передаче данных соответствует нескольким тысячам операций. При типичной латентности Tla«5 мкс время выполнения одной итерации Ti может составить порядка 1 нс. Таким образом, отношение латентности ко времени выполнения одной итерации R=Tlat/Ti« «5 000. Такое соотношение требует тщательного анализа программы для принятия решения о ее параллельном выполнении.

Рассмотрим базовые коммуникации.

Простая передача данных. Обозначим количество передаваемых данных D, а время передачи одного байта Tbyte. В этом случае время передачи Tsend может быть выражено простой формулой:

Tsend= Tlat+Tbyte*D.

Коллективные операции (рассылка и редукция) в большинстве программных реализаций требуют log(N) шагов, где N - количество узлов. На каждом шаге необходимо передавать D байт. Таким образом, время рассылки Tbroadcast выражается как

TbroadcaSt=TSend*log(N)=(Tlat+Tbyte*D)* log(N).

Планирование параллельных циклов. Для определения времени выполнения параллельного цикла нужно знать количество передаваемых данных, время выполнения итерации и параметры сети (латентность и время передачи байта). Заметим, что время выполнения итерации может зависеть, с одной стороны, от особенностей оптимизации компилятором, с другой - от эффектов кэш-памяти. В подобных случаях это может как снизить эффективность параллельной программы, так и увеличить, приведя к сверхлинейному ускорению. Рассмотрим планирование цикла DO на N ядер в различных моделях выполнения [4]. Для итерации цикла используем оценки среднего и минимального времени выполнения. Желательно также иметь приемлемую оценку максимального времени, что не всегда возможно.

Введем обозначения: Ti - среднее время итерации цикла; Tm - минимальное время итерации цикла; L - количество итераций цикла; Dc - количество одинаковых для всех процессов данных, подлежащих рассылке; Dv - количество различных для процессов данных, подлежащих рассылке.

Рассмотрим планирование следующего цикла для разных схем выполнения: real*4 a(100), b(100)

do i = 1, 100

do j = 1, 50

a(i) = a(i) + b(j)

enddo enddo

Примем такие значения параметров: L=100, Dc=200 (b(1:50)), Dv=4 (a(i)).

Потоковая схема. В этой схеме данные пересылаются от хозяина к слуге перед выполнением части цикла, а после выполнения отсылаются от слуги к хозяину. Данные, требуемые частями цикла, обозначим IN; вычисляемые частями цикла -OUT; вычисляемые редукционными операциями -REDUC.

Пусть Niter - количество итераций в части цикла; Nin - количество байтов IN: Nin=Dc+Niter*Dv, где Niter - количество итераций.

Заметим, что данные, требуемые для организации цикла, добавляются к Dc.

Аналогичные формулы верны для данных OUT и REDUC, в частности: Nout=Rc+Npart* R+Rv, где Npart - количество частей, на которые разбит цикл; Rc - объем данных, вычисляемых слугой, не зависящий от числа итераций (редукции); Rl - объем данных, вычисляемых слугой, зависящий от числа итераций; Rv - объем данных, вычисляемых слугой, определяемый на последней итерации.

Рассмотрим два случая.

1-й случай: Nin>Nout, то есть объем входных данных (множества IN) превышает объем выходных данных (множества OUT).

На рисунке 5 приведена временная диаграмма для четырех процессов «слуга». Показаны прием исходных данных (включая ожидание), выполнение и передача результатов.

Л\\\\\1\\\\\\1\\1-- --VJJ

sSSSSSS kssssst -f' //A

\\\W\ //Л

^- 1 — =3u —Y/A

0 0,2 0,4 0,6 0,8 1

время (мс)

Ыприем Пвыполнение Ипередача Ппростой

Рис. 5. Временная диаграмма передачи данных

Как можно заметить, на критическом пути находится передача данных множества IN. Для OUT на критическом пути находится только последняя порция данных. В данном случае время выполнения цикла T4=Nw*TSend(Nin)+TSend(Nout)+Torg+L/Nw*Ti в предположении, что количество слуг не превышает количество ядер, где Nw - количество слуг; Torg - время организации цикла; TSend(Nin)=TM+ +Tbyte*(Dc+L/Nw*Dv), где Tlat - латентность сети, Tbyte - время передачи одного байта; Torg=Torg+Nw*Torg, где Torg - постоянная часть; Tvorg - переменная часть.

Таким образом,

Тц = 1/Nw * L * (T +R) + Nw * (Tto + Tbyte * Dc + T\rg) +

+L * Dv + Tcorg + R = 1/ Nw * c + Nw * a + d.

Эта функция достигает минимума при

Заметим, что время редукционных операций можно учитывать при Torg.

2-й случай: Nout>Nin, то есть объем выходных данных превышает объем входных данных.

Эта ситуация противоположна предыдущей. Время выполнения цикла T4=Nw*TSend(Nout)+

+Tsend (Nm)+Torg+L/NW*T,.

Критерий минимизации аналогичен, при этом меняются множества IN и OUT.

В динамической схеме данные множества IN не передаются, а данные множества OUT сначала принимаются хозяином после завершения части работы слуги, а затем рассылаются всем процессам.

В этом случае время выполнения цикла

T = Nw * Tsmd (Nout) + Torg +

+T4w (R + R+L* Rv) + L/ Nw *T.

С учетом времени рассылки данных

Tbrood (X) = ri°gp 1 * Tsend (X) имеем:

T =1/ Nw *L* T + Nw * (Тш + * (R + R) + Гощ) + +og(Nw)+ Te *( R + R +L* R) + L * R + Torg = =Nw *a + log( Nw) * b + 1/ Nw *c + d.

Данная функция достигает минимума при -Ъ/

N...

ln2 + V

Ъ / 2 „ + 4ac /ln2 2

2 a

Планирование статической схемы похоже на планирование динамической. Главное отличие состоит в том, что коэффициенты a, b, c, d не вычисляются для конкретного цикла, а суммируются для множества циклов, часто для всех параллельных циклов в программе.

Тестирование. Описанные методы оценки производительности реализованы в системе автоматизированного распараллеливания Ratio. Приведем результаты сравнения предсказанного и реального ускорений программы интегрирования. Параллельная программа была построена с помощью системы автоматизированного распараллеливания Ratio. При анализе системой Ratio выбрана динамическая модель. Результаты измерений выполнения программы на вычислительной системе МВС-100К в МСЦ РАН приведены в таблице. Точность оценки ускорения представляется достаточной для принятия решения о планировании циклов с учетом факторов, трудно поддающихся априорному анализу, таких как распределение кэш-памяти.

4

3

с 2

Результаты прогонов программы на МВС-100К

Подытоживая, отметим, что в статье предложен метод выбора схемы параллельной программы на основе автоматического предсказания времени выполнения программных фрагментов. Данный метод реализован в системе автоматизированного распараллеливания Ratio, проведена оценка его эффективности.

Литература

1. Melnikov V., Shabanov B., Telegin P. and Chernjaev A. Automatic Parallelization of Programs for MIMD Computers.

Springer-Verlag, Tokyo, 1992.

2. Telegin P. and Eadline D. An Easier Way. Clusteworld, 2004, Vol. 2, November, pp. 42-45.

3. Telegin P. Scheduling Paralel Programs. Clusterworld, 2004, September, pp. 40-43.

4. Шабанов Б.М., Телегин П.Н., Телегина Е.В. Влияние архитектуры на модели программирования параллельных вычислительных систем // Изв. вузов: Электроника. 2011. № 2 (88). С. 60-65.

5. Суперкомпьютер МВС-100К. URL: http://www.jscc.ru/ hard/mvs100k.shtml (дата обращения: 24.08.2012).

References

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1. Melnikov V., Shabanov B., Telegin P. and Chernjaev A., Automatic Parallelization of Programs for MIMD Computers, Springer-Verlag, Tokyo, 1992.

2. Telegin P. and Eadline D., An Easier Way. Clusteworld, 2004, Vol. 2, November, pp. 42-45.

3. Telegin P., Scheduling Paralel Programs, Clusterworld, September 2004, pp. 40-43.

4. Shabanov B.M., Telegin P.N., Telegina E.V., Izvestiya vuzov: Elektronika, 2011, Vol. 2 (88), pp. 60-65.

5. Supercomputer MVS-100K, Available at: http://www.jscc. ru/hard/mvs 100k.shtml (accessed 24 August 2012).

Количест- Предсказанное Реальное Ошибка пред-

во ядер ускорение ускорение сказания, %

16 14,89 14,79 0,65

32 30.87 29,37 5,08

64 56,73 47,73 18,86

128 88,64 65,26 35,82

256 94,27 91,926 2,55

512 101,04 102,27 -1,21

1024 59,7 69,486 -14,08

УДК 025:65.011

ПРИНЦИПЫ ПОСТРОЕНИЯ И ФОРМИРОВАНИЯ ЭЛЕКТРОННОЙ БИБЛИОТЕКИ «НАУЧНОЕ НАСЛЕДИЕ РОССИИ»

Н.Е. Калёнов, д.т.н., профессор, директор библиотеки по естественным наукам РАН; Г.И. Савин, академик РАН, д.ф.-м.н., профессор, директор МСЦ РАН; В.А. Серебряков, д.ф.-м.н., профессор, зав. отделом; А.Н. Сотников, д.ф.-м.н., профессор, зам. директора (Межведомственный суперкомпьютерный центр РАН, Ленинский просп., 32а, г. Москва, 119991, Россия, ASotnikov@jscc.ru)

Рассматривается подход к формированию цифровых информационных ресурсов средствами электронных библиотек. Представлена реализация проекта по созданию электронной библиотеки «Научное наследие России». Определены ее место и роль среди аналогичных проектов российского и мирового цифрового научно-образовательного пространства. Сформулированы основные архитектурные принципы построения электронной библиотеки и формирования ее информационных фондов. Определены источники, структура и типы цифровых информационных объектов. Предложена концепция интеграции информационных объектов различной природы в единое информационное пространство. Обсуждаются возможности формирования межведомственной кооперации по созданию интегрированного информационного ресурса.

Ключевые слова: электронные библиотеки, цифровые информационные ресурсы, интеграция данных.

SCIENTIFIC HERITAGE OF RUSSIA DIGITAL LIBRARY: CONSTRUCTION AND SOURCES AGGREGATION PHILOSOPHY

Kalenov N.E., Ph.D., Professor, Director qf the Library of Natural Sciences ofRAS;

Savin G.I., Academician of RAS, Ph.D., Professor, Director JSC of RAS;

Serebryakov V.A., Ph.D., Professor, Head of Department JSC of RAS;

Sotnikov AN., Ph.D., Professor, Deputy Director JSC of RAS (Joint Supercomputer Center of RAS, 32a, Leninsky Av., Moscow, 119991, Russia, ptelegin@jscc.ru) Abstract. A construction philosophy for digital information resources by digital libraries tools is considered. Russian Scientific Heritage Digital Library Project is under consideration. Place and role of the Russian Scientific Heritage Digital Library among similar local and international projects where defined. Basic architecture statements and data aggregation tools for digital library construction were presented. Sources, types and structure of the digital objects were discussed. Data integration and federation concept as a main stone for the common education and scientific space is presented. Collaboration across national boundaries and information sources defined as imperative. Keywords: digital libraries, digital information resources, data integration.

i Надоели баннеры? Вы всегда можете отключить рекламу.