Научная статья на тему 'Параллельно-распределенное программное моделирование и проектирование систем дистанционного экологического мониторинга подводных акваторий'

Параллельно-распределенное программное моделирование и проектирование систем дистанционного экологического мониторинга подводных акваторий Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
96
13
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СТОХАСТИЧЕСКОЕ МОДЕЛИРОВАНИЕ / STOCHASTIC SIMULATION / ПОДВОДНЫЕ ВОЛНОВОДЫ / UNDERWATER WAVEGUIDES / СИСТЕМЫ КОМПЬЮТЕРНОГО МОДЕЛИРОВАНИЯ / COMPUTER AIDED MODELING / COMPUTER-AIDED SIMULATION / ПАРАЛЛЕЛЬНЫЕ АЛГОРИТМЫ / PARALLEL ALGORITHMS / ПАРАЛЛЕЛЬНО-РАСПРЕДЕЛЕННЫЕ СИСТЕМЫ / PARALLEL AND DISTRIBUTED SYSTEMS / ПАРАЛЛЕЛЬНОЕ ДИСКРЕТНО-СОБЫТИЙНОЕ МОДЕЛИРОВАНИЕ / PARALLEL DISCRETE EVENT SIMULATION / ИМИТАЦИОННОЕ МОДЕЛИРОВАНИЕ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Чусов Андрей Александрович, Стаценко Любовь Григорьевна, Сальников Борис Александрович, Сальникова Евгения Николаевна

Представлен метод моделирования распространения звука в случайно-неоднородных подводных волноводах и программа, для проведения районирования подводных акваторий по уровню стохастичности поля скорости звука при проектировании систем дистанционного экологического мониторинга различного назначения.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Чусов Андрей Александрович, Стаценко Любовь Григорьевна, Сальников Борис Александрович, Сальникова Евгения Николаевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Simulating and developing systems of re-mote ecological monitoring of underwater areas using parallel and distributed software tools

A method of modeling sound radiation in stochastic randomly inhomogeneous underwater waveguides is presented in the article as well as a program for zoning underwater areas according to sound velocity field stochasticity levels. The program is used during developing systems of remote ecological monitoring of underwater areas.

Текст научной работы на тему «Параллельно-распределенное программное моделирование и проектирование систем дистанционного экологического мониторинга подводных акваторий»

© С.Ю. Торопов, B.C. Дорофеев, Ю.Д. Земенков, 2013

УДК 534.222

А.А. Чусов, Л.Г. Стаценко, Б.А. Сальников, Е.Н. Сальникова

ПАРАЛЛЕЛЬНО-РАСПРЕДЕЛЕННОЕ ПРОГРАММНОЕ МОДЕЛИРОВАНИЕ И ПРОЕКТИРОВАНИЕ СИСТЕМ ДИСТАНЦИОННОГО ЭКОЛОГИЧЕСКОГО МОНИТОРИНГА ПОДВОДНЫХ АКВАТОРИЙ

Представлен метод моделирования распространения звука в случайно-неоднородных подводных волноводах и программа, для проведения районирования подводных акваторий по уровню стохастичности поля скорости звука при проектировании систем дистанционного экологического мониторинга различного назначения.

Ключевые слова: стохастическое моделирование, подводные волноводы, системы компьютерного моделирования, имитационное моделирование, параллельные алгоритмы, параллельно-распределенные системы, параллельное дискретно-собьпийное моделирование.

Основная идея экспериментально-теоретических методов районирования подводных акваторий по уровню неоднородности тонкой структуры - случайной компоненты поля скорости звука - заключается в том, что по результатам натурного акустического эксперимента по дальнему распространению определяется режим стохастичности гидрофизических параметров водной среды. Вертикальные распределения акустического поля (ВРАП), полученные в натурном эксперименте, или некоторые характеристики, рассчитанные с использованием экспериментальных ВРАП, сравниваются с расчётной базой данных, для определения соответствия экспериментальных функций ВРАП одному из режимов стохастичности (слабые флуктуации, сильные флуктуации и режим насыщения).

Уравнение лучевых траекторий в переменном поле скорости звука, полученное из принципа Ферма, имеет вид

C (х, z) • -

d 2 d z

Ах 2

/

dz V dx j

<2 V \

Л f dz dC (x, z) dC (x, z)Л

V

dx

dx

dz

= 0

j

(1)

где общая модель поля скорости звука С(х,2) описывается выражением

С (х, г) = СОП (х, г) + АС * (х, г) + АС= (х, г), (2)

Сх, 2 - «истинное» вертикальное распределение скорости звука (ВРСЗ); СОП (х, г) - опорное (усредненное) ВРСЗ, измеренное в результате гидрологи-ческой съемки акватории или полученное на основании исторического массива гидрологических

данных - детерминированная компонента; АС ~ (х, г) - случайная компонента для моделирования стохастичности поля скорости звука, причём ^ АС~ (х, г= 0, АС~ (х, г) - детерминированная поправка для моделирования локальных нарушений опорного ВРСЗ, вызванных термоклинными линзами, донными газотермальными источниками или техногенными факторами.

Для моделирования стохастичности гидрофизических параметров водной среды используется метод Монте-Карло. Анизотропная стохастичность моделируется путём учёта случайной компоненты поля скорости звука. Модельный полигон в вертикальной плоскости разбивается на прямоугольные ячейки, в центр которых генератором случайных чисел распределяются максимальные значения, АС ~ (х, г) не превышающие наперёд заданные. Присвоенное значение АС ~ (х, г) снижается до нуля к границе ячейки.

Входными параметрами модели являются: длина и глубина полигона, глубина расположения излучателя, угол раскрыва излучения, вертикальное распределение скорости звука (детерминированная гидрология) по трассе распространения зондирующего излучения, количество экспериментов, величина максимального значения случайной составляющей скорости звука. Программа позволяет задавать рельеф дна, располагать в водной толще термоклинные линзы, донные газотермальные источники и другие локальные неоднородности.

Выходными параметрами являются: глубины и углы прихода лучей, время распространения звука по лучу на заданные вертикальные разрезы.

Результаты численного эксперимента обрабатываются методом усреднения «по пространству». Метод усреднения «по

пространству» заключается в усреднении результатов моделирования по дискретным интервалам глубин прихода лучевых траекторий. Такой подход позволяет оценить структуру звуковых полей подсветки в рамках единой математической модели и выявить основные закономерности влияния случайной компоненты поля скорости звука, при любом уровне стохастично-сти.

Дискретное по дальности х вертикальное распределение акустического поля (ВРАП) A(n, x) адекватно описывают его зональную структуру:

A(n, x) = ^^, (3)

L ■ m

где L(n, x) - количество лучей, пришедших в n-й интервал глубины вертикального разреза, расположенного на расстоянии x от источника за m экспериментов; L - число лучей, вышедших из источника за один эксперимент; m - число проведённых экспериментов. Данная нормировка является одной из модификаций метода согласованного поля, при этом

N

X A(n, x) = 1, (4)

n=1

где N = H/Az количество эквидистантных дискретных отсчётов ВРАП по глубине z, H - глубина моря в месте расположения вертикального разреза, Az - интервал усреднения акустического поля по глубине, 1 < n < N - номер дискретного отсчёта по глубине (дискретная координата глубины), z = Azn - текущая координата глубины. В данном случае дискретную функцию A(n, x) можно трактовать как распределение вероятности глубин прихода лучевых траекторий при фиксированной дальности x.

Предложенный алгоритм обработки результатов стохастического моделирования является развитием методов расчета акустических полей на основе построения подробной лучевой картины без вычисления амплитуды звукового поля на луче [8].

В данном случае процедура вычисления усредненного поля вертикального разреза на фиксированной дальности х в дискретных отсчетах глубины n сводится к простому суммированию лучей, пересекающих n-ый интервал глубины Az, без вы-

числения их фактора фокусировки. Такой подход в отличие от классического лучевого метода позволяет корректно вычислить усредненное поле в точках заворота лучей и на каустиках.

Основная идея косвенных методов классификации подводных волноводов по уровню случайной компоненты поля скорости звука заключается в том, что по результатам натурного акустического эксперимента по дальнему распространению определяется режим стохастичности гидрофизических параметров водной среды. Вертикальное распределение акустического поля, полученное в натурном эксперименте, или некоторая характеристика, рассчитанная с использованием экспериментальных ВРАП, сравниваются с расчётной базой данных, для определения соответствия экспериментальной функции ВРАП одному из режимов стохастичности (слабые флуктуации, сильные флуктуации и режим насыщения).

Окраинные моря Дальнего Востока расположены в сейсмически активных зонах с большим количеством переменных донных газотермальных источников. Поэтому, в связи с частыми изменениями подводной обстановки, существующие исторические базы данных ВРСЗ быстро устаревают. Также на отдельных акваториях изменяются режимы стохастичности поля скорости звука. Поэтому необходимо оперативное районирование акваторий по ВРСЗ, базы данных которых используются для создания расчетной базы данных ВРАП с заданной дискретностью по дальности при различных уровнях стохастич-ности поля скорости звука. При этом требуется снижение временных затрат на расчет ВРАП и изменение соответствующих баз данных. Для снижения времени расчета целесообразно применение новых программно-аппаратных архитектур, таких как параллельно-распределенные информационные системы.

Верхнеуровневая архитектура среды проведения модельных экспериментов

Структурная диаграмма среды проведения экспериментов приведена на рис. 1. При ее создании использовались положения [9]. Каждый модельный эксперимент выполняется совокупностью основных единиц выполнения - логическими процессами (LP). Один LP проводит отдельный имитационный эксперимент с целью моделирования прохождения одного луча при заданных параметрах. Каждый LP выполняется на свободном

вычислителе из системы, имеющейся на вычислительном узле. Распределение нагрузки между вычислителями на узле, реализуемое в соответствии с архитектурой вычислителя, осуществляется на том же узле. Управление нагрузкой на узлы осуществляется подсистемой управления вычислительными узлами, задачей которой является хранение и предоставление адресов всех узлов системы, а также гарантия их подлинности.

Рис. 1. Верхнеуровневая структурно-контекстная диаграмма системы моделирования

Информационное наполнение баз данных системы определяется измеренным в результате гидрологической съемки либо полученным из исторических источников ВРСЗ СОП (х, z) , а

также результатами проведения модельных экспериментов по получению ВРАП А(п, х). База данных А(п, х) хранит ВРАП в виде набора компонентов формулы (3): число испускаемых источником лучей Ь, постоянное для всех экспериментов на одной модели, метрики отчетов п и х, число модельных экспериментов т и матрицы распределения Ь(п, х) по глубине п и дальности х чисел лучей. Во время проведения модельных экспериментов эта же база данных хранит набор матриц Ь(п, X) по дальности и глубине для каждого из модельных экспериментов. Здесь 0 < 1 < т - идентификатор модельного эксперимента. Система управления базой данных, описанная ниже, построена на основе требований к минимальным издержкам, связанным с состязательностью клиентов при обращении к базе данных.

Любое взаимодействие пользователя либо внешней по отношению к среде системы обеспечивается средствами подсистемы управления. Каждый пользователь должен взаимодействовать с собственным экземпляром подсистемы. Подсистема визуализации возвращает графическое представление результатов моделирования.

При развертывании системы ее узлы должны регистрироваться на сервере, при этом идентификатор, адрес и ключи аутентификации регистрируемого узла заносятся во внутренние базы данных подсистемы управления вычислительными узлами. При необходимости клиент сервера по идентификатору получает адрес запрашиваемого узла лишь в том случае, если подлинность последнего подтверждена. При этом сервер исключается из набора участников информационного обмена между авторизированными узлами.

Этой же подсистемой осуществляется распределение нагрузки между вычислительными узлами. При этом используется следующий протокол. Адрес каждого из вычислительных узлов заносится в реестр адресов, представленный на рис. 2. Также в него заносится список входных параметров по выполнению отдельного имитационного эксперимента. Во время проведения процедуры моделирования подсистема

Реестр подсистемы управления вычислительной нагрузкой

Адрес вычислительного узла 1 Адрес вычислительного узла 2 ... Адрес вычислительного узла N

Параметры 1„Р

параметры имитационного эксперимента: (/', /т,дг>е,ф) параметры имитационного эксперимента: (/, п. дг. 9, ф) параметры имитационного эксперимента: (А, п, х, 0, ф) ,,,

Рис. 2. Реестр подсистемы управления вычислительными узлами

управления вычислительными узлами рассылает сообщение о наличии в реестре параметров невыполненных имитационных экспериментов. Подсистемы управления нагрузкой свободных вычислительных узлов посылают запрос на получение необходимого количества

этих параметров. Подсистема управления вычислительными узлами посылает эти параметры выбранным вычислительным узлам, остальным узлам посылается отказ в предоставлении параметров. Выбор подсистем, выполняющих имитационные эксперименты, осуществляется по количеству запрошенных параметров. Приоритетными являются запросы на получение максимального количества параметров. Узлы, получившие необходимые параметры, запускают соответствующее число логических процессов. По завершении работы логического процесса последний изменяет элементы базы данных ВРАП в соответствии с полученными результатами и идентификатором модельного эксперимента. По завершении работы всех имитационных экспериментов, составляющих 1-й модельный эксперимент, основная база данных ВРАП модифицируется векторным сложением:

(Ц(п, х) т~) = (Ь(п, х) т) + (Ц (п, х) 1).

Подобные схемы управления нагрузкой в параллельных и распределенных системах имитационного моделирования яв-

ляются предметом исследований в работах [9, 10], посвященных принципам РОББ. В соответствующих терминах сервер осуществляет хранение списка событий, которыми являются сообщения о появлении задач по проведению имитационного эксперимента с заданными параметрами.

Запуск распределенной системы моделирования заключается в запуске подсистемы управления вычислительными узлами, которая осуществляет опрос и аутентификацию всех обслуживающих и моделирующих подсистем, по известным ей адресам и с использованием ключей, полученных во время регистрации. После запуска подсистема должена производить циклическое прослушивание своих каналов на предмет подключения недоступных ранее узлов и подсистем.

При запуске пользователем экземпляра управляющей подсистемы производится процедура инициализации подсистемы в подсистеме управления вычислительными узлами. Узел, на котором развернута управляющая подсистема и пользователь проходят процедуры аутентификации (либо регистрации, если это разрешено политикой безопасности и поддерживается соответствующим протоколом) и авторизации, обращаясь по известному адресу к серверу безопасности. Далее, посредством обращения к подсистеме управления вычислительными узлами, управляющая подсистема пользователя получает список адресов и идентификаторов доступных узлов, на которых развернуты остальные подсистемы. Далее пользователь задает моделируемый объект путем создания элементов геометрической модели и регистрации их в подсистеме визуализации.

После создания геометрической модели адрес реализующего ее компонента предоставляется вычислительным узлам по запросу. Подсистема управления вычислительными узлами регистрирует входящие в систему узлы, осуществляющие параллельное имитационное моделирование, в описанном выше реестре и, в случае появления новых компонентов имитационного анализа, передает параметры, полностью описывающие эти компоненты, подсистеме управления нагрузкой.

Выполнение задач по расчету распределения поля для каждого модельного эксперимента, по каждому направлению и для каждого источника независимо позволяет разбить процесс моделирования на множество параллельных единиц выполнения.

Система управления банком данных (СУБД)

Сервер банка данных АМВ

Подсистем управления данными

Иодеистома управления хранилищем

Подсистема синхронизации доступа на основе механизма

\\гтг

Подсистема безопасности на основе 1МСХ

Серверная подсистема

Делегирование вызовов

А

X

Отображение ссылок

на элементы в память

--

IЬ >дсж Iема безопасности - контроль за принципалом:

-анггоризация

""^гентификанил

-импессоиация_

Т

IКРСЛРСI

ИРС-клиенты

Рис. 3. Верхнеуровневая структурно-контекстная диаграмма СУБД

Основным фактором, прямо влияющим на структуру СУБД в представленной реализации (рис. 3), является необходимость обеспечения одновременного синхронизированного доступа множества клиентов - подсистем (рис. 1) распределенной системы к большому объему данных банка. В связи с этим имеет смысл использовать такой способ физической организации данных в хранилище отдельной базы данных, при котором эти данные предваряются хеш-таблицей, значения которой сгруппированы в древовидную структуру. Структура дерева выбирается такой, при которой ее ветви и листья обладают наименьшей временной взаимозависимостью. Последнее дает возможность свести к минимуму использование блокирующих механизмов синхронизации. Это дает возможность использовать механизмы, при которых синхронизация доступа к банку клиентов является менее затратной. В системе моделирования для синхронизации доступа клиентов к базам данных используется механизм ШИ, подробно описанный в [11] и [12]. Ввиду того, что в соответствии с принципом 6 на описываемом уровне абстракции тип хранимых данных не определен, дополнительным требованием является обеспечение СУБД обобщенности хранимых элементов, которая обеспечивается вплоть до внешних интерфейсов.

В структуру СУБД включены две подсистемы (рис. 3). Первая - подсистема управления данными - определяет физическую организацию данных, обеспечивает синхронизацию доступа к данным и элементам описанного выше дерева. Кроме того обеспечивается контроль доступа принципалов к этим данным.

Данные распределяются по типам, заданным клиентами. Данные каждого типа хранятся в отдельном файле на сервере. Это обеспечивается второй подсистемой - серверной. Она обеспечивает внешнюю синхронизацию и защиту доступа к подсистеме управления данными.

Каждый файл хранит отдельное дерево. Ниже описана структура такого файла и хранимых в нем данных.

Структура заголовка файла:

1) Управляющее слово - целочисленный идентификатор формата файла заданной длины.

2) Версия формата.

3) Идентификатор типа файла. Задается клиентом при создании базы данных.

4) Версия типа файла. Задается клиентом при создании базы данных.

5) Максимально допустимый размер листового элемента данных. Также задается клиентом при создании базы.

6) Супергруппа фиксированного размера. Корень описанного ниже дерева.

Дерево, хранимое в файле, состоит из элементов трех типов: супергруппа, группа и элемент. Элементы последних двух типов имеют имена. Хеш-значения, по которым эти элементы идентифицируются, являются значениями детерминированной функции от имени.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Каждый элемент дерева, кроме корня, сопровождается указателем, под которым в данном разделе подразумевается значение, состоящее из хеш-идентификатора Ю фиксированной длины и 8-байтового сдвига данных элемента относительно начала файла /Р.

Как уже было упомянуто корнем дерева файла является супергруппа, входящая в заголовок. Супергруппа представляет собой упорядоченный по идентификаторам вектор Б0 = {Р0} из фиксированного числа указателей на группы и их имен ИМ. Имена также имеют фиксированное ограничение сверху по

длине. Элементы супергруппы делятся на несколько категорий. Первыми являются те элементы, имена которых имеют действительные значения, т.е. элементы, содержащие реально существующие группы. В том случае, если группа пуста и не имеет зарезервированного под элементы пространства, файловый указатель /Р на данные группы, хранимый в указателе супергруппы, имеет служебное значение -1 в дополнительном коде. Если группа пуста, но имеет зарезервированное пространство, все ее элементы, представляющие собой указатели, имеют /Р = -1. Последними в супергруппу входят элементы с идентификаторами, имеющими служебное значение -1. Соответствующие группы рассматриваются системой как несуществующие. Вместе с тем среди них также есть деление на категории и упорядочение по файловым указателям: первыми идут элементы, имеющие зарезервированное пространство (/Р Ф -1). При создании клиентом новой группы такие элементы имеют приоритет при выборе места для хранения указателя новой группы. Вектор Б0 оканчивается возможными пустыми элементами, оба поля указателей которых имеют значения -1.

Данные группы (рис. 20) представляют собой односторонние связанные списки из векторов фиксированного размера ИЕ, состоящих из указателей. Первые - 1 указателей являются указателями на фактические данные и имеют идентификаторы, образуемые детерминировано от имен элементов с помощью хеш-функции. Структура данных таких элементов, образующих листы дерева, представлена тремя полями:

1. Имя элемента, которое должно быть уникальным в пределах всей группы (по причине упорядоченности элементов по соответствующим хеш-значениям);

2. Четырехбайтовый размер данных элемента, в байтах, диапазон значений которого ограничен сверху максимальным размером, указанным в заголовке файла;

3. Буфер данных элемента размером, указанным в заголовке, содержащий заданное предыдущим полем количество байт данных элемента.

Последний элемент вектора указывает на следующее звено списка группы. Этот элемент имеет значение идентификатора, равное идентификатору группы и файловый сдвиг на данные следующего звена. Смысл служебного значения -1 полей указателя элемента тот же, что и для группового указателя. Упоря-

дочение указателей элементов ведется по всему групповому списку.

Клиент подсистемы для обращения к структурным элементам физической модели хранения данных использует дескриптор, который указывает на следующую информационную структуру.

1) Идентификатор дескриптора фиксированной длины -жестко заданное целочисленное значение, служащее для типизации дескрипторов, подобных данному, и всегда являющихся первыми значениями соответствующих структур.

2) Дескриптор объекта ядра - файла, который фактически хранит данные. Размер данного поля зависит от используемой для работы подсистемы платформы.

3) Указатель на имя экземпляра механизма синхронизации ШИ, реализующего модель синхронизации «читающий-пишущий» и описанного в [11] и [12]. Экземпляр с заданным именем осуществляет синхронизацию всех потоков выполнения, открывших либо создавших этот экземпляр. Имя является хеш-функцией от абсолютного имени файла, хранящего данные. Кроме того, на экземпляр ШИ в рамках данной подсистемы налагается дополнительное требование в средах с поддержкой пространств имен для объектов ядра: экземпляр должен быть доступен с глобального пространства. Соответствующие манипуляции с именем, специфические для конкретной платформы, также производятся при создании/открытии ШИ. Размер данного поля зависит от платформы.

4) Дескриптор экземпляра механизма синхронизации ШИ с именем, описанным предыдущим полем. Размер поля зависит от платформы.

5) Максимальный размер данных одного элемента, копируемый из заголовка файла при его открытии.

Описанная выше структура файла создана такой, чтобы выделить три основных иерархических уровня дерева хеш-значений: супергруппу, группу и элемент, и обеспечить между ними наименьшую временную взаимозависимость. Кроме того при такой организации структуры операции на одном уровне иерархии наименьшим образом влияют на другие уровни, что позволяет проводить эффективную синхронизацию разделяемого доступа к описанному дереву с минимальным использованием объектов синхронизации доступа к нему.

EnterLockForRead(hLock) Изменения на уровне группы и элементов (кроме имен и Ш групп) LeaveWRLock(hLock) -►о

1 t

EnterLockForWrite(hGroupLock) Leave WRLock(hGroup Lock)

EnterLockForRead(hLock) Чтение на уровне группы и элементов (кроме имен и Ш групп) LeaveWRLock(hLock) -►о

1 f

EnterLockForRead(hGroupLock) Leave WRLock(hGroup Lock)

EntetLockForRead(hLock)

Основание стека блокировок EnterLockFor *(hGroup 1 Lock)

EnterLockFor*Ex _(hGroup2Lock, DTD)

EnterLockFor* Ex _(hGroupKLock, DTD)

EnterLockFor* Ex _(hGroupNLock, DTD)

LeaveWRLock(hLock)

Освобождение по стеку

таимаут ожидания

А А

Операции внутри N групп —

Рис. 4. Использование для синхронизации доступа к физической структуре хранения данных банка при разделяемом доступе

На рис. 4 представлено пять типов операций подсистемы управления данными с точки зрения многопоточной синхронизации. При этом используются два иерархических уровня синхронизации доступа к элементам дерева хеш-значений.

Первый уровень управляется посредством именованного экземпляра ШИ. Этот экземпляр создается при запуске подсистемы управления данными, а его дескриптор, на рис. 4 обозначенный как ЬЬоек, заносится в структуру дескриптора подсистемы. Этот экземпляр используется для защиты вектора супергруппы. Второй уровень синхронизации задается набором экземпляров, работающих в расширенном режиме. На рис. 4 этот набор задается дескрипторами ЬвгоирЬоск, ЬСгс>ир1Ьоек, ..., ЬвгоирХЬоск. Задача этих экземпляров состоит в обеспечении синхронизации обращений к группам и элементам этих групп. Эти экземпляры также являются именованными. Имя является функцией от базового имени синхронизации (имя экземпляра ЬЬоек) и идентификатора группы.

Первые два типа операций - изменения и чтения на уровне супергруппы - являются простейшими случаями использования ШИ, заключающимися в выполнении соответствующих операций при нахождении в базовой КС на запись и чтение соответственно. Значения РР (в терминах раздела 3.2) полей супергруппы защищаются следующими двумя типами. Третий и четвертый типы обеспечивают синхронизацию операций уровня групп. При этом, в первую очередь, обеспечивается вхождение в базовую КС на чтение, что защищает супергруппу от изменений во время вызовов, не блокируя вызовы, не изменяющие супергруппу. Вложенным является вхождение в КС для защиты структуры групп. К данным типам не относятся операции, результатами которых является изменения имен и идентификаторов групп, поскольку, ввиду необходимости сохранения упорядоченности соответствующих указателей супергруппы, последняя изменяется, что требует применения синхронизации 1-го типа. Последний, пятый, тип синхронизации защищает дерево при операциях, изменяющих структуры/элементы одновременно нескольких групп. К таким операциям относятся, например, функции по перемещению элементов из одной группы в другую. При этом использование безвременной блокировки участвующих в операции групп может привести к взаимоблокировке выполняющихся потоков. Поэтому схема синхрониза-

ции рис. 49 использует конечное ожидание освобождения экземпляров WR соответствующих групп. Время ожидания подбирается эмпирически для конкретных внешних условий: аппаратной и программной среды, в которой работает подсистема, наиболее вероятное количество клиентов, одновременно выполняющих операции, требующие синхронизации данного типа, наиболее вероятный тип операций файловой подсистемы и их частоту. Время должно быть выбрано таким, чтобы в этих условиях обеспечить минимальную среднюю длительность взаимоблокировок. На рис. 49 и далее это время обозначается как DTD (Deadlock Timeout Detection), которая подается на вход алгоритмов EnterLockForReadEx и EnterLockForWriteEx представленного выше интерфейса как параметр dwMilliseconds. При такой синхронизации экземплярами WR групп имеется стековая структура соответствующих вызовов. При этом в случае возникновения таймаута ожидания освобождения WR одной из групп, предполагается возникновение условий состязательности. В этом случае производится последовательное освобождение WR групп верх по стеку, после чего производится следующая итерация цикла входа в КС WR групп. Максимальное количество итераций цикла может быть как конечным, так и бесконечным. Кроме того в ряде случаев (при длительных операциях внутри КС и большом количестве клиентов, одновременно производящих такие операции) общая производительность повышается при введении ненулевой временной задержки между итерациями. В случае если ситуации таймаута не возникает, после выполнения потоком защищаемых операций он освобождает занятые КС вверх по стеку, после чего завершает выполнение функции.

Заключение

Таким образом, на основании концепции оперативной океанологии (использование экспедиционных результатов акустических экспериментов по дальнему распространению) разработаны критерии создания судовых программных комплексов имитационного моделирования, анализа и визуализации акустических полей в реальных условиях океанической среды, позволяющие выбирать оптимальные проектные решения при создании гидроакустических систем раннего обнаружения порывов магистральных подводных трубопроводов углеводород-

ного сырья, систем поиска перспективных морских месторождений нефти по донным газотермальным выбросам.

Представленная архитектура направлена на повышение эффективности получения ВРАП путем имитационного моделирования по заданным показателям эффективности: точности, стоимости и скорости проведения анализа. Выбор данных показателей обусловлен недостатками имитационного и аналитического подходов к моделированию и, соответственно существующих систем анализа. На верхнем уровне представлен протокол управления нагрузкой в системе параллельного имитационного моделирования, протокол взаимодействия обслуживающих подсистем и вычислительных узлов распределенной системы. Приведен метод физической организации информационного наполнения банка данных системы, в соответствии с чем описана возможная архитектура системы управления банком данных, реализация которой выбрана с целью снижения временных издержек при параллельном доступе к данным.

Разработанный метод стохастического моделирования лишен каких-либо ограничений и применим при любых уровнях случайной компоненты поля скорости звука, кроме того, отсутствует необходимость полных знаний о гидрофизических характеристиках водной среды, в которой измерены вертикальные распределения акустического поля, кроме усредненного вертикального профиля скорости звука по всей длине подводного волновода.

- СПИСОК ЛИТЕРАТУРЫ

1.Рытов С.М., Кравцов Ю.А., Татарский В.И. Введение в статистическую радиофизику. Часть II. Случайные поля.- М.: Наука, 1978. - 464 с.

2.Распространения волн и подводная акустика / Под ред. Дж. Б. Келлера и Дж. С. Пападакиса. - М.: Мир, 1980. - 231с.

3. Распространение звука во флуктуирующем океане / Под ред. С. Флатте. - М.: Мир, 1982. - 336 с.

4. Акустика океана / Под ред. Дж.Б. Де Санто. - М.: Мир, 1982. 320с. Б.Гостев В.С., Носова Л.Н., Швачко Р.Ф. Исследования звукового поля

взрывного сигнала в зонах геометрической тени глубокого океана // Акуст. журн. 1998. Т.44. - №2. - С. 201-20Б.

6. Гостев В. С., Швачко Р.Ф. Способы расчета пространственно-временных и угловых характеристик звукового поля в зоне тени // Акуст. журн. 1998. Т.44. - №2. - С. 274-277.

7.Гостев B.C., Швачко Р.Ф. Некоторые кинематические модели объемной предреверберации в глубоком океане // Акуст. журн. 1999. Т.45. №6. С. 857-860.

8. Мальцев Н.Е.. Математические модели звуковых полей в океане (задачи и методы) // В кн.: Акустика океанской среды. Отв. ред. Ё.М. Брехов-ских, И.Б.Андреевой. М.: Наука, 1989. С. 4-10.

9. Liu J. Parallel Discrete-Event Simulation. Miami: Florida International University, 2009.

10. Savenkov K.O. Scaling discrete-event simulation models. PhD dissertation (Physics and mathematics), Moscow State University, Moscow, 2007 (in Russian).

11. Chusov A.A., et.al. "Creation of flexible architectures for distributed analysis of physical fields", Pacific Science Review, 1(14): 5-9, 2012.

12. Chusov A. A., et al. "Parallel search for signals with specified cross-and autocorre-lation properties on multiprocessor platforms", Radioelectronics and Communications Systems, 54(8): 425-431, 2011.

КОРОТКО ОБ АВТОРАХ -

Сальников Борис Александрович - кандидат физико-математических наук, старший научный сотрудник, ведущий научный сотрудник научно-организационного управления, salnikovb@mail.ru,

Стаценко Любовь Григорьевна - доктор физико-математических наук, профессор, заведующая кафедрой электроники и средств связи инженерной школы, lu-sta@mail.ru,

Чусов Андрей Александрович - кандидат технических наук, ассистент кафедры электроники и средств связи инженерной школы, lpsztemp@gmail.com Сальникова Евгения Николаевна - кандидат физико-математических наук, доцент, доцент кафедры приборостроения инженерной школы, en_salnikova@mail.ru,

ФГАОУ ВПО «Дальневосточный федеральный университет», Инженерная школа.

i Надоели баннеры? Вы всегда можете отключить рекламу.