Научная статья на тему 'Элементы архитектуры систем сонификации как части Интернета звука'

Элементы архитектуры систем сонификации как части Интернета звука Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
226
31
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СОНИФИКАЦИЯ / КИБЕРФИЗИЧЕСКИЕ СИСТЕМЫ / ИНТЕРНЕТ ЗВУКА / ИНФРАСТРУКТУРА / ПРОГРАММНО-АППАРАТНЫЕ РЕШЕНИЯ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Рогозинский Глеб Гендрихович

В работе рассматриваются системные вопросы построения комплексов полимодального мониторинга со слоем представления данных в виде неречевого звука. Задача исследования аудиальных систем как частного случая полимодальных интерфейсов пользователя обусловлена необходимостью перераспределения информационной нагрузки на человека-оператора, развитием ассистивных технологий, миниатюризацией визуальных компонентов интерфейсов пользователя и дальнейшими тенденциями к аугментации окружающей среды. Совокупность методов звукового неречевого представления данных составляет основу сонификации, находящейся на стыке акустики, звукового дизайна, компьютерных музыкальных технологий, обработки данных, технологий data mining и инфотелекоммуникаций. В работе предложены перспективные приложения сонификации в срезе современной пост-NGN платформы. Даны предполагаемые пути конвергенции рассматриваемых приложений. Раскрыт программно-аппаратный аспект построения систем сонификации и других сопутствующих систем с использованием аудиальной модальности. Приведены особенности открытого протокола OSC (Open Sound Control) для обмена сообщениями внутри сетей компьютерных устройств генерации и обработки звука. Дан пример возможного обмена сообщениями на основе OSC между интерфейсом пользователя и сервером сонификации. Приведен сравнительный анализ современных языков компьютерной музыки и обработки сигналов с точки зрения использования для задач построения комплексов сонификации. Описана инфраструктурная модель Интернета звука как конвергенции различных звуковых систем, включающих в себя аудиальные компоненты интерфейсов операторов ситуационных центров, подсистемы Data over Audio внутри VANETи WBANсегментов, ассистивные компоненты в рамках сетей носимых и имплантируемых устройств, облачные технологии для задач сонификации, киберфизические и кибербиологические структуры.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Рогозинский Глеб Гендрихович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Элементы архитектуры систем сонификации как части Интернета звука»

doi: 10.24411/2409-5419-2018-10098

ЭЛЕМЕНТЫ АРХИТЕКТУРЫ СИСТЕМ СОНИФИКАЦИИ КАК ЧАСТИ ИНТЕРНЕТА ЗВУКА

РОГОЗИНСКИИ Глеб Гендрихович

Сведения об авторе:

К.Т.Н., доцент кафедры радиосвязи и вещания Санкт-Петербургского государственного университета телекоммуникации имени профессора М.А. Бонч-Бруевича, с.н.с. Институт проблем транспорта имени Н.С. Соломенко Российской академии наук, г. Санкт-Петербург, Россия, gleb.rogozinsky@gmail.ru

АННОТАЦИЯ

В работе рассматриваются системные вопросы построения комплексов полимодального мониторинга со слоем представления данных в виде неречевого звука. Задача исследования аудиальных систем как частного случая полимодальных интерфейсов пользователя обусловлена необходимостью перераспределения информационной нагрузки на человека-оператора, развитием ассистивных технологий, миниатюризацией визуальных компонентов интерфейсов пользователя и дальнейшими тенденциями к аугментации окружающей среды. Совокупность методов звукового неречевого представления данных составляет основу сонификации, находящейся на стыке акустики, звукового дизайна, компьютерных музыкальных технологий, обработки данных, технологий data mining и инфотелекоммуникаций. В работе предложены перспективные приложения сонификации в срезе современной пост-NGN платформы. Даны предполагаемые пути конвергенции рассматриваемых приложений. Раскрыт программно-аппаратный аспект построения систем сонификации и других сопутствующих систем с использованием аудиальной модальности. Приведены особенности открытого протокола OSC (Open Sound Control) для обмена сообщениями внутри сетей компьютерных устройств генерации и обработки звука. Дан пример возможного обмена сообщениями на основе OSC между интерфейсом пользователя и сервером сонификации. Приведен сравнительный анализ современных языков компьютерной музыки и обработки сигналов с точки зрения использования для задач построения комплексов сонификации. Описана инфраструктурная модель Интернета звука как конвергенции различных звуковых систем, включающих в себя аудиальные компоненты интерфейсов операторов ситуационных центров, подсистемы Data over Audio внутри VANET- и WBAN- сегментов, ассистивные компоненты в рамках сетей носимых и имплантируемых устройств, облачные технологии для задач сонификации, киберфизические и кибербиологические структуры.

КЛЮЧЕВЫЕ СЛОВА: сонификация; киберфизические системы; интернет звука; инфраструктура; программно-аппаратные решения.

Для цитирования: Рогозинский Г.Г. Элементы архитектуры систем сонификации как части Интернета звука // Наукоемкие технологии в космических исследованиях Земли. 2018. Т. 10. № 4. С. 64-71. Сок 10.24411/2409-5419-2018-10098

Введение

Сонификация, как совокупность методов представления различных данных с помощью неречевого звука, начинает свою историю с работ Крамера (Kramer) [1], Бараша (Barrass) [2], Эдворти (Edworthy) [3] и других, появившихся в конце 90х годов XX века на стыке акустики, компьютерных музыкальных технологий и анализа данных.

В наши дни элементы сонификации получают разнообразное применение в различных системах мониторинга, однако, существующие методы сонификации не обладают достаточным инструментарием для системного подхода к аудиальному представлению состояния сложных систем, в том числе и киберфизических, как наиболее актуальных сегодня в контексте Четвертой промышленной революции (Industry 4.0). Киберфизические системы представляют собой новую технологическую парадигму, объединяющую различные информационно-телекоммуникационные системы с позиций интеграции в единое целое слоя физических элементов и их информационных (кибернетических) представлений (цифровых теней) [4].

Ранее предложен ряд методов и моделей в рамках системного подхода к сонификации киберфизических систем [5-8], что позволило формализовать связи между киберфизической средой и звуковыми пространствами, определяющими звуковые объекты, формирующие тезаурус сонификации.

Указанные исследования носят, главным образом, теоретический характер, и на пути к практической реализации, в первую очередь, требуют определения соответствующей сетевой архитектуры и программных решений.

Интернет звука и конвергенция звуковых технологий

Одной из характерных особенностей современных инфотелекоммуникационных технологий является их высокая конвергентность. Рассматривая частные вопросы сонификации в рамках более общей картины использования звуковых технологий, отметим наиболее вероятные конвергентные пути. Обозначение таких направлений позволит точнее сформулировать требования к будущим полимодальным системам и выявить наиболее перспективные конвергентные траектории.

Системы сонификации, изначально рассчитанные для задач звукового предъявления информации, в срезе современных аудиовизуальных технологий довольно близки к технологиям звуковой аугментации, т.е. дополнительного озвучивания тех или иных физических объектов для повышения информативности этих объектов. Среди последних на сегодняшний день наиболее важным приложением звуковой аугментации являются электромобили, так как уже многие страны с внедрением гибридных или полностью электрических двигателей столкнулись с новыми проблемами в сфере дорожной безопасности. При относительно низких

скоростях (до 30 км/ч) электромобили являются практически бесшумным транспортным средством и представляют существенную угрозу для пешеходов и велосипедистов. Этот факт обуславливает необходимость дополнительного озвучивания электромобилей [9]. Этому вопросу в последнее время было посвящено множество публикаций и исследований, обобщая которые следует прийти к выводу о том, что какой бы ни была звуковая аугментация транспорта, ее алгоритмы должны обладать когнитивными свойствами

[10]. Это связано и с грядущим переходным этапом, когда автотранспорт с гибридными двигателями будет нуждаться в звуковой аугментации лишь на участках бестопливной работы, и с вопросами акустической экологии, и с запросами на индивидуальность и брендовость. Эти аспекты приводят к неэффективности использования набора подготовленных звуков, и при наличии полимодальных компонент интерфейса водителя, включающих в себя звуковую подсистему, последняя может взять на себя дополнительные функции по интеллектуальной звуковой аугментации автомобиля.

Следующей конвергентной компонентой являются технологии передачи данных по звуку (Data over Sound или Data over Audio). На данный момент есть как минимум два мультиплатформенных мессенджера, использующих технологии передачи различных данных по беспроводной акустической связи т.е. используя динамик устройства-отправителя и микрофон устройства-получателя. Это Chirp

[11] и LISNR [12]. В контексте M2M соединений передача данных по звуку имеет ряд положительных особенностей. Звуковая передача требует минимум аппаратных элементов. Достаточно иметь излучатель (громкоговоритель) и приемник (микрофон) акустических сигналов. Кроме традиционного случая распространения в воздухе, акустические сигналы способны распространяться в жидкостях и в твердых телах на значительные расстояния. Среди приложений Data over Sound можно отметить бесконтактную идентификацию и т.д. Использование технологий Data over Sound требует наличия звуковой подсистемы и, следовательно, может быть реализовано за счет имеющейся полимодальной системы, включающей в себя аудиальную компоненту.

Слияние технологий Data over Sound и VANET-сетей позволит ввести новые способы V2X соединений. В частности, V2I (Vehicle-to-Infrastructure) соединение может быть реализовано по звуковому каналу, т.е. речь идет о звуковой идентификации автомобиля элементами «умной» инфраструктуры, например, «умной» стоянкой. Это не требует подключения транспортного средства к какой-либо беспроводной сети и упростит проектирование подобных систем. В частности, устаревшие комплекты бортового оборудования для взаимодействия способом Data over Sound должны просто обеспечить воспроизведение звука.

Общая совокупность звуковых технологий, как в од-номодальном, так и в полимодальном аспекте, в контексте

современных тенденций дает нам право говорить об Интернете звука (Internet of Sound), как отдельном сегменте перспективных инфотелекоммуникационных технологий.

Сетевая инфраструктура комплексов сонификации

На рис. 1 представлены приложения Интернета звука, образованные на основе различных систем сонифика-ции, в том числе, как частных случаев полимодального представления данных, звуковой аугментации физической среды и т.д.

На данном рисунке выделено шесть основных сегментов: модель ситуационного центра с полимодальными компонентами мониторинга, WBAN-сегмент с полимодальной аугментацией, VANET-сегмент, сегмент киберфи-зических/кибербиологических объектов и облачное хранилище с набором сервисов.

WBAN-сегмент с полимодальной аугментацией.

Сети носимых и имплантируемых устройств являются одним из перспективных компонентов пост-NGN платформы. В первую очередь, данные сети были разработаны

для решения задач телемедицины. Однако к исследованиям автора ближе всего находится приложение WBAN как персональная носимая часть интерфейсов систем контроля и мониторинга, а также для компенсации утраты зрительной способности у инвалидов по зрению.

В плоскости Data over Sound в этом сегменте раскрывается множество инновационных приложений — от бесконтактных индивидуальных систем идентификации (например, система «водитель — транспортное средство», «работник — интерфейс системы») до отдельных компонентов интерфейса пользователя.

VANET-сегмент с передачей данных по аудио и полимодальными компонентами интерфейсов. Сети транспортных объектов VANET также являются целевой областью для рассматриваемых в статье технологий. Внутри кабины транспортного средства водитель получает возможность работы с полимодальным интерфейсом. В этом случае аудиальная и тактильная модальности являются основными вспомогательными компонентами, которые позволяют сохранить внимание водителя на дорожной ситуации.

Рис. 1. Основные сегменты перспективной сетевой инфраструктуры Интернета звука

Снаружи транспортное средство через каналы Data over Sound может осуществлять взаимодействие с элементами инфраструктуры (V2I), другими транспортными средствами (V2V) и пешеходами (V2P). Важные преимущества технологий Data over Sound в этом сегменте — отсутствие приоретизации и удобство ad-hoc соединения.

Ситуационные центры представляют собой классическую инфраструктурную компоненту, дополненную перспективными технологиями, в частности, полимодальностью. Операторы ситуационных центров с помощью полимодальных интерфейсов, в случае их корректного проектирования, получают возможность снизить стресс и информационный перегруз за счет перераспределения информационной нагрузки.

Данный сегмент может пересекаться с WBAN-сегментом, в том случае, когда WBAN-сеть на операторе полностью или частично интегрируется с компонентами средств отображения информации ситуационного центра, о чем было упомянуто ранее.

Облачное хранилище и сервисы. Облачные хранилища обеспечат доступ к библиотекам инструментов синтеза и обработки звука для сонификации. Благодаря существующим языкам компьютерной музыки, таким как Csound, Pure Data и прочие, возможно стандартизованное описание модульных структур синтезаторов, участвующих в сонифика-ции, и новых программных моделей на их основе. Облачные сервисы позволят осуществить рендеринг новых звуковых объектов из кода онлайн, интеллектуальный поиск требуемых компонент звуковых ландшафтов [13], параметрическое описание пользовательских звуков, преобразование описаний синтезаторов из одного языка в другой [14], реализацию генеративных моделей систем сонификации [15].

Протокол OSC для взаимодействия между мультимедийными системами

С переносом действия во внутрисетевое пространство сложных систем, возникает вопрос о протоколах взаимодействия между устройствами сонификации, как частным случаем систем Интернета звука.

Практически единственным протокольным решением на сегодняшний день является OSC (Open Sound Control) [16]. Данный протокол изначально разрабатывался для обеспечения высокоскоростных коммуникаций в интерактивных компьютерно-музыкальных средах. Исследователи часто противопоставляют OSC протоколу MIDI (Musical Instrument Digital Interface), с 1983 года являющемуся «монополистом» в области сетей электронных музыкальных инструментов. Однако, с инфраструктурной точки зрения, протокол MIDI обеспечивает коммуникацию с терминальными устройствами, т.е. с аппаратными средствами электронной музыки — синтезаторами и другими физическими приборами. Поддержка OSC среди подобных устройств

Рис. 2. Структура OSC-потока [17]

минимальна. Ни один из вышедших с момента появления протокола OSC синтезаторов не обеспечил поддержку этого протокола, однако существует несколько контроллеров с поддержкой OSC, например, Monome. С другой стороны, единственным стабильным решением для передачи MIDI через IP-сеть является RTP-MIDI (RFC4695), так же известный как AppleMIDI. Для приема/передачи потока MIDI сообщений требуется отдельный порт, что приводит к необходимости установки драйверов.

Протокол OSC является открытым. К его преимуществам следует отнести поддержку на прикладном уровне практически всеми известными мультимедиа приложениями. Структура OSC-потока приведена на рис. 2.

Благодаря открытому формату сообщений, OSC предоставляет пользователю возможность формировать собственный тезаурус сообщений. В ряде случаев это является причиной для критики OSC, в связи с этим ведутся попытки к созданию стандартизованных тезаурусов сообщений на базе OSC, например, TUIO и SYN.

Ниже предложен минимальный набор сообщений для обмена в задачах сонификации. Временная диаграмма обмена представлена на рис. 3.

Описание команд:

Start — запускает процесс сонификации. При этом от клиента к серверу сонификации передается OSC-сообщение /*/#start.

Символ # в протоколе OSC зарезервирован под служебное использование.

При получении команды #start, сервер отвечает командой #reply и набором параметров, с которыми был запущен

Рис. 3. Пример OSC-сессии между интерфейсом пользователя и сервером сонификации

процесс сонификации. В частности, Soundscape (звуковой ландшафт) определяет действующий набор используемых инструментов (звуков) для сонификации, а SonificationDepth определяет выбранную глубину сонификации.

С помощью команд #schange и #dchange пользователь имеет возможность изменить текущий звуковой ландшафт и глубину сонификации.

Команда #stop закрывает рабочую сессию.

Программные аспекты систем сонификации

С точки зрения программной реализации звукового ядра различных приложений, составляющих основу перспективных систем, о которых шла речь выше, следует отметить существование так называемых языков компьютерной музыки, позволяющих на высоком уровне абстракции программировать различные алгоритмы синтеза и обработки звука.

Существует множество критериев сравнения указанных языков, однако с учетом необходимого условия работы на встраиваемых системах (embedded systems) и открыто-

сти программного кода, фактически в поле зрения остаются три системы — Csound, Pure Data и SuperCollider. Сравнительный анализ этих языков приведен в таб. 1.

Все приведенные в таб. 1 языки обладают значительным количеством API к популярным языкам программирования, включая наиболее актуальные сегодня Python, Java и Haskell. Csound и Pure Data стабильно работают на мобильных платформах (Android и iOS). SuperCollider портирован на Android и iOS, однако статус проекта существенно ниже.

SuperCollider не поддерживает работу в браузере. Для Pure Data существует минимальный порт на JS. Csound стабильно работает в большинстве браузеров. Как было сказано ранее, все три системы могут работать на встраиваемых устройствах на базе ОС Линукс, однако SuperCollider более требователен к аппаратным характеристикам системы, чем две другие программы. Pure Data и Csound могут работать на «железе» без ОС. Такой возможности не существует для SuperCollider.

Тем самым мы приходим к выводу о том, что Csound является наиболее предпочтительным на сегодняшний

Таблица 1

Сравнительный анализ Csound, Pure Data и SuperCollider

Моб. порт Web Встр. системы Железо без ОС

Csound ++ ++ ++ +

Pure Data ++ + ++ +

SuperCollider + - + -

день языком компьютерной музыки для перспективных систем Интернета звука, описанных в данной статье.

Также стоит отметить возможность существования общей программной эко-среды для Csound и Pure Data, т. е. Pure Data в процессе своей работы может обращаться к Csound API. Кроме того, все три системы, как и те, что остались вне рассмотрения, поддерживают OSC и могут обмениваться данными через него.

Заключение

Приведенные в статье положения позволяют сделать вывод о перспективах использования неречевого звука, как частного случая полимодального комплекса отображения информации, для различных целей, в том числе для управления транспортными системами, снижения нагрузки на оператора ситуационных центров, для использования в комплексе ассистивных технологий для инвалидов по зрению.

Различные современные технологии, базирующиеся на использовании в том или ином виде звуковых сигналов, в перспективе конвергируют в общую форму под названием Интернет звука (Internet of Sound).

Технологии структурного аудио, использующие открытые кроссплатформенные решения способны решить задачи по созданию необходимых звуковых объектов. Для передачи между системами целесообразно использовать существующий открытый платформенно-независимый протокол OSC.

Совокупность данных мер должна повысить безопасность при управлении транспортными средствами, степень иммерсии оператора в контролируемую систему, уровень интеграции в социум инвалидов по зрению.

Литература

1. Kramer G. An introduction to auditory display // Auditory Display: Sonification, Audification, and Auditory Interfaces. 1994. Pp. 1-78.

2. Barrass S. A perceptual framework for the auditory display of scientific data // ACM Transactions on Applied Perception. 1994. Vol. 2(4). Pp. 389-402.

3. Edworthy J. Does sound help us to work better withma-chines? A commentary on Rautenberg's paper "About the Impor-

tance of Auditory Alarms During the Operation of a Plant Simulator // Interacting with Computers. 1998. Vol. 10. Pp. 401-409.

4. Куприяновский В.П., Намиот Д.Е., Синягов С.А. Кибер-физические системы как основа цифровой экономики // International Journal of Open Information Technologies.

2016. Vol. 4. No. 2. Pp. 18-25.

5. Сотников А.Д., Рогозинский Г. Г. Мультидомен-ная модель инфокоммуникаций как основа построения ау-диальных интерфейсов для мультимедийных информационных систем // T-Comm: Телекоммуникации и транспорт.

2017. Т. 11. № 5. С. 77-82. (In English)

6. Рогозинский Г.Г., Комашинский В. И. Модифицированная доменная модель мультисенсорного мониторинга киберфизических систем // Морские интеллектуальные технологии. 2017. № 4 (38). Ч. 3. C. 177-182.

7. Рогозинский Г. Г. Мультидоменный подход и модели объектов киберфизического пространства в задачах отображения информации // Труды учебных заведений связи. 2017. Т. 3. № 4. С. 88-93.

8. Рогозинский Г. Г. Три класса звуковых пространств для проектирования систем сонификации // T-Comm: Телекоммуникации и транспорт. 2018. Т. 12. № 1. С. 59-64.

9. Stinson E. EVS are Dangerously Quiet. Here's What They Could Sound Like. URL: https://www.wired. com/2017/04/evs-dangerously-quiet-heres-sound-like/ (дата обращения 30.06.18).

10. Ustwo Auto. A Glance at the Future of External Vehicular Sound. URL: https://www.ustwo.com/blog/a-glance-at-the-future-of-external-vehicular-sound/ (дата обращения 30.06.18).

11. Официальный сайт Chirp. URL: https://chirp.io/ solutions (дата обращения 30.06.18).

12. Официальный сайт LISNR. URL: https://lisnr.com/ technology/ (дата обращения 1.07.18).

13. Cherny E., Lilius J., Brusila J., Mouromtsev D., Rogozinsky G. An approach for structuring sound sample libraries using ontology // Communications in Computer and Information Science. 2016. Vol. 649. Pp. 202-214.

14. Rogozinsky G., Chesnokov M., Cherny E. Pch2csd: An application for converting Nord Modular G2 patches into Csound code // Proceedings of the 14th Sound and Music Conference (SMC). 2017. Pp. 415-421.

15. Рогозинский Г.Г., ЩекочихинА. В. Обучаемый генетический алгоритм в задаче автоматизированной сетевой музыкальной композиции // Сборник трудов 2-й Международной научно-технической конференция студентов, аспирантов и молодых ученых «Интернет вещей 5G» (СПб, 7 декабря 2016 г.). 2016. С. 71-75.

16. Спецификация Open Sound Control 1.0. URL: http://opensoundcontrol.org/ (дата обращения 1.07.18).

17. Schmeder A., Freed A., Wesse D. Best Practices for Open Sound Control. LinuxAudio Conference, 2010. URL: http://lac.linuxaudio.org/2010/papers/37.pdf (дата обращения 1.07.18).

ELEMENTS OF SONIFICATION SYSTEM STRUCTURE AS A PART OF THE INTERNET OF SOUND

GLEB G. ROGOZINSKY,

St. Petersburg, Russia, gleb.rogozinsky@gmail.ru

ABSTRACT

The work reviews the system aspects of polymodal monitoring systems including non-speech representation layer. The necessity of the human operator's information load redistribution, assistive technologies development, visual interfaces miniaturization and further augmentation of environment demand the research of the auditory displays as separate components of the user polymodal interfaces. The complex of auditory non-speech data representation methods forms the basis of the sonification study, at the crossing of acoustics, sound design, computer music technologies, data processing, data mining and informational telecommunications. The paper proposes perspective applications of sonification in the field of modern post-NGN platform. The suggested convergent directions of the reviewed applications are given. The paper also presents the software-hardware aspects of sonification systems development, together with others using auditory components. The Open Sound Protocol (OSC) for computer music and sound processing systems exchange is reviewed, including an example of message exchange between user interface and sonification server. The comparison of computer music languages is given in the context of sonification system development. The paper also describes the Internet of Sound structure as a convergence of various sound-based systems, including auditory displays of control centers, Data over Audio components inside VANET- and WBAN- segments, assistive technologies based on on-body and implanted devices, sonification cloud technologies, cyber-physical and cyber-biological structures.

KEYWORDS: sonification; cyber-physical systems; Internet of Sound; infrastructure; software-hardware solution.

REFERENCES

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1. Kramer G. An introduction to auditory display. Auditory Display: Sonification, Audification, and Auditory Interfaces. 1994. Pp. 1-78.

2. Barrass S. A perceptual framework for the auditory display of scientific data. ACM Transactions on Applied Perception. 1994. Vol. 2(4). Pp. 389-402.

3. Edworthy J. Does sound help us to work better with machines? A commentary on Rautenberg's paper' About the importance of auditory alarms during the operation of a plant simulator'. Interacting with Computers. 1998. Vol. 10. Pp. 401-409.

4. Kupriyanovsky V.P., Namiyot D. E., Sinyagov S. A. Cyber-physical systems as a base for digital economy. International Journal of Open Information Technologies. 2016. Vol. 4. No. 2. Pp. 18-25. (In Russian)

5. Sotnikov A.D., Rogozinsky G. G. The multi"domain infocommunica-tion model as the basis of an auditory interfaces development for multimedia informational systems. T-Comm. 2017. Vol. 11. No. 5. Pp. 77-82.

6. Rogozinsky G.G., Komashinsky V. I. Modified multi domain model of cyber-physical systems monitoring. Morskie intellectual'nye tekh-nologii [Marine intellectual technologies]. 2017. No. 4 (38). Pt. 3. Pp. 177-182. (In Russian)

7. Rogozinsky G. Multi-Domain Approach and Models of Cyber-Physi-cal Objects in Information Representation Systems. Proceedings of Telecommunication Universities. 2017. Vol. 3. Iss. 4. Pp. 88-93. (In Russian)

8. Rogozinsky G. G. On three sound space classes for sonification system design. T-Comm. 2018. Vol. 12. No. 1. Pp. 59-64. (In Russian)

9. Stinson E. EVS are Dangerously Quiet. Here's What They Could

Sound Like. URL: https://www.wired.com/2017/04/evs-dangerous-ly-quiet-heres-sound-like/ (date of access 30.06.18)

10. Ustwo Auto. A Glance at the Future of External Vehicular Sound. URL: https://www.ustwo.com/blog/a-glance-at-the-future-of-exter-nal-vehicular-sound/ (date of access 30.06.18).

11. Chirp. URL: https://chirp.io/solutions (date of access 30.06.18). LISNR. URL: https://lisnr.com/technology/ (date of access 1.07.18).

12. LISNR. URL: https://lisnr.com/technology/ (date of access 1.07.18).

13. Cherny E., Lilius J., Brusila J., Mouromtsev D., Rogozinsky G. An approach for structuring sound sample libraries using ontology. Communications in Computer and Information Science. 2016. Vol.649. Pp. 202-214.

14. Rogozinsky G., Chesnokov M., Cherny E. Pch2csd: An application for converting Nord Modular G2 patches into Csound code. Proceedings of the 14th Sound and Music Conference (SMC). 2017. Pp. 415-421.

15. Rogozinsky G. G., Schekotchikhin A. V. On Interactive Learning Genetic Algorithm for Automatic Network Music Composition. 2nd Young Researchers International Conference on the INternet of Things and ITsENablers: "lo Tand 5G". 2016. Pp. 71-75. (In Russian)

16. Open Sound Control 1.0. URL: http://opensoundcontrol.org/ (date of access 1.07.18).

17. Schmeder A., Freed A., Wesse D. Best Practices for Open Sound Control. LinuxAudio Conference, 2010. URL: http://lac.linuxaudio. org/2010/papers/37.pdf (date of access 1.07.18).

INFORMATION ABOUT AUTHOR:

Rogozinsky G.G., PhD, Associated Professor, Department of Radiocommunications and Broadcasting, The Bonch-Bruevich State University of Telecommunication. Seniour Researcher, Solomenko Institute of Transport Problems the Russian Academy of Sciences.

For citation: Rogozinsky G.G. Elements of Sonification System Structure as a part of the Internet of Sound. H&ES Research. 2018. Vol. 10. No. 4. Pp. 64-71. doi: 10.24411/2409-5419-2018-10098 (In Russian)

i Надоели баннеры? Вы всегда можете отключить рекламу.