Научная статья на тему 'Информационные технологии в обработке больших данных в океанологии'

Информационные технологии в обработке больших данных в океанологии Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
обработка больших данных / океанология / анализ данных / информационные технологии / океанографические данные / интеграция данных / предсказательное моделирование / дистанционное зондирование / big data processing / oceanology / information technology / data analysis / oceanographic data / data integration / predictive modelling / remote sensing

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — С. А. Нуриев

Информационные технологии играют решающую роль в эффективной обработке больших данных в области океанологии. Эта междисциплинарная область использует передовые ИТ-инструменты и методы для управления, анализа и извлечения значимых выводов из больших объемов океанографических и экологических данных. Интеграция машинного обучения, искусственного интеллекта и облачных технологий позволяет разрабатывать сложные методы обработки и анализа данных с учетом уникальных задач, связанных с океанографическими данными. Кроме того, информационные технологии способствуют беспрепятственной интеграции различных источников данных, визуализации данных, прогностическому моделированию и применению дистанционного зондирования, тем самым улучшая процессы экологического мониторинга и принятия решений в океанологии.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Information technology in Big Data processing in oceanology

Information technology plays a crucial role in the efficient processing of big data in oceanology. This interdisciplinary field uses advanced IT tools and techniques to manage, analyse and extract meaningful insights from large volumes of oceanographic and environmental data. The integration of machine learning, artificial intelligence and cloud technologies enables the development of sophisticated data processing and analysis techniques tailored to the unique challenges of oceanographic data. In addition, information technology facilitates the seamless integration of different data sources, data visualisation, predictive modelling and remote sensing applications, thereby improving environmental monitoring and decision-making processes in oceanology.

Текст научной работы на тему «Информационные технологии в обработке больших данных в океанологии»

Информатика. Экономика. Управление// Informatics. Economics. Management

2024; 3(2) http://oajiem.com/

УДК: 004.056 EDN: NEVCSD

DOI: https://doi.org/10.47813/2782-5280-2024-3-2-0401-0414

Информационные технологии в обработке больших

данных в океанологии

С. А. Нуриев

ФГБУН ФИЦ «Морской гидрофизический институт РАН» ул. Капитанская, 2,

Севастополь, Россия

Аннотация. Информационные технологии играют решающую роль в эффективной обработке больших данных в области океанологии. Эта междисциплинарная область использует передовые ИТ-инструменты и методы для управления, анализа и извлечения значимых выводов из больших объемов океанографических и экологических данных. Интеграция машинного обучения, искусственного интеллекта и облачных технологий позволяет разрабатывать сложные методы обработки и анализа данных с учетом уникальных задач, связанных с океанографическими данными. Кроме того, информационные технологии способствуют беспрепятственной интеграции различных источников данных, визуализации данных, прогностическому моделированию и применению дистанционного зондирования, тем самым улучшая процессы экологического мониторинга и принятия решений в океанологии.

Ключевые слова: обработка больших данных, океанология, информационные технологии, анализ данных, океанографические данные, интеграция данных, предсказательное моделирование, дистанционное зондирование.

Благодарности: Работа выполнена в рамках государственного задания по теме № FNNN-2024-0016.

Для цитирования: Нуриев, С. А. (2024). Информационные технологии в обработке больших данных в океанологии. Информатика. Экономика. Управление - Informatics. Economics. Management, 3(2), 0401-0412. https://doi.org/10.47813/2782-5280-2024-3-2-0401-0414

Information technology in Big Data processing in oceanology

S. A. Nuriev

FSBUN FIC "Marine Hydrophysical Institute of the Russian Academy of Sciences" ul.

Kapitanskaya, 2, Sevastopol, Russia

Abstract. Information technology plays a crucial role in the efficient processing of big data in oceanology. This interdisciplinary field uses advanced IT tools and techniques to manage, analyse and extract meaningful insights from large volumes of oceanographic and environmental data. The integration of machine learning, artificial intelligence and cloud technologies enables the development

© Нуриев С.А., 2024

0401

of sophisticated data processing and analysis techniques tailored to the unique challenges of oceanographic data. In addition, information technology facilitates the seamless integration of different data sources, data visualisation, predictive modelling and remote sensing applications, thereby improving environmental monitoring and decision-making processes in oceanology.

Keywords: big data processing, oceanology, information technology, data analysis, oceanographic data, data integration, predictive modelling, remote sensing.

Acknowledgements: This study was supported by the Russian Federation State Task № FNNN-2024-

For citation: Nuriev, S. A. (2024). Information technology in Big Data processing in oceanology. Informatics. Economics. Management, 3(2), 0401-0412. https://doi.org/10.47813/2782-5280-2024-3-2-0401-0414

Слияние информационных технологий (ИТ) и океанологии произвело революцию в изучении морской среды, открыв эру обработки больших данных, которая позволяет получить беспрецедентное представление об океанических системах. Океанология направлена на изучение океанических течений, морских экосистем и влияния изменения климата на океаны. Интеграция ИТ в эту область значительно улучшила сбор, анализ и интерпретацию данных, что привело к принятию более обоснованных решений и более глубокому пониманию морских явлений. Термин «Big Data» обозначает обширные и сложные массивы данных, которые из-за их большого размера, быстрого роста, разнообразия форм и происхождения невозможно обрабатывать или контролировать с помощью обычных методов и систем. Эволюция этой идеи неразрывно связана с распространением цифровых технологий и значительным накоплением данных, а также их последующим изучением.

Большие данные определяются тремя основными атрибутами, которые часто обозначаются как «3Vs»: Объем, Скорость и Разнообразие. Рассмотрим эти характеристики подробнее.

Объем. Означает огромное количество данных, производимых организациями и отдельными людьми, включая данные из социальных сетей, сложных журналов действий пользователей и других источников.

0016.

ВВЕДЕНИЕ

МАТЕРИАЛЫ И МЕТОДЫ

Скорость. Означает быстрый темп генерирования этих данных, требующий оперативной обработки и анализа.

Разнообразие. Охватывает широкий спектр типов и происхождения данных, включая неструктурированные данные, такие как текст, изображения, видео, голосовые записи и другие.

С момента появления концепции Больших Данных в нее были включены два дополнительных атрибута: Правдивость и Ценность. Правдивость относится к подлинности и достоверности данных, а Ценность характеризует способность извлекать ценные сведения из анализа данных [1-5].

История Big Data, или «больших данных», уходит далеко в прошлое, еще до официального признания этого понятия. Эффективный сбор, хранение и анализ информации всегда имел большое значение для бизнеса и различных научных областей.

Ранние этапы (до 1960-х годов). Хотя термины «большие данные» или Big Data еще не были придуманы, многочисленные организации, такие как бюро переписи населения и страховые компании, уже в начале XX века обрабатывали значительные объемы данных. Первым шагом в обработке больших данных в океанологии является сбор огромного количества данных из различных источников. К ним относятся спутниковые снимки, автономные подводные аппараты (AUV), технологии дистанционного зондирования и стационарные океанографические датчики. Спутники обеспечивают широкое покрытие, собирая данные о температуре поверхности моря, концентрации хлорофилла и колебаниях уровня моря. ДПА и дистанционно управляемые аппараты (ДУА) исследуют глубины океанов, собирая данные высокого разрешения о подводной топографии, морской жизни и физических параметрах, таких как температура, соленость и уровень pH. Океанографические буи и массивы датчиков, размещенные в различных точках земного шара, непрерывно следят за состоянием океана, передавая данные в режиме реального времени. В 1960-е годы появление первых компьютеров и баз данных способствовало более эффективной обработке значительных объемов данных. В частности, реляционная модель баз данных, разработанная в 1970 году, сегодня широко используется для управления большими данными [6-10].

С появлением Интернета организации получили доступ к беспрецедентному объему данных. Появление таких интернет-гигантов, как Google, Amazon и eBay, открыло новые горизонты для технологий обработки данных. Начало 2000-х годов ознаменовалось появлением таких технологий, как Hadoop и NoSQL, которые позволили

организациям обрабатывать и анализировать более сложные и разнообразные массивы данных. В настоящее время понятие «большие данные» включает в себя не только объем данных, но и скорость обработки, разнообразие источников, проверяемость и ценность для бизнеса или организации.

Современный бизнес все больше полагается на аналитику и данные для принятия важных решений. Прогностические возможности данных в отношении поведения пользователей, оптимизации процессов, повышения эффективности и конкурентоспособности определяют эту тенденцию. Большие данные позволяют глубже понять привычки и предпочтения потребителей, что способствует более точной корректировке маркетинговой стратегии, оптимизации логистики и уточнению ассортимента продукции. Адекватное управление большими данными можно сравнить с эффективным управлением стратегическим ресурсом, обеспечивающим существенное конкурентное преимущество. С глобализацией и цифровизацией бизнес-процессов большие данные перестают быть уделом только крупных корпораций - они превращаются в универсальную необходимость. В обществе, особенно в сфере национальной безопасности, Большие данные играют ключевую роль. Анализ Больших Данных может быть полезен для выявления угроз и потенциально опасных ситуаций, особенно в контексте кибербезопасности, террористических угроз или выявления мошенничества. Объем данных огромен и часто достигает петабайтов. Эффективные решения по управлению и хранению данных имеют решающее значение для обработки такого потока информации. Современная ИТ-инфраструктура использует облачные вычисления, которые предлагают масштабируемые решения для хранения и высокоскоростной доступ к данным. Облачные платформы, такие как Amazon Web Services (AWS), Google Cloud и Microsoft Azure, обеспечивают океанологам гибкость в хранении и эффективном получении больших массивов данных. Более того, «озера данных», хранящие необработанные данные в их родном формате, позволяют ученым сохранять целостность данных, обеспечивая хранилище для будущего анализа. Растущие объемы данных, достигающие в настоящее время зеттабайт, ставят перед базами данных серьезные задачи по эффективной обработке информации.

Для анализа и визуализации данных необходимо внедрение соответствующих программных технологий. Однако не существует универсальной платформы или инструмента, способного решить все проблемы, связанные с большими данными. Каждая технология имеет свои сильные и слабые стороны в решении этих проблем,

предлагая индивидуальные решения для конкретных задач, связанных с большими данными. Следовательно, эффективное управление данными требует значительных инвестиций в разработку усовершенствованных решений для управления сетью. Для управления данными были предложены различные платформы - от облачных до реальных реализаций. Таким образом, Большие Данные выходят за рамки простого объема информации; они подразумевают использование инновационных методик и технологий анализа данных для получения ценной и прогнозируемой информации, которая ускоряет принятие решений, оптимизирует процессы и гарантирует гибкость и оперативность в удовлетворении меняющихся условий или потребностей. Большие данные превратились в ключевой элемент современного мира, оказывающий влияние на процессы управления, анализа информации и принятия решений в различных областях, от бизнеса до национальной безопасности.

Важность этой темы обусловлена стремительным ростом объема данных, которые ежедневно генерируются и обрабатываются. Кроме того, особенно актуальным будет изучение и понимание того, как разумное и эффективное использование информационных технологий для обработки и анализа больших данных может привести к прогрессу в различных областях. Принципы обработки Больших Данных вытекают из особенностей этого явления, характеризующегося огромным объемом данных, высокой скоростью их обработки и потенциальной изменчивостью формата данных [11-15]. Еще одной ключевой характеристикой Больших Данных является их сложность, обусловленная потенциально высокой структурированностью или неструктурированностью данных. Кроме того, принципы обработки больших данных включают в себя: использование масштабируемых архитектур для обработки данных, применение алгоритмов машинного обучения для выявления закономерностей и новых взаимосвязей в данных, интеграцию структурированных и неструктурированных данных для анализа, развертывание распределенных систем хранения для обеспечения доступа к данным и их безопасности.

Для обработки таких огромных массивов данных требуются мощные вычислительные мощности и передовые аналитические инструменты. Высокопроизводительные вычислительные системы (НРС) и архитектуры параллельной обработки позволяют обрабатывать сложные модели и симуляции. Для анализа закономерностей и тенденций в данных все чаще используются такие методы, как машинное обучение и искусственный интеллект (ИИ). Например, алгоритмы ИИ могут

Информатика. Экономика. Управление// [¿СС^ © 1 2024; 3(2)

Informatics. Economics. Management http://oajiem.com/

выявлять тонкие изменения температуры поверхности моря или обнаруживать аномалии в морском биоразнообразии, что может свидетельствовать о более масштабных экологических изменениях. Инструменты для анализа больших данных, такие как Hadoop и Spark, облегчают обработку больших массивов данных, распределяя рабочую нагрузку между несколькими узлами, что обеспечивает эффективный и быстрый анализ [16-20]. Эти инструменты поддерживают различные задачи анализа данных, включая предиктивное моделирование, анализ тенденций и выявление аномалий, которые жизненно важны для понимания океанических процессов и прогнозирования будущих условий.

РЕЗУЛЬТАТЫ

Интерпретация больших данных в океанологии значительно улучшается благодаря передовым методам визуализации. Географические информационные системы (ГИС) и специализированное программное обеспечение для визуализации, такое как MATLAB и библиотеки Python (например, Matplotlib, Seaborn), помогают перевести сложные данные в понятные визуальные форматы. Интерактивные информационные панели и 3D-модели позволяют ученым интуитивно изучать данные, раскрывая суть, которая может быть упущена при использовании традиционных методов анализа. Эти визуализации имеют решающее значение для донесения результатов до заинтересованных сторон, политиков и общественности, делая сложные океанографические данные доступными и практичными.

Apache Hadoop - это консолидированная и централизованная система хранения данных, предназначенная для работы с различными типами данных. Она расширяет свои функциональные возможности, предоставляя хранилище, в котором структурированные, полуструктурированные и неструктурированные данные могут быть легко обработаны совместно. Рассмотрим ее атрибуты и элементы более подробно.

Особенности Apache Hadoop

• Открытый исходный код и отказоустойчивость. Hadoop имеет открытый исходный код, что делает его доступным для широкой базы пользователей. Он обладает отказоустойчивостью и надежной системой хранения, обеспечивающей целостность и надежность данных.

• Программируемая система хранения данных. Программируемая система хранения Hadoop предоставляет пользователям возможность анализировать данные непосредственно на диске, на котором они находятся.

• Ограничения. Hadoop поддерживает пакетную обработку данных, но неэффективен для обработки в реальном времени, итеративной и потоковой обработки.

• Параллельная обработка. Платформа распараллеливает обработку данных в облачных вычислительных средах, позволяя нескольким пользователям на нескольких компьютерах получать доступ и анализировать большие массивы данных.

Компоненты экосистемы Hadoop:

• MapReduce - это программная модель и структура, используемая в Hadoop для одновременной обработки больших объемов данных. В ней используется планировщик задач для одновременного выполнения множества задач на узлах данных, результаты которых сопоставляются, фильтруются, сортируются и отправляются в качестве конечного результата. Задания могут выполняться другими серверами в кластере в случае перегрузки или сбоя, а также поддерживаются различные языки программирования.

• Распределенная файловая система Hadoop (HDFS) - это файловая система, предназначенная для хранения больших объемов данных в распределенных кластерах. Она работает по принципу однократной записи и многократного чтения, обеспечивая целостность данных и возможность частого чтения. Однако она не поддерживает случайное чтение файлов небольшого размера.

• HOPSFS - это файловая система с открытым исходным кодом, которая устраняет недостатки HDFS. Она использует активные и избыточные узлы имен, обрабатывает метаданные локально в памяти и в базе данных, а также работает с различными типами баз данных NewSQL.

Таким образом, Apache Hadoop представляет собой комплексное решение для управления различными типами данных и параллельной обработки, а такие его компоненты, как MapReduce и HDFS, играют важнейшую роль в обеспечении эффективного хранения и обработки данных.

Apache Spark - это быстрый фреймворк, умело обрабатывающий данные из различных систем хранения, таких как HDFS, Amazon S3, MapR FileSystem, Cassandra и других [21-23]. Рассмотрим его возможности, а также в преимущества и особенности баз данных NoSQL. Используя устойчивые распределенные наборы данных (RDD),

хранящиеся в памяти, Spark может обрабатывать поступающие данные в режиме реального времени, даже в масштабе миллионов событий в секунду. Гибкость, скорость и масштабируемость Spark делают его хорошо подходящим для решения задач, связанных с большими данными в интеллектуальных сетях. Spark поддерживает обработку данных в реальном времени и извлечение их из таблиц, что крайне важно для динамических данных интеллектуальных сетей и быстрого обнаружения аномалий в электрических системах. Управление памятью в Spark включает различные уровни: только память, память и диск, сериализация только памяти, сериализация памяти и диска, причем распределение памяти регулируется в зависимости от размера данных.

Apache Kafka - это распределенная система обработки потоковых данных, широко используемая для реализации потоковой обработки данных в режиме реального времени. Базы данных NoSQL, такие как MongoDB, Cassandra и Redis, отличаются горизонтальной масштабируемостью и гибкими структурами данных, что делает их идеальными для работы с большими объемами данных. Они не придерживаются традиционной реляционной модели данных и могут хранить данные в кластерных ключах, объектно-ориентированных или графовых моделях. Базы данных NoSQL позволяют хранить данные в различных моделях, что повышает их адаптируемость к различным потребностям. По производительности при выполнении некоторых операций они могут превосходить реляционные базы данных. Отметим также такую характеристику, как распределенность, то есть базы данных NoSQL легко масштабируются в горизонтальной плоскости для обработки больших объемов данных.

ОБСУЖДЕНИЕ

Применение ИТ для обработки больших данных имеет глубокие последствия для океанологии. Усовершенствованная аналитика данных позволяет лучше отслеживать последствия изменения климата, такие как подкисление океана, повышение уровня моря и изменение морских экосистем. Она также способствует управлению морскими ресурсами и их сохранению, помогая создавать охраняемые морские зоны и внедрять методы устойчивого рыболовства. Кроме того, обработка данных в режиме реального времени и прогнозное моделирование необходимы для обеспечения готовности к стихийным бедствиям, позволяя заблаговременно предупреждать о таких явлениях, как цунами и ураганы. Кроме того, интеграция больших данных в океанологию способствует международному сотрудничеству, поскольку платформы обмена данными и хранилища

с открытым доступом позволяют ученым всего мира вносить свой вклад и пользоваться общими знаниями. Такой совместный подход ускоряет исследования и способствует инновациям, что в конечном итоге приводит к более полному пониманию наших океанов.

Использование Больших Данных для системного анализа и управления позволяет организациям оптимизировать процессы, предвидеть будущие события и повысить эффективность принятия решений. Машинное обучение и искусственный интеллект будут играть все более важную роль в автоматизации анализа данных и обосновании управленческих решений. Использование облачных технологий для хранения и обработки Больших Данных в ближайшие годы получит значительное развитие. Пересечение информационных технологий и океанологии служит примером преобразующей силы обработки больших данных. Используя передовые ИТ-решения, океанологи могут собирать, управлять и анализировать беспрецедентные объемы данных, что приводит к революционным открытиям и более эффективному управлению окружающей средой. По мере развития технологий их применение в океанологии обещает раскрыть новые тайны морских глубин, способствуя устойчивости и сохранению Мирового океана для будущих поколений.

[1] Карцан И.Н., Контылева, Е.А., Глубокий интернет вещей. Современные инновации, системы и технологии - Modern Innovations, Systems and Technologies, 2023; 3(2): 0201-0212. https://doi.org/10.47813/2782-2818-2023-3-2-0201-0212

[2] Петренко А.С., Петренко С.А., Костюков А.Д., Ожиганова М.И. Модель квантовых угроз безопасности для современных блокчейн-платформ. Защита информации. Инсайд. 2022; 3(105): 10-20.

[3] Аверьянов В.С., Каричев А.А., Карцан И.Н. Об атаках с явным исходом динамических переменных и криптостойкости ключей безопасности квантовых систем. Математические методы в технологиях и технике. 2022; 12(1): 29-34.

ЗАКЛЮЧЕНИЕ

СПИСОК ЛИТЕРАТУРЫ

[4] Петренко A.C, Петренко С.A., Aнтонова-Дружинина A.О., Ожиганова М.И. Метод параметрического выбора криптопримитивов для квантово-устойчивой блокчейн-платформы. Часть I. Защита информации. Инсайд. 2022; 4(106): 24-33.

[5] Жуков A^., Карцан И.Н., Aверьянов В.С. Кибербезопасность Aрктической зоны. Информационные и телекоммуникационные технологии. 2021; 51: 9-13.

[6] Долотов В.В, Долотов A3, Концепция построения системы мониторинга антропогенных воздействий на шельфовые зоны моря. Морской гидрофизический журнал. 2015; 6: 34-42. https://doi.org/10.22449/0233-7584-2015-6-34-42

[7] Попов A.^^, Ремез М.В., Жилина Е.В., Ожиганова М.И. Парсинг электронных ресурсов. библиотека selenium или fake useragent? Информатизация в цифровой экономике. 2022; 4(3): 197-210. https://doi.org/10.18334/ide.3.4.115219

[8] Карцан И.Н. Web-сервис для организации аутентификации по графическому паролю. Естественные и технические науки. 2023; 6 (181): 19-21.

[9] Ожиганова М.И., Шейко A^., Исакова Е.М., Миронова A^. Методы и средства проведения анализа угроз локальной вычислительной сети предприятия. В сборнике: Цифровая трансформация науки и образования. Сборник научных трудов II Международной научно-практической конференции. 2021: 264-270.

[10] Aверьянов В.С., Карцан И.Н., Методы оценки защищенности автоматизированных систем на базе квантовых технологий согласно CVSS V2.0/V3.1. Защита информации. Инсайд. 2023; 1 (109): 18-23.

[11] Карцан И.Н., Концепция развития межспутниковой лазерной связи. Сибирский аэрокосмический журнал. 2023; 24 (2): 247-259. https://doi.org/10.31772/2712-8970-2023-24-2-247-259

[12] Петренко A.C, Петренко СА., Ожиганова М.И. Оценка возможностей квантовых алгоритмов криптоанализа. Защита информации. Инсайд. 2021; 6(102): 70-82.

[13] Карцан И.Н., Мордвинова A^., Система управления информационными рисками. В сборнике: Вопросы контроля хозяйственной деятельности и финансового аудита, национальной безопасности, системного анализа и управления. Материалы VII Всероссийской научно-практической конференции. Москва; 2022: 141-146.

[14] Nuriev S.A., Kartsan I.N. The role of spatial cyberinfrastructure in geoinformation systems. E3S Web of Conferences. 2023; 389: 04023. https://doi .org/10.1051/e3sconf/202338904023

[15] Ожиганова М.И., Куртаметов Э.С. Применение машинного обучения в защите веб-приложений. НБИ технологии. 2020; 2(14): 16-20. https://doi.org/10.15688/NBIT.jvolsu.2020.2.3

[ 16] Пелись В.В., Карцан И.Н., Оценка экономической составляющей при организации информационной безопасности. В сборнике: Проблемы проектирования, применения и безопасности информационных систем в условиях цифровой экономики. Материалы XXII Международной научно-практической конференции. Ростов-на-Дону; 2022: 144-149.

[17] Калита А.О., Ожиганова М.И., Тищенко Е.Н. Основы организации адаптивных систем защиты информации. НБИ технологии. 2019; 1(13): 11-15.

[18] Аверьянов В.С., Карцан И.Н., Запрещенный контент социокиберфизических систем: методы нейросетевой обработки информации. В сборнике: Информатика: проблемы, методы, технологии. Материалы XXII Международной научно-практической конференции им. Э.К. Алгазинова. Под редакцией Д.Н. Борисова. Воронеж; 2022: 554-559.

[19] Ожиганова М.И., Калита А.О., Тищенко Е.Н. Построение адаптивных систем защиты информации. НБИ технологии. 2019; 4(13): 12-21.

[20] Maddox A., Barratt M.J., Allen M., Lenton S. Constructive activism in the dark Web: Cryptomarkets and illicit drugs in the digital demimonde. Inf., Commun. Soc. 2016: 111126. https://doi.org/10.1080/1369118X.2015.1093531

[21] Мухаметьянова А.Р. Особенности защиты информации на предприятии от утечки по техническим каналам. Уфа; 2019. 56.

[22] Хорев А.А. Организация защиты информации от утечки по техническим каналам. М.: МО РФ. 2017. 316.

[23] Сухостат В.В. Теория информационной безопасности и методология защиты информации. СПб. 2018.

REFERENCES

[1] Karcan I.N., Kontyleva, E.A., Glubokij internet veshchej. Sovremennye innovacii, sistemy i tekhnologii - Modern Innovations, Systems and Technologies, 2023; 3(2): 0201-0212. https://doi.org/10.47813/2782-2818-2023-3-2-0201-0212 (in Russian)

[2] Petrenko A.S., Petrenko S.A., Kostyukov A.D., Ozhiganova M.I. Model' kvantovyh ugroz bezopasnosti dlya sovremennyh blokchejn-platform. Zashchita informacii. Insajd. 2022; 3(105): 10-20. (in Russian)

[3] Aver'yanov V.S., Karichev A.A., Karcan I.N. Ob atakah s yavnym iskhodom dinamicheskih peremennyh i kriptostojkosti klyuchej bezopasnosti kvantovyh sistem. Matematicheskie metody v tekhnologiyah i tekhnike. 2022; 12(1): 29-34. https://doi.org/10.52348/2712-8873 MMTT 2022 12 29 (in Russian)

[4] Petrenko A.S., Petrenko S.A., Antonova-Druzhinina A.O., Ozhiganova M.I. Metod parametricheskogo vybora kriptoprimitivov dlya kvantovo-ustojchivoj blokchejn-platformy. CHast' I. Zashchita informacii. Insajd. 2022; 4(106): 24-33. (in Russian)

[5] ZHukov A.O., Karcan I.N., Aver'yanov V.S. Kiberbezopasnost' Arkticheskoj zony. Informacionnye i telekommunikacionnye tekhnologii. 2021; 51: 9-13. (in Russian)

[6] Dolotov V.V, Dolotov A.V, Koncepciya postroeniya sistemy monitoringa antropogennyh vozdejstvij na shel'fovye zony morya. Morskoj gidrofizicheskij zhurnal. 2015; 6: 34-42. https://doi.org/10.22449/0233 -7584-2015-6-34-42 (in Russian)

[7] Popov A.YU., Remez M.V., ZHilina E.V., Ozhiganova M.I. Parsing elektronnyh resursov. biblioteka selenium ili fake useragent? Informatizaciya v cifrovoj ekonomike. 2022; 4(3): 197-210. https://doi.org/10.18334/ide.3A115219 (in Russian)

[8] Karcan I.N. Web-servis dlya organizacii autentifikacii po graficheskomu parolyu. Estestvennye i tekhnicheskie nauki. 2023; 6 (181): 19-21. (in Russian)

[9] Ozhiganova M.I., SHejko A.O., Isakova E.M., Mironova A.O. Metody i sredstva provedeniya analiza ugroz lokal'noj vychislitel'noj seti predpriyatiya. V sbornike: Cifrovaya transformaciya nauki i obrazovaniya. Sbornik nauchnyh trudov II Mezhdunarodnoj nauchno-prakticheskoj konferencii. 2021: 264-270. (in Russian)

[10] Aver'yanov V.S., Karcan I.N., Metody ocenki zashchishchennosti avtomatizirovannyh sistem na baze kvantovyh tekhnologij soglasno CVSS V2.0/V3.1. Zashchita informacii. Insajd. 2023; 1 (109): 18-23. (in Russian)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

[11] Karcan I.N., Koncepciya razvitiya mezhsputnikovoj lazernoj svyazi. Sibirskij aerokosmicheskij zhurnal. 2023; 24 (2): 247-259. https://doi.org/10.31772/2712-8970-2023-24-2-247-259 (in Russian)

[12] Petrenko A.S., Petrenko S.A., Ozhiganova M.I. Ocenka vozmozhnostej kvantovyh algoritmov kriptoanaliza. Zashchita informacii. Insajd. 2021; 6(102): 70-82. (in Russian)

[13] Karcan I.N., Mordvinova A.YU., Sistema upravleniya informacionnymi riskami. V sbornike: Voprosy kontrolya hozyajstvennoj deyatel'nosti i finansovogo audita, nacional'noj bezopasnosti, sistemnogo analiza i upravleniya. Materialy VII Vserossijskoj nauchno-prakticheskoj konferencii. Moskva; 2022: 141-146. (in Russian)

[14] Nuriev S.A., Kartsan I.N. The role of spatial cyberinfrastructure in geoinformation systems. E3S Web of Conferences. 2023; 389: 04023. https://doi .org/10.1051/e3sconf/202338904023

[15] Ozhiganova M.I., Kurtametov E.S. Primenenie mashinnogo obucheniya v zashchite veb-prilozhenij. NBI tekhnologii. 2020; 2(14): 16-20. https://doi.org/10.15688/NBIT.jvolsu.2020.2.3 (in Russian)

[16] Pelis' V.V., Karcan I.N., Ocenka ekonomicheskoj sostavlyayushchej pri organizacii informacionnoj bezopasnosti. V sbornike: Problemy proektirovaniya, primeneniya i bezopasnosti informacionnyh sistem v usloviyah cifrovoj ekonomiki. Materialy XXII Mezhdunarodnoj nauchno-prakticheskoj konferencii. Rostov-na-Donu; 2022: 144-149. (in Russian)

[17] Kalita A.O., Ozhiganova M.I., Tishchenko E.N. Osnovy organizacii adaptivnyh sistem zashchity informacii. NBI tekhnologii. 2019; 1(13): 11-15. https://doi.org/10.15688/NBrr.ivolsu.2019.L2 (in Russian)

[18] Aver'yanov V.S., Karcan I.N., Zapreshchennyj kontent sociokiberfizicheskih sistem: metody nejrosetevoj obrabotki informacii. V sbornike: Informatika: problemy, metody, tekhnologii. Materialy XXII Mezhdunarodnoj nauchno-prakticheskoj konferencii im. E.K. Algazinova. Pod redakciej D.N. Borisova. Voronezh; 2022: 554-559. (in Russian)

[19] Ozhiganova M.I., Kalita A.O., Tishchenko E.N. Postroenie adaptivnyh sistem zashchity informacii. NBI tekhnologii. 2019; 4(13): 12-21. https://doi.org/10.15688/NBIT.ivolsu.2019.4.2 (in Russian)

[20] Maddox A., Barratt M.J., Allen M., Lenton S. Constructive activism in the dark Web: Cryptomarkets and illicit drugs in the digital demimonde. Inf., Commun. Soc. 2016: 111126. https://doi.org/10.1080/1369118X.2015.1093531

[21] Muhamet'yanova A.R. Osobennosti zashchity informacii na predpriyatii ot utechki po tekhnicheskim kanalam. Ufa; 2019. 56. (in Russian)

[22] Horev A.A. Organizaciya zashchity informacii ot utechki po tekhnicheskim kanalam. M.: MO RF. 2017. 316. (in Russian)

ИНФОРМАЦИЯ ОБ АВТОРАХ / INFORMATION ABOUT THE AUTHORS

[23] Suhostat V.V. Teoriya informacionnoj bezopasnosti i metodologiya zashchity informacii. SPb. 2018. (in Russian)

Нуриев Сури Айкович, старший инженер Морского гидрофизического института РАН, Севастополь, Россия ОЯСГО: 0009-0008-1760-8844

Suri Nuriev, Senior Engineer, Marine Hydrophysical Institute, Russian Academy of Sciences, Sevastopol, Russia

Статья поступила в редакцию 05.06.2024; одобрена после рецензирования 11.06.2024; принята

к публикации 12.06.2024.

The article was submitted 05.06.2024; approved after reviewing 11.06.2024; accepted for publication

12.06.2024.

i Надоели баннеры? Вы всегда можете отключить рекламу.