DOI УДК 621.396
ИСПОЛЬЗОВАНИЕ ГЛУБОКОГО ОБУЧЕНИЯ ДЛЯ ПОВЫШЕНИЯ ЭФФЕКТИВНОСТИ
БЕСПРОВОДНЫХ СЕНСОРНЫХ СЕТЕЙ
Омер Али Деяб
аспирант, ФГАОУ ВО «Сибирский федеральный университет»;
ассистент, Технологический университет (Ирак).
E-mail: [email protected]
Черников Дмитрий Юрьевич
кандидат технических наук, доцент, заведующий кафедрой инфокоммуникаций,
ФГАОУ ВО «Сибирский федеральный университет».
E-mail: [email protected]
Селиванов Александр Сергеевич
аспирант, ФГАОУ ВО «Сибирский федеральный университет».
E-mail: [email protected]
Адрес: 660074, Российская Федерация, г. Красноярск, ул. Академика Киренского, д. 28.
Аннотация: Раннее обнаружение пожаров имеет решающее значение для снижения человеческих и материальных потерь. Одним из современных методов обнаружения пожаров в режиме реального времени является использование беспроводных сенсорных сетей, основанных на глубоком обучении. Беспроводная сенсорная сеть также может транслировать в центр управления видео в реальном времени о месте пожара. Это позволяет службам безопасности и пожарным принимать быстрые и эффективные меры по контролю над огнём и предотвращению его распространения до того, как он причинит значительный ущерб. Но одна из проблем, с которой сталкивается передача данных в беспроводных сенсорных сетях, возникает при наличии каналов связи с недостаточной производительностью. Цель настоящей статьи — разработка метода, который использует глубокое обучение для передачи видеоинформации по беспроводной сенсорной сети, предназначенной для обнаружения пожара, в центр управления тушением пожаров по ненадёжному каналу связи. Предлагаемый метод основан на отправке принимающей стороне только важной информации из всего видеоизображения. На принимающей стороне каждый видеокадр создаётся с использованием опорной информации, ранее сохранённой вместе с передаваемой информацией. В случае, когда для обнаружения пожаров и отправки информации использовалась модель глубокого обучения YOLOv5, средняя вероятность обнаружения пожара составила 90 %. По результатам моделирования объём передачи данных иногда достигает 3% от всей информации, содержащейся в видеокадре. Для проверки эффективности предложенного метода в канале связи малой производительности также были рассчитаны значения отношение сигнал/шум (ОСШ) и пиковое отношение сигнал/шум (ПОСШ). Предложенный метод эффективно передаёт только важную информацию, содержащуюся в изображении, и удовлетворительно восстанавливает изображение в ненадёжных сетях связи. Сделан вывод о большей эффективности данного метода при передаче данных, чем традиционные методы.
Ключевые слова: беспроводные сенсорные сети, YOLOv5, глубокое обучение, обнаружение пожара, сжатие данных, передача данных, канал связи.
Введение
Пожары оказывают негативное воздействие на имущество и жизнь людей. Они могут нанести серьёзный вред обществу, причинить вред или даже смерть человека. Раннее обнаружение пожара имеет важное значение для эффективного тушения пожаров и уменьшения последствий таких событий. Оперативное обнаружение пожара во многом зависит от современных
средств обнаружения пожара, таких, как системы видеонаблюдения. Использование современных технологий, таких, как беспроводные сенсорные сети и глубокое обучение, повышает уровень противопожарной безопасности [1].
Сети беспроводных датчиков играют жизненно важную роль в раннем обнаружении пожаров и отправке сигналов тревоги и считают-
ся эффективным способом обеспечения безопасности в различных случаях. В беспроводных сенсорных сетях используются различные датчики, установленные в определённых местах, для обнаружения потенциальных признаков пожара. Эти датчики могут быть чувствительны к дыму, обнаруживать изменения температуры или измерять уровни загрязнения атмосферы. При обнаружении каких-либо аномальных изменений в контролируемой среде сигналы отправляются на центральный сетевой контроллер.
Глубокое обучение считается одним из современных методов повышения эффективности беспроводных сенсорных сетей. Одна из известных моделей глубокого обучения YOLOv5 — это сложная система идентификации объектов, которая может распознавать широкий спектр объектов на фотографиях, включая пламя. Это важный инструмент для приложений обнаружения пожара, поскольку он использует методы глубокого обучения для точного обнаружения, а также обнаружения пожаров в режиме реального времени. Благодаря своей высокой точности и эффективности YOLOv5 потенциально может быть чрезвычайно полезен в системах реагирования на чрезвычайные ситуации, для раннего обнаружения и предотвращения пожаров [2, 3]. Средствами языка Python реализовать модель YOLO (You Only Look Once) достаточно легко. Проект YOLOv5 предлагается в виде пакета Python, который прост в использовании и может быть изменён в соответствии с различными пользовательскими проектами.
Ещё одним важным моментом в тушении пожаров является быстрое реагирование пожарных расчётов при возникновении пожара.
Трансляция видео от системы обнаружения пожара о месте происшествия владельцам зданий или центрам мониторинга пожарной безопасности в режиме реального времени способствует максимально быстрому принятию мер безопасности. Шум и нестабильное сетевое соединение могут оказать большое влияние на передачу видео по сетям связи [4]. Качество
видео может ухудшиться в ненадёжных или плохих сетях, что приведёт к таким проблемам, как буферизация или полная потеря видео. Эти трудности могут быть особенно заметны в ситуациях, связанных с прямой трансляцией или видео разговором в реальном времени, где крайне важно поддерживать стабильную и качественную видеотрансляцию. Один из способов отправки данных при канале связи недостаточной производительности — сжать данные и уменьшить их количество.
В более ранних работах были предложены различные методы сжатия данных. Так в [5] используется новый метод передачи видео, в котором отправляется только важная информация с помощью глубокого обучения. В [6] предложен механизм онлайнового суммирования видео с одним просмотром (SOS). Этот механизм снижает нагрузку на сеть передачи за счёт извлечения только важной видеоинформации. В [7] предложен энергосберегающий метод сжатия изображений для беспроводной мультимедийной сенсорной сети (WMSN) с использованием метода подбора кривой. В [8] предложено сокращение данных на основе метода сжатия (DRCT), который работает на уровне сенсорных узлов Интернета вещей. DRCT включает в себя два этапа сжатия: этап квантования символическим агрегатным приближением (SAX) с потерями, что уменьшает динамический диапазон показаний данных датчика, и этап применения сжатия Лемпеля — Зива — Велча (LZW) без потерь для сжатия выходных данных квантования SAX. Объяснение и сравнение различных методов сжатия для повышения производительности беспроводной сенсорной сети изложено в [9]. В [10] корреляция данных исследуется и сочетается с методом прогнозирования данных, чтобы избежать отправки данных, которые можно получить математически, с целью уменьшения энергии, потребляемой узлами датчиков и загрузки полосы пропускания.
В этой статье разрабатывается метод отправки видео из беспроводной сети датчиков обнаружения пожара в центр пожаротушения.
Благодаря использованию методов глубокого обучения и модели YOLOv5 пожары обнаруживались в режиме реального времени. Из изображения выбирается и готовится к отправке только важная информация. Перед отправкой данные сжимаются с использованием методов jpg и WebP, а результаты сравниваются. Также в этом исследовании оценивается качество окончательного изображения, полученного на принимающей стороне. ОСШ и ПОСШ рассчитываются на основе потери пакетов.
Отношение сигнал/шум
Отношение сигнал/шум (ОСШ) является ключевой статистикой для оценки качества передаваемых данных. ОСШ количественно определяет взаимосвязь между интенсивностью сигнала и интенсивностью фонового шума, являясь показателем качества сигнала по отношению к шуму и помехам. Высокое ОСШ при передаче данных означает превосходное качество сигнала, снижая вероятность повреждения или потери данных [11, 12].
Пиковое отношение сигнал/шум
Пиковое отношение сигнал/шум (ПОСШ) является важной статистикой для оценки точности передаваемых данных, особенно в сценариях передачи изображения или видео. Данная характеристика рассчитывает пиковое соотношение сигнала к шуму в децибелах для двух изображений. Это соотношение используется в качестве показателя качества для сравнения оригинального изображения со сжатой или реконструированной версией. Повышенные значения ПОСШ означают превосходное качество сжатого или реконструированного изображения [13,14]. Для определения ПОСШ средняя квадратичная ошибка (СКО) должна быть рассчитана с использованием следующего уравнения:
где M и N — это количество строк и столбцов во входных изображениях. Для вычисления ПОСШ используется следующее уравнение:
CFC_ Z M=N ^П - l2(m'n)]2
M ■ N
(1)
ПОСШ = 10lg
' R2 Л v СКО ,
(2)
где R — максимально возможное значение пикселя в данных изображениях.
Описание технологии сжатия изображений WebP
WebP (англ. WEB Pictures) — это формат изображений, созданный Google, который обеспечивает исключительное сжатие фотографий как с точки зрения сохранения качества изображения, так и с точки зрения уменьшения размера файла. Современный формат изображений WebP был разработан для замены устаревших форматов, таких, как GIF, JPG и PNG. Одним из его основных преимуществ является то, что изображения WebP имеют значительно меньший размер файла. Использование формата WebP может эффективно уменьшить размер файла изображения по сравнению с использованием других стандартных форматов. Если изображение анимировано или имеет альфа-канал и отображает реальные объекты, использование этого формата может значительно уменьшить размер файла. Использование сжатия с потерями WebP позволяет существенно уменьшить размер файла, сохраняя при этом удовлетворительное качество изображения
[15].
Алгоритм
В предлагаемой системе в качестве оптического датчика в беспроводной сенсорной сети используется Wi-Fi-камера. Между компьютером для обработки данных и камерами, расположенными в местах, которые необходимо защитить от пожаров, создаётся коммуникационная сеть на основе YOLOv5. Архитектура YOLOv5
[16] включает четыре основных части:
- процедуры ввода: Входные данные относятся к изображению или видеокадру, которые передаются в модель YOLOv5 для обнаружения
объектов.
- основной части: В основной части производится извлечение информационных фрагментов из входных изображений.
- интерфейса взаимодействия: Цель интерфейсной компоненты— повысить эффективность обнаружения за счет интеграции функций на нескольких уровнях.
- алгоритма прогнозирования: Функция алгоритма прогнозирования заключается в выявлении ограничивающих рамок, классов и формировании показателей достоверности для обнаруженных целей.
На рис. 1 показан предлагаемый метод отправки видео от системы обнаружения пожара в центр управления при сети недостаточной производительности.
Передающая часть
1. Обнаружение пожара с помощью УОЬОу5: Модель глубокого обучения, известная как УОЬОу5, используется для обнаружения пожаров на изображении. Эта модель предварительно обучена на наборе изображений, содержащих пожары и различные другие объекты. УОЬОу5 идентифицирует и классифицирует пожароопасные зоны.
2. Выделение области пожара на изображении: После обнаружения пожара с помощью УОЬОу5 область, содержащая огонь, извлекается из первоначального изображения. Это делается путем выбора рамы, окружающей огонь, и вырезания этой рамы из первоначального изображения. После этого шага вырезанное изображение будет содержать только область представляющую интерес, которая является областью, содержащей огонь.
3. Оценка интенсивности света на всём изображении: Интенсивность света передаваемого изображения измеряется на передающей стороне. Это сделано в целях единообразия и для обеспечения того, чтобы эталонное изображение на принимающей стороне имело ту же интенсивность света, что и оригинал. Для оценки интенсивности света на изображении
Обнаружение пожара с помощью УОЬОу5
Выделение области пожара на изображении
ь
3
Оценка интенсивности света на всём изображении
Сжатие данных с помощью \VebP
Размещение выделенного фрагмента на опорном изображении
Регулировка интенсивности света на основе передаваемых данных
Итоговое изображение
V.________
Рис. 1. Предлагаемый способ отправки видео при недостаточной производительности сети
можно использовать такие методы, как измерение яркости.
4. Сжатие данных с использованием WebP: После того, как область, содержащая интересующую нас информацию вырезается, и измеряется интенсивность света, данные, связанные с изображением, сжимаются с помощью формата сжатия изображения, известного как WebP. Этот формат используется, потому что он обеспечивает эффективное сжатие изображения, так что размер файла может быть уменьшен без значительной потери качества изображения. Для достижения этой цели в WebP используются такие методы, как компрессия, допускающая потери и аналоговое сжатие.
Приёмная часть
1. Размещение выделенного фрагмента на опорном изображении: Вырезанное изображение, сжатое с помощью WebP, помещается на эталонное изображение в приёмной части. Ис-
а) Результат обнаружения пожара Рис. 2. Результаты моделирования на этапе передачи
б) Зона пожара, готовая к передаче
ходное местоположение выбранной области пожара восстанавливается на эталонном изображении. Это делается путём размещения вырезанного изображения в соответствующем месте эталонного изображения.
2. Регулировка интенсивности света на основе передаваемых данных: используются данные об интенсивности света, содержащиеся в передаваемом изображении, в качестве справочной информации для регулировки интенсивности света на исходном изображении.
3. Окончательное изображение: После размещения вырезанного изображения на справочном изображении и настройки интенсивности света получается окончательное изображение. На окончательном изображении чётко и подробно отображается точная площадь пожара. Интенсивность света стандартизирована и гарантирует, что важная информация — область огня — является чёткой и хорошо видимой на окончательном изображении.
Моделирование и результаты
Предложенный метод был реализован с помощью программы Python. Первым шагом в настройке программы обнаружения пожара с использованием YOLOv5 является обучение. Модель YOLOv5 была обучена с использованием платформы Google Colab. Для обучения и тестирования было использовано 5179 изображений. Количество изображений, содержащих огонь, равно 3060, а количество изображений,
не содержащих огня, составило 2119. 80% изображений использовались для обучения и 20% для тестирования. Обучение проводилось с использованием Batch размером 32 и Epochs 60 соответственно. При этом Batch относится к количеству выборок, обрабатываемых при каждом обновлении весов сети. Epochs представляют собой количество раз, когда весь набор данных передаётся через сеть во время обучения. После обучения модель YOLOv5 может обнаруживать пожары на видео или фотографиях за 10 миллисекунд с точностью более 90%.
На стадии передачи предварительно обученная модель YOLOv5 обнаруживает пожар, определяет его местонахождение с помощью красного прямоугольника и вырезает зону пожара. На рис. 2 показаны результаты моделирования на этапе передачи.
Данные вырезанной части изображения перед отправкой сжимаются. Для сжатия данных изображения использовались методы сжатия jpg и WebP, а также сравнивались результаты сжатия данных. Было протестировано сжатие ряда изображений пожаров разного размера, рассчитан размер данных до и после сжатия, а также рассчитана степень сжатия. В таблице 1 показаны результаты сжатия изображений. На рис. 3 показаны результаты сжатия изображений для разных образцов.
Результаты моделирования показывают, что наилучшие результаты сжатия данных были достигнуты при использовании метода WebP. Принимающая часть вставляет изображение пожара, полученное от отправителя, на эталонное изображение. На рис. 4 и рис. 5 показаны эталонное изображение и изменённое изображение после вставки отправленного изображения пожара на эталонное изображение. Корректность выполненных действий может быть подтверждена методом сравнения реального
Таблица 1. Результаты сжатия изображений
Номер изображе- Исходный размер изображения (Кб) Размер только важной части изображения (Кб) Размер только важной части изображения после сжатия JPG (Кб) Коэффициент сжатия данных с помощью JPG Размер только важной части изображения после сжатия WebP (Кб) Коэффициент сжатия данных с помощью WebP
0 22,952 1,380 0,971 1,421 0,338 4,083
1 23,003 1,867 1,197 1,560 0,541 3,451
2 23,090 2,651 1,562 1,697 0,740 3,582
3 23,344 4,509 2,436 1,851 1,211 3,723
4 23,496 5,535 2,900 1,909 1,477 3,747
5 23,178 7,136 3,662 1,949 2,303 3,099
6 22,953 8,964 4,500 1,992 2,975 3,013
7 23,140 9,533 4,861 1,961 3,369 2,830
номер изображения
Рис. 3. Результаты сжатия изображений для разных образцов
изображения, которое формируется видеокамерой (рис. 6) и модифицированного изображения (рис. 5), полученного в результате вставки фрагмента с пожаром (рис. 2) на эталонное изображение (рис. 4). Высокая идентичность изображений свидетельствует о корректности используемого алгоритма действий.
Для проверки эффективности предложенного метода при слабом канале связи также были рассчитаны значения ОСШ и ПОСШ. В табли-
Рис. 4. Эталонное изображение на принимающей стороне
це 2 показаны ОСШ и ПОСШ для конечного изображения в случае потери данных для отправки полного изображения по сравнению с отправкой только важной информации. По результатам моделирования мы замечаем, что значения ОСШ и ПОСШ для предлагаемого метода больше, чем для традиционного метода. Чем выше значение ОСШ и ПОСШ, тем выше качество изображения и тем ниже уровень шума. Таким образом, предложенный метод эффективно передаёт только важную информацию из изображения и восстанавливает изображение в удовлетворительном порядке в ненадёжных коммуникационных сетях. На рис. 7 и рис. 8 показаны значения ОСШ и ПОСШ по сравнению с потерей данных.
По результатам моделирования предложенный метод доказал свою эффективность по сравнению с другими методами, используемыми для отправки и сжатия данных. Этот метод также снижает потребление энергии за счёт отправки небольшого объёма данных.
Рис. 5. Модифицированное изображение после вставки переданной части в эталонное изображение
Заключение
По результатам моделирования, пожар (информативная область) был обнаружен с помощью модели YOLOV5 с точностью более 90%. Технология WebB доказала свою эффективность при сжатии изображений без заметного воздействия на изображения. Используя предложенный алгоритм, объём передаваемых данных составляет менее 3% от всей информации, содержащейся в видеокадре. И, в конечном итоге, методы сжатия данных играют важную
роль в телекоммуникациях, уменьшая общий размер данных, что сокращает время и требования к пропускной способности каналов связи, используемых для их передачи по сети. Кроме того, уменьшение объёма передаваемых данных снижает общее потребление энергии. Использование передовых технологий, таких как глубокое обучение для сжатия данных, имеет решающее значение в вопросах повышения эффективности беспроводных сенсорных сетей для передачи данных.
Исследование выполнено в рамках государственного задания ФГАОУ ВО Сибирский федеральный университет (номер FSRZ-2023-0008)
Литература
1. Dampage Ud., et al. Forest fire detection system using wireless sensor networks and machine learning // Scientific reports. 2022. Vol. 12(1). Pp. 46.
2. Dheyab OA., Cherniko D.Yu., Selivanov A.S. Integration of Deep Learning and Wireless Sensor Networks
for Accurate Fire Detection in Indoor Environment // Техника и технологии. 2024. №17. С. 124-135.
3. Dheyab OA., Chernikov D., Selivanov A. Fire Size Calculation for Automatic Calibration of Water Spray Nozzle in Firefighting Robots // 5th International Conference on Control Systems, Mathematical Modeling, Automation and Energy Efficiency (SUMMA). IEEE. 2023. Pp. 231-234.
4. Nasr M.A., et al. Efficient information hiding in medical optical images based on piecewise linear chaotic maps // Journal of Optics. 2023. Vol. 52. Pp. 1-15.
5. Деяб О.А. Повышение эффек-
Таблица 2. Окончательное изображение ОСШ и ПОСШ в случае потери данных при отправке всего изображения по сравнению с отправкой только необходимой информации
Коэффициент потери данных % Только важная часть изображения (ОСШ) Полное изображение (ОСШ) Только важная часть изображения (ПОСШ) Полное изображение (ПОСШ)
2,5 35,638 18,798 42,088 25,248
3,5 35,551 17,213 42,002 23,664
4,5 35,237 16,006 41,687 22,456
5,5 34,904 15,071 41,354 21,522
6,5 34,642 14,320 41,092 20,770
7,5 34,7324 13,664 41,182 20,114
♦ традиционный способ —*— Предлагаемый способ со сжатием WebP
4 5 6?
коэффициент потери данных %
Рис. 7. Зависимость пикового отношения сигнал/шум от уровня потери пакетов
35 ч X 3 30
1 25 1 »— традиционный способ предлагаемый способ со сжатием WebP
S
с
коэффициент потери данных %
Рис. 8. Зависимость отношения сигнал/шум от
уровня потери пакетов
тивности передачи видео для обнаружения пожара в нестабильных условиях сети // Инновации в информационных технологиях, машиностроении и автотранспорте (ИИТМА - 2023). 2023. C. 20-23.
6. Jbeily T., Hatem I., Alkubeily M., Challal Y. Simple on-line single-view video summarization for machine-to-machine wireless multimedia sensor network // Mechanism. Machine, Robotics and Mechatronics Sciences. 2019. Vol. 58. Pp. 31-42
7. Banerjee R., Bit S.B.. An energy efficient image compression scheme for wireless multimedia sensor network using curve fitting technique // Wireless Networks. 2019. Vol. 25. Pp. 167-183.
8. Abdulzahra S.A., Al-Qurabat A.K.M., Idrees A.K. Data Reduction Based on Compression Technique for Big Data in IoT // International Conference on Emerging Smart Computing and Informatics (ESCI), Pune, India. 2020. Pp. 103-108.
9. Pushpalatha S., Shivaprakasha K.S. Energy-efficient communication using data aggregation and data compression techniques in wireless sensor networks: A survey // Advances in Communication, Signal Processing, VLSI, and Embedded Systems: Select Proceedings of VSPICE 2019. Springer Singapore, 2020, Pp. 161-179.
10. Salim C., Mitton N. K-predictions based data re-
Поступила 2 августа 2024 г.
duction approach in WSN for smart agriculture // Computing. 2021. Vol. 103. Pp. 509-532.
11. Chi Y, Zhang X., Chan S.H. HDR imaging with spatially varying signal-to-noise ratios // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023. Pp. 5724-5734.
12. Niu R., et al. Aircraft Target Detection in Low Signal-to-Noise Ratio Visible Remote Sensing Images // Remote Sensing. 2023. Vol. 15. Pp. 1971.
13. Zhang B., et al. Denoising swin transformer and perceptual peak signal-to-noise ratio for low-dose CT image denoising // Measurement. 2024. Pp. 114303.
14. Selvi R., Senthamizh B., Varshini A., Deekshiga S.. A Comparative Analysis of Image Denoising Filters for Salt and Pepper Noise // 2023 9th International Conference on Smart Structures and Systems (ICSSS). IEEE, 2023. Pp. 1-10.
15. Tola, K.L., Marinova G.I. Comparison and Rule-Based Implementation in IMA-NET of PHP Compression Functions // 2023 International Conference on Electromechanical and Energy Systems (SIELMEN). IEEE, 2023. Pp. 1-6.
16. Xu R., et al. A forest fire detection system based on ensemble learning // Forests. 2021. Vol. 12. Pp. 217.
English
USING DEEP LEARNING TO IMPROVE THE EFFICIENCY OF WIRELESS SENSOR NETWORKS
Ali Dheyab Omer — Postgraduate Student, Siberian Federal University; Assistant Lecturer, University of Technology (Iraq). E-mail: [email protected]
Dmitry Yurievich Chernikov — PhD., Associate Professor, Head of the Department of Info-communications, Siberian Federal University. E-mail: [email protected]
Alexander Sergeevich Selivanov — Postgraduate Student, Siberian Federal University. E-mail: [email protected]
Address: 660074, Russian Federation, Krasnoyarsk, Akademika Kirenskogo str., 28.
Abstract: Early fire detection is crucial for reducing human and material losses. One of the current methods for a real-time fire detection is using wireless sensor networks based on deep learning. The wireless sensor network can also broadcast real-time video of the fire site to the operation center. This enables security providers and firefighters to take quick and efficient measures to control fire and prevent its spreading out before it causes severe damage. Yet one of the problems of data transmission in wireless sensor networks is due to communication channels with insufficient capacity. This article is aimed at developing a method that uses deep learning to transmit video data through a wireless sensor network meant for the fire detection and data transfer to the fire-fighting operation center via an unreliable communication channel. The proposed method is based on sending only important data from the whole video to the receiving side when fires are detected. Each video frame is generated on the receiving side using reference data previously stored along with the transmitted information. Fire detection average probability was 90% when YOLOv5 deep learning model was used to detect fires and send information. Data transfer sometimes amounts to 3% of all information enclosed in the video frame further to simulation results. There were calculated values of the signal-to-noise ratio (SNR) and peak signal-to-noise ratio (PSNR) to check the proposed method efficiency in a low-capacity communication channel. The proposed method efficiently transmits only the important image-enclosed data and
passably reconstructs the image in unreliable communication networks and it showed better results in data transmission than conventional methods.
Keywords: wireless sensor networks, YOLOv5, deep learning, fire detection, data compression, data transmission, communication channel.
The study was carried out within the framework of the state assignment of the Federal State Autonomous Educational Institution of Higher Education Siberian Federal University (No. FSRZ-2023-0008).
References
1. Dampage Ud., et al. Forest fire detection system using wireless sensor networks and machine learning. Scientific reports. 2022. Vol. 12(1). Pp. 46.
2. Dheyab O.A., Cherniko D.Yu., Selivanov A.S. Integration of Deep Learning and Wireless Sensor Networks for Accurate Fire Detection in Indoor Environment. Техника и технологии. 2024. №17. С. 124-135.
3. Dheyab O.A., Chernikov D., Selivanov A. Fire Size Calculation for Automatic Calibration of Water Spray Nozzle in Firefighting Robots. 5th International Conference on Control Systems, Mathematical Modeling, Automation and Energy Efficiency (SUMMA). IEEE. 2023. Pp. 231-234.
4. Nasr M.A., et al. Efficient information hiding in medical optical images based on piecewise linear chaotic maps. Journal of Optics. 2023. Vol. 52. Pp. 1-15.
5. Deyab O.A. Improving the efficiency of video transmission for fire detection in unstable network conditions. Innovations in information technology, mechanical engineering and motor transport (IITMA - 2023). 2023. Pp. 20-23.
6. Jbeily T., Hatem I., Alkubeily M., Challal Y. Simple on-line single-view video summarization for machine-to-machine wireless multimedia sensor network. Mechanism. Machine, Robotics and Mechatronics Sciences. 2019. Vol. 58. Pp. 31-42
7. Banerjee R., Bit S.B.. An energy efficient image compression scheme for wireless multimedia sensor network using curve fitting technique. Wireless Networks. 2019. Vol. 25. Pp. 167-183.
8. Abdulzahra S.A., Al-Qurabat A.K.M., Idrees A.K. Data Reduction Based on Compression Technique for Big Data in IoT. International Conference on Emerging Smart Computing and Informatics (ESCI), Pune, India.
2020. Pp. 103-108.
9. Pushpalatha S., Shivaprakasha K.S. Energy-efficient communication using data aggregation and data compression techniques in wireless sensor networks: A survey. Advances in Communication, Signal Processing, VLSI, and Embedded Systems: Select Proceedings of VSPICE 2019. Springer Singapore, 2020, Pp. 161-179.
10. Salim C., Mitton N. K-predictions based data reduction approach in WSN for smart agriculture. Computing.
2021. Vol. 103. Pp. 509-532.
11. Chi Y., Zhang X., Chan S.H. HDR imaging with spatially varying signal-to-noise ratios. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023. Pp. 5724-5734.
12. Niu R., et al. Aircraft Target Detection in Low Signal-to-Noise Ratio Visible Remote Sensing Images. Remote Sensing. 2023. Vol. 15. Pp. 1971.
13. Zhang B., et al. Denoising swin transformer and perceptual peak signal-to-noise ratio for low-dose CT image denoising. Measurement. 2024. Pp. 114303.
14. Selvi R., Senthamizh B., Varshini A., Deekshiga S.. A Comparative Analysis of Image Denoising Filters for Salt and Pepper Noise. 2023 9th International Conference on Smart Structures and Systems (ICSSS). IEEE, 2023. Pp. 1-10.
15. Tola, K.L., Marinova G.I. Comparison and Rule-Based Implementation in IMA-NET of PHP Compression Functions. 2023 International Conference on Electromechanical and Energy Systems (SIELMEN). IEEE, 2023. Pp. 1-6.
16. Xu R., et al. A forest fire detection system based on ensemble learning. Forests. 2021. Vol. 12. Pp. 217.