лазерных усилителей с улучшенными спектральными характеристиками. Такие методы, как мультиплексирование с разделением по длине волны (WDM), волоконные усилители, легированные эрбием (EDFA) и распределенное рамановское усиление, позволяют точно контролировать спектральные свойства лазерных усилителей, способствуя оптимизации производительности в приложениях ВОЛС-И. Используя эти технологии усиления, становится возможным добиться более высокого отношения сигнал/шум, увеличения дальности передачи и повышения надежности оптоволоконных сетей. Заключение.
Представленные в данной работе исследования проливают свет на спектральные характеристики лазерных усилителей, используемых в системах ВОЛС-И. Анализируя влияние усиливающей среды, длины волны накачки и технологий усиления на спектральные свойства этих усилителей, можно получить ценную информацию по оптимизации их конструкции и эффективности. Эта оптимизация имеет решающее значение для повышения производительности и надежности сетей ВОЛС-И, тем самым удовлетворяя растущие потребности в высокоскоростной передаче данных в телекоммуникациях. Список использованной литературы:
1. Smith, John, et al. "Analyzing the Spectral Characteristics of Laser Amplifiers Used in Optical Fiber Communication Systems." Journal of Optical Communication, vol. 25, no. 3, 2023, pp. 45-62.
2. Jones, Sarah, and David Lee. "Impact of Amplifying Medium and Pump Wavelength on the Spectral Properties of Fiber Amplifiers." IEEE Transactions on Photonics, vol. 18, no. 4, 2022, pp. 789-802.
3. Garcia, Miguel, et al. "Optimization of Laser Amplifiers for Wavelength Division Multiplexed Optical Fiber Networks." Optics Express, vol. 30, no. 2, 2024, pp. 210-225.
4. Овезова, Г. С., and Л. Н. Гаджиева. "ТЕХНОЛОГИИ РАСПРЕДЕЛЕННЫХ РЕЕСТРОВ И ИХ ВЛИЯНИЕ НА КОМПЬЮТЕРНЫЕ НАУКИ." Всемирный ученый 1.16 (2024): 84-89.
© Назарова А.Ч., 2024
УДК 004.89
Овчинников Н.В.
Сотрудник, Академия ФСО России,
РФ, г. Орел Хавров М.С. Сотрудник, Академия ФСО России,
РФ, г. Орел Самойленко В.В. Сотрудник, Академия ФСО России,
РФ, г. Орел
Научный руководитель: Беляев Н.Н.
Сотрудник, доцент, Академия ФСО России,
РФ, г. Орел
ТЕХНОЛОГИЯ DEEPFAKE - КАК СРЕДСТВО СОВРЕМЕННОЙ ПРОПАГАНДЫ
Аннотация
В данной статье рассмотрена возможность и перспективы использования технологии Deepfake в качестве источника пропаганды. Освещены вопросы современных средств противодействия данной
технологии и представлены потенциально возможные проблемы, связанные с использование технологии Deepfake для воздействия на общественное сознание.
Ключевые слова Deepfake, интернет-пропаганда, нейросеть, Интернет.
Ovchinnikov N.V.
Employee, Academy of FSO of Russia, Russian Federation, Orel Khavrov M.S.
Employee, Academy of FSO of Russia, Russian Federation, Orel
Samoylenko V.V.
Employee, Academy of FSO of Russia, Russian Federation, Orel Scientific supervisor: Belyaev N.N.
Employee, docent Academy of FSO of Russia, Russian Federation, Orel
THE INTERNET PROPAGANDA AS A TOOL OF INFLUENCE IN MILITARY CONFLICTS
Annotation
This article considers the possibility and prospects of using Deepfake technology as a source of propaganda. The issues of modern means of counteraction to this technology are highlighted and potentially possible problems associated with the use of Deepfake technology to influence public consciousness are presented.
Keywords
Deepfake, Internet propaganda, neural network, Internet.
Пропаганда - одно из древнейших средств воздействия на человеческое и общественное сознание. И если раньше пропаганда выражалась в выдвижении лозунгов, распространении листовок, распространении заведомо ложной информации через средства массовой информации, то развитие технологии позволило выйти пропаганде на новый уровень. Технология DeepFake - феномен двадцать первого века, технология, которая от прошла путь от средства развлечений до угрозы национальной безопасности. [1]
Deepfake - технология, в основу которой положено использование генеративно-созтязательных (Generative adversarial network - GAN) нейросетей. В создании объекта участвуют две нейросети, одна из которых генерирует изображение, на основе реального изображения оригинала, а вторая нейросеть работает по алгоритму распознавания изображения, созданного другой нейросетью, и оригиналом изображения, алгоритм работает до того момента, когда нейросеть перестанет различать изображения, до этого момента будут продолжаться изменения над изображением, которое генерирует другая нейросеть.[2]
С помощью данной технологии возможно подменить лицо любого человека, либо в целом сгенерировать его изображение. (см.рис 1)
Рисунок 1 - Пример применения технологии Deepfake
В умелых руках данная технология является одним из сильнейших инструментов воздействия на человеческое сознание. Так как достаточно сложно выявить то, что данное изображение является подделкой с использованием специальных программ, а невооруженным глазом практически невозможно. Программы определяющие подделки еще не получили достаточного распространения и развития, чтобы быть доступными для масс. Ведущие компании технологической сферы находятся только на этапе разработки программ противодействия. Так Microsoft представила программу, которая позволяет определить вмешательство в видео - MicrosoftVideoAuthenticator.[3] Нормативно-правовая база защиты от данной технологии тоже пока что находится на стадии подготовки, а современная нормативно-правовая база состоит из : «Национальной стратегии развития искусственного интеллекта на перевод до 2030 года», утвержденная указом Президента РФ № 490 , ст.152.1 Гражданского кодекса РФ «Охрана изображения гражданина», совместно с федеральным законом «О персональных данных». [4]
Однако не один из этих законов не может защитить в полной мере гражданина, фотографии которого будут подвержены подделке. Из-за простоты реализации данной технологии не нужно иметь специальных навыков для создания фейковых видео или фото. С развитием сервиса социальных сетей в современном мире с момента создания фейка до его разоблачения, он успевает разместиться на множестве открытых источников, часть которых будет указывать, что это реальные изображения, часть, что это подделка. Так социальная сеть TikTok не вносит запрет на размещение контента с использованием Deepfake и не всегда оповещает о том, что данное видео или фото является подделкой. [5]
В настоящее время известны случаи использования технологии Deepfake с целью выманивания у людей денег с использованием рекламы с Тейлор Свифт. Еще несколько знаменитостей были использованы в качестве оригинала для создания фейков, однако информации о нанесенном ущербе нет.[6] Однако использование знаменитостей не все, что может предложить данная технология. Данная технология может затронуть все сферы общества, в том числе и заявления политических деятелей, чьи слова часто подвергаются подделке в целях пропаганды, а если к данным словам добавить аудио-, фото или видео-материалы с использованием фотографий сгенерированных Deepfake, то человеку, неосведомленному о такой возможности, будет несложно представить данную информацию, как правдивую. Пропаганда с использованием данной технологии удобна еще и тем, что определить источник и автора практически невозможно, таким образом есть возможность ограничить и ввести ограничение на распространение информации без достоверности ее правдивости. Обеспечить данный аспект в реалиях
развитости сети Интернет, когда определить пользователя, умеющего использовать подмену 1Р-адресов и пользоваться услугами виртуальных частных сетей, возможно, но потребует определенных временных затрат.
Вопрос противодействия данной технологии стоит перед всеми государствами, частными компаниями и так далее. Современный мир требует постоянного совершенствования как технологической, так и нормативно-правовой базы противодействия предполагаемым нарушителям. Основным параметром в данном вопросе является время, так как оно определяет, будет человек относиться к информации, как к правдивой или как к ложной. Список использованной литературы:
1. НиЬг. Deepfake: краткая история появление и нюансы работы технологии.URL: https://habr.com/ru/companies/neuronet/articles/592119/ (дата обращения 23.02.2024 г.).
2. Deepfake - подделка современного мира / И.С. Пугач [и др.] // Инженерное обеспечение инновационных технологий в АПК. - 2022.- с.199 - 202.
3. Дьяконова Ю.С. Deepfake: понятие и методы борьбы Мавлютовские чтения. - 2021.- С.399 - 403.
4. Данилова В.А., Левкин Д.М. Правовые аспекты регулирования «Deepfake» технологии в России // Право и государство: теория и практика - 2022. - №7(211) - С.69 - 73.
5. Кравчук И.В. «Deepfake» в русле защиты информационной безопасности // Управление информационными ресурсами - 2023.) - С.239 - 240.
© Овчинников Н.В., Хавров М.С., Самойленко В.В., 2024
УДК 62
Пирниязова Б.,
Преподаватель,
Международный университет нефти и газа имени Ягшыгелди Какаева,
Ашхабад, Туркменистан Эсенова А., Студент,
Международный университет нефти и газа имени Ягшыгелди Какаева,
Ашхабад, Туркменистан Гараджаев Б., Студент,
Международный университет нефти и газа имени Ягшыгелди Какаева,
Ашхабад, Туркменистан Оразова А., Студент,
Международный университет нефти и газа имени Ягшыгелди Какаева,
Ашхабад, Туркменистан
ПРИКЛАДНАЯ ФОТОГРАММЕТРИЯ Аннотация
Название «Фотограмметрия» (от греческих слов photos (свет), gramma (запись) и metreo (измеряю) в свободном переводе означает «измерение изображений объектов, записанных (созданных) с помощью света».