NATURAL SCIENCES
COMPUTER SCIENCE AND INFORMATICS
Научная статья УДК 004.8
https://doi.org/10.24412/2687-0185-2023-3-291-298 EDN: https://elibrary.ru/ZUOOHN NIION: 2007-0083-3/23-340 MOSURED: 77/27-005-2023-03-540
Средства противостояния фейковой информации как угрозе информационной и национальной безопасности
Марина Юрьевна Толстых
Московский университет МВД России имени В.Я. Кикотя, Москва, Россия, [email protected]
Аннотация. Рассматривается фейковая информация как угроза безопасности, приведены основы ее нормативного регулирования, некоторая классификация и характеристика ее видов. Подтверждена актуальность разработки и совершенствования методов, средств и технологий борьбы с нею. В качестве оригинального решения предлагается модель верификации подозрительного контента, которая может применяться как система поддержки принятия решений при работе с дипфейками.
Ключевые слова: информация, безопасность, фейк, дипфейк, контент, верификация, модель, искусственная нейронная сеть, машинное обучение
Для цитирования: Толстых М. Ю. Средства противостояния фейковой информации как угрозе информационной и национальной безопасности // Криминологический журнал. 2023. № 3. С. 291-298. https://doi. org/10.24412/2687-0185-2023-3-291-298.
Original article
Means of countering fake information as a threat to information and national security
Marina Yu. Tolstykh
Moscow University of the Ministry of Internal Affairs of the Russian Federation named after V.Yа. Kikot', Moscow,
Russia, [email protected]
Abstract. The article considers fake information as a security threat, gives the basics of its regulatory regulation, some classification and characteristics of its types. The relevance of developing and improving methods, means and technologies to combat are confirmed. As an original solution, a suspicious content verification model which can be used as a decision support system when working with deepfakes is proposed.
Keywords: information, security, fake, deepfake, content, verification, model, artificial neural network, machine learning
For citation: Tolstykh M. Yu. Means of countering fake information as a threat to information and national security. Criminological Journal. 2023;(3):291-298.(In Russ.). https://doi.org/10.24412/2687-0185-2023-3-291-298.
Введение. С повсеместным распространением массмедиа и усилением их влияния на сознание приходится признать, что процессы восприятия информации сегодня во многом являются определяющими. За недостоверными сведениями, сфабрикованными новостями, поддельными видео часто скрываются стратегии, направленные на манипулирование общественным мнением и подрыв стабильности государств и их институтов. Обманы и дезинформация представляют собой глобальную угрозу свободе и демократии.
Развитие и широкое использование цифровых медиа позволяют подобного рода кампаниям быстро распространяться, что делает проблему более острой.
По мере изменения общего медийного ландшафта использование цифровых инструментов для информирования людей и активизации гражданского обсуждения замещается деструктивной работой злоумышленников в направлении умелой эксплуатации преимуществ социальных и цифровых платформ с целями обмана, введения в заблуждение или нанесения вреда отдель-
© Толстых М. Ю., 2023
_ЕСТЕСТВЕННЫЕ НАУКИ_
КОМПЬЮТЕРНЫЕ НАУКИ И ИНФОРМАТИКА
ным категориям граждан, а также целым государствам путем создания или распространения фейков1.
Указанная проблематика также актуальна и для правоохранительных органов, сотрудникам отельных подразделений которых необходимо оперативно выявлять и гарантированно предотвращать деструктивное воздействие фейковых новостей, которые могут усилиться и в худшем случае перерасти в преступления, например, в насильственный экстремизм.
Вышесказанное обосновывает актуальность и необходимость в изучении или переосмыслении существа фейковой информации как актуальной угрозы информационной и национальной безопасности и разработке рекомендаций и средств по верификации информации, имеющей значение для различных реципиентов, как отдельных граждан, так и государственных органов, в том числе правоохранительных.
Понятие и классификация фейков. Фейки стали неотъемлемой частью современной жизни. Дезинформация сопровождает почти все политические процессы, интенсификация этого явления пропорциональна развитию информационных технологий. Нормативное определение данной дефиниции к настоящему моменту не установлено, официальные тематические справочные ресурсы понимают под подобного рода информацией следующее.
Фейк - это информация «вредоносного» характера, которая причиняет определенный вред. Для того, чтобы принять решение о доверии к воспринимаемой информации и возможности последующего ее распространения реципиенту необходимо понять, к какому типу относится сообщение.
Рассмотрим классификационные критерии (Рис. 1) и советующие виды фейковой информации, которые предложены в научных и информационных источниках по данной тематике [6-8], а также ее основные характеристики.
Таким образом, фейк - это недостоверная информация, которую выдают за действительность. Фейками могут быть посты в соцсетях, сообщения в мессенджере, материалы на сайте СМИ. Фейковым может быть контент практически любого вида: новость, изображение, видеоролик и аккаунт в социальных сетях.
Правовые основы регулирования фейков. С нормативной точки зрения по изучаемой проблеме отмечается пробел в терминологическом описании и неоспоримом экспертами в части содержания юридическом регулировании.
Пакет законов, запрещающих создание и распространение фейковых новостей, был принимается в
1 Под фейком или фейковой информацией здесь и далее понимаются сведения, независимо от формы их представления, распространяемые с нарушением закона и под видом достоверных сообщений.
марте 2019 года [6]. Изменения вносятся в КоАП РФ, а также основной закон об информации [3].
Введенные нормы вводят запрет на передачу в глобальной сети тех сведений, которые несут «угрозу причинения вреда жизни или здоровью граждан, имуществу, угрозу массового нарушения порядка и общественной безопасности, угрозу создания помех функционирования или прекращения функционирования объектов жизнеобеспечения, транспортной или социальной инфраструктуры, кредитных организаций, объектов энергетики, промышленности или связи».
Следуя этому, в лексике основного закона об информации и ее защите, определяющего основы ее правового регулирования [3], под фейковой информацией понимаются сведения, независимые от формы их представления, распространяемые с нарушением закона и под видом достоверных сообщений. Расширяется административная ответственность [2], а также в положениях [3] предусматривается блокировка ресурса, разместившего фейковую информацию. Исполнителем в реализации данной функции определен Ро-скомнадзор. Принятые изменения в государственное законодательство определяют штрафы традиционно дифференцированно для субъекта правонарушения.
С приходом коронавируса антифейковое законодательство ужесточается. В апреле 2020 г. принимают нормативный правовой акт об уголовном наказании [1] за ложную информацию, преподнесенную од видом достоверной и спровоцировавшую тяжкие последствия: вводятся ст. 207.12 и 207.23.
Изменения 2022 года отражаются на разработке законопроектов, именуемых в СМИ законом о военной цензуре или законом о фейках, вносящих изменения в УК РФ и УПК РФ [4]. Укрупняются категории сведений, распространяемых с нарушением закона и под видом достоверных: их составляют сообщения о действиях российских военных, осуществляемых в рамках специальной военной операции. При этом бремя доказывания заведомой ложности лежит на стороне обвинения.
Таким образом, государство стремится бороться с информационной лавиной сведений, распространяемых с нарушением закона и под видом достоверных сообщений, посредством так называемого «антифейкового» законодательства, истоки которого датируются 2018 г., дополняются эпидемиологическими и геополитическими событиями 2020 и 2022 гг. соответственно.
Математические аспекты создания фейков. Рассмотрим математические основы создания фейковой информации на примере распространенных и весьма популярных сегодня дипфейков.
2 «Публичное распространение заведомо ложной информации об обстоятельствах, представляющих угрозу жизни и безопасности граждан».
3 «Публичное распространение заведомо ложной общественно значимой информации, повлекшее тяжкие последствия».
NATURAL SCIENCES
COMPUTER SCIENCE AND INFORMATICS
Рис. 1. Некоторые критерии классификации и виды фейковой информации
Под дипфейком обычно понимают видео, в которых лицо и (или) голос человека изменены с помощью программного обеспечения (с применением технологий искусственного интеллекта, машинного обучения) таким образом, чтобы измененное видео выглядело аутентичным. В целом, манипуляции с лицом обычно проводят-
ся с помощью дипфейк технологий и могут быть разделены на следующие категории: синтез лица, обмен лицами, модификация черт лица и его выражения.
В категории синтеза лица цель состоит в том, чтобы создать несуществующие реалистичные лица с помощью GAN. Архитектура генератора учится раз-
_ЕСТЕСТВЕННЫЕ НАУКИ_
КОМПЬЮТЕРНЫЕ НАУКИ И ИНФОРМАТИКА
JäggL
делять высокоуровневые атрибуты (при обучении на человеческих лицах) без наблюдения и стохастических вариаций в сгенерированных изображениях (например, веснушки, волосы, прыщи), а также обеспечивает интуитивно понятный, зависящий от масштаба контроль синтеза. Входные данные отображаются через несколько полносвязных слоев в промежуточное представление W, которое затем подается на каждый свер-точный слой посредством адаптивной нормализации экземпляров, где каждая карта признаков нормализуется отдельно. Также добавляется гауссовский шум после каждой свертки в карты признаков каждого слоя.
Архитектура генератора позволяет управлять синтезом изображений с помощью модификаций стилей в зависимости от масштаба. Эффекты каждого стиля локализованы в сети, то есть можно ожидать, что изменение определенного подмножества стилей повлияет только на определенные аспекты изображения.
Причина такой локализации основана на операции адаптивной нормализации экземпляров, которая сначала нормализует каждый канал к нулевому среднему и единичной дисперсии, только затем применяет масштабы и смещения на основе стиля. Новая статистика по каналам, как это продиктовано стилем, изменяет относительную важность признаков для последующей операции свертки, но они не зависят от исходной статистики из-за нормализации. Таким образом, каждый стиль управляет только одной сверткой, прежде чем будет переопределен следующей операцией адаптивной нормализации экземпляров.
Для обнаружения поддельных синтетических изображений разработаны различные подходы. Наиболее распространен подход, при котором используются слои внимания поверх карт признаков [5], чтобы выделить обработанные области лица. Их сеть выводит бинарное решение о том, является ли изображение реальным или поддельным.
Архитектура обнаружения манипулирования лицом может использовать любую магистральную сеть, уровень внимания может быть вставлен в нее. Он принимает на вход многомерный признак F, оценивает карту внимания М , используя либо методы, основанные на модели внешнего вида манипуляции (МАМ), либо методы, основанные на регрессии, и по каналам умножает его на многомерные признаки, которые возвращаются обратно. Метод МАМ предполагает, что любая обработанная карта может быть представлена как линейная комбинация набора прототипов карт, в то время как метод регрессии оценивает карту внимания с помощью сверточной операции.
Модификация выражений лица заключается в изменении атрибутов лица, таких как цвет волос или кожи, возраст, пол и выражение лица, делая его радостным, грустным или напуганным. Самый попу-
лярный пример - недавно запущенное мобильное приложение StarGAN.
Большинство подходов в данной категории используют GAN для преобразования изображения в изображение Одним из наиболее эффективных методов является StarGAN, в котором используется одна модель, обученная для нескольких доменов атрибутов, вместо обучения нескольких генераторов для каждого домена. StarGAN состоит из дискриминатора D и генератора G. Дискриминатор пытается предсказать, является ли входное изображение поддельным или реальным, и классифицирует реальное изображение по соответствующему домену. Генератор принимает в качестве входных данных как изображение, так и метку целевого домена и генерирует поддельное изображение. Метка целевого домена пространственно реплицируется и объединяется с входным изображением. Затем генератор пытается восстановить исходное изображение из поддельного изображения с использованием исходной метки домена. Наконец, генератор G пытается сгенерировать изображения, неотличимые от реальных изображений и классифицируемые дискриминатором как целевой домен.
Разработка и описание автоматизированного средства верификации данных. Предлагается конструирование программного обеспечения, представляющего собой систему поддержки принятия решений, основанную на обучении нейронных сетей, которая может быть интегрирована в деятельность сотрудников правоохранительных органов с целью выполнения верификации подозрительного контента в форме изображений и видео.
Охарактеризуем этапы и содержание работ по обучению сетей, т. е. построению модели, в том числе математической, являющиеся базой предлагаемого программного решения задачи распознавания дипфейков.
Набор данных для построения и обучения модели (датасет) содержит 1000 исходных достоверных видео с докладчиками (ведущие новостей, ораторы, дикторы, блогеры, лекторы). Ниже приведен пример исходного видео (Рис. 2).
Рис. 2. Образцы компонентов обучающего датасета
Для каждого компонента датасета применена одна из модификаций (методов манипулирования изо-
NATURAL SCIENCES
COMPUTER SCIENCE AND INFORMATICS
JäggL мю
бражением), реализуемых приложениями: Deepfakes, Face2Face, FaceSwap, NeuralTextures. Таким образом полный набор содержит 2000 видео (исходные и измененные). В целях экономии вычислительных ресурсов в эксперименте использовался кодек c23, который понижает качество видео и его размер (реализация требуемой минимизации занимаемой памяти), однако сохраняет разрешение (высота и ширина в пикселях). Полный объем данных составил примерно 8,6 Гб.
Для целей исследования выбран Deepfakes - дата-сет с фейковыми видео, который был дополнен Google. Общедоступность датасета обусловлена стремлением разработчиков поддержать исследования в распознавании дипфейк контента. Выбор указанного набора данных для построения и обучения модели обусловлен тем, что его содержимое наиболее качественное (с точки зрения отсутствия артефактов замены лица).
Для выделения лица докладчика на изображении используется функционал «insightface» с доработкой в виде фреймофрков, предложенных на облачной платформе для размещения IT-проектов и их совместного проектирования, а также модификации «Github». Выбранная модель позволяет масштабировать и нормализовать вырезанное лицо.
В процессе анализа (чтения) видео на кадре выделяется лицо докладчика, ввиду пользовательского характера графического процессора используются небольшие по размеру лица: 224*224 пикселей.
Конвейер обучения модели (сети) представляет собой набор итераций, используется его простейшая архитектура:
• вырезание лица;
• сложение трех изображений по каналам;
• решение задачи бинарной классификации c помощью сверточной нейронной сети ResNet50, имеющей 50 слоев глубины, обученной более чем на миллионе изображений от базы данных ImageNet сети.
Глубина представлений имеет центральное значение для многих задач визуального распознавания. Глубокие сети естественным образом интегрируют признаки низкого, среднего, высокого уровня и классификаторы сквозным многоуровневым способом, а уровни признаков могут быть обогащены по количеству укладываемых слоев (глубине).
В связи со значением глубины возникает вопрос о простоте построения сетей суммированием слоев. Препятствием к ответу на этот вопрос выступает проблема исчезающих / взрывающихся градиентов, которая препятствует сходимости. Задача в значительной степени решается нормализованной инициализацией и промежуточными уровнями нормализации, которые позволяют сетям с десятками слоев достичь робаст-ного схождения к локальному минимуму с помощью
оптимизации (обратное распространение ошибки). В процессе сходимости глубоких нейронных сетей, возникает трудность деградации: с сетью возрастает глубина, следом точность получается высокой, но с увеличением эпох обучения стремительно снижается.
Уменьшение точности обучения свидетельствует о том, что не все модели одинаково легко оптимизировать. Существует решение по построению более глубокой модели: добавленные слои являются тождественным отображением, а остальные слои копируются из изученной более мелкой модели. Существование этого построенного решения указывает на то, что более глубокая модель не должна давать более высокой ошибки обучения чем ее уменьшенный аналог.
Предлагается решение проблемы деградации путем внедрения глубокой остаточной структуры сети. Вместо ожидания того, что каждые несколько сложенных слоев будут непосредственно соответствовать желаемому базовому отображению, явно позволяется указанным слоям соответствовать остаточному отображению. Формально обозначая желаемое лежащее в основе отображение как Н(х), допустим суммированным нелинейным слоям соответствовать другому отображению F(x):=H(x) - х. Исходное отображение преобразуется в F(x) + х.
Формулировка F(x) + х может быть реализована нейронными сетями прямого распространения с «усеченными соединениями» (Рис. 3).
Веса слоя
F(x)
Усеченное \ у
линейное JТождественное ,^преобразование/ отображение
Веса слоя
F(x)+x
Усеченное линейное преобразование
Рис. 3. Элементарный блок в остаточном обучении
Усеченные соединения пропускают один или более слоев. В данном случае соединения просто выполняют тождественное отображение, а их выходные данные добавляются в выходы сложенных слоев. Использование усеченных соединений не добавляет ни дополнительных параметров, ни вычислительной сложности.
Всю сеть возможно обучить сквозным методом с помощью стохастического градиентного спуска с обратным распространением, что возможно реализовать с использованием обычных библиотек без изменения механизма решения.
ЕСТЕСТВЕННЫЕ НАУКИ
КОМПЬЮТЕРНЫЕ НАУКИ И ИНФОРМАТИКА
„¿¿¡Мм*» им
Формально рассматриваемый строительный блок (Рис. 4) определим как:
У = F(x,{W}) + х (1)
Здесь x и y - входной и выходной векторы рассматриваемых слоев.
Функция F(x,{W}) представляет остаточное отображение, которое необходимо изучить. Рассматриваемый элементарный блок в остаточном обучении имеет два слоя, F = W2 a (W1 x), в котором а обозначает усеченное линейное преобразование, а смещения опущены для упрощения обозначений.
Операция F + х выполняется как усеченное соединение путем поэлементного сложения. Далее применяется вторая нелинейность после сложения (т. е. а (у).
Усеченное соединение в уравнении (1) не вносит ни дополнительных параметров, ни сложности вычислений. Размерности x и F должны быть равны в уравнении (1), иначе (например, при изменении входа/выхода канала), необходимо выполнить линейную проекцию W по усеченному соединению в соответствии с размерами:
у = F(x,{W}) + W х (2)
Допустимо использовать квадратную матрицу W в уравнении (1). Форма остаточной функции F является гибкой, если F имеет только один слой, уравнение (1) аналогично линейному слою у = W х + х, для которых преимущества не наблюдаются. Заметим также, что хотя приведенные выше обозначения относятся к полносвязным слоям, они применимы и к сверточ-ным. Функция F(^{ W}) может представлять несколько сверточных слоев, поэлементное сложение должно выполняться на двух картах признаков, канал за каналом.
Под каналом в сверточных сетях проектируемой модели в эксперименте понимается трехмерная размерность тензора (высота, ширина, канал), аналогия «толщины» положенных друг на друга фотографий. Напомним, что для стандартного изображения RGB существует три канала: красный, зеленый, синий.
В случае данного эксперимента количество каналов составит девять: три раза по три канала каждого изображения. Введение подобного усложнения позволяет учитывать временной характер видео: берутся во внимание предыдущие два кадра, для того чтобы идентифицировать изменения в динамике.
Особенностью реализации формирования объекта обучающей выборки является использование генератора случайных чисел для рандомизации обучения.
Для выбранного конвейера необходимо подготовить обучающие данные, т. е. сформировать их отдель-
ную структуру, поскольку с точки зрения временных затрат нерационально анализировать видео каждый раз при обучении.
Создается две директории:
• origin - оригинальные видео (без воздействия),
• fake - видео с FaceSwap (применение DeepFake),
• в которых будут сохранены файлы с теми же именами, что и видео, в файлах будут содержаться лица (последовательно по кадрам). Поскольку в имеющихся видео присутствует всегда лишь один человек, то на нюансы выбора лица не берутся во внимание.
Результаты обучения представлены графически (рисунок 4) и таблично (Таблица 1).
Таблица 1
Метрики качества модели
Precision Точность1 Recall Полнота2 F1-score F-мера3
0 - фейк 0,59 0,85 0,69
1 - достоверное видео 0,73 0,40 0,52
Accuracy доля правильных ответов алгоритма4 0,62
Macro avg макроусреднение, невзвешенное среднее5 0,66 0,62 0,61
Weighted avg средневзвешенный результат6 0,66 0,62 0,61
Таким образом выполнено разделение выборки (датасета) на обучение и валидацию (компоненты, которые в обучении не участвовали) в соотношении 90 % к 10 %. После обучения вычислены усредненные метрики по оставшимся 200 видео. В результате метрики усреднены дважды: первое усреднение - по конкретному видео; второе - по 200 видео из валида-ционной выборки.
1 Число истинных положительных результатов, деленное на общее число истинных положительных результатов и ложных положительных результатов.
2 Число истинных положительных результатов, деленное на общее число истинных положительных результатов и ложноотрицательных результатов.
3 Среднее гармоническое точности и полноты, агрегированный критерий качества модели.
4 Соотношение всех истинных результатов и суммы всех комбинаций матрицы ошибок.
5 Метрика качества рассчитывается внутри объектов каждого класса и затем усредняется по всем классам.
6 Среднее с учетом различной ценности (веса, важности) каждого из элементов.
NATURAL SCIENCES
COMPUTER SCIENCE AND INFORMATICS
accuracy/train ^
/У . » у
II' / 1 J1 1 II / / fill! *
1 ц/ 1
л 1
0 2,000 4,000 6,000 8,000
accuracy/Validation_epoch If
I L. IMil 1
iiJF Jlil / ||/|Jt "v 1 i ll /I 1 г
J1 1 1
Ml 1 Лг 1 1
Ii 1
0 2,000 4,000 6,000 8,000
Рис. 4. Графическая интерпетация результатов построения модели (зависимость точности от эпох обучения)
Заключение. Текущие социальные процессы свидетельствуют о столкновении общества с угрозой не только информационной, но и национальной безопасности, когда требуется консолидация правительства и граждан: органов государственной власти, представителей медиапространства, экспертных объединений. Востребована инклюзивность множества информационных площадок в своевременную отработку фей-ков и понимание с их стороны ответственности перед широкой и разнообразной аудиторией, чтобы они понимали свою зону ответственности и транслировали проверенные сведения.
Эффективная и качественная работа по верификации потенциально недостоверной информации и опровержению фейков зависит от взаимодействия СМИ и органов власти. Востребованным также видится конструирование программного обеспечения, включающего в себя модели обучения нейронных сетей для идентификации ключевых признаков, свидетельствующих об отсутствии достоверности информации.
В предложенной оригинальной разработке общая точность модели составила 62 % с учетом обработки всех кадров видео. Для более высокого результата работы следует осуществить решение специфичных задач, связанных со значительно большим временным окном или добавлением дополнительных признаков,
таких, например, как звук, что может являться направлениями дальнейших исследований по заданной тематике.
Список источников
1. Уголовный кодекс Российской Федерации от 13 июня 1996 г. № 63-ФЗ (ред. от 15.03.2023) // Собрание законодательства Российской Федерации. 1996. № 25. Ст. 2954.
2. Кодекс Российской Федерации об административных правонарушениях от 30 декабря 2001 г. № 195-ФЗ (ред. от 24 ноября 2022 г.) // Собрание законодательства Российской Федерации. 2002. № 1 (часть I). Ст. 1.
3. Федеральный закон от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации» // СПС «Кон-сультантПлюс».
4. Федеральный закон от 4 марта 2022 г. № 32 «О внесении изменений в Уголовный кодекс Российской Федерации и статьи 31 и 151 Уголовно-процессуального кодекса Российской Федерации» // СПС «КонсультантПлюс».
5. Боровская Е. В. Основы искусственного интеллекта: учебное пособие. М. : Лаборатория знаний, 2020.
6. Коробков Д. О правовом регулировании дип-фейк // Правовая защита интеллектуальной собственности: проблемы теории и практики: сборник материалов X Международного юридического форума (IP Форум), 18-19 февраля 2022 года. Т. 2. М. : Издательский центр Университета имени О.Е. Кутафина (МГЮА), 2022. С. 260-264.
7. Купка И. П. Дипфейк как информационное оружие современности // Динамика медиаси-стем. 2023. Т. 3. № 1. С. 375-381.
8. Муратова Н., Тошпулатова Н., Алимова Г. Fake news: дезинформация в медиа: пособие. Ташкент: «Innovatsion rivojlanish nashriyot-matbaa uyi», 2020.
References
1. Criminal Code of the Russian Federation of June 13, 1996 № 63-FZ (as amended on March 15, 2023) // Collection of legislation of the Russian Federation. 1996. № 25. Art. 2954.
2. Code of the Russian Federation on Administrative Offenses of December 30, 2001 № 195-FZ (as amended on November 24, 2022) // Collection of Legislation of the Russian Federation. 2002. № 1 (part I). St. 1.
3. Federal Law of July 27, 2006 № 149-FZ «On information, information technologies and information protection» // LRS «ConsultantPlus».
ЕСТЕСТВЕННЫЕ НАУКИ
КОМПЬЮТЕРНЫЕ НАУКИ И ИНФОРМАТИКА
4. Federal Law of March 4, 2022 № 32 «On Amendments to the Criminal Code of the Russian Federation and Articles 31 and 151 of the Criminal Procedure Code of the Russian Federation» // LRS «ConsultantPlus».
5. Borovskaya E. V. Fundamentals of artificial intelligence: textbook. M. : Knowledge Laboratory, 2020.
6. Korobkov D. On the legal regulation of deepfake // Legal protection of intellectual property: problems of theory and practice: collection of materials
of the X International Legal Forum (IP Forum), February 18-19, 2022. Vol. 2. M. : Publishing Center of the University named after O.E. Kutafina (MGYuA), 2022. P. 260-264.
7. Kupka I. P. Deepfake as an information weapon of our time // Dynamics of media systems. 2023. T. 3. № 1. P. 375-381.
8. Muratova N., Toshpulatova N., Alimova G. Fake news: disinformation in the media: a manual. Tashkent : «Innovatsion rivojlanish nashriyot-matbaa uyi», 2020.
Информация об авторе
М. Ю. Толстых - Московский университет МВД России имени В.Я. Кикотя, кандидат технических наук.
Information about the author M. Yu. Tolstykh - Moscow University of the Ministry of Internal Affairs of the Russian Federation named after V.Ya. Kikot', Candidate of Technical Sciences.
Статья поступила в редакцию 12.06.2023; одобрена после рецензирования 30.06.2023; принята к публикации 18.08.2023.
The article was submitted 12.06.2023; approved after reviewing 30.06.2023; accepted for publication 18.08.2023.
Современные проблемы предварительного следствия. История и вектор развития. Монография. Гриф МУМЦ «Профессиональный учебник». Гриф НИИ образования и науки.
Представлен многоаспектный анализ вопросов организации работы следователя. Основное внимание уделено проблемам, которые, как правило, остаются "за кадром" исследований, среди них: философско-правовые основания работы следователя; защита от противодействия расследованию преступлений, которое возможно со стороны адвокатов-защитников; преодоление конфликтных ситуаций в следственной практике и др. Уделено внимание вопросам работы следователя с логическими диаграммами, а также возможности использования в уголовном судопроизводстве нетрадиционных методов криминалистических исследований.
Д.А. Полищук
Современные проблемы предварительного следствия
История и вектор развития
m