Quo vadis?
«Глубокие фейки»
Сущность и оценка потенциального влияния на национальную безопасность
© Смирнов А.А © Smirnov A.
«Глубокие фейки». Сущность и оценка потенциального влияния на национальную безопасность
"Deepfakes". Essence and assessment of the potential impact on national security
Аннотация. Исследован феномен «глубоких фейков» (deepfakes) — технологий синтеза человеческого изображения на основе искусственного интеллекта. Изучается сущность данных технологий, дается оценка их влияния на национальную безопасность. Выделены угрозы вредоносного применения глубоких фейков в сферах межгосударственного информационного противоборства, террористической и экстремистской деятельности, преступной деятельности, а также для диффамации лиц и организаций. Рассматриваются возможные способы нейтрализации угроз, связанных с использованием глубоких фейков.
Annotation. The article investigates the phenomenon of "Deepfakes" — technologies of synthesis of human image on the basis of artificial intelligence. The essence of these technologies is studied, the assessment of their impact on national security is given. Threats of malicious use of deepfakes in the spheres of international information warfare, terrorist and extremist activities, criminal activities, as well as for defamation of individuals and organizations are identified. Possible ways of neutralizing the threats associated with the use of deepfakes are considered.
Ключевые слова. Фейковые новости, постправда, эхо-камеры, нейросети, глубокие фейки, угрозы, дезинформация, информационное противоборство.
Key words. Fake news, post-truth, echo chambers, neural networks, deepfakes, threats, disinformation, information warfare.
Контекст проблемы: эпоха постправды и фейковых новостей
Бурное развитие информационных технологий в конце XX—XXI в. оказало существенное влияние на изменение социальной организации, обусловив возникновение информационного общества и цифровой экономики. Формирование мировых массмедиа, эволюция технологий компьютерной обработки информации, развитие Интернета и социальных сетей — эти и другие факты коренным образом изменили механизмы производства и распространения массовой информации, значительно расширив возможности для манипулирования индивидуальным и общественным сознанием.
СМИРНОВ Александр Александрович — ответственный секретарь Научно-консультативного совета при Антитеррористическом центре государств—участников СНГ (г. Москва), доцент, кандидат юридических наук.
Сами по себе обман (дезинформация) и манипуляция общественным сознанием являются давно известными формами психологического воздействия на личность и общество. В ХХ в. началось их широкое применение в противоборстве между государствами и их коалициями. В классической работе советского периода по психологической войне отмечалось, что «дезинформация, искажение картины составляют главное содержание механизма психологической войны империализма» [3. С. 126].
Актуализация проблемы на современном этапе, лингвистически обозначенная маркерами «фальшивых новостей» (fake news) и «эпохи постправды» (post-truth era), во многом обусловлена новейшими изменениями медийного ландшафта. В настоящей работе мы опустим политический контекст, благодаря которому тема приобрела широкую известность (выборы президентом США Д. Трампа, выход Великобритании из Евросоюза (Brexit), «российское вмешательство» в политические процессы), поскольку он имеет второстепенное значение.
Во второй половине прошлого столетия основным триггером изменений в области средств массовой информации выступало телевидение. В силу одновременного сочетания визуального и звукового сигналов транслируемый телевидением символический образ реальности получил невиданные прежде качества простоты восприятия и убедительности в сочетании с тотальностью его распространения. С учетом широкого проникновения телевизоров практически в каждую семью этот символический образ реальности постепенно приобрел все большее значение в восприятии самой реальности индивидами и обществом в целом, фокусируя внимание на отдельных ее компонентах и оттеняя другие, а иногда и создавая ложные образы, не имеющие под собой реальных оснований [13. С. 17].
Газеты, радио и телевидение, а позже — и Интернет завоевали роль основного источника получения информации для населения, причем иногда безальтернативного. По словам Н. Больца, «массмедиа — это индустрия реальности современных обществ, и нередко изображение в массмедиа само и есть то событие, о котором сообщают массмедиа... Поскольку совершенно очевидно, что у современного человека место мировосприятия заняло восприятие информации, — продолжает ученый, — он уже не может самолично сравнивать предлагаемую информацию с "действительностью". Ибо где она, эта действительность, стоящая за медиа?» [2. С. 29, 38].
Следующим этапом изменения медийного ландшафта стало развитие технологий Web 2.0, прежде всего социальных сетей. Наделение самих интернет-пользователей функционалом медиа (создания и распространения контента для массовой аудитории) самым радикальным образом трансформировало информационную среду и способствовало утрате традиционными СМИ монополии на массовое распространение информации. Люди получили простые инструменты прямого донесения информации до глобальной аудитории, легко преодолевающие преж-
ние барьеры национальных границ. Также существенно возросла скорость распространения контента в мировой сети.
В течение прошлого столетия, когда печатные СМИ, радиостанции и телевидение управляли потоками общественной информации, журналистское сообщество установило строгие профессиональные стандарты для контроля качества и содержания новостей. Однако вследствие произошедшего изменения информационной среды «медиакомпании как никогда испытывают острую конкуренцию, которая, в свою очередь, заставляет их пересматривать бизнес-модель. При этом акцент все больше переносится с качества на сенсацию. Больше сенсации — больше просмотров — выше стоимость рекламы» [6].
Постоянная гонка за интернет-трафиком заставила даже серьезные новостные агентства снизить планку внутренней цензуры, дабы поспеть за своими конкурентами и блогерами как новыми акторами медийного поля. Что же касается последних, то для многих из них эмоциональный и провокативный контент стал чуть ли не основным способом расширения аудитории подписчиков. Акцент на эмоциональные доводы в ущерб или даже взамен рациональной аргументации в дискуссиях стал первой характерной чертой «эпохи постправды».
Вторым ее признаком стала четко выраженная сегментация интернет-аудитории на отдельные группы, которые стремятся искать и публиковать преимущественно ту информацию, которая подтверждает и укрепляет их взгляды, игнорируя при этом конкурирующие мнения. Этому процессу во многом способствовало активное внедрение технологий анализа больших данных, создавшее возможность предоставления каждому пользователю персонализированной новостной ленты в социальных сетях, основанной на его предпочтениях и сетевой активности. Благодаря точному таргетингу и отбору подходящего контента человек оказывается в уютном «информационном пузыре», экранирующем от нарушающих гармонию его индивидуальной картины мира информационных раздражителей. Как образно сказано в одной публикации, «если вы за белых, то вам покажут мнения только белых, если за красных — только красных» [4].
В совокупности эти факторы способствуют еще большей поляризации мнений, которая сегодня и так достигла беспрецедентного уровня. Иначе говоря, мы склонны смотреть и читать то, чему готовы верить, но отказываемся воспринимать информацию, которая не отражает наших убеждений [6]. При этом пользователи не только потребляют, но активно ретранслируют понравившиеся им сведения, превращая ленты своих страниц в эхо-камеры. Здесь проявляется действие так называемых информационных каскадов, благодаря которым люди передают информацию, распространяемую другими, не беспокоясь относительно проверки ее достоверности, тем самым придавая ей большую правдоподобность в ходе данного процесса. В результате этого ложь может распространяться гораздо быстрее, чем раньше [17. Р. 149—150].
Постправда стала квазисредой, контекстом, который делает возможным распространение ложных новостей. Она возникает, если люди игнорируют факты, а правда уже не играет существенной роли, уступая место популистской риторике [14. С. 46]. Да, манипулирование коллективным сознанием в массмедиа не является чем-то новым. Однако новизна ситуации в том, что засоренность СМИ, и особенно социальных сетей, сфальсифицированными фактами превысила критический порог, что привело к появлению качественно нового феномена — искривленного информационного пространства [14. С. 54].
Эксперты выделили комплекс факторов, способствующих распространению фейков:
— недостаточный уровень осведомленности населения в затрагиваемых вопросах;
— отсутствие возможности фильтрации подобных материалов в поисковых системах на предмет недостоверности;
— большая восприимчивость обывателей к так называемым шоковым новостям по сравнению с обыденными информационными сводками;
— благоприятствующий позитивному восприятию фейков информационный фон в медиа-мейнстриме [7].
Эксперт РСМД П. Кошкин дополняет этот перечень такими факторами, как склонность многих политиков верить в теорию заговора; общественное недоверие к экспертизе, антиинтеллектуализм и популизм, переизбыток информации в Интернете, развитие журналистики, основанной на «утечках» или так называемых «эксклюзивах» [5].
Зафиксируем три важных особенности современной информационной среды:
— высокая скорость распространения информации;
— акцент на эмоциональной составляющей информации в ущерб смысловой;
— слабая восприимчивость раздробленных групп аудитории интернет-пользователей к аргументам, противоречащим их убеждениям.
Эти факторы в своей совокупности создают благодатную среду для распространения разного рода фейков. И именно в этот момент появляется новая беспрецедентная технология, позволяющая искусственно синтезировать человеческие изображения — «глубокие фейки» (deep-fakes). Глубокие фейки обладают особенно разрушительным потенциалом, потому что они возникли во времена, когда становится все труднее отличить реальные факты от выдуманных [17. P. 149].
Понятие и особенности «глубоких фейков»
Понятие глубокие фейки (deepfakes) образовано сочетанием терминов «глубокое машинное обучение» (deep learning) и «фейки» (fakes). Его происхождение связывается с одноименным ником пользователя интернет-платформы Reddit, который заявил в 2017 г., что использу-
ет технологии машинного обучения для того, чтобы имплантировать изображения лиц знаменитостей в порнографические видео.
Глубокие фейки являются продуктом недавних достижений в формах искусственного интеллекта, известных как «глубокое обучение» (deep learning), в котором набор алгоритмов, называемых «нейронными сетями», обучается понимать правила и воспроизводить паттерны (модели) путем обработки больших данных (Google, например, использовала эти технологии для развития мощных алгоритмов классификации изображений для своей поисковой системы).
Глубокие фейки возникают из отдельного направления машинного обучения, в котором пары алгоритмов сводят друг с другом в «генеративные соперничающие сети» (generative adversarial networks — GANs). В таких нейронных сетях один алгоритм, называемый «генератором», создает контент, смоделированный на основе исходных данных (например, искусственные изображения кошек на основе банка данных реальных фотографий кошек), в то время как второй алгоритм, именуемый «дискриминатором», пытается выявить искусственно созданный контент (в приведенном выше примере — выявить фейковые изображения кошек). Поскольку каждый алгоритм постоянно тренируется противостоять другому, подобное сопряжение может вести к быстрому прогрессу, позволяющему GAN создавать высокореалистичный фейковый фото- или видеоконтент [17. P. 148].
Основным материалом, который требуется для работы нейросетей (GAN), являются фото- или видеозаписи человека. Современные ней-росети на основе использования технологий GAN позволяют искусственно генерировать высокореалистичные изображения людей на фото или видео либо встраивать изображения других людей в существующие видеозаписи. Например, программист компании Uber Филипп Ванг создал сайт thispersondoesnotexist.com, который выдает бесчисленное количество фотографий несуществующих людей на основе комбинации реальных фотографий.
Глубокие фейки (deepfakes) — технологии искусственного синтеза человеческого изображения, основанные на использовании нейросетей и искусственного интеллекта, позволяющие создавать высокореалистичные фото- и видеоизображения людей либо производить модификацию фото-, аудио- и видеоматериалов.
Хотя современные нейросети, использующие технологию глубокого обучения, могут создавать фейковые фото-, аудио- и видеозаписи, под глубокими фейками чаще всего понимаются именно искусственно синтезированные видео, содержащие динамическое изображение и голос людей. Преимущественно о них будет идти речь в настоящей статье.
Однако нужно при этом не забывать и о других возможных форматах глубоких фейков, прежде всего фотографиях. Так, например, недавно новостные интернет-ресурсы писали о созданном приложении DeepNude, которое использует нейронные сети для удаления одежды с изображений женщин, делая их реалистично обнаженными в несколько кликов.
Оно использует готовое фото человека и создает новое, но уже без одежды [22].
Обычно отправной точкой для появления глубоких фейков называется 2017 г., когда первые образцы сгенерированных нейросетями видео (в основном это были «порно со знаменитостями») начинают распространяться на известной социальной новостной платформе-агрегаторе Reddit. Собственно, тема привлекла к себе широкое внимание после выхода статьи Саманты Кол из Vice News, в которой рассказано о созданном с помощью искусственного интеллекта фейковом порно с известной израильской актрисой Галь Гадот [18].
Одним из наиболее известных примеров глубоких видеофейков является ролик под названием «Вы не захотите поверить тому, что Оба-ма скажет в этом видео!» («You Won't Believe What Obama Says in This Video!»), размещенный известным ресурсом BuzzFeed в апреле 2018 г. в профилактических целях. В нем бывший президент США Барак Оба-ма в первой части произносит отдельные провокационные фразы, типа «президент Дональд Трамп — полное дерьмо». Во второй части видео показан настоящий человек Джордан Пил, который говорит эти слова, демонстрируя тем самым, что видеоизображение Обамы является искусственно созданным глубоким фейком. Роликом наглядно показана опасность данных технологий.
В 2019 г. в Интернете получили вирусное распространение поддельные видео с участием главы палаты представителей Конгресса США Нэнси Пелоси, генерального директора Facebook Марка Цукерберга и персонажа сериала «Игра престолов» Джона Сноу [23].
Очевидно, что глубокие фейки завтрашнего дня будут еще более яркими и реалистичными. Несмотря на то, что они представляют собой лишь новую технологию для реализации старого метода фальсификации, уникальность и беcпрецедентный характер им придает сочетание двух свойств:
— использование убедительного и популярного видеоформата;
— сложность обнаружения фальшивых видео, изготовленных с помощью технологии «deepfake».
В отличие от фотоизображений, возможность искусственной коррекции которых широко известна и применяется многими пользователями социальных сетей, видеозаписям люди склонны доверять гораздо больше. Сам формат видео позволяет зрителям выступать непосредственными очевидцами события, избавляя их от необходимости решать, стоит ли доверять чьему-либо рассказу о нем, что повышает его убедительность. Кроме того, современные социальные сети и мессенджеры, включая новую популярную молодежную платформу TikTok, позволяют легко делиться видеозаписями, способствуя их быстрому распространению.
Поэтому при создании высококачественного вирусного deepfake-видео оно способно распространяться с огромной скоростью в глобальном масштабе, особенно в сочетании с целенаправленными усилиями по его продвижению в Сети. При этом люди будут склонны ему верить,
поскольку зрительно не заметят каких-либо признаков подлога, а официальная реакция властей и СМИ не всегда будет в состоянии опровергнуть содержащуюся в нем информацию. В любом случае она будет приходить с задержкой, когда вирусная эпидемия глубокого фейка уже запущена. К тому же в эпоху постправды никакое опровержение не сможет переубедить определенные целевые аудитории, для которых содержащийся в фейковом виде контент подтверждает их взгляды и убеждения.
Все вышеизложенное убеждает нас внимательнее присмотреться к данной новой технологии и рассмотреть варианты ее возможного применения.
Глубокие фейки имеют ряд полезных приложений. Модифицированные видеоизображения исторических персонажей, например, могут создаваться с целью обучения детей. Но глубокие фейки также могут использоваться в деструктивных целях. Как говорилось выше, данные технологии применяются для создания «порно со знаменитостями» путем встраивания в порнографические видео изображений лиц известных актеров, политиков и прочих публичных персон. Поисковые системы выдают большое количество ресурсов и контента по запросу «deepfakeporn».
Существенное значение имеет то, что подобные технологии обладают широким потенциалом распространения. Коммерческие и даже бесплатные сервисы по изготовлению глубоких фейков уже появились на открытых торговых площадках (например, приложение FakeApp) и будут развиваться дальше. Как образно выразился исследователь искусственного интеллекта Алекс Шампандард (Alex Champandard), «это уже не ракетостроение», отметив при этом, что приличная видеокарта позволяет создавать deepfake-видео за несколько часов, используя специализированное программное обеспечение [18].
Развитие подобных сервисов встретит мало препятствий. Единственным практическим способом сдерживания процесса изготовления глубоких фейков эксперты считают ограничение доступа к материалам для тренировки — аудио- и видеозаписям людей для моделирования — в целях совершенствования GAN [17. P. 148]. Однако очевидно, что широкое распространение социальных сетей и стремление людей активно размещать в них свои фотографии создают богатую базу для работы ней-росетей. Это тем более верно в отношении публичных персон, которые постоянно находятся в фокусе фотообъективов и видеокамер.
Поэтому можно сделать вывод, что в ближайшее время способность создания высококачественных подделок станет потенциально доступной для каждого, кто имеет достаточные заинтересованность и знания относительно того, куда можно обратиться за помощью. И поскольку технологии глубоких фейков распространяются, постоянно увеличивающееся число акторов будет способно убедительно манипулировать фото- и видеоконтентом способом, который ранее был доступен только для голливудских студий или наиболее обеспеченных разведывательных служб [17. P. 150].
Показательно, что этой проблемой в настоящее время уже озаботились иностранные государства. Так, в сентябре 2018 г. в США несколько членов Палаты представителей конгресса обратились к директору Национальной разведки с просьбой проинформировать конгрессменов и общественность о возможностях использования новых технологий для изготовления фальшивых аудио-, видео- и фотоизображений.
В июне 2019 г. состоялось слушание в Комитете по разведке Палаты представителей, по итогам которых было принято решение «изучить угрозы национальной безопасности, создаваемые поддельным контентом с поддержкой искусственного интеллекта, способы его обнаружения и борьбы с ним, определить роль государственных органов, частного сектора и общества в целом, чтобы противостоять потенциально мрачному будущему "пост-правды"» [23; 25]. 12 июня 2019 г. в Палату представителей был внесен законопроект по борьбе с распространением дезинформации посредством введения ограничений на технологии подделки видео с помощью глубоких фейков [15].
В связи c этим возникает потребность в выявлении возможных направлений деструктивного использования технологий глубоких фейков.
Потенциальные угрозы национальной безопасности, связанные с использованием глубоких фейков
Представляется, что технологии глубоких фейков будут востребованы самым широким кругом субъектов: спецслужбами иностранных государств; террористическими и экстремистскими организациями; политическими партиями, общественными и иными некоммерческими организациями; PR- и рекламными агентствами; отдельными лицами.
Выделим основные потенциальные угрозы национальной безопасности, связанные с использованием глубоких фейков. Все они — направления деструктивного применения возможностей технологий искусственного синтеза человеческого изображения перечисленными выше субъектами.
1. Угроза использования глубоких фейков как инструмента межгосударственного информационного противоборства.
Дезинформация является одним из наиболее древних направлений информационной борьбы между государствами. По мере развития научно-технического прогресса совершенствовались средства и способы распространения подобной ложной информации, а также формы ее представления. Последние несколько лет проблема дезинформации активно обсуждалась мировым сообществом в контексте тематики фей-ковых новостей (fake news), отображающей задействование государствами возможностей новых медиа для манипулирования общественным сознанием.
Технология глубоких фейков позволяет создавать высокореалистичные фальшивки видеозаписей, что значительно расширяет возможности оказания воздействия на индивидуальное и общественное сознание. По этой причине данная технология, несомненно, будет активно задействована государственными структурами, прежде всего специальными службами, отвечающими за теневой сегмент информационного противоборства.
В последние годы благодаря Интернету получили широкое развитие такие приемы информационной борьбы, как создание и последующее распространение в СМИ и Интернете фальшивых аудиовизуальных материалов (фотографий, видеозаписей), включая откровенные подделки (например, многочисленные фейковые фото и видео, якобы снятые участниками и гостями Сочинской Олимпиады 2014 г. [12]), либо постановочные видео (известным примером чего является видеосюжет с участием организации «Белые каски», якобы свидетельствующий о совершении вооруженными силами Сирии атаки с применением химического оружия против мирного населения [11]). В зависимости от характера и качества таких материалов цепочка его распространения может различаться: первичным его звеном могут быть как анонимные интернет-ресурсы, так и вполне респектабельные средства массовой информации.
Технология глубоких фейков позволит изготавливать правдоподобные видеозаписи, в которых высокопоставленные политические деятели, военнослужащие или сотрудники правоохранительных органов, равно как и иные лица, говорят определенные фразы либо совершают определенные действия с целью оказания нужного атакующей стороне психологического воздействия (введения в заблуждение, дискредитации, провоцирования к определенным реакциям и т. д.).
В качестве возможных вариантов таких материалов в журнале Foreign Affairs приведены видеозаписи, изображающие премьер-министра Израиля, в частных разговорах с коллегами раскрывающего план совершения серии политических убийств в Тегеране, либо видеозапись, на которой запечатлено, как американские генералы в Афганистане сжигают Коран [17. P. 147]. Схожие варианты, учитывающие национальный контекст и текущую ситуацию, можно предположить в отношении стран СНГ.
Подобные информационные вбросы при условии их дальнейшей медийной и сетевой разгонки могут создать эффект взрыва «информационной бомбы», волны которого на первых порах будет весьма непросто погасить. Даже если это удастся сделать, то все равно они могут иметь негативный эмоциональный эффект, способный влиять на взаимоотношения государств многие годы.
Создание и распространение глубоких фейков может стать эффективным способом вмешательства в избирательную кампанию в государствах—участниках СНГ. Если вбросить убедительную видеофальшивку с компрометирующим изображением одного из кандидатов на выборы
на финишном этапе, то у его предвыборного штаба может просто не хватить времени на ее опровержение до дня голосования («осадок» в головах избирателей останется в любом случае). Это значительно повлияет на итоги голосования и результаты выборов.
Еще одним направлением выступает применение глубоких фейков для провоцирования негативных слухов в период после шоковых информационных поводов (терактов, техногенных катастроф, стихийных бедствий, крупных происшествий). События последних нескольких лет в России показали, что деструктивные силы активно «отрабатывают» посткризисные ситуации, вбрасывая фейки, направленные на опровержение официальных версий произошедшего, обвиняющие власти в бездействии и умышленном сокрытии сведений от населения, преувеличивающие масштабы трагедии и число жертв. Очевидно, что высокореалистичное видео будет идеальным форматом фейка для подобных информационных вбросов.
2. Угроза применения глубоких фейков в террористической и экстремистской деятельности.
Террористические и экстремистские организации ведут активную пропаганду в информационном пространстве, прежде всего используя возможности социальных сетей и мессенджеров. Им традиционно не хватало ресурсов для изготовления и распространения фальшивых, но правдоподобных аудио-, фото- и видеоматериалов. Поэтому они, несомненно, попытаются задействовать технологии глубоких фейков в своих пропагандистских кампаниях.
Прежде всего, они будут стремиться изготовить провокационные фальшивые видео, способные вызвать серьезный резонанс в нужной целевой аудитории. Это могут быть кадры расстрела мирных жителей военнослужащими, жестоких пыток в отношении лиц, подозреваемых в причастности к терроризму или экстремизму, совершения оскорбительных действий в отношении объектов религиозного культа и т. п. Вброс подобных видео будет преследовать цель стимулирования быстрой и острой общественной реакции — провоцирования массовых беспорядков, разжигания ненависти и провоцирования насилия в отношении определенных лиц или социальных групп.
Вполне очевидно, что идеальной почвой для спекуляций и подстрекательской пропаганды радикалов в странах Содружества будут выступать имеющиеся межконфессиональные, межнациональные и социальные трения и конфликты общегосударственного или локального масштаба. Здесь умело сконструированное фейковое видео может сыграть роль детонатора мощного информационного и социального взрывов, локализовать последствия которых будет достаточно сложно. Свою роль сыграют характерные для психологии толпы возбужденность и следование эмоциональным призывам, нежели рациональным доводам.
В качестве отдельного направления возможного использования глубоких фейков экстремистами стоит выделить их применение для дис-
кредитации деятельности правоохранительных органов. Убедительные и эмоциональные видеозаписи «беспредела», якобы творимого силовиками (например, фальшивые видео жестокого избиения полицией подростков — участников протестных акций), способны сильно всколыхнуть население либо изменить общественное мнение в отношении правоохранительных органов.
Наиболее сильно это будет проявляться в моменты действий силовых структур по пресечению незаконных публичных акций или массовых беспорядков, о чем убедительно свидетельствует пример событий «Ев-ромайдана» на Украине периода 2013—2014 гг. С самого начала протест-ных акций против сил правопорядка в Киеве была развязана массированная информационная кампания по их дискредитации в украинских и мировых СМИ и интернет-ресурсах. Ее основной целью было сформировать негативное общественное мнение о сотрудниках полицейского отряда «Беркут» и внутренних войск Украины как силовом инструменте «прогнившего и коррумпированного режима» и оправдать действия участников протестных акций, включая применение насилия в отношении сил правопорядка.
Помимо провоцирования быстрых общественных реакций следует предположить возможность применения глубоких фейков и в более продолжительных пропагандистских кампаниях террористических и экстремистских организаций для продвижения своих главных нар-ративов. Например, они смогут производить и распространять в информационном пространстве фейковые видеозаписи выступлений ликвидированных лидеров и идеологов террористов, якобы «чудом уцелевшие и случайно обнаруженные», вложив в их уста любой нужный текст. Либо, напротив, вставлять в пропагандистские экстремистские видео фальшивые фрагменты заявлений политических деятелей, которые провоцируют негодование среди своих радикальных сторонников.
3. Угроза применения глубоких фейков в преступной деятельности.
Представляется, что технологии глубоких фейков могут использоваться для совершения следующих видов преступлений (далее будут приведены составы преступлений из Модельного уголовного кодекса для государств—участников СНГ от 17 февраля 1996 г.):
— публичные призывы к развязыванию агрессивной войны (ст. 103 Модельного УК);
— принуждение (ст. 142);
— клевета (ст. 143);
— оскорбление (ст. 144);
— понуждение к действиям сексуального характера (ст. 147);
— заведомо ложное сообщение об акте терроризма (ст. 182);
— возбуждение национальной, расовой или религиозной вражды (ст. 187);
— незаконное распространение порнографических материалов или предметов (ст. 237);
— вымогательство (ст. 143);
— публичные призывы к насильственному изменению конституционного строя (ст. 295);
— оскорбление представителя власти (ст. 312).
В большинстве перечисленных составов преступлений сами фейко-вые видеозаписи будут выступать в качестве средства совершения данных преступлений. Например, созданный злоумышленниками глубокий фейк, изображающий человека в непристойном виде, может быть использован для вымогательства у него денежных средств.
Создание и изготовление глубоких фейков может выступать способом совершения следующих преступлений: клеветы, оскорбления, незаконного распространения порнографических материалов, возбуждения национальной, расовой или религиозной вражды и др.
Вопрос о потребности в возможной криминализации действий по изготовлению и (или) публичному распространению глубоких фей-ков в качестве самостоятельного преступления носит дискуссионный характер. Имеются аргументы как «за», так и «против» такого решения. В любом случае полагаем, что обязательными элементами конструкции такого состава должны выступать: закрепление деструктивных целей изготовления и (или) распространения глубокого фейка; наступление вредоносных последствий или создание угрозы их наступления (материальный или усеченный состав преступления).
По нашему мнению, в среднесрочной перспективе технология глубоких фейков получит наиболее широкое применение для совершения вымогательства, а также оскорбления и клеветы. О последних двух деяниях следует поговорить отдельно.
4. Угроза использования глубоких фейков для диффамации.
Создание фейковых изображений и видеозаписей будет широко использоваться для диффамации — распространения не соответствующих действительности порочащих сведений. В данном случае мы будем вести речь о тех случаях, когда дискредитация выступает конечной целью информационной атаки, а не инструментальной — как при ведении подрывной информационной кампании против государства или вымогательстве.
Природа глубоких фейков подразумевает, что разрушительное действие контента может быть гарантировано, если он носит непристойный или отвратительный характер [17. Р. 151]. Это обусловлено тем, что люди особенно склонны распространять негативную и новую информацию.
Диффамация с использованием глубоких фейков может стать элементом грязной РИ-кампании, направленной против политических деятелей, «звезд» шоу-бизнеса, известных спортсменов и прочих публичных личностей. Она также может применяться как инструмент давления или манипуляции в бизнес-сфере, например для срыва готовящихся крупных сделок, подрыва позиций конкурентов на рынке или проведения махинаций на фондовом рынке.
Более массовыми, но менее резонансными могут быть случаи применения столь изощренного инструмента для личной мести, в частности своим бывшим женам или мужьям (как получивший широкое развитие в последние годы феномен так называемой порномести, суть которой состоит в размещении в общественном доступе приватных фото- и видеоизображений).
Одним из ключевых типов порочащего фейкового видео могут стать видеозаписи эротического и порнографического содержания. Собственно, выше мы упоминали, что первыми образцами глубоких фейков как раз и были порноролики со знаменитостями. В декабре 2017 г. разразился громкий скандал: на популярном ресурсе Reddit неизвестным пользователем был размещен порноролик с израильской актрисой Галь Гадот, — о чем упоминалось выше. В итоге администрация ресурса была вынуждена его удалить [26]. Однако позже в Сети были размещены и другие подобные видео с известными актерами, которые и сейчас находятся в доступе (например, на тематическом сайте porndeepfakes. com, равно как и на других порноресурсах). Пока они еще сделаны на достаточно низком уровне качества, что без труда позволяет выявить признаки подделки. Но технологии не стоят на месте, а потому уже в ближайшее время такие видеофейки будет тяжело отличить от настоящих.
Другим типом порочащих видеофейков могут стать записи, в которых публичные личности делают какие-либо резонансные заявления или высказывания, провоцирующие возмущение общественности. Так, в материале сайта «Газета.ру» приводится описание случая, произошедшего в 2018 г., когда бельгийской политической партией Socialistische Partij Anders с целью привлечения внимания к экологическим проблемам было размещено фейковое видео с Дональдом Трампом, в котором политик негативно высказался о Парижском климатическом соглашении. Этот «экологический креатив» был принят большинством зрителей за чистую монету, и в Интернете на американского президента посыпались настоящие проклятия от бельгийских «зеленых». В результате в Бельгии разразился большой политический скандал [1].
В июле 2018 г. было изготовлено фейковое видео интервью члена палаты представителей Конгресса США Александрии Окасио-Кор-тез (Alexandria Ocasio-Cortez), в котором она выглядела нелепо и не могла ответить на многие вопросы. Его посмотрело более миллиона человека. В комментариях под размещенным видео пользователи называли парламентария «полной идиоткой» и «тупой, как коробка со змеями» [23].
Что касается простых людей, то технологии глубоких фейков будут использоваться против них их недоброжелателями или сетевыми троллями. В первом случае это могут быть обиженные друзья, завистливые одноклассники или соседи, бывшие супруги и т. д. Тролли, которые целенаправленно занимаются оскорблением пользователей Сети, получают в свои руки новый мощный инструмент для интернет-травли
(буллинга). Наиболее уязвимым объектом для подобного негативного психологического воздействия могут стать подростки, а также люди с повышенной ранимостью и впечатлительностью.
Обзор возможных способов противодействия угрозам, связанным с использованием глубоких фейков
Рассмотрим основные возможные приемы и инструменты противодействия вредоносному применению глубоких фейков. Следует отметить, что часть из описанных ниже способов уже существует и используется для противодействия дезинформации и фейковым новостям; другая часть носит перспективный характер и является делом ближайшего будущего.
Р. Чесни и Д. Цитрон в своей статье выделили два основных подхода к противодействию глубоким фейкам.
1. Технологический подход предполагает использование специальных технических средств и компьютерных криминалистических методик выявления и идентификации глубоких фейков.
Первая группа технологических методов основана на применении программно-технических средств обнаружения признаков искажения видео. Например, в июне 2018 г. ученые в области компьютерных технологий из Дартмутского университета и Политехнического университета в Олбани (SUNY Albany) заявили, что они создали программы выявления глубоких фейков на основе наблюдения за аномальными моделями движения глазного века, когда персонаж на видео моргает [17. P. 152].
Ранее в СМИ сообщалось об инициировании Американским агентством перспективных оборонных исследований DARPA проекта «Media Forensics» с целью разработки инструментов, способных идентифицировать случаи значительного изменения видео и фото для искажения их содержания [24]. Примечательно, что проект был запущен еще в 2016 г., т. е. за год до появления глубоких фейков в публичном информационном пространстве.
Как отмечают многие эксперты, все имеющиеся и перспективные технологии выявления признаков подделки фото- и видеоизображений могут стать неэффективными по мере дальнейшего прогресса в развитии нейросетей. В связи с этим предпринимаются попытки поиска и альтернативных путей детекции глубоких фейков. Так, в начале 2019 г. хостинговая платформа для GIF-изображений Gfycat заявила о запуске проекта «Ангора» (Project Angora) для борьбы с поддельными видео. В ее основе лежит технология pre-deepfakes, которая ищет в Интернете версии с более высоким разрешением любого GIF, который вы пытаетесь загрузить, в тандеме с ProjectMaru, распознающим отдельные лица в GIF и автоматически помечающим людей на них. Однако эффективность ее работы вызывает сомнения, поскольку на самой платформе обнаруживали видео глубоких фейков, не выявленные этим алгоритмом [19].
Другим возможным технологическим методом противодействия глубоким фейкам является технология маркировки контента специальным идентификационным водяным знаком до начала его распространения. На Западе такой подход именуется «концепцией цифрового происхождения» («digital provenance» solution). Компании, такие как «Труэпик» (Truepic), развивают технологии нанесения цифрового водяного знака для аудио-, фото- и видеоконтента в момент его создания, используя метаданные, которые могут быть неизменно зарегистрированы в доступном регистре или блокчейне. Другими словами, субъект может эффективно маркировать контент с отметкой подлинности, которая позже будет использоваться как основа для сравнения с возможным фейком [17. P. 152-153].
По словам Р. Чесни и Д. Цитрон, в теории метод фиксации цифрового происхождения представляется идеальным средством. На практике же он сталкивается с двумя большими затруднениями. Во-первых, он предполагает наличие таких программ в широком массиве устройств, которые воспроизводят контент, включая ноутбуки и смартфоны. Во-вторых, использование цифровых водяных знаков требует создания предварительных условий для загрузки контента с наиболее популярных цифровых платформ, таких как Facebook, Twitter и YouTube. И пока ни одно из этих условий не является выполнимым. Изготовители устройств при отсутствии правовых обязательств не будут внедрять новый инструмент, пока не удостоверятся, что это достижимо, пользуется спросом и не нарушит работоспособности их продуктов. Кроме того, небольшое число платформ социальных медиа захотят блокировать аккаунты людей за загрузку неаутентичного контента, особенно с учетом того, что первый, кто пойдет на такой шаг, подвергнется риску утраты доли рынка, которая может перейти к его конкурентам [17. P. 153].
И третьим, наиболее футуристичным технологическим способом противодействия является использование «сервисов проверенных алиби» («authenticated alibi services»). Под ними авторы статьи понимают программно-аппаратные средства «протоколирования жизни», т. е. видеозаписи всего того, что происходит с человеком и вокруг него.
Продвинутый вариант технологического исполнения подобных инструментов показан в одной из серий культового сериала «Черное зеркало» («Black Mirror») под названием «История всей твоей жизни» («The Entire History of You») [16]. В ней он представлен в виде вживленного в голову человека микрочипа, который непрерывно записывает все, что он видит и слышит вокруг. Появление таких устройств весьма вероятно в будущем. В настоящее же время существуют нательные миниатюрные видеорегистраторы, которые используют службы полиции в разных странах, включая страны СНГ.
Постоянная видеозапись жизнедеятельности является весьма существенным вмешательством в личную жизнь, в связи с чем многие люди откажутся использовать подобные технологии. Однако, по мнению Чесни
и Цитрон, высокопоставленные личности, такие, как политики и знаменитости, для защиты себя от глубоких фейков, способных разрушить их хрупкую репутацию, могут выбрать в качестве решения применение продвинутых инструментов «протоколирования жизни», чтобы при необходимости доказать, где они находились, что говорили или делали в любой момент времени [17. Р. 153].
Компании начнут предлагать наборы сервисов алиби, включая носимые устройства, позволяющие сделать фиксацию своей жизни удобной, а также хранить это огромное количество данных, надежно обеспечивая при этом их подлинность. Такие сервисные комплекты даже могут включать партнерство с ведущими новостными платформами и социальными медиа, которые способны активировать быстрое подтверждение или разоблачение контента.
Помимо высокопоставленных персон, которые согласятся применять такой способ для самозащиты, часть работодателей могут установить требования по обязательному его использованию для некоторых категорий работников, как это уже сделано для полиции в ряде стран. К тому же, как мудро подмечают авторы статьи, даже если только относительно малое число людей будет использовать интенсивное протоколирование, они будут формировать огромное хранилище данных, в которых остальные из нас непреднамеренно будут зафиксированы, создавая тем самым массовую пиринговую сеть слежения для постоянной записи нашей активности [17. Р. 153].
2. Правовой подход предполагает использование правовых средств для противодействия глубоким фейкам.
Как отмечают Чесни и Цитрон, в зависимости от обстоятельств, изготовление или распространение глубоких фейков может квалифицироваться как диффамация, мошенничество или незаконное использование изображения лица в числе других гражданских или уголовных правонарушений [17. Р. 154].
Мы выше рассмотрели составы преступлений по модельному законодательству СНГ, которые могут совершаться с использованием глубоких фейков. Помимо уголовно наказуемых деяний, их применение может квалифицироваться как административное правонарушение (например, злоупотребление свободой массовой информации) или гражданско-правовой деликт (например, распространение сведений, порочащих честь, достоинство или деловую репутацию).
Авторы статьи для устранения правовых пробелов предлагают осуществить специальную криминализацию (либо закрепление гражданско-правовой ответственности) отдельных действий, например создания глубоких фейков с реальным человеком с намерением ввести в заблуждение зрителей или слушателей или с целью причинения определенного вреда. При этом они отмечают объективные сложности, которые возникнут в рамках уголовного преследования таких преступников (трудность доказывания вины конкретного лица, сложность привлечения к ответственности злоумышленников, проживающих в другой стра-
не). Тем не менее они являются традиционными для киберпреступле-ний и вполне решаемыми.
Другим правовым способом реагирования, по мнению авторов, может стать стимулирование платформ социальных медиа к дополнительным усилиям для выявления и удаления глубоких фейков или фальшивого контента. В США, согласно положениям раздела 230 Закона о соблюдении благопристойности в коммуникациях (Communications Decency Act) 1996 г., компании, выступающие собственниками упомянутых платформ, в большинстве случаев не несут ответственности за контент, который у них размещается (схожая ситуация имеет место и в странах СНГ). Конгресс может изменить данный иммунитет только путем внесения изменений в раздел 230 названного закона для установления ответственности компаний за вредоносную и фальшивую информацию, распространяемую через их платформы, за исключением тех случаев, когда они предприняли необходимые меры для ее обнаружения и удаления.
Другие страны уже используют похожий подход для проблем в схожих областях. Например, в Германии в 2017 г. был принят закон, налагающий большой штраф на компании—владелицы социальных медиа, которые не удалили расистский или иной разжигающий вражду контент в течение 24 часов с момента получения уведомления об этом. Такой подход, по мнению Чесни и Цитрон, несет значительные издержки, связанные с усилением цензуры, а также риски создания необоснованных конкурентных преимуществ для крупных платформ, располагающих ресурсами для отслеживания контента и оплаты судебных тяжб [17. P. 154].
На практике уже возникали ситуации, когда администрации социальных медиа были вынуждены реагировать на размещение пользователями глубоких фейков. И единства в этом вопросе среди них не наблюдалось. Так, после публикации в Vice News в 2018 г. упомянутого выше резонансного материала многие популярные платформы, включая Reddit, Twitter, Discord, Gfycat и Pornhub, запретили deepfakes и связанные с ними сообщества [23]. Правда, в реальности не все из них смогли выполнить свои обещания по их зачистке.
В то же время администрация Facebook в мае 2019 г. отказалась удалять фейковое видео, изображающее в неприглядном свете спикера палаты представителей Конгресса США Нэнси Пелоси и набравшее свыше 2 млн просмотров. Аналогичная позиция сохранена и при размещении в принадлежащей компании сети Instagram фейкового видео с участием самого Цукерберга: «Мы будем относиться к этому контенту так же, как и ко всей дезинформации в Instagram. Если сторонние проверки фактов отметят его как ложный, мы отфильтруем его из рекомендательных поверхностей Instagram, таких, как "обзор" и "хэштег"» [20].
В контексте правового подхода заслуживает внимания недавно принятый в России закон о противодействии фейковым новостям (Федеральный закон от 18 марта 2019 г. № 31-Ф3 «О внесении изменений в статью 15.3 Федерального закона "Об информации, информационных технологиях и о защите информации"»). Глубокие фейки деструктивной
направленности в основной массе подпадут под определение фейковых новостей, установленное данным законом: «недостоверная общественно значимая информация, распространяемая под видом достоверных сообщений, которая создает угрозу причинения вреда жизни и (или) здоровью граждан, имуществу, угрозу массового нарушения общественного порядка и (или) общественной безопасности либо угрозу создания помех функционированию или прекращения функционирования объектов жизнеобеспечения, транспортной или социальной инфраструктуры, кредитных организаций, объектов энергетики, промышленности или связи». В качестве меры реагирования данный закон предусматривает ограничение доступа к сетевому изданию или иному информационному ресурсу в Интернете, которые его распространяют. Это один из важных правовых способов противодействия распространению глубоких фейков.
В дополнение к блокировке фейковой информации Федеральным законом от 18 марта 2019 г. № 27-ФЗ «О внесении изменений в Кодекс Российской Федерации об административных правонарушениях» внесены изменения в статью 13.15 КоАП РФ «Злоупотребления свободой массовой информации», которые установили административную ответственность за распространение таких недостоверных сведений в СМИ или в информационно-телекоммуникационных сетях, если это повлекло наступление перечисленных в норме общественно опасных последствий или создало угрозу причинения такого вреда. Субъектами данного правонарушения могут выступать как граждане, так и должностные и юридические лица.
Инструменты уголовной и административной ответственности могут сыграть важную профилактическую роль в предотвращении распространения глубоких фейков частными лицами и организациями. Однако вряд ли они возымеют эффект в отношении иностранных спецслужб и иных зарубежных акторов информационного противоборства. В связи с этим необходимо использовать арсенал средств информационного противодействия.
Информационное противодействие глубоким фейкам
Какие бы продвинутые алгоритмы выявления глубоких фейков ни были созданы в ближайщие годы, они не смогут предотвратить их первичного распространения в социальных сетях и прочих интернет-ресурсах. А гремучий коктейль убедительности и высокой скорости распространения, присущий глубоким фейкам, обеспечит быстрое оказание нужного информационно-психологического воздействия на целевую аудиторию.
Поэтому на данном этапе возникает задача организации информационного реагирования на распространение глубокого фейка. Стандартные приемы опровержения ложной информации все хуже работают в эпоху постправды, поскольку помещенные в изолированные «инфор-
мационные пузыри» интернет-пользователи охотно верят фальшивкам, которые подтверждают их убеждения, и с легкостью отвергают аргументы, разоблачающие их фейковый характер. Это тем более проявится в случае распространения высококачественного глубокого фейка, поскольку люди увидят такое реалистичное видео собственными глазами, а потому переубедить их будет гораздо сложнее. К тому же, находясь под глубокими эмоциональными впечатлениями от его просмотра, они начнут активно делиться ими в социальных сетях и мессенджерах со своими друзьями и знакомыми, разгоняя тем самым информационную волну в эхо-камере.
В ситуации информационной войны первичный информационный вброс глубокого фейка будет сразу поддержан массированной пропагандистской кампанией глобальных СМИ и новостных интернет-ресурсов, направленных на раскрутку инфоповода. На следующем этапе в дело вступят политики, которые постараются трансформировать возникший информационный резонанс в конкретные выгодные им решения, например о начале боевых действий или введении санкций. Данная схема работы многократно использовалась западными странами за последние годы в отношении Сирии, Ирана, России и других государств.
Так, например, 13 июня 2019 г. в Оманском заливе произошли взрывы на двух танкерах, принадлежащих японской и норвежской транспортным компаниям. Власти США сразу же обвинили Иран в совершении нападений на данные танкеры, угрожая в ответ применением военной силы [8]. Чтобы как-то обосновать свои голословные обвинения, они привели некоторые сомнительные доказательства, в частности видеозапись, где, по их версии, иранские военные снимают неразорвавшуюся мину с пострадавшего в Оманском заливе танкера. Опубликованное черно-белое видео низкого качества демонстрирует некий катер с людьми у борта некоего танкера, надписи и флаги неразличимы [10]. Данное «доказательство» было поставлено под сомнение многими мировыми экспертами в плане подтверждения им причастности Ирана к нападению. Представляется, что в ближайшей перспективе для изготовления таких фальшивок могут активно использоваться технологии глубоких фейков.
Все изложенное предвещает сложные времена пресс-службам и иным подразделениям государственных органов, отвечающим за информационную политику. Поэтому уже сейчас требуется продумывать направления модернизации типовых алгоритмов информационного реагирования на распространение ложной информации с учетом особенностей новой угрозы.
С учетом ее новизны возникает необходимость ознакомления с технологией глубоких фейков сотрудников органов безопасности и иных правоохранительных органов государств—участников СНГ (равно как и иных государственных структур), которые в профессиональной деятельности могут столкнуться с последствиями их применения.
В более широком контексте встает вопрос о необходимости упре-дительного информирования общественности стран Содружества
Независимых Государства о новых технологиях фальсификации изображений. Это позволит сформировать определенный «информационный иммунитет» населения, чтобы люди привыкли «не верить своим глазам» и допускать возможность фейкового характера внешне правдоподобной и убедительной видеозаписи.
В Сети в настоящее время уже имеется множество материалов о технологиях глубоких фейков. Но пока общий уровень осведомленности населения о связанных с ними угрозах чрезвычайно низок. В связи с этим требуются подготовка и распространение серии тематических репортажей и публикаций, проведение пресс-конференций, научных семинаров и «круглых столов», занятий в учебных заведениях и т. д.
Однако у решения о массовом информировании населения по проблеме глубоких фейков есть две существенные издержки.
Первая из них состоит в том, что вследствие такой просветительской кампании знания о новых технологиях получат не только добропорядочные граждане, но и потенциальные злоумышленники. Причем речь идет преимущественно не о профессионалах (они и так быстро узнают о технологии), а об обычных людях, которых может заинтересовать функционал глубоких фейков для изготовления поддельных видео в целях личной мести, оскорблений или вымогательства. Другими словами, государство в этом случае само расширит потенциальный круг субъектов вредоносного использования глубоких фейков.
Вторая издержка носит менее очевидный, но более фундаментальный характер. Р. Чесни и Д. Цитрон назвали ее «эффект выгоды для лжецов» («liar's dividend»): по мере роста осведомленности людей относительно существования глубоких фейков публичные деятели, уличенные в недостойном поведении в настоящих записях, могут в целях своей защиты апеллировать к сомнительной подлинности доказательств против них. В более широком плане, когда общество станет более чувствительным к угрозе глубоких фейков, оно может начать утрачивать доверие к новостям в целом [17. P. 151—152]. Другими словами, начнется эра тотального недоверия к информации вообще и журналистике в частности.
* * *
Возникновение технологии глубоких фейков значительно расширяет возможности манипулирования общественным сознанием. Изготавливаемые нейросетями фейковые фото- и видеоматериалы пока имеют визуальные признаки искажения, но по мере развития технологий глубокого машинного обучения эти недостатки будут устранены, в связи с чем детекция глубоких фейков станет чрезвычайно сложной задачей. В ближайшие годы вырастет число приложений, позволяющих обычному человеку воспользоваться данной технологией, и вырастет осведомленность населения о ней.
Результатом этого процесса явится нарастание волны фальшивого, но очень реалистично сделанного фото-, аудио- и видеоконтента, го-
тового для применения в деструктивных целях. Глубокие фейки станут привычным элементом цифровой среды, такой же, как технологии редактирования фотографий в настоящий момент. Однако для адаптации общественного сознания к данной инновации потребуется несколько лет, в течение которых манипуляции с использованием фейковых изображений будут весьма эффективными. Как сурово отметили Р. Чесни и Д. Цитрон, «демократическим обществам придется принять неприятную правду: для того, чтобы выстоять в условиях угрозы глубоких фейков, они должны научиться жить в мире лжи» [17. Р. 154—155].
Для противодействия вредоносному применению технологии глубоких фейков органам безопасности, правоохранительным и иным органам государств—участников СНГ уже сейчас необходимо производить адаптацию традиционных инструментов противодействия угрозам с учетом нового вызова. В первую очередь это касается пресс-служб и структур, отвечающих за информационное противоборство.
Литература
1. Бевза Д. Расизм, Трамп и порно: чем опасны видеофейки // Газета.ру. 2019. 01.06. — https://www. gazeta.ru/tech/2019/01/06/12120169/deepfakes_future.shtmtfupdated (дата обращения: 03.05.2019).
2. Больц Н. Азбука медиа. М. : Европа, 2011.
3. Волкогонов Д. А. Психологическая война : Подрывные действия империализма в области общественного сознания. М. : Воениздат, 1984.
4. Кечеджан А. Эхо-камеры и контекстные ловушки социальных сетей // Newtonew. 2017. 19.12. — https://newtonew.com/tech/eho-kamery-i-kontekstnye-1ovushki-socia1nyh-setey (дата обращения: 14.04.2019).
5. Кошкин П. Сделаем факты снова великими : Можно ли сегодня противостоять фальшивым новостям? // Российский совет по международным делам. 2017. 12.10. — https://russiancounci1.ru/ ana1ytics-and-comments/ana1ytics/sde1aem-fakty-snova-ve1ikimi-mozhno-1i-segodnya-protivostoyat-fa1shivym-novostyam/ (дата обращения: 12.04.2019).
6. Майка Р. Как Трамп и фейки изменили медиа // Российский совет по международным делам.
2018. 04.06. — https://russiancounci1.ru/ana1ytics-and-comments/co1umns/united-states/kak-tramp-i-feyki-izmeni1i-media/?sphrase_id=28536647 (дата обращения: 14.04.2019).
7. Методические рекомендации по разоблачению фейковых обвинений в адрес ВКС России в Сирии // Война и мир. 2018. 09.12. — http://www.warandpeace.ru/ru/exc1usive/view/135803/ (дата обращения: 12.04.2019).
8. Мисник В. Иран под ударом: США готовы применить военную силу // Газета.ру. 2019. 17.06. — https://www.gazeta.ru/army/2019/06/17/12419893.shtm1?updated (дата обращения: 26.06.2017).
9. Парфентьев У. У. DeepFakes или не верь глазам своим : тезисы доклада на CyberSecurityForum,
2019. М., 2019.
10. Пентагон показал «доказательства» атаки Ирана на танкеры // РИА «Новости». 2019. 15.05. — https://ria.ru/20190614/1555557093.htm1 (дата обращения: 26.06.2017).
11. Российскими специалистами разоблачено фейковое видео «Белых касок» // Первый канал. 2018. 26.04. — https://www.1tv.ru/news/2018-04-26/344596-rossiyskimi_spetsia1istami_razob1acheno_ feykovoe_video_be1yh_kasok (дата обращения: 21.06.2019).
12. 7 фальсификаций во время Олимпийских Игр // Scapp.ru. 2014. 22.04. — https://sochi.scapp.ru/ scapp-sekret/7-fa1sifikaczij-o1impijskih-igr/ (дата обращения: 21.06.2019).
13. Смирнов А. А. Обеспечение информационной безопасности в условиях виртуализации общества : Опыт Европейского Союза : монография. М. : ЮНИТИ-ДАНА : Закон и право, 2012.
14. Чугров С. В. Post-truth: трансформация политической реальности или саморазрушение либеральной демократии? // Полис. Политические исследования. 2017. № 2.
15. Bill H.R. 3230 «To combat the spread of disinformation through restrictions on deep-fake video alteration technology». June 12, 2019 // Congress.gov. — https://www.congress.gov/bill/116th-congress/ house-bill/3230/text (дата обращения: 02.07.2019).
16. Black Mirror : The Entire History of You // IMDb. — https://www.imdb.com/title/tt2089050/ (дата обращения: 01.07.2019).
17. Chesney R., Citron D. Deepfakes and the New Disinformation War : The Coming Age of Post-Truth Geopolitics // Foreign Affairs. 2019. January/February.
18. Cole S. AI-Assisted Fake Porn Is Here and We're All Fucked // Vice. 2017. 11.12. — https://www.vice. com/en_us/article/gydydm/gal-gadot-fake-ai-porn (дата обращения: 14.06.2019).
19. Cole S. Gfycat's AI Solution for Fighting Deepfakes Isn't Working // Vice. 2018. 19.06. — https://www. vice.com/en_us/article/ywe4qw/gfycat-spotting-deepfakes-fake-ai-porn (дата обращения: 02.07.2019).
20. Cole S. This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies // Vice. 2019. 11.06. — https://www.vice.com/en_us/article/597yba/ai-generated-fake-joe-rogan-voice-dessa (дата обращения: 01.07.2019).
21. Cole S. This Horrifying App Undresses a Photo of Any Woman With a Single Click // Vice. 2019. 27.06. — https://www.vice.com/en_us/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman (дата обращения: 01.07.2019).
22 DeepFake 18+: появилось приложение, «раздевающее» человека на фото // Hi-tech.mail.ru. 2019. 27.06. — https://hi-tech.mail.ru/news/deepfake_over18/ (дата обращения: 01.07.2019).
23. Goggin B. From porn to «Game of Thrones» : How deepfakes and realistic-looking fake videos hit it big // Business Insider. 2019. 23.06.— https://www.businessinsider.com/deepfakes-explained-the-rise-of-fake-realistic-videos-online-2019-6. Jun. 23, 2019 (дата обращения: 24.06.2019).
24. Hatmaker T. DARPA is funding new tech that can identify manipulated videos and «deepfakes» // TechCrunch. 2018. 30.04. — https://techcrunch.com/2018/04/30/deepfakes-fake-videos-darpa-sri-interna-tional-media-forensics/ (дата обращения: 02.07.2019).
25. House Intelligence Committee to Hold Open Hearing on Deepfakes and AI «The National Security Challenge of Artificial Intelligence, Manipulated Media, and "Deepfakes"» : Press Releases. Washington. 2019. 07.06 // House Permanent Select Committee on Intelligence. — https://intelligence.house.gov/news/ documentsingle.aspx?DocumentID=657 (дата обращения: 25.06.2019).
26. Turton W., Justus M. «Deepfake» videos like that Gal Gadot porn are only getting more convincing — and more dangerous // Vice News. 2018. 27.08. — https://news.vice.com/en_us/article/qvm97q/ deepfake-videos-like-that-gal-gadot-porn-are-only-getting-more-convincing-and-more-dangerous (дата обращения: 03.05.2019). ♦