Научная статья на тему 'ДИПФЕЙКИ: СОВРЕМЕННОЕ ПОНИМАНИЕ, ПОДХОДЫ К ОПРЕДЕЛЕНИЮ, ХАРАКТЕРИСТИКИ, ПРОБЛЕМЫ И ПЕРСПЕКТИВЫ'

ДИПФЕЙКИ: СОВРЕМЕННОЕ ПОНИМАНИЕ, ПОДХОДЫ К ОПРЕДЕЛЕНИЮ, ХАРАКТЕРИСТИКИ, ПРОБЛЕМЫ И ПЕРСПЕКТИВЫ Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
цифровая эпоха / искусственный интеллект / дипфейк / дезинформация / манипулирование / фальсифицированный образ / коммуникационный продукт. / digital age / artificial intelligence / deepfake / disinformation / manipulation / falsified image / communication product.

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Воронин Илья Алексеевич, Гавра Дмитрий Петрович

В статье рассматривается новый взгляд на такое понятие, как «дипфейк». Осуществляется критический анализ подходов к определению данного термина. В статье классифицируются дипфейки и предлагается новая типология, что позволяет более глубоко осмыслить значение дипфейков в современном мире и многообразие их форм.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

DEEPFAKES: MODERN UNDERSTANDING, APPROACHES TO DEFINITION, CHARACTERISTICS, PROBLEMS AND PROSPECTS

The article considers a new view of such a concept as "deepfake". A critical analysis of approaches to the definition of this term is carried out. The article classifies deepfakes and derives a new typology, which allows to comprehend more deeply the significance of deepfakes in the modern world and the diversity of their forms.

Текст научной работы на тему «ДИПФЕЙКИ: СОВРЕМЕННОЕ ПОНИМАНИЕ, ПОДХОДЫ К ОПРЕДЕЛЕНИЮ, ХАРАКТЕРИСТИКИ, ПРОБЛЕМЫ И ПЕРСПЕКТИВЫ»

УДК 32 ББК 76 ГРНТИ 19.31 ВАК 5.9.9

DOI: 10.24412/2949-2513-2023-33-28-47

Воронин И.А., Гавра Д.П.

Санкт-Петербург, Россия

ДИПФЕЙКИ: СОВРЕМЕННОЕ ПОНИМАНИЕ, ПОДХОДЫ К ОПРЕДЕЛЕНИЮ, ХАРАКТЕРИСТИКИ, ПРОБЛЕМЫ

И ПЕРСПЕКТИВЫ

Аннотация. В статье рассматривается новый взгляд на такое понятие, как «дипфейк». Осуществляется критический анализ подходов к определению данного термина. В статье классифицируются дипфейки и предлагается новая типология, что позволяет более глубоко осмыслить значение дипфейков в современном мире и многообразие их форм.

Ключевые слова: цифровая эпоха, искусственный интеллект, дипфейк, дезинформация, манипулирование, фальсифицированный образ, коммуникационный продукт.

Voronin I.A., Gavra D.P.

Saint-Petersburg, Russia

DEEPFAKES: MODERN UNDERSTANDING, APPROACHES TO DEFINITION, CHARACTERISTICS, PROBLEMS AND PROSPECTS

Abstract. The article considers a new view of such a concept as "deepfake". A critical analysis of approaches to the definition of this term is carried out. The article classifies deepfakes and derives a new typology, which allows to comprehend more deeply the significance of deepfakes in the modern world and the diversity of their forms.

Keywords: digital age, artificial intelligence, deepfake, disinformation, manipulation, falsified image, communication product.

Постановка проблемы и обзор литературы

Развитие нейронных сетей в современном мире идет быстрыми темпами. Инструменты искусственного интеллекта используются уже активно используются в PR и маркетинге [Таранова, Гавра, 2024]. Так феномен ИИ открыл новые возможности для коммуникации. Одно из проявлений нейронных сетей, создающих в том числе и угрозы для безопасности личности, и общества дипфейки (deepfakes) [Goodfellow, 2014:1-5] -коммуникационный продукт в формате реалистичного, но отражающего вымышленную - фейковую - реальность видео, созданный с помощью искусственного интеллекта для достижения определенной цели. Эта технология с момента появления начала порождать амбивалентные эффекты и стала предметом оживленных научных дискуссий.

Экспансия социальных медиа в последние десятилетия поностью перестроила глобальный коммуникационный ландшафт. В особенности влияние этого феномена заметно для молодежных возрастных когорт, или, если угодно, поколений, для которых периоды политической и цифровой социализации оказались синхронными [Вромен, Ксенос, Лоудер, 2015]. Стало уже общим местом писать о том, что социальные медиа играют большую роль в политике: информация в них может решающим образом повлиять на исходы политических противостояний [Доббер, 2021] или спровоцировать протесты [Булиан, Ли, 2021][Кольцова, Киркиж, 2016]. Применительно к феномену, рассматриваемому в настоящей статье, отметим аргументацию Т.Доббера [Доббер, 2021: 85], о том, что распространяющиеся по интернету дипфейки оказывают влияние на политику, восприятие политических субъектов и политическое поведение.

Первый зафиксированный дипфейк был опубликован в 2017 году анонимным пользователем платформы Reddit, который загрузил

порнографические видеоролики с лицами известных актрис (Тейлор Свифт, Скарлетт Йоханссон и др.) [Албахар, Албаки, 2019]. К 2018 году 96% выявленных дипфейков тоже относились к порнографическим видео1. Тенденция распространения порнографических дипфейков идет на спад с конца 2018 года (отсчет от выборов президента в США), когда публикуются дипфейки с Б. Обамой и Д. Трампом. С тех пор прослеживается тенденция политизации использования самой технологии и связанного с ней манипулирования и мошенничества в различных сферах [Аппелъ, Притцелъ, 2022]. На сегодняшний день существуют разные виды дипфейков со своими особенностями, полями применения, перспективами и рисками.

Проблема дипфейков обсуждается в научном дискурсе медиадискурсе, социальных медиа [Case Against 'Deepfake Mom' Falls Apart After Prosectors Backtrack, 2021], на интернет-ресурсах [Deepfake, дипфейк // Лабратория Касперского]. Также этой проблеме находится место и в юридической сфере [DEEP FAKES Accountability Act, 2019], [Aktionsplan Deepfake Wien, 2022].

Многие авторы посвященных дипфейкам статей (например, Мирский 2021, Китсман 2020, Долханский 2020) пишут про опасности дипфейков, обсуждают методы борьбы с ними. Не подвергая сомнению практическую значимость этих работ, отметим известное доминирование практически ориентированных публикаций на серьезными академическими работами.

С нашей точки зрения, использумые в научном и практическом дискурсе дефиниции дипфейка являются недоработанными, существующие определения выглядят односторонними, не отражающими всей сложности феномена. Также требует своего решения задача классификации дипфейков.

Таким образом, исследовательские задачи настоящей статьи могут быть сведены к следующим:

- определить подходы к операционализации феномена дипфейка и определить их базовые характеристики;

1 Simonite, "Most Deepfakes Are Porn, and They're Multiplying Fast."

- выявить основные типологические группы дипфейков, представленные в общественно-политическом дискурсе;

- предложить подходы к типологизации дипфейков на историческом периоде (2020-2024 гг.).

Методы исследования

Работа носит теоретический характер и опирается на весь спектр теоретических методов работы с научной информацией. В качестве информационной базы выступил корпус онлайн и оффлайн академических, и практических текстов, посвященных феномену дипфейков, на русском и английском языках за 2017-2024 гг. Также в поле анализа попали получившие наибольшую известность аудиовизуальные продукты этого периода, которые могут быть идентифицированы как дипфейки.

Результаты исследования

Понятие «дипфейк» у разных авторов имеет сходное содержание, но при этом прослеживается различие в подходах.

Начнем с того, что этимология понятия deepfake (дипфейк) происходит от deep learning — «глубокое обучение» и fake — «подделка» [Гудфеллоу, 2014], с одной стороны, прямо указывает на связь этого феномена с технологиями, которые принято называть «искусственным интеллектом», а с другой стороны обозначает его некую моральную/нормативную релятивность.

Исходя из сферно-содержательного критерия (с выделением научно-технической и социально-нормативной сфер) можно выделить 3 базовых подхода: техноцентричный, нормативный и синтетический.

Обратимся к их характеристикам.

1. Техноцентричный подход

Базовое определение дипфейка, которое предлагается многими авторами следующее: методика синтеза изображения или голоса, основанная на искусственном интеллекте ([Вестерлунд, 2019], [Deepfake, дипфейк // Лабратория Касперского]). Данное определение можно отнести к техноцентричному подходу.

Мейнсттримом в определениях, относящихся к техноцентричному подходу, является понимание дипфейка как синтетического мультимедийного контента, созданного с помощью технологий искусственного интеллекта для неосознаваемой аудиторией подмены на итоговом видео/ аудио биометрических или аудиальных характеристик реального человека на иные, фейковые.

Другое популярное определение в рамках техноцентричного подхода принадлежит М.Вестерлунду [Вестерлунд, 2019]: «Дипфейки -гиперреалистичные видео, в которых используется искусственный интеллект (ИИ), чтобы изобразить, как кто-то говорит и делает то, чего никогда не было». Конечно, в этом определении помимо технологических оснований для нас важен акцент на внедрении в публичное пространства имитированной, поддельной реальности, того «чего никогда не было»

С нашей точки зрения, эти дефиниции не могут быть приняты за основу. Простые и понятные, они не являются академически полными и точными. В них опускается алгоритм работы дипфейка, а также не закладываются основания для первичной классификации дипфейков.

Более полное определение дипфейка представлено компанией «Касперский. «Дипфейк — синтез правдоподобных поддельных изображений, видео и звука при помощи искусственного интеллекта. Также дипфейками называют контент, полученный в результате этого синтеза. Чаще всего дипфейки изображают известных людей в вымышленных ситуациях. В некоторых случаях к дипфейкам относят также письменные тексты, созданные при помощи искусственного интеллекта в целях имитации речи конкретного человека.» [Deepfake, дипфейк //Лабратория Касперского]

В этом определении можно выделить следующие преимущества:

- из этого определения можно выделить первичную классификацию (аудиальные, визуальные и текстовые дипфейки);

- определение показывает алгоритм работы дипфейков (синтез аудиовизуального продукта с помощью ИИ).

Таким образом, можно выделить ключевые признаки техноцентричной перспективы:

- как правило используется в научных статьях по данной тематике;

- объясняет алгоритм работы дипфейков с технической стороны;

- делается акцент на методах и технологиях, используемых для создания дипфейка;

- реализует подход к дипфейку как к технологическому феномену, который обусловлен развитием общества, с игнорированием этических, правовых, социально-политических аспектов функционирования дифейков.

В результате, в техноцентричном подходе дипфейки - продукт естественной технологической динамики цифровой эпохи, очередное, если угодно, изобретение, которым может пользоваться кто угодно. 2. Нормативный подход

Нормативный подход, напротив, делает акцент на практиках социального функционирования дипфейка, его потенциальной опасности и возможном вреде и, соответственно, на важности релевантного социального контроля в этой сфере. Важной составляющей подхода к понятию дипфейка здесь является и их определение в юридических источниках.

Среди стран, которые всерьез подошли к проблеме дипфейков можно выделить США, Китай и Австрию. Исходя из документа США «Закон о защите каждого лица от ложных показаний путем привлечения к ответственности за эксплуатацию 2019 года» [DEEP FAKES Accountability Act, 2019]. В этом законе выделяется смежное определение с понятием дипфейк. Первым понятием выделяется «ADVANCED TECHNOLOGICAL FALSE PERSONATION RECORD» («продвинутая технологическая ложная запись о личности»), как одна из разновидностей дипфейка. Исходя из этого закона «передовая технологическая ложная запись о личности» - дипфейк, в которую разумный человек поверит, приняв во внимание визуальные или аудио качества записи и характер канала распространения. Это касается любого

фальсифицированного высказывания живого человека, или любого фальсифицированного высказывания умершего лица, демонстрация которого с большой вероятностью может либо способствовать совершению преступного деяния [DEEP FAKES Accountability Act, 2019]. Также фейки могут привести к неправомерному вмешательству в официальное разбирательство, дебаты по вопросам государственной политики или выборы.

Иными словами, в рамках этого подхода дипфейк - опирающаяся на передовые технололгии ложная запись о личности, которую можно легко принять за реальную благодаря высокому качеству и контексту распространения. Она может вводить в заблуждение относительно деятельности живого или умершего человека. Такие дипфейки с большой вероятностью могут способствовать совершению противоправного деяния или угрозе государственной безопасности.

Основой нормативного подхода является понимание дипфейка как акта незаконного использования чужого лица или голоса без согласия для передачи ложной информации или нанесения ущерба другим людям.

Так, в австрийском законе [Aktionsplan Deepfake Wien, 2022] указывается: «Дипфейки — это совершенно поддельные видео, изображения или аудио, в которых людей заставляют делать заявления или в которых они совершают действия, которых на самом деле никогда не было. Дипфейки являются частью длинной череды манипуляций со СМИ с целью дезинформации»

Определение дипфейка в рамках нормативного подхода основано на законодательных актах разных стран, поэтому нельзя выделить «единственно правильное» определение. Но смысл данного феномена в рассмотренных определениях в основном совпадает.

Обозначим наиболее важные отличительные признаки нормативного подхода:

- определение понятия прямо в теле нормативного акта;

- относительно избыточное количество критериев в понятии, для более универсального определения факта правонарушения с целью обеспечения более эффективного применения санкций.

- определение направлено на выявление и фиксацию ущерба, большое внимание уделяется жертве дипфейка;

- криминализирующий характер определения, оно образует состав преступления.

Отдельно отметим, что нормативный подход тесно связывает понятия «дипфейк» и «дезинформация», привязывая этот феномен к устоявшемуся в политической культуре и правовой системе соответствующих с тран понятию, имеющую в том числе и нормативно-правовое содержание. 3. Синтетический подход

Универсальный или синтетический подход, как мы полагаем, должен соединить в себе нормативное и техноцентричное начало. В нормативном важным аспектом является именно «фейковая» манипуляция поведением человека, а техноцентричный подход делает акцент на использование искусственного интеллекта.

Таким образом, мы полагаем целесообразным сформулировать такое рабочее синтетическое определение: дипфейк это опирающийся на технологии искусственного интеллекта целенаправленно созданный коммуникационный продукт (видео, фотографии, аудиозаписи и т.д.) направленный на формирование у целевых аудиторий фальсифицированного образа социального субъекта с целью получения выгоды или нанесения ущерба.

В соответствии с определением, были выделены следующие признаки дипфейка:

- это коммуникационный продукт;

- это коммуникационный продукт, опирающийся на ИИ с обучением на базе реальной информации;

- продукт, у которого есть субъект, его создавший/ заказавший с определенной целью;

- продукт, имеющей целью получение выгоды или нанесение ущерба в

интересах субъекта создания дипфейка;

- продукт, направленный на создание фальсифицированного образа

объекта дипфейка.

Таким образом, у дипфейка можно выделить объект и субъекта.

Объектом дипфейка являет социальный субъект (индивид, группа), чье коммуникативное поведение подвергается манипулятивному искажению /фальсификации с помощью технологий искусственного интеллекта и дале в фальсифицированном виде вносится в публичное пространство. При это базой для глубокого обучения является корпус реальных коммуникативных практик объекта дипфейка.

В нормативно-правовом смысле объект дипфейка является потерпевшим, лицом, понесшим ущерб.

Субъектом дипфейка является социальный субъект, создавший / заказавший производство дипфейка и внесший дипфейк в публичное пространство для извлечения выгоды/ нанесения ущерба.

В нормативно-правовом смысле субъект дипфейка может рассматриваться как лицо, нанесшее ущерб объекту дипфейка, т.е. как правонарушитель в случае наличия в национальном законодательстве соответствующего правового акта.

Важным ключом к пониманию дипфейков является множественность определений в зависимости от поля применения термина. Классификация же способствует преодолению двусмысленностей в этой множественности.

В силу сложности и комплексности рассматриваемого феномена типологизация дипфейков является многокомпонентной.

Рассмотрим основные подходы к классификации дипфейков.

1. Техническая классификация

Выделенная и признанная классификация дипфейков это техническая классификация описываемая в статье М. Масуда [Масуд, 2023]. В данной статье выделяется два основных типа дипфейков, которые зависят от канала

восприятия и соответственно, канала манипуляции: аудиальные и визуальные дипфейки.

Визуальные подделки можно разделить на 5 типов:

1) Face-swapping

2) Lip-syncing

3) Puppet master

4) Entire Face Synthesis

5) Facial Attribute Manipulation [Масуд, 2023: 3977].

Кратко разберем, механику работы этих типов дипфейков.

1. Face-swapping или замена лица. Традиционные подходы к замене лиц обычно включают в себя три шага для выполнения операции подмены лиц. Сначала эти инструменты обнаруживают лицо на исходных изображениях, а затем накладывают лицо из библиотеки аватаров (подлинных лиц) на изображение лица-реципиента, аналогичное входному виду и позам лица. Во-вторых, метод заменяет глаза, нос и рот лица и дополнительно настраивает освещение и цвет изображения аватара в соответствии с внешним видом входных изображений реципиента, а также плавно смешивает два лица. Наконец, на третьем шаге оценивается смешанная замена кандидатов путем вычисления расстояния совпадения в области перекрытия [Масуд, 2023: 3981].

2. Lip-syncing или синхронизация губ. Работа данной техники заключается в синтезе дипфейк-видео таким образом, чтобы область рта в обрабатываемом видео согласовывалась с произвольным звуковым вводом. Ключевым аспектом синтеза визуальной речи является движение и внешний вид нижней части рта и окружающей его области. Чтобы передать сообщение более эффективно и естественно, важно генерировать правильные движения губ наряду с выражением лица [Масуд, 2023: 3985].

3. Puppet master или реконструкция лица-«куклоформирование». Является еще одной распространенной разновидностью дипфейков, которая манипулирует мимикой человека, например, перенося мимику, движения глаз

и головы на выходное видео. Куклоформирование [Масуд, 2023: 3988] направлено на то, чтобы деформировать движения рта человека, и тем самым выстроить артикуляцию под сфабрикованный контент. Таким образом, реконструкция лица это симбиоз Face-swapping и Lip-syncing [Масуд, 2023: 3988].

4. Face-synthesis или синтез лиц. Относительно самый безопасный в политической сфере метод, но найти ему применение возможно. Например, для анонимизирования персоны в интернете. В синтезе лиц цель состоит в том, чтобы создать несуществующие, но реалистично выглядящие лица [Масуд, 2023: 3992].

5. Facial Attribute Manipulation или изменение атрибутов лица. Эта техника применяется в развлекательных целях (маски в социальных сетях) или для косметического изменения лица. В последнее время было предложено несколько подходов на основе GAN для редактирования атрибутов лица, таких как цвет кожи, прическа, возраст и пол, путем добавления/удаления очков, выражения лица и т. д. данного лица. При этой манипуляции GAN принимает исходное изображение лица в качестве входных данных и генерирует отредактированное изображение лица с заданным атрибутом [Масуд, 2023: 3994].

Как ранее было упомянуто, аудиальные дипфейки делятся на два типа.

1. Text-to-Speech Synthesis. Этот тип дипфейка, который может клонировать голос человека и изображать этот голос, говорящий что-то возмутительное, чего на самом деле человек никогда не говорил. Недавние достижения в области алгоритмов синтеза речи и клонирования голоса показали потенциал для создания реалистичных фальшивых голосов, которые почти неотличимы от настоящей речи. Эти алгоритмы могут генерировать синтетическую речь, звучащую как голос целевого оратора, на основе текста или высказываний целевого говорящего, с очень убедительными результатами [Масуд, 2023: 3997].

2. Voice Converter. Данная техника дипфейка способна подстраивать голос в режиме реального времени. Реципиент способен говорить голосом аватара в прямом эфире. Современные нейронные сети способны так моделировать голос, что отличить от подлинника практически невозможно [Масуд, 2023: 4000].

2. Типологизация дипфейков по сфере использования На основе множества просмотренных дипфейк-видео можно классифицировать их по области применения.

1. Существуют дипфейки, направленные на манипуляцию общественным мнением с целью изменения отношений власти, такие дипфейки можно назвать политическими [Аппелъ, Притцелъ, 2022]. Например, дипфейк с А.Н.Арестовичем2. В ноябре 2023 года в сети появилось видео, где бывший советник Офиса президента Украины обещает «открыть глаза и показать кем является Владимир Зеленский на самом деле». Дипфейк сделан некачественно, с помощью плохо обученной нейросети. Мимика и голос воспринимаются как нечто искусственное. Несмотря на такую некачественную подделку, дипфейк смог вызвать доверие у людей. Только 3 из 44 комментировавших пользователя догадались об участие нейронной сети в этом заявлении (см. рисунок 1).

ИДЕНТИФИКАЦИЯ ДИПФЕЙКА С АРЕСТОВИЧЕМ

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2 Арестович: Я открою вам глаза, кто такой Зеленский на самом деле». YouTube. [Электронный ресурс]. URL: https://u.to/ kyZIA

Рисунок 1. Идентификация дипфейка с А.Арестовичем

Остальные комментировавшие обсуждали это «фейковое» заявление. Это показывает, что дипфейки могут быть использованы для обмана общества, подрыва репутации той или иной персоны/представителя организации.

2. Далее можно выделить дипфейки направленные на извлечение финансовой выгоды за счет введения в заблуждения целевых аудиторий, такие дипфейки можно обозначить как экономические. В своей книге Джон Бейтмен [Дж. Бейтман, 2022] говорит о необходимости работы с дипфейками в финансовой сфере. Многие банки озадачены системой безопасности и ее модернизированием под современные реалии, так как дипфейки помогают обходить голосовую и даже биометрическую аутентификацию. Так, известен случай, произошедший в январе 2020 года, киберпреступники обманули банк Объединенных Арабских Эмиратов на сумму более 35 миллионов долларов США, используя технологию глубокой подделки голоса [Кшетри, 2023]. Технология использовалась для имитации биометрики и голоса директора компании, который был известен менеджеру банка. Во время видеозвонка менеджером была одобрена транзакция «фальшивому» директору банка. Таким образом, с помощью технологии дипфейк получилось обмануть менеджера и получить крупную сумму.

3. Самый популярный тип дипфейков, с которыми борются крупнейшие страны - направленные на дискредитацию физических лиц через порнографические манипуляции - это порнографические дипфейки. Например, в социальной сети Telegram в 2020 году был распространен бот, который подделывал обнаженные фотографии девушек за деньги [Делъфино, 2019: 90].

4. Любительские/развлекательные дипфейки - считающийся относительно безвредным вид дипфейков, когда люди создают дипфейки для хобби, а не ради денег [Кшетри, 2023: 91]. Хотя с нашей точки зрения вред для объекта дипфейка в данном случае все равно присутствует. Как и выгода для субъекта. В качестве планируемой выгоды для субъекта дипфейка здесь

выступает увеличение трафика на ресурсе, увеличение количества подписчиков, либо моральное удовлетворение. Такие дипфейки зачастую носят юмористический характер. Смотря такой контент, либо зритель интуитивно понимает, либо автор указывает, что в создании видео принимал участие искусственный интеллект. Например, Майлз Фишер ведет социальные сети, в которых публикует видео с «искусственным» Томом Крузом3. Несмотря на правдоподобность, Майлз не скрывает, что при создании видео использует технологию дипфейков. Данный тип дипфейков был обозначен как развлекательный или любительский.

5. Последний, выделенный в данной работе вид дипфейков, направлен на обман узкого круга лиц, для причинения вреда неприятелю из чувств мести или личного мотива. Зачастую, такие дипфейки используются для шантажа, чтобы получить какую-либо выгоду (необязательно финансовую) [Case Against 'Deepfake Mom' Falls Apart After Prosectors Backtrack, 2021]. Такой вид дипфейков был обозначен как рэкетивные дипфейки.

3. Типология дипфейков по цели создания

Важный аспект при классификации дипфейков это мотив создания. В статье М.Ю. Толстых [Толстых, 2023: 293] выделяются типы фейков по цели. Эту классификацию можно экстраполировать и на дипфейки, но с нашей точки зрения, следует внести возможно некоторые исправления и дополнения.

Так, некоторые выделенные М.Ю. Толстых категории можно объединить. Например, фейки, целью которых является привлечение внимание к автору или платформе, также фейки, целью которых является привлечение внимания к проблеме, и фейки, которые используются для рекламы, можно объединить и обозначить как коммуникационные, потому что их общая цель это стимулирование интереса к какой-то теме, увеличение аудитории и возможное привлечение трафика.

Таким образом, в качестве первого типа по данному критерию выделим коммуникационные дипфейки. Цель создания таких дипфейков привлечение

3 deeptomcruise. TikTok. [Электронный ресурс]. https://www.tiktok.eom/@deeptomcruise

внимания аудитории объекту, увеличение аудитории и возможный рост трафика у субъекта дипфейка. Нанесение ущерба объекту дипфейка здесь целью не является. Такие дипфейки стимулируют интерес аудитории и увеличивают ее охват, привлекают внимание к какой-либо проблеме. Так, например дипфейк с Б. Обамой от Джордана Пилла [Винсент, 2018] был направлен на привлечение внимания к вызовам, которые бросает нам А1.

Вторым выделим дискредитирующий тип дипфейков. Такие дипфейки направлены на дискредитацию объекта - личности, группы или организации с целью извлечения выгоды для субъекта дипфейка. Они распространяют ложные сведения, наносящие ущерб объекту дипфейка. К такому типу можно отнести дипфейк с Джо Байденом. В феврале 2023 года выложили видео, где Джо Байден резко отзывается о представителях ЛГБТ*4 в совершенно несвойственной ему манере. В ходе расследования американских журналистов было выяснено, что в данном дипфейке в качестве аватара было использовано видео с заявлением Байден об оказании помощи Украине, а правдоподобность дипфейка была обусловлена плохим качеством, но хорошо сгенерированной аудиальной составляющей. Такой дипфейк мог подорвать репутацию президента США, снизить уровень доверия граждан.

Отдельно выделим дипфейки, которые направлены на незаконное получение денежных средств или иных полезных ресурсов. Их можно обозначить как мошеннические. Такой тип дипфейка перекликается с экономическим типом дипфейков.

Последний тип дипфейков в данной классификации носит рекреационный/развлекательный характер. Такие дипфейки направлены на развлечение аудитории, на самовыражение субъекта дипфейка и увеличение его социального капитала (популярности, трафика, лайков, репостов, скачиваний и т.п.). В отношении критерия извлечения выгоды развлекательные дипфейки не отличаются от других видов дипфейков.

*30 ноября 2023 года Верховный Суд удовлетворил иск Министерства юстиции РФ о запрете и признании экстремистской организацией «Международного общественного движения ЛГБТ».

Вкладывая ресурс в производство дипфейка его субъект всегда ориентирован на получение выгоды в той или иной форме.

Выводы

Таким образом, в статье были определены и рассмотрены нормативный и техноцентричный подходы к определению термина «дипфейк». Также был выведен новый, синтетический подход к определению понятия «дипфейк». Согласно которому, дипфейк - это коммуникационный продукт, созданный с помощью искусственного интеллекта, имеющий определенную цель (получение выгоды или нанесение ущерба), направленный на создание фальсифицированного образа.

Также была выведено несколько типологий: техническая, типология по сфере использования и типология по цели создания. Стоит отметить, что возможны и другие типологии со своими критериями. Статья способствует более глубокому пониманию дипфейков и их видов, развивает теорию такого феномена как дипфейк.

Библиография

Е. В. Касперский. Deepfake, дипфейк // Лабратория Касперского. - URL: https://encyclopedia.kaspersky.ru/glossary/deepfake/

Кольцова О. Ю., Киркиж Э. А. Влияние интернета на участие в протестах //Журнал политической философии и социологии политики «Полития. Анализ. Хроника. Прогноз». -2016. - №. 1 (80). - С. 90-110.

Таранова Ю.В., Гавра Д.П. Применение искусственного интеллекта в территориальном брендинге: возможности и вызовы // Российская школа связей с общественностью. 2024. №32.

М.Ю. Толстых Средства противостояния фейковой информации как угрозе информационной и национальной безопасности // Криминологический журнал. 2023. №3. - С.291-298

Aktionsplan Deepfake Wien, 2022 2 von 30 III-740 der Beilagen XXVII. GP - Bericht -02 Hauptdokument

Albahar M., Almalki J. Deepfakes: Threats and countermeasures systematic review //Journal of Theoretical and Applied Information Technology. - 2019. - Т. 97. - №. 22. - С. 32423250.

Appel M., Prietzel F. The detection of political deepfakes //Journal of Computer-Mediated Communication. - 2022. - Т. 27. - №4

Bateman J. Deepfakes and synthetic media in the financial system: Assessing threat scenarios. - Carnegie Endowment for International Peace., 2022.

Boulianne S., Lee S. Conspiracy beliefs, misinformation, social media platforms, and protest participation //Media and Communication. - 2022. - Т. 10. - №. 4. - С. 30-41.

Case Against 'Deepfake Mom' Falls Apart After Prosectors Backtrack [Электронный ресурс]. - URL: https://www.dailydot.com/debug/deepfake-mom-cheerleaders-prosecutors-backtrack/

Delfino R. A. Pornographic deepfakes: The case for federal criminalization of revenge porn's next tragic act //Fordham L. Rev. - 2019. - Т. 88. - С. 887.

Dobber T. et al. Do (microtargeted) deepfakes have real effects on political attitudes? //The International Journal of Press/Politics. - 2021. - Т. 26. - №. 1. - С. 69-91.

Dolhansky B. et al. The deepfake detection challenge (dfdc) dataset //arXiv preprint arXiv:2006.07397. - 2020.

Goodfellow I. et al. Generative adversarial nets //Advances in neural information processing systems. - 2014. - Т. 27.

Kietzmann J. et al. Deepfakes: Trick or treat? //Business Horizons. - 2020. - Т. 63. - №. 2. - С. 135-146

Kshetri N. The economics of deepfakes //Computer. - 2023. - Т. 56. - №. 8. - С. 89-94.

Masood M. et al. Deepfakes generation and detection: State-of-the-art, open challenges, countermeasures, and way forward //Applied intelligence. - 2023. - Т. 53. - №. 4. - С. 39744026.

Mirsky Y., Lee W. The creation and detection of deepfakes: A survey //ACM computing surveys (CSUR). - 2021. - Т. 54. - №. 1. - С. 1-41.

Text - H.R.3230 - 116th Congress (2019-2020): DEEP FAKES Accountability Act, H.R.3230, 116th Cong. (2019), https://www.congress.gov/bill/116th-congress/house-bill/3230/text.

Vromen A., Xenos M. A., Loader B. Young people, social media and connective action: From organisational maintenance to everyday political talk //Journal of Youth Studies. - 2015. -Т. 18. - №. 1. - С. 80-100.

Westerlund M. The emergence of deepfake technology: A review //Technology innovation management review. - 2019. - Т. 9. - №. 11.

James Vincent, Watch Jordan Peele Use AI to Make Barack Obama Deliver a PSA About Fake News, THE VERGE[Электронный ресурс]. - URL: https://www.theverge.com/tldr/2018/4/17/17247334/ai-fake-news-video-barack-obama-jordan-peele-buzzfeed

References

Aktionsplan Deepfake Wien, 2022 2 von 30 III-740 der Beilagen XXVII. GP - Bericht -02 Hauptdokument

Albahar M., Almalki J. Deepfakes: Threats and countermeasures systematic review //Journal of Theoretical and Applied Information Technology. - 2019. - T. 97. - №. 22. - S. 32423250.

Appel M., Prietzel F. The detection of political deepfakes //Journal of Computer-Mediated Communication. - 2022. - T. 27. - №. 4. - S. zmac008.

Bateman J. Deepfakes and synthetic media in the financial system: Assessing threat scenarios. - Carnegie Endowment for International Peace., 2022.

Boulianne S., Lee S. Conspiracy beliefs, misinformation, social media platforms, and protest participation //Media and Communication. - 2022. - Т. 10. - №. 4. - С. 30-41.

Case Against 'Deepfake Mom' Falls Apart After Prosectors Backtrack [Elektronnyy resurs]. - URL: https://www.dailydot.com/debug/deepfake-mom-cheerleaders-prosecutors-backtrack/

Delfino R. A. Pornographic deepfakes: The case for federal criminalization of revenge porn's next tragic act //Fordham L. Rev. - 2019. - T. 88. - S. 887.

Dobber T. et al. Do (microtargeted) deepfakes have real effects on political attitudes? //The International Journal of Press/Politics. - 2021. - Т. 26. - №. 1. - С. 69-91.

Dolhansky B. et al. The deepfake detection challenge (dfdc) dataset //arXiv preprint arXiv:2006.07397. - 2020.

E. V. Kasperskiy. Deepfake, dipfeyk // Labratoriya Kasperskogo. - URL: https://encyclopedia.kaspersky.ru/glossary/deepfake/

Goodfellow I. et al. Generative adversarial nets //Advances in neural information processing systems. - 2014. - T. 27.

James Vincent, Watsh Jordan Peele Use AI to Make Barack Obama Deliver a PSA About Fake News, THE VERGE [Elektronnyy resurs]. - URL: https://www.theverge.com/tldr/2018/4/17/17247334/ai-fake-news-video-barack-obama-jordan-peele-buzzfeed

Kietzmann J. et al. Deepfakes: Trick or treat? //Business Horizons. - 2020. - T. 63. - №. 2. - S.135-146

Kol'cova O. Yu., Kirkizh E. A. Vliyanie interneta na uchastie v protestah //Zhurnal politicheskoj filosofii i sociologii politiki «Politiya. Analiz. Hronika. Prognoz». - 2016. - №. 1 (80). - S. 90-110.

Kshetri N. The economics of deepfakes //Computer. - 2023. - T. 56. - №. 8. - S. 89-94.

M.Yu. Tolstykh Sredstva protivostoyaniya feykovoy informatsii kak ugroze informatsionnoy i natsional'noy bezopasnosti // Kriminologicheskiy zhurnal. 2023. №3. - S.291-298

Masood M. et al. Deepfakes generation and detection: State-of-the-art, open challenges, countermeasures, and way forward //Applied intelligence. - 2023. - T. 53. - №. 4. - S. 3974-4026.

Mirsky Y., Lee W. The creation and detection of deepfakes: A survey //ACM computing surveys (CSUR). - 2021. - T. 54. - №. 1. - S. 1-41.

Taranova Yu.V., Gavra D.P. Primenenie iskusstvennogo intellekta v territorial'nom brendinge: vozmozhnosti i vyzovy // Rossijskaya shkola svyazej s obshchestvennost'yu. 2024. №32.

Text - H.R.3230 - 116th Congress (2019-2020): DEEP FAKES Accountability Act, H.R.3230, 116th Cong. (2019), https://www.congress.gov/bill/116th-congress/house-bill/3230/text.

Westerlund M. The emergence of deepfake technology: A review //Technology innovation management review. - 2019. - T. 9. - №. 11.

Vromen A., Xenos M. A., Loader B. Young people, social media and connective action: From organisational maintenance to everyday political talk //Journal of Youth Studies. - 2015. -Т. 18. - №. 1. - С. 80-100.

Сведения об авторах

Воронин Илья Алексеевич - студент Высшей школы журналистики и массовых коммуникаций Санкт-Петербургского государственного университета по направлению «Реклама и связи с общественностью», e-mail: il_voronin@mail. ru

Гавра Дмитрий Петрович - доктор социологических наук, профессор, заведующий кафедрой связей с общественностью в бизнесе Высшей школы журналистики и массовых коммуникаций СПбГУ, e-mail: d.gavra@spbu.ru

Voronin Ilya A. - student of the St. Petersburg State University in the direction of "Advertising and Public Relations" of the Higher School of Journalism and Mass Communications, e-mail: il_voronin@mail .ru

Gavra Dmitry P. - Doctor of Sociological Sciences, Professor, Head of the Department of Public Relations in Business, Higher School of Journalism and Mass Communications of St. Petersburg State University, e-mail: d.gavra@spbu.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.