Научная статья на тему 'ПРОБЛЕМЫ ТРАНСФОРМАЦИИ ПОВЕДЕНИЯ ПОТРЕБИТЕЛЕЙ КАК РЕЗУЛЬТАТ НЕГАТИВНОГО ВЛИЯНИЯ ТЕХНОЛОГИИ DEEPFAKES НА СОВРЕМЕННОЕ ЦИФРОВОЕ ОБЩЕСТВО'

ПРОБЛЕМЫ ТРАНСФОРМАЦИИ ПОВЕДЕНИЯ ПОТРЕБИТЕЛЕЙ КАК РЕЗУЛЬТАТ НЕГАТИВНОГО ВЛИЯНИЯ ТЕХНОЛОГИИ DEEPFAKES НА СОВРЕМЕННОЕ ЦИФРОВОЕ ОБЩЕСТВО Текст научной статьи по специальности «Социологические науки»

CC BY
28
7
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Социология и право
ВАК
Ключевые слова
DEEPFAKES / НОВЫЕ ЦИФРОВЫЕ ТЕХНОЛОГИИ / ПРОДУКТ ПРИЛОЖЕНИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / ПРЕДОТВРАЩЕНИЕ ДИПФЕЙКОВ

Аннотация научной статьи по социологическим наукам, автор научной работы — Юмашева И. А., Афанасьева Т. С., Алеманова Г. Д.

Актуальность темы исследования обусловлена тем, что современные цифровые технологии оказывают негативное влияние на поведение потребителей и затрудняют различие в восприятии между настоящими и фейковыми медиа. Последние, в свою очередь, губительны для общества. Одним из событий, способствующих возникновению институциональных проблем в сфере медиа, стало появление deepfakes, представляющих собой гиперреалистичные видеоролики «ложного содержания», в которых используется искусственный интеллект. В сочетании с охватом и скоростью социальных сетей убедительные deepfakes в сжатые сроки становятся достижимыми для миллионов людей и оказывают негативное влияние на наше общество. В статье проведен анализ технологии создания и применения deepfakes, описаны результаты ее влияния на поведение потребителей, выявлены типы deepfakes и группы их производителей, определены преимущества и угрозы указанной технологии.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PROBLEMS OF CONSUMER BEHAVIOR TRANSFORMATION AS A RESULT OF THE NEGATIVE IMPACT OF DEEPFAKES TECHNOLOGY ON MODERN DIGITAL SOCIETY

The relevance of the topic of the study stems from the fact that modern digital technology has a negative impact on consumer behaviour and makes it difficult to distinguish between real and fake media. The latter, in turn, are detrimental to society. One of the developments contributing to institutional media problems has been the emergence of deepfakes, which are hyper-realistic “fake content” videos that use artificial intelligence. Combined with the reach and speed of social media, persuasive deepfakes are reaching millions of people in a short period of time and have a negative impact on our society. The paper analyzes the technology of creating and using deepfakes, describes the results of its impact on consumer behaviour, identifies types of deepfakes and groups of producers, and identifies advantages and threats of this technology.

Текст научной работы на тему «ПРОБЛЕМЫ ТРАНСФОРМАЦИИ ПОВЕДЕНИЯ ПОТРЕБИТЕЛЕЙ КАК РЕЗУЛЬТАТ НЕГАТИВНОГО ВЛИЯНИЯ ТЕХНОЛОГИИ DEEPFAKES НА СОВРЕМЕННОЕ ЦИФРОВОЕ ОБЩЕСТВО»

Научная статья УДК 32.019.51

DOI: 10.35854/2219-6242-2023-2-185-196

Проблемы трансформации поведения потребителей как результат негативного влияния технологии deepfakes на современное цифровое общество

Ирина Александровна Юмашева1Н, Татьяна Сергеевна Афанасьева2,

Галина Дмитриевна Алеманова3

1 Северо-Западный институт управления образования РАНХиГС, Санкт-Петербург,

Россия

2 Санкт-Петербургский университет технологий управления и экономики,

Санкт-Петербург, Россия

3 Оренбургский государственный медицинский университет, Оренбург, Россия

1 [email protected], https://orcid.org/0000-0002-1746-0164

2 [email protected]

3 [email protected]

Аннотация. Актуальность темы исследования обусловлена тем, что современные цифровые технологии оказывают негативное влияние на поведение потребителей и затрудняют различие в восприятии между настоящими и фейковыми медиа. Последние, в свою очередь, губительны для общества. Одним из событий, способствующих возникновению институциональных проблем в сфере медиа, стало появление deepfakes, представляющих собой гиперреалистичные видеоролики «ложного содержания», в которых используется искусственный интеллект. В сочетании с охватом и скоростью социальных сетей убедительные deepfakes в сжатые сроки становятся достижимыми для миллионов людей и оказывают негативное влияние на наше общество. В статье проведен анализ технологии создания и применения deepfakes, описаны результаты ее влияния на поведение потребителей, выявлены типы deepfakes и группы их производителей, определены преимущества и угрозы указанной технологии.

Ключевые слова: deepfakes, новые цифровые технологии, продукт приложений искусственного интеллекта, предотвращение дипфейков

Для цитирования: Юмашева И. А., Афанасьева Т. С., Алеманова Г. Д. Проблемы трансформации поведения потребителей как результат негативного влияния технологии deepfakes на современное цифровое общество // Социология и право. 2023. Т. 15. № 2. С. 185-196. https://doi.org/10.35854/2219-6242-2023-2-185-196

Original article

Problems of consumer behavior transformation as a result of the negative impact of deepfakes technology

on modern digital society

Irina A. Yumasheva1H, Tatyana S. Afanasyeva2, Galina D. Alemanova3

1 North-West Institute of Education Management RANEPA, St. Petersburg, Russia

2 St. Petersburg University of Management Technologies and Economics, St. Petersburg,

Russia

3 Orenburg State Medical University, Orenburg, Russia

© Юмашева И. А., Афанасьева Т. С., Алеманова Г. Д., 2023

1 [email protected], https://orcid.org/0000-0002-1746-0164

2 [email protected]

3 [email protected]

Abstract. The relevance of the topic of the study stems from the fact that modern digital technology has a negative impact on consumer behaviour and makes it difficult to distinguish between real and fake media. The latter, in turn, are detrimental to society. One of the developments contributing to institutional media problems has been the emergence of deepfakes, which are hyper-realistic "fake content" videos that use artificial intelligence. Combined with the reach and speed of social media, persuasive deepfakes are reaching millions of people in a short period of time and have a negative impact on our society. The paper analyzes the technology of creating and using deepfakes, describes the results of its impact on consumer behaviour, identifies types of deepfakes and groups of producers, and identifies advantages and threats of this technology.

Keywords: deepfakes, new digital technologies, artificial intelligence application product, dipfakes prevention

For citation: Yumasheva I.A., Afanasyeva T.S., Alemanova G.D. Problems of consumer behavior transformation as a result of the negative impact of deepfakes technology on modern digital society. Sociology and Law. 2023;15(2):185-196. (In Russ.). https://doi.org/10.35854/ 2219-6242-2023-2-185-196

Введение

В последние несколько лет фейковые новости стали существенной угрозой для общественного дискурса, общества и демократии. Под фальшивыми новостями понимается контент в стиле вымышленных новостей, сфабрикованных с целью обмана общественности [1].

Распространение ложной информации осуществляется прежде всего через социальные сети как наиболее популярный сегодня тип онлайн-медиа, способствующий в сжатые сроки оказывать значительное влияние на миллионы пользователей. В настоящее время каждый пятый интернет-пользователь получает новости через онлайн-платформу YouTub, по популярности на современном этапе развития онлайн-медиа несколько уступающую социальным сетям «Теле-грам», «ВКонтакте» и ряду других [2]. Рост популярности видеоплатформ в формате онлайн подчеркивает необходимость создания и развития инструментов подтверждения подлинности медийного новостного контента. С учетом простоты получения и распространения дезинформации через социальные сети, в режиме онлайн и на видеоплатформах, пользователям становится все труднее определить достоверность поступающего новостного контента, что приводит к негативным последствиям развития цифрового общества.

Действительно, современные условия общественной жизни получили негласное наименование «эра постправды», которая характеризуется цифровой дезинформацией, информационными войнами, возглавляемыми злоумышленниками, ведущими ложные информационные кампании по манипулированию общественным мнением. Последние достижения в сфере информационных технологий обеспечили условия возникновения явления deepfake, в результате которого создаются гиперреалистичные видео с заменой лиц, оставляющих малое количество следов манипуляции, незаметных для пользователей видеоплатформ в формате онлайн и социальных сетей [1].

Теория

Дипфейки представляют собой продукт приложений искусственного интеллекта, позволяющих объединять, заменять и накладывать друг на друга изображения, видеоклипы для создания фальшивых видеороликов, которые выглядят аутентичными. Технология deepfakes может генерировать, например, юмористическое, порнографическое или политическое видео человека с использованием полностью его образа и голоса, но при этом в реальности не существовало и не существует ни содержания информации, ни ситуации, представленной в контексте видео [3].

Масштаб распространения deepfakes и доступность технологии свидетельствуют о том, что практически любой человек, имеющий навыки уверенного пользователя компьютера, может сфабриковать фальшивые видеоролики, которые практически неотличимы от аутентичных медиа. Ранние примеры deepfakes сосредоточены на политических лидерах, актрисах, комиках и других медийных лицах. На современном этапе развития цифровых технологий deepfakes используют не только в целях привлечения внимания и мести, но и в целях доказательства в суде с помощью фейковых видео, политического саботажа, террористической пропаганды, шантажа, манипулирования рынком и подделки новостей [1].

Перед тем, как сформулировать действенные методы борьбы с deepfakes, нам нужно понимать причины их существования и технологии, лежащие в их основе. В настоящем исследовании нами рассмотрены вопросы типологии deepfakes, определены группы их производителей, выявлены преимущества и угрозы исследуемой технологии дипфейков, представлены способы борьбы с ними.

В целях понимания сути технологии создания важно отметить, что deepfakes полагаются на нейронные информационные сети, которые анализируют большие наборы выборок данных, при этом имитируя выражение лица человека, его манеры, голос и интонации. Процесс создания deepfakes включает в себя загрузку видеозаписей двух людей в цифровой алгоритм «глубокого обучения», чтобы научить его изменять лица. Иными словами, deepfakes используют 3D-mapping в отношении лиц, что является аудиовизуализацией, и 3D-проекцию на физический объект окружающей среды с учетом его геометрии и местоположения в пространстве. Технологии 3D-mapping и искусственного интеллекта позволяют заменять лица людей в видеоформате, в результате происходит полная подмена личности как объекта видеоролика [3].

Deepfakes стали известны общественности в 2017 г., когда на Reddit были размещены пользователями видео, в которых знаменитости компрометируются ложными сексуальными ситуациями. Нельзя не обратить внимание на то, что deepfakes трудно обнаружить, поскольку они используют реальные кадры, могут иметь аутентичный звук, а также могут быть оптимизированы для высокоскоростного распространения в социальных сетях и на видеоплатформах в формате онлайн. В результате сочетания разнонаправленных цифровых возможностей большинство зрителей предполагают, что просматриваемое видео является подлинным. Deepfakes нацелены на платформы социальных сетей, где легко распространяются заговоры, слухи и дезинформация, поскольку пользователи склонны «идти с толпой».

Вместе с тем продолжающийся так называемый инфопокалипсис подталкивает людей думать, что они не могут доверять информации, если она исходит не из социальных сетей, которыми они пользуются. К тому же для современного общества характерным является то, что мнение членов семьи, близких друзей или родственников получает меньшую степень доверия, чем социальные сети,

блогеры, видеоплатформы с форматом онлайн [4]. «Дешевые фейки», представляющие собой некачественные ролики с наличием «слегка подделанного» реального контента, распространены во всех сферах современного общества, особенно в сфере цифровых коммуникаций. Данная ситуация обусловлена тем, что при их создании используются недорогое оборудование и доступные цифровые графические технологии обработки видеообъектов. Кроме того, в условиях развития цифровых коммуникационных технологий софт для создания качественных, реалистичных deepfakes в целях дезинформации становится все более доступным как открытый исходный код, что позволяет пользователям с начальными техническими навыками редактировать видео, изменять лица и их выражения, синтезировать речь [5].

Относительно возникновения технологии deepfakes укажем, что это — всецело продукт генеративных состязательных сетей (GAN), когда две искусственные нейронные сети работают вместе, чтобы создать реалистичные СМИ. При возникновении deepfakes используемые искусственные нейронные сети назвали «генератором» и «дискриминатором», обучающими имитировать такой же набор данных, который представлен на изображении, в том числе и видеоданных, и звуковых данных. «Генератор» создает новые имитированные хорошие образцы, а «дискриминатор» работает на определение того, насколько объекты и видео вновь созданных медиа являются настоящими. GAN может просмотреть тысячи фотографий человека и создать новый портрет. В ближайшее время генеративные состязательные сети будут «обучены» при наличии меньшей по объему информации производить «замену» не только лица объекта, но и полностью тела и голоса. Deepfakes обычно требует большого количества изображений для создания реалистичных подделок. Но исследователями уже разработан метод создания поддельного видео с помощью предоставления генеративным состязательным сетям только единичных фотографий (например, селфи [1]).

Результаты и обсуждение

Проведенные исследования показали, что в 2019-2020 гг. количество deepfakes возросло на 84 %, как видно на рисунке 1. Это свидетельствует об экспоненциальном росте их количества.

По заключению экспертов, введение законодательного запрета на создание и распространение deepfakes лишь усугубит проблему. В качестве примера, подтверждающего правомочность данного утверждения, специалисты указывают на Китай, где в 2019 г. поддельные видео объявлены незаконными. Это позволило китайскому правительству отнести любое «неудобное фото или видео» к категории подделок.

В процессе исследования нами поставлены следующие вопросы:

1. Какие существуют преимущества и угрозы применения технологии deepfakes в современных медиа?

2. Насколько российские потребители умеют распознавать технологии deep-fakes в современных СМИ?

3. Из каких медиа аудитория чаще всего получает информацию и по каким критериям определяют ее достоверность?

4. Какие существуют методы борьбы с технологиями deepfakes в современном обществе?

Цель исследования заключается в анализе механизма создания и применения технологии deepfakes, выявлении ее преимуществ и угрозы для современных медиа и общества, анализе восприятия фейковых медиа онлайн-пользователями

84 098

49 051

27 044

14 698

июль 2019 февраль 2020 июнь 2020 декабрь 2020

Рис. 1. Количество deepfakes в 2019-2020 гг., шт. Fig. 1. Number of deepfakes in 2019-2020, pcs.

35 2,5

60

26 25

50

2019, долл. США

I база данных избирателей США I бот для соцсетей

11000 лайков на платформе «Ютуб» (¿еер/аЛев-изображение

18

16

21

12

2019, кол-во запросов, %

база данных избирателей не из США 1000 лайков на платформе «Фейсбук» deepfakes-вvlдeo ПО для создания deepfakes

Рис. 2. Уровень спроса на «нелегальные данные и информационные продукты»

на черном рынке, 2019 г.

Fig. 2. Level of demand for "illegal data and information products" in the black market, 2019

и выработке рекомендаций о методах борьбы с такой технологией. По данным компании TrendMicro, являющейся мировым лидером в решении вопросов о защите корпоративных данных и кибербезопасности, в 2019 г. на «черном рынке» наибольшим спросом пользовались именно технологии deepfakes, о чем свидетельствуют цены на продукты такого рода, как видно на рисунке 2.

Ученые из лаборатории SAND Lab при Чикагском университете, которые проанализировали статистические данные, утверждают, что общие денежные потери мирового бизнеса из-за deepfakes приблизились к отметке $250 млн в 2019 г. В 2018 г. подобные потери составили $176 млн. Напомним, что технология deepfakes впервые воплощена в практику в 2017 г., как показано на рисунке 3.

250

176

2018 2019

Рис. 3. Общие денежные потери мирового бизнеса вследствие использования deepfakes в 2018-2019 гг., млн долл. США Fig. 3. Total monetary loss of global business due to the use of deepfakes in 2018-2019, mln USD

Нельзя отрицать тот факт, что технология deepfakes имеет положительную практику применения во многих отраслях, включая кинематографию, образовательные СМИ и цифровые коммуникации, игры и развлечения, социальные сети, здравоохранение, материаловедение, различные области бизнеса, в том числе моду и электронную коммерцию. Киноиндустрия может извлечь выгоду из технологии deepfakes разными способами. Например, deepfakes-технология в кинематографии позволяет создавать цифровые голоса для актеров, потерявших голос вследствие болезни, или обеспечивает обновление материала фильма вместо его повторной съемки. Кинематографисты, применяя deepfakes, могут воссоздать классические сцены фильмов, создать новые фильмы с участием давно умерших актеров, используя спецэффекты, расширенное редактирование лиц в постпро-дакшене и улучшение любительского видео в профессиональном качестве.

Технология deepfakes позволяет автоматически и качественно производить озвучивание разных по типу видеообъектов на любом языке, что дает возможность аудитории разных стран беспрепятственно смотреть иностранные фильмы и пользоваться иностранными образовательными СМИ. В 2019 г. в рамках информационной кампании о малярии с участием Дэвида Бекхэма решен вопрос языковых барьеров для зрительской аудитории с помощью размещения образовательных объявлений, в которых использованы визуальные технологии и технологии изменения голоса в целях получения функции «многоязычности».

Примером положительного применения технологии deepfakes служит преодоление языковых барьеров на международных видеоконференциях с синхронным переводом речи и одновременным изменением движений лица и рта с целью повышения качества зрительного контакта, получения эффекта участников «говорящих на одном языке». Технология, лежащая в основе deepfakes, позволяет играть в мультиплеерные игры и формировать миры виртуального чата с увеличенным телеприсутствием, создавая естественное звучание и виды «умных цифровых» помощников и цифровых двойников людей, что качественно улучшает человеческие отношения и интерактивное взаимодействие на больших расстояниях.

Технологии deepfakes могут быть применены в социальных и медицинских областях. Deepfakes способны помочь людям справиться с потерей близких путем визуализации умершего в цифровом виде и тем самым потенциально помочь скорбящим людям преодолеть боль потери, постепенно адаптироваться к ситуации. Кроме того, данная технология может в цифровом формате воссоздать конечность инвалида или даже помогать людям с болезнью Альцгеймера.

В условиях глобального развития цифровых технологий исследователи изучают возможность использования GAN для обнаружения аномалии в рентгеновских лучах и их потенциал при создании виртуальных химических молекул для ускорения. Коммерческие мировые компании заинтересованы в потенциале технологии deepfakes применительно к брендам, поскольку она может существенно и качественно изменить электронную коммерцию и рекламу [6].

На современном этапе цифровизации общества выделяют четыре основных типа производителей deepfakes:

1) сообщества любителей дипфейков;

2) политические игроки, такие как иностранные правительства, и различные активисты;

3) недоброжелатели и преступные сообщества, такие как мошенники;

4) законные субъекты, в том числе телевидение, медиакомпании и др.

В целом любители видеоконтента склонны рассматривать ролики и продукты, созданные искусственным интеллектом, в качестве новой формы онлайн-юмора и вклада в развитие таких технологий, как решение интеллектуальной головоломки, а не как способ обмануть или запугать людей. В данном случае зрительской аудиторией будут рассмотрены развлекательные, юмористические, сатири-ко-политические deepfakes. Некоторая часть зрительской аудитории ищет определенную личную выгоду, в частности повышение осведомленности о потенциале deepfakes для получения высокооплачиваемой работы (например, связанной с музыкальными клипами или телешоу). Таким образом, и любители, и законные участники (например, телекомпании) могут сотрудничать друг с другом в процессе использования deepfakes в различных целях.

В то время как «мемоподобные» deepfakes от любителей могут развлечь интернет-пользователей, в процесс применения данной технологии вовлечены и злоумышленники. Различные политические игроки, в том числе политические агитаторы, активисты, террористы, могут использовать deepfakes в кампаниях по дезинформации с целью манипулирования общественным мнением, для подрыва доверия к тому или иному учреждению страны и т. д.

Следовательно, сегодня, кроме положительного применения, deepfakes выступает оружием дезинформации, направленной на вмешательство в выборы, разжигание гражданских беспорядков, национальной розни и других негативных глобальных явлений. К тому же deepfakes все чаще используются мошенниками с целью проведения рыночных и биржевых манипуляций, иных финансовых преступлений. Известны случаи, в которых преступники использовали созданные искусственным интеллектом фальшивые аудиозаписи, чтобы выдать себя за руководителя (например, в разговоре по телефону, обращаясь с просьбой о срочном денежном переводе). В ближайшем будущем будут доступны deepfakes-видеозвонки в преступных целях (в случаях мошенничества, финансовых преступлений и др.), которые станут возможными в режиме реального времени. Так, сегодня технология deepfakes уже может использовать визуальное и звуковое олицетворение руководителей (например, из доступных в случае TED Talk видеороликов на YouTub).

В рамках исследования проведен опрос более 200 специалистов в области PR, маркетинга, рекламы и журналистики. Установлено, что большая часть опрошенных (41 %) получает информацию через онлайн-медиа и на информационных сайтах, вторыми по популярности оказались социальные сети (37 %). Более половины опрошенных респондентов (58 %) доверяют информационному контенту. Около 43 % опрошенных сомневаются в информации, представленной в роликах, они ищут дополнительные факты и первоисточники новостей. Таким образом,

40 35

30

25

20

15

10 0

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рис. 4. Основные признаки недостоверности информационных роликов, по мнению онлайн-аудитории, опрошенной в процессе исследования в 2021 г., %

Fig. 4. Key signs of misleading infomercials, according to the online audience surveyed in 2021, %

среди российских онлайн-пользователей все больше людей начинают задумываться над достоверностью информационного контента.

К вызывающим наибольшее сомнение у онлайн-аудитории, как видно на рисунке 4, относятся ролики со следующими признаками: при отсутствии официального источника, в случае абсурдного заголовка или при сомнительном источнике.

Кроме приведенных выше критериев, сомнение вызывает информация, которая пропагандирует навязывание определенной точки зрения и демонстрирует наличие сомнительных фактов, а также оказывает давление на негативные эмоции и направлена на драматизацию.

Выводы

Анализ практики правовых методов борьбы с негативными эффектами и последствиями deepfakes свидетельствует о том, что сегодня сформировались четыре основных метода:

1) законодательное регулирование;

2) корпоративная политика и добровольные действия коммерческих и некоммерческих организаций, направленные на противодействие негативному deepfakes;

3) цифровое образование и обучение, повышение цифровой грамотности общества;

4) технология обнаружения и предотвращения распространения deepfakes, аутентификация контента.

Законодательство и регулирование — очевидные средства, направленные против негативных deepfakes. В настоящее время deepfakes не всегда рассматривают в гражданском или уголовном законодательстве, хотя эксперты в области мирового права и предложили адаптировать существующие законы в

Отсутствие Абсурдный Сомнительный

официального заголовок источник

источника

противовес клевете, дезинформации, мошенничеству с личными данными или выдаче себя за государственных служащих с помощью фейков. Так, закон штата Вирджиния США против порно из мести недавно законодательно утвердил ответственность за распространение «ложно созданных» изображений и видеозаписей, признав их в качестве правонарушения. Тем не менее динамичное развитие и повышение уровня сложности технологий искусственного интеллекта требуют новых типов законов и нормативно-правовой базы в сфере регулирования практики deepfakes. Например, подделки вызывают тревогу относительно конфиденциальности и авторского права, поскольку визуальные изображения людей на видеороликах deepfakes не являются точными копиями какого-либо существующего материала, и это, скорее, можно трактовать как новые изображения, созданные искусственным интеллектом. Таким образом, регулирующим органам приходится ориентироваться в сложном юридическом ландшафте вокруг законов о свободе слова и собственности, чтобы регулировать использование технологии deepfakes.

Вместе с тем надлежащее правовое решение проблемы распространения негативных deepfakes не должно являться полным запретом на эту технологию. Сегодня фирмы, работающие в социальных сетях, широко пользуются инструментами применения контента, размещаемого пользователями на их сайтах. Одним из вариантов законодательного регулирования может служить отмена юридического иммунитета компаний социальных сетей в отношении контента, который размещают их пользователи, тем самым сделав не только пользователей, но и платформы более ответственными за размещенные материалы. Современное право оказывает, как минимум, недостаточное влияние на «злонамеренных субъектов», таких как террористы, которые могут проводить массовые кампании дезинформации против других государств, национальностей и наций, человеческих ценностей в социальных сетях и на видеоплатформах в формате онлайн.

Корпоративная политика и добровольные действия коммерческих и некоммерческих организаций в процессе противодействия негативному deepfakes могут стать более эффективным инструментом против «фальшивок». Например, политики и руководители топ-менеджмента мировых гигантов бизнеса способны взять на себя обязательство не использовать незаконно цифровые коммуникационные возможности, коммерческие и некоммерческие организации при противодействии негативной deepfakes-тактике в избирательных, информационных, рыночных кампаниях. С точки зрения работы с социальными медиа коммерческим компаниям необходимо обеспечить соблюдение этических норм и отказаться от размещения в верхней части контента видеоматериалов, которые вызывают глобальные разногласия на мировом рынке.

Сегодня немногие социальные сети имеют политику в отношении противодействия негативным deepfakes. Но, на наш взгляд, именно социальные сети должны сотрудничать для предотвращения использования коммерческих и некоммерческих организаций в процессе противодействия негативному deepfakes в качестве оружия для дезинформации, активно внедрять прозрачные, общие политические идеи для блокирования и удаления глубоких подделок. В настоящее время многие компании не удаляют спорный контент, а лишь понижают его рейтинг, чтобы затруднить его поиск, сделав менее заметным в новостных лентах пользователей.

Увеличение количества вражды, фейковых новостей и дезинформации, загрязняющих цифровые платформы, привело к тому, что некоторые компании стали предпринимать более активные действия. В частности, речь идет о приостановке пользовательских аккаунтов и инвестировании в технологии быстрого обнаружения. Например, Facebook* отсекает любой контент, признанный ложным

или вводящим в заблуждение сторонними организациями по проверке фактов, не позволяет размещать рекламу коммерческих и некоммерческих организаций при противодействии негативному deepfakes. Алгоритмы Instagram* не будут рекомендовать людям просматривать контент, отмеченный в качестве ложного организациями по проверке фактов. Среди новостных медиакомпаний Wall Street Journal и Reuters сформировали корпоративные команды, чтобы помогать и обучать своих репортеров выявлять фальшивый контент.

Для создания экологичного медиапространства на основе совершенствования взаимодействия актуальных технологий цифровых СМИ, отвечающих потребностям современного общества, необходимо учитывать следующие моменты:

1. Анализировать технологии создания и применения фейковых новостей, которые угрожают ментальному и физическому здоровью людей, вызывают беспорядки в обществе; особое внимание уделить технологии deepfakes.

2. Выявлять основные типы deepfakes и группы их производителей, анализировать их цели, задачи и области применения для дальнейшей нейтрализации.

3. Продолжить поиск эффективных и полезных для современных медиа и общества путей положительного применения технологий deepfakes.

4. Анализировать онлайн-пользователей цифровых медиа, повышать информационную безопасность цифрового контента.

5. Активно внедрять в цифровые медиа методы борьбы с технологиями deep-fakes, в том числе законодательное регулирование, разработку технологий для обнаружения deepfakes и аутентификации контента, цифровые методы предотвращения распространения deepfakes.

Современное медиапространство характеризуется такими тенденциями, как манипулятивность и своего рода шокирование целевой аудитории; динамичность; разрозненность; мультимедийность; трансформационность; несимметричность; симулятивность; обилие фейков.

Достижения последних лет в сфере информационных технологий обеспечили условия возникновения явления deepfakes, в результате которого создают гиперреалистичные видео с заменой лиц, оставляющих малое количество следов манипуляции, незаметных для пользователей видеоплатформ и социальных сетей. Deepfakes представляют собой продукт приложений искусственного интеллекта, позволяющих объединять, заменять и накладывать друг на друга изображения, видеоклипы для создания фальшивых видеороликов, которые выглядят достоверными.

Негативное влияние deepfakes на современное общество заключается в фабрикации фальшивых видеороликов, которые используются не только для привлечения внимания и мести, а также в суде, в качестве доказательства, в целях политического саботажа, террористической пропаганды, шантажа и др. Технологии создания реалистичных deepfakes активно применяют и в целях дезинформации, что имеет тяжелые социально-политические и экономические последствия.

Кроме того, в ходе проведенного анализа результатов влияния deepfakes на поведение пользователей онлайн-медиа выявлены положительные тенденции реализации исследуемой технологии. Среди них — эффективное решение вопроса языковых барьеров для зрительской аудитории путем обеспечения «одновремен-

* Социальная сеть, продукт компании Meta Platforms Inc., признана экстремистской организацией и запрещена в Российской Федерации (Social media service, part of Meta Platforms Inc., added to the register of extremist organizations and banned in the Russian Federation).

ной многоязычности» контента видеороликов; преодоление языковых барьеров на международных видеоконференциях с синхронным переводом речи и одновременным изменением движений лица и рта с целью повышения качества зрительного контакта и получения эффекта участников, «говорящих на одном языке»; применение в социальных и медицинских областях и др.

В процессе исследования нами разработаны рекомендации по предотвращению негативного влияния технологии deepfakes, которые основаны на активном внедрении в цифровые медиа методов борьбы с указанными технологиями. В числе этих методов — законодательное регулирование, разработка технологий для обнаружения deepfakes, аутентификация контента и цифровые методы недопущения распространения deepfakes.

Список источников

1. Durodolu O. O., Chisita C. T., Dube T. V. Flattening the curve of fake news in the epoch of infodemic: An epistemic challenge // Deep fakes, fake news, and misinformation in online teaching and learning technologies / ed. R. J. Blankenship. Hershey, PA: IGI Global, 2021. P. 143-161. (Advances in Educational Technologies and Instructional Design). DOI: 10.4018/978-1-7998-6474-5.ch007

2. Fetisova G. V., Ilyina I. A., Afanasyeva T. S. Publicity of non-profit projects as an element of sustainable territorial development // Conference: MTSDT 2019 — Modern tools for sustainable development of territories. Special topic: Project management in the regions of Russia. (Velikiy Novgorod, December 4-5, 2019). London: Future Academy, 2019. P. 565-573. (European Proceedings of Social and Behavioural Sciences. Vol. 77). DOI: 10.15405/epsbs.2019.12.05.70

3. Vizoso A., Vaz-Álvarez M., López-García X. Fighting deepfakes: Media and internet giants' converging and diverging strategies against hi-tech misinformation // Media and Communication. 2021. Vol. 9. No. 1. P. 291-300. DOI: 10.17645/mac.v9i1.3494

4. Westerlund M. The emergence of deepfake technology: A review // Technology Innovation Management Review. 2019. Vol. 9. No. 11. P. 39-52. DOI: 10.22215/timreview/1282

5. Барабанщиков В. А., Маринова М. М., Абрамов А. Д. Виртуальная личность тэтчери-зированного лица в статике и динамике // Экспериментальная психология в социальных практиках / отв. ред. В. А. Барабанщиков, В. В. Селиванов. М.: Универсум, 2020. С. 7-16.

6. Юмашева И. А. Массовые медиакоммуникации и их влияние на молодежь // Социология и право. 2021. № 4 (54). C. 24-32. DOI: 10.35854/2219-6242-2021-4-24-32

References

1. Durodolu O.O., Chisita C.T., Dube T.V. Flattening the curve of fake news in the epoch of infodemic: An epistemic challenge. In: Blankenship R.J., ed. Deep fakes, fake news, and misinformation in online teaching and learning technologies. Hershey, PA: IGI Global; 2021:143-161. (Advances in Educational Technologies and Instructional Design). DOI: 10.4018/ 978-1-7998-6474-5.ch007

2. Fetisova G.V., Ilyina I.A., Afanasyeva T.S. Publicity of non-profit projects as an element of sustainable territorial development. In: Modern tools for sustainable development of territories. Special topic: Project management in the regions of Russia (MTSDT 2019). (Velikiy Novgorod, December 4-5, 2019). London: Future Academy; 2019:565-573. (European Proceedings of Social and Behavioural Sciences. Vol. 77). DOI: 10.15405/ epsbs.2019.12.05.70

3. Vizoso A., Vaz-Álvarez M., López-García X. Fighting deepfakes: Media and internet giants' converging and diverging strategies against hi-tech misinformation. Media and Communication. 2021;9(1):291-300. DOI: 10.17645/mac.v9i1.3494

4. Westerlund M. The emergence of deepfake technology: A review. Technology Innovation Management Review. 2019;9(11):39-52. DOI: 10.22215/timreview/1282

5. Barabanshchikov V.A., Marinova M.M., Abramov A.D. Virtual personality of Thatcherized person in statics and dynamics. In: Barabanshchikov V.A., Selivanov V.V., eds. Experimental psychology in social practices. Moscow: Universum; 2020:7-16. (In Russ.).

6. Yumasheva I.A. Mass media communications and their impact on young people. Sotsiologiya ipravo = Sociology and Law. 2021;(4):24-32. (In Russ.). DOI: 10.35854/22196242-2021-4-24-32

Информация об авторах

И. А. Юмашева — кандидат педагогических наук, доцент, доцент кафедры журналистики и медиакоммуникаций; 199178, Санкт-Петербург, Средний пр. В. О., д. 57/43;

Т. С. Афанасьева — кандидат экономических наук, доцент, доцент кафедры экономики и управления социально-экономическими системами; 190103, Санкт-Петербург, Лермонтовский пр., д. 44а;

Г. Д. Алеманова — доктор медицинских наук, доцент, доцент кафедры детских болезней; 460000, Оренбург, Советская ул., д. 6.

Information about the authors

I. A. Yumasheva — PhD in Pedagogy, Associate Professor, Associate Professor at the Department of Journalism and Media Communications; 57/43 Sredniy Ave. V. O., St. Petersburg 199178, Russia;

T. S. Afanasyeva — PhD in Economics, Associate Professor, Associate Professor at the Department of Economics and Management of Social and Economic Sciences; 44A Lermontovskiy Ave., St. Petersburg 190103, Russia;

G. D. Alemanova — Doctor of Medicine, Associate Professor, Associate Professor at the Department of Children's Diseases; 6 Sovetskaya st., Orenburg 460000, Russia.

Конфликт интересов: авторы декларируют отсутствие конфликта интересов, связанных с публикацией данной статьи.

Conflict of interest: the authors declare no conflict of interest related to the publication of this article.

Статья поступила в редакцию 07.04.2023; одобрена после рецензирования 23.05.2023; принята к публикации 10.07.2023.

The article was submitted 07.04.2023; approved after reviewing 23.05.2023; accepted for publication 10.07.2023.

i Надоели баннеры? Вы всегда можете отключить рекламу.