Научная статья на тему 'ПРОБЛЕМЫ ПРОТИВОДЕЙСТВИЯ ИСПОЛЬЗОВАНИЯ ДИПФЕЙКОВ В ПРЕСТУПНЫХ ЦЕЛЯХ'

ПРОБЛЕМЫ ПРОТИВОДЕЙСТВИЯ ИСПОЛЬЗОВАНИЯ ДИПФЕЙКОВ В ПРЕСТУПНЫХ ЦЕЛЯХ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
564
103
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ДИПФЕЙКИ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / КИБЕРПРЕСТУПНОСТЬ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Лемайкина С.В.

В статье проанализированы направления применения дипфейков в различных областях. Акцентировано внимание на том, что использование дипфейков находится на подъеме, и это дает возможность киберпреступникам использовать данные технологии в отношении отдельных людей, организаций и общества в целом. Материалы и методы: из множества примеров противоправного использования технологии дипфейков были отобраны те, ссылки на которые наиболее часто встречаются в различных источниках. На последующих этапах анализировались исследования в области создания и обнаружения подделок, которые получают широкое распространение и будут использоваться в государственном секторе. Далее анализировались существующие исследования в области обнаружения подделок, их достоинства и недостатки. Результаты исследования: проведена классификация дипфейков в зависимости от методов, используемых для их создания. Сформулированы выводы об использовании дипфейков в будущем, а также даны рекомендации в целях решения будущих проблем, связанных с разработкой более сложных инструментов для обнаружения дипфейков. Выводы и заключения: изучение методов противодействия использованию в преступных целях программных продуктов моделирования биометрических данных человека (голоса, фото- и видеоматериалов) требует вкладывания значительных средств в разработку новой технологии проверки для выявления подделок и нарушений в визуальном и аудиоконтенте.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PROBLEMS OF COMBATING THE USE OF DEEPFAKES FOR CRIMINAL PURPOSES

The article analyzes the directions of the use of deepfakes in different areas. Emphasis is placed on the fact that the use of deepfakes is on the rise and it gives an opportunity for cybercriminals to use these technologies against individuals, organizations and society as a whole. aterials and methods: among the many examples of illegal use of deepfake technology were selected those references to which are most frequently found in various sources. In the following steps, research on the creation and detection of deepfakes, which are becoming widespread and will be used in the public sector, was analyzed. Next, the existing research in the field of counterfeit detection, their advantages and disadvantages were analyzed. Results of the research: a classification of deepfakes according to the methods used to create them was made. Conclusions about the use of deepfakes in the future were formulated, and recommendations were given in order to solve future problems related to the development of more sophisticated tools for deepfake detection. Conclusions: the study of methods to counter the use of human biometric data modeling software products (voice, photo and video) for criminal purposes requires significant investment in the development of new verification technology for detecting fakes and violations in visual and audio content.

Текст научной работы на тему «ПРОБЛЕМЫ ПРОТИВОДЕЙСТВИЯ ИСПОЛЬЗОВАНИЯ ДИПФЕЙКОВ В ПРЕСТУПНЫХ ЦЕЛЯХ»

Юристъ-Правоведъ. 2023. № 2(105). С. 143-148. Jurist-Pravoved. 2023. № 2(105). P. 143-148.

Научная статья УДК 004.853

ПРОБЛЕМЫ ПРОТИВОДЕЙСТВИЯ ИСПОЛЬЗОВАНИЯ ДИПФЕЙКОВ В ПРЕСТУПНЫХ ЦЕЛЯХ

Лемайкина Светлана Владимировна

Ростовский юридический институт МВД России, Ростов-на-Дону, Российская Федерация slemaikina2@mvd.ru

Введение: в статье проанализированы направления применения дипфейков в различных областях. Акцентировано внимание на том, что использование дипфейков находится на подъеме, и это дает возможность киберпреступникам использовать данные технологии в отношении отдельных людей, организаций и общества в целом.

Материалы и методы: из множества примеров противоправного использования технологии дипфейков были отобраны те, ссылки на которые наиболее часто встречаются в различных источниках. На последующих этапах анализировались исследования в области создания и обнаружения подделок, которые получают широкое распространение и будут использоваться в государственном секторе.

Далее анализировались существующие исследования в области обнаружения подделок, их достоинства и недостатки.

Результаты исследования: проведена классификация дипфейков в зависимости от методов, используемых для их создания. Сформулированы выводы об использовании дипфейков в будущем, а также даны рекомендации в целях решения будущих проблем, связанных с разработкой более сложных инструментов для обнаружения дипфейков.

Выводы и заключения: изучение методов противодействия использованию в преступных целях программных продуктов моделирования биометрических данных человека (голоса, фото- и видеоматериалов) требует вкладывания значительных средств в разработку новой технологии проверки для выявления подделок и нарушений в визуальном и аудиоконтенте.

Для цитирования: Лемайкина С. В. Проблемы противодействия использования дипфейков в преступных целях / С. В. Лемайкина // Юристъ-Правоведъ : науч.-теоретич. и информац.-методич. журн. Ростов-на-Дону. 2023. № 2(105). - С. 143-148.

Original paper

PROBLEMS OF COMBATING THE USE OF DEEPFAKES FOR CRIMINAL PURPOSES

Lemaikina Svetlana Vladimirovna

Rostov Law Institute of the Ministry of Internal Affairs of Russia, Rostov-on-Don, Russian Federation

Introduction: the article analyzes the directions of the use of deepfakes in different areas. Emphasis is placed on the fact that the use of deepfakes is on the rise and it gives an opportunity for cybercriminals to use these technologies against individuals, organizations and society as a whole.

Materials and methods: among the many examples of illegal use of deepfake technology were selected those references to which are most frequently found in various sources. In the following steps, research on the creation and detection of deepfakes, which are becoming widespread and will be used in the public sector, was analyzed.

Next, the existing research in the field of counterfeit detection, their advantages and disadvantages were analyzed.

Results of the research: a classification of deepfakes according to the methods used to create them was made. Conclusions about the use of deepfakes in the future were formulated, and recommendations were given in order to solve future problems related to the development of more sophisticated tools for deepfake detection.

Conclusions: the study of methods to counter the use of human biometric data modeling software products (voice, photo and video) for criminal purposes requires significant investment in the development of new verification technology for detecting fakes and violations in visual and audio content.

For citation: Lemaikina S. V. Problemy protivodeystviya ispol'zovaniya dipfeykov v prestupnykh tselya-kh [Problems of combating the use of deepfakes for criminal purposes]. Jurist-Pravoved - Lawyer-Jurist. 2023. № 2(105). P. 143-148.

Мы широко используем электронную почту, поисковики в Интернете, знаем, что такое фишинг, спам и другие интернет-мошенничества. Однако возможности перечисленных интернет-мошенничеств - это просто детская забава по сравнению с угрозами, которые создает дипфейк.

Под дипфейками понимаются тексты, изображения, видео и аудиозаписи, которые созданы с помощью алгоритмов искусственного интеллекта (далее - ИИ), для создания реалистичного, но поддельного контента. Дипфейки могут научиться имитировать голос, выражение лица и движения реального человека. Дипфейки можно использовать в безобидных и развлекательных целях, таких как создание мемов или обмен лицами в видео. Благодаря быстрому техническому развитию и более широкому использованию технологий, спровоцированному пандемией COVID-19, а также тому, что при переходе на дистанционный режим работы организации стали в разы больше пользоваться аудио- и видеосвязью, в основном (по открытым каналам) в настоящее время в интернете становится все больше и больше видео- и аудио сэмплов. Таким образом, киберпреступники имеют большой объем данных для создания фотореалистичных симуляций людей, которые затем могут использоваться для воздействия на индивидуумов и манипулирования ими.

Подделки в виде дипфейков могут использоваться для распространения дезинформации или фальшивых новостей, опубликования фото одного человека за кого-то другого, создание фальшивой порнографии. В результате распространение дипфейков, вызывает у людей во всем мире, в том числе и в Российской Федерации, обеспокоенность их влиянием на отдельных людей, организации и общество в целом.

Наиболее известные примеры противоправного использования технологии дипфейков:

- мошеннические аудиозаписи. В 2019 г. генеральный директор британской энергетической компании был обманут на сумму около 243 000 долларов после того, как ему позвонил человек, которого он считал своим начальником. Голос на другом конце телефона был дип-фейком, созданным алгоритмом искусственного интеллекта, который был обучен на записях голоса генерального директора [6];

- политические манипуляции. Дипфейки могут использоваться для манипулирования общественным мнением или вмешательства в выборы. В 2019 г. в социальных сетях было распространено дипфейковое видео спикера Палаты представителей США Нэнси Пелоси. Видео было замедлено, чтобы казалось, что Пелоси невнятно произносит слова и ведет себя так, как будто находится в состоянии опьянения [2].

В России есть несколько ярких примеров криминального использования дипфейков.

Банковское мошенничество: в 2020 г. группа преступников в России использовала технологию дипфейка, чтобы выдать себя за голос сотрудника банка и убедить клиента перевести средства на мошеннический счет. Преступникам удалось создать убедительный голосовой клон сотрудника банка, используя всего несколько минут записанной речи [6].

Дипфейки можно разделить на разные виды в зависимости от методов, используемых для их создания. Наиболее распространенными видами дипфейков являются:

1. Замена лица - дипфейк, при котором лицо одного человека на видео или изображении заменяется лицом другого человека. Обычно это делается с помощью алгоритмов машинного обучения, которые обучаются на больших наборах данных изображений и видео двух людей, участвующих в замене.

Процесс создания смены лица обычно состоит из нескольких шагов. Алгоритм машинного обучения должен быть обучен точно распознавать и извлекать лица двух людей, участвующих в обмене, обучение алгоритма выполняется на больших наборах данных изображений и видео двух людей в различных условиях: освещение объекта, выражениях лица объекта, параметр нахождения и т. д.

После обучения алгоритма его можно использовать для создания нового видео или изображения, в котором лица двух людей меняются местами. Это сопоставление черт лица двух людей с лицами друг друга и смешивание полученных изображений или видео, для создания плавного перехода между ними.

2. Дипфейки с синхронизацией губ - это вид дипфейков, который включает в себя создание видео человека, который, кажется, говорит или произносит слова, которые он на самом деле не говорил. Достигается данный эффект путем манипулирования мимикой и движениями человека на видео с помощью алгоритмов машинного обучения.

Глубокие подделки с синхронизацией губ обычно включают в себя обучение алгоритма машинного обучения на больших наборах данных видео, на которых необходимый человек говорит или произносит различные звуки и слова. Алгоритм учится анализировать движения лица человека, а затем генерирует новое видео, в котором человек говорит или произносит другой набор слов или звуков.

3. Клонирование голоса. Глубокие подделки с клонированием голоса - вид дипфейков, создающий синтетический голос, имитирующий голос конкретного человека. Это достигается путем обучения алгоритма машинного обучения на больших наборах данных аудиозаписей голоса нужного человека.

Процесс создания дипфейка с клонированием голоса также состоит из нескольких этапов: алгоритм машинного обучения должен быть обучен на большом наборе аудиозаписей голоса нужного человека, что включает в себя анализ моделей и характеристик голоса, таких как его тон, высота тона и стиль речи. После обучения алгоритма его можно использовать для создания новых аудиозаписей, имитирующих голос необходимого человека. Это можно сделать, введя текст в алгоритм, который затем будет сгенерирован как речь голосом человека.

4. Кукловод. Класс дипфейков, известных как «марионетка тела», включает в себя манипулирование движениями тела и действиями человека в видео с целью создания впечатления, что он говорит или делает то, чего на самом деле не делал. Это возможно сделать, используя алгоритмы машинного обучения для анализа и воссоздания движений и действий тела необходимого человека, а затем использовать эту информацию для управления видео этого человека.

Создание и использование «кукольных дипфейков» вызывает серьезные этические и юридические проблемы, поскольку их можно использовать для манипулирования общественным мнением и причинения вреда отдельным лицам или группам.

5. Преобразование текста в речь. Глубокие подделки текста в речь используют искусственный интеллект для генерации речи, которая звучит как голос конкретного человека. Они создаются путем обучения алгоритма машинного обучения на большом количестве аудиозаписей речи необходимого человека. Как только алгоритм научился воспроизводить речевые паттерны человека, он может генерировать новые аудиозаписи, которые звучат так, как говорит человек.

Глубокие подделки текста в речь имеют как законные, так и потенциально опасные приложения. Например, их можно использовать, чтобы помочь людям, которые потеряли способность говорить из-за болезни или травмы, путем создания синтетической речи, которая звучит как их естественный голос. Однако их также можно использовать для создания поддельных аудиозаписей человека, говорящего то, чего он никогда не говорил на самом деле. Использование дипфейков, преобразующих текст в речь, вызывает опасения по поводу возможности дезинформации и распространения ложной информации.

Исследования в области создания и обнаружения подделок предполагают, что подделки получат широкое распространение и будут широко использоваться в государственном секторе. Даже самые неумелые пользователи смогут воспользоваться этой технологией, поскольку она становится дешевле и доступнее.

Программные пакеты с открытым исходным кодом, готовые программы для замены приложений, изменяющих лица, таких как FakeApp, могут стать простым средством манипулирования средств массовой информации и это только начало волны инструментов манипулирования в этой сфере. Модели машинного обучения сложно разработать с нуля и обучить их для достижения высокого уровня производительности, но как только они будут созданы, то их легко использовать и распространять [1].

Разработка методов подделки не ограничивается подпольными методами. Такие компании как Adobe начинают распространять программное обеспечение, использующее передовое машинное обучение для обработки изображений и аудио. У платформ есть сильный коммерческий стимул предлагать клиентам эти передовые программы. Коммерциализация инструментов имитации и моделей машинного обучения с открытым исходным кодом, вероятно, приведет к снижению стоимости и сложности этих инструментов, так что менее технически сложные кампании по дезинформации смогут воспользоваться преимуществами имитации [7].

Аудитория все чаще создает дипфейки, которые очень реалистичны. Большая его часть безвредна, но небольшая часть станет попурри и превратится в вирусный контент на социальных платформах. На таких платформах как Twitter и Facebook ложный контент может быстро распространяться ботами и «фермами троллей». Достаточно нескольких гениальных хакеров, чьи взгляды отличаются от политики ведущих партий, чтобы манипулировать будущим целой страны.

Если простое изменение внешнего вида изображения или видео может помочь кампании достичь своих целей и распространить неопределенность при меньших затратах на транзакцию, то это следует сделать. Поскольку инструменты для создания подделок становятся все более доступными, ими, скорее всего, будут пользоваться не только злоумышленники, но и те, кто борется с подделками.

Для борьбы с потенциальной эксплуатацией дипфейков разрабатываются технологии, позволяющие обнаруживать и идентифицировать поддельные дипфейки и информировать общественность о рисках [3].

В то же время существующие исследования в области обнаружения дипфейков свидетельствуют о том, что в ближайшем будущем не будет найдено окончательного решения по использованию машинного обучения для обнаружения дипфейков. Скорее, системы обнаружения должны постоянно обновляться на основе новых приложений и возможностей обучаемых моделей.

Почти все платформы социальных сетей имеют политику, запрещающую использование фальшивых новостей, и находятся под сильным политическим давлением в борьбе с дезинформацией. Эффективное обнаружение фальшивых новостей позволяет компаниям проводить политику, направленную на то, чтобы не допускать фальшивые новости на свои платформы.

Кампании по дезинформации могут решить инвестировать в специализированные модели машинного обучения для создания фальшивых новостей для очень конкретных целей, а не полагаться на существующие инструменты и модели.

Эксперт Forbes, проанализировавший ситуацию с подделкой голоса, считает, что «проверка аккаунта с помощью фотоидентификации и биометрического распознавания голоса, которое фиксирует голосовые следы, имеет смысл» [5]. Голосовая биометрия может использовать технологию защиты от подделок, активируемую голосом. Эта технология используется, например, в банковском секторе. Когда оператор разговаривает с клиентом с помощью голосовой биометрии, система отслеживает голос во время разговора и немедленно предупреждает оператора, если обнаруживает посторонние звуки (такие невидимые для человеческого уха параметры, как высота тона, темп речи, паузы и т. д.).

Конволюционные нейронные сети (один из основных алгоритмов, который способствовал развитию и совершенствованию области компьютерного зрения) обычно используются в алгоритмах для выявления поддельных дубликатов. Эти нейронные сети для работы требуют много времени и ресурсов, поскольку они явно обучают сами изображения. Однако группа исследователей из Института информационной безопасности им. Хорста Гертца в Рурге-бите в Германии решает эту проблему. Институт предлагает простое решение проблемы отслеживания. Эффективность заключается в анализе частот изображений, используя хорошо известную технику дискретного косинусного преобразования изображений. Дискретное косинусное преобразование используется в алгоритме сжатия JPEG. В этом случае изображение можно рассматривать как результат суперпозиции гармонических колебаний одинаковой частоты и полученных различных коэффициентов. Эти коэффициенты располагаются в виде прямоугольной тепловой карты, левый верхний угол которой соответствует низкочастотной области исходного изображения, а нижний правый угол - высокочастотной области.

Фактическое изображение представляет собой в основном низкочастотные вариации в низкочастотной области. Однако если в высокочастотной области имеется заметный пик, это указывает на то, что изображение является ложным. Чтобы проверить эффективность предложенного метода, ученые создали тестовую выборку из 10 000 изображений, включая портреты, созданных нейронной сетью StyleGAN на основе несуществующих лиц и реальные фотографии с сайта Flickr - Face-HQ (FFHQ), whichfaceisreal.com [4].

Алгоритм смог распознать оба портрета, а также смог с высокой вероятностью определить, какая нейронная сеть была использована для создания изображений. Это объясняется тем, что каждая из нейронных сетей имеет свой собственный «след» в частотном диапазоне. Кроме того, Корейский передовой институт науки и технологий (KAIST) запустил программное обеспечение, использующее ИИ. Программное обеспечение, которое обнаруживает подделку фотографий «Kaicatch». Данное программное обеспечение было разработано для обнаружения подделок на фотографиях.

Программа может обнаруживать искусственные изменения в изображениях и видео, невидимые для человеческого глаза. «Kaicatch» может одновременно обнаруживать несколько различных механизмов машинного обучения для точной идентификации фотографии и видео и то, как ими манипулировали [4].

Исследователи из Университета штата Нью-Йорк в Буффало обнаружили эффективный способ отличить изображения с дипфейком от оригинального изображения. В этом решении используется отражение человеческого глаза [4].

Центр безопасности и новых технологий (CSET) при Школе дипломатичнской службы Джорджтаунского университета составил подробный отчет о дипфейках в июле 2020 года. В отчете были сделаны два вывода. Первый вывод заключается в том, что эксплуатация грубых поделок в виде дипфейков будет в конечном итоге проще, по мере того, как технология станет более практичной. Второй вывод о том, что продвинутые дипфейки будут представлять собой угрозу [5].

В документе даны четыре рекомендации:

- создать базу данных дипфейков. Обнаружение подделок зависит от получения синтетических медиа (медиа, которые не являются подлинными записями из реального мира, а были изменены с помощью различных технологий). Все кампании должны инвестироваться в базу данных дипфейков, дополненную синтетическими медиа с доступом в режиме онлайн;

- использовать возможности мониторинга по литературе, описывающей машинное обучение. Литература по машинному обучению показывает, как учреждения могут использовать дипфейки для распространения информации. Однако могут возникнуть препятствия по изучению данного факта, т. к. существуют неодинаковые методы документирования машинного обучения;

- государственные учреждения и благотворительные организации должны распределять гранты для поддержки исследований, направленных на выявление дипфейков;

- распространение «маркированных» (идентифицируемых) данных. Наборы данных могут быть помечены. Это может привести к значительной экономии средств для обнаружения подделок и заставит более изощренных распространителей дезинформации в виде дипфей-ков вкладывать дополнительные ресурсы и использовать свои наборы данных, чтобы избежать обнаружения.

В целях решения будущих проблем, связанных с разработкой более сложных инструментов для обнаружения дипфейков, правоохранительным органам рекомендуется разработать более совершенные средства обнаружения подделанного видео и аудиоконтента следующего поколения. Необходимо не только вкладывать значительные средства в разработку новой технологии проверки для выявления подделок и нарушений в визуальном и аудиоконтенте, но и обеспечить, обновление таких инструментов, чтобы отражать развивающиеся технологии создания подделок, включая текущее и возможное злонамеренное злоупотребление такой технологией в будущем.

СПИСОК ИСТОЧНИКОВ

1. 6 лучших Deepfake приложений и инструментов. URL: new-science.ru/6-luchshih-deep-fake-prilozhenij-i-instrumentov-v-2020-godu/ (дата обращения: 10.03.2023).

2. Facebook оправдывается за «пьяное» видео спикера конгресса США. URL: https:// www.gazeta.ru/tech/news/2019/05/25/n_13014859.shtml/ (дата обращения: 10.03.2023).

3. Вам звонит Том Круз: как разоблачить дипфейк во время видеозвонка. URL: https:// habr.com/ru/company/first/blog/719068/ (дата обращения: 10.03.2023).

4. «Глубокие подделки» признаны самой серьезной угрозой преступности с использованием ИИ. URL: https://www.ucl.ac.uk/news/2020/aug/deepfakes-ranked-most-serious-ai-crime-threat/ (дата обращения: 10.03.2023).

5. Криминальная жизнь дипфейков. URL: https://zavtra.ru/blogs/kriminal_naya_zhizn_dipfejkov/ (дата обращения: 10.03.2023).

6. Мошенник подделал голос CEO и украл $243 тыс. при помощи технологии «deepfake». URL: https://incrussia.ru/news/deepfake-moshennik-ukral-243-tys/ (дата обращения: 10.03.2023).

7. Фальшивое будущее: как Adobe готовится к эпидемии дипфейков. URL:https:// www.forbes.ru/tekhnologii/470327-fal-sivoe-budusee-kak-adobe-gotovitsa-k-epidemii-dipfejkov/ (дата обращения: 10.03.2023).

REFERENCES

1. 6 best Deepfake applications and tools. URL: new-science.ru/6-luchshih-deepfake-prilozhenij-i-instrumentov-v-2020-godu/ (date of access 10.03.2023).

2. Facebook excuses itself for «drunken» video of the speaker of the US Congress. URL: https:// www.gazeta.ru/tech/news/2019/05/25/n_13014859.shtml/ (date of access 10.03.2023).

3. Tom Cruise calling you: how to expose deepfake during a video call. URL: https://habr.com/ru/ company/first/blog/719068/ (date of access 10.03.2023).

4. «Deep Fakes» recognized as the most serious threat to AI crime. URL: https://www.ucl.ac.uk/news/ 2020/aug/deepfakes-ranked-most-serious-ai-crime-threat/ (date of access 10.03.2023).

5. The criminal life of deepfakes. URL: https://zavtra.ru/blogs/kriminal_naya_zhizn_dipfejkov/ (date of access 10.03.2023).

6. Fraudster forged CEO voice and stole $243 thousand with the help of «deepfake» technology. URL: https://incrussia.ru/news/deepfake-moshennik-ukral-243-tys/ (date of access 10.03.2023).

7. Fake future: how Adobe prepares for dipfake epidemic. URL:https://www.forbes.ru/tekhnologii/ 470327-fal-sivoe-budusee-kak-adobe-gotovitsa-k-epidemii-dipfejkov/ (date of access 10.03.2023).

ИНФОРМАЦИЯ ОБ АВТОРЕ

Лемайкина Светлана Владимировна, начальник кафедры информационного обеспечения органов внутренних дел. Ростовский юридический институт МВД России. 344015, Российская Федерация, г. Ростов-на-Дону, ул. Еременко, 83.

INFORMATION ABOUT THE AUTHOR

Lemaikina Svetlana Vladimirovna, Head of the Department of Information Support of Internal Affairs Bodies. Rostov Law Institute of the Ministry of Internal Affairs of Russia. 83, Eremenko St., Rostov-on-Don 344015 Russian Federation.

i Надоели баннеры? Вы всегда можете отключить рекламу.