Научная статья на тему 'Применение закона Бенфорда в обнаружении deepfake-изображений'

Применение закона Бенфорда в обнаружении deepfake-изображений Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
132
29
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
AI-синтезированное изображение / закон Бенфорда / энтропия / дивергенции Кульбака–Лейблера / метод Random Forest / AI-synthesized image / Benford's law / entropy / Kullback-Leibler divergences / Random Forest method

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Светлана Павловна Никитенкова

Разработка и совершенствование технологий обнаружения deepfake являются одним из при-оритетных направлений обеспечения социальной и биометрической безопасности. В работе исследуются перспективы применения закона Бенфорда как инструмента обнаружения deepfake-изображений, сгенериро-ванных нейросетями GAN. Предлагаемый подход основан на анализе спектра мощности и энтропии изобра-жений. Эффективность предложенного метода апробировалась на датасетах, сгенерированных нейросетями StyleGAN2 и StyleGAN3. Предложенный метод не требует больших вычислительных мощностей.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Светлана Павловна Никитенкова

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Application of Benford's Law in Deepfake Image Detection

The development and improvement of deepfake detection technologies is one of the priority areas for ensuring social and biometric security. The main goal of the work is to test the application of the well-known Benford's law as a detection tool for images generated by GAN. The proposed approach is based on the analysis of power spectrum and Shannon entropy of image. The effectiveness of the proposed method was tested on datasets generated by StyleGAN2 and StyleGAN3 neural networks. The proposed method does not require large computing power.

Текст научной работы на тему «Применение закона Бенфорда в обнаружении deepfake-изображений»

ВЕСТНИК ТОМСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА

2023 Управление, вычислительная техника и информатика № 64

Tomsk: State University Journal of Control and Computer Science

Научная статья

УДК 004.032.26, 004.932.2

doi: 10.17223/19988605/64/13

Применение закона Бенфорда в обнаружении deepfake-изображений

Светлана Павловна Никитенкова

Нижегородский государственный университет им. Н.И. Лобачевского, [email protected]

Аннотация. Разработка и совершенствование технологий обнаружения deepfake являются одним из приоритетных направлений обеспечения социальной и биометрической безопасности. В работе исследуются перспективы применения закона Бенфорда как инструмента обнаружения deepfake-изображений, сгенерированных нейросетями GAN. Предлагаемый подход основан на анализе спектра мощности и энтропии изображений. Эффективность предложенного метода апробировалась на датасетах, сгенерированных нейросетями StyleGAN2 и StyleGAN3. Предложенный метод не требует больших вычислительных мощностей.

Ключевые слова: AI-синтезированное изображение; закон Бенфорда; энтропия; дивергенции Кульбака-Лейблера; метод Random Forest.

Для цитирования: Никитенкова С.П. Применение закона Бенфорда в обнаружении deepfake-изображений // Вестник Томского государственного университета. Управление, вычислительная техника и информатика. 2023. № 64. С. 128-137. doi: 10.17223/19988605/64/13

Original article

doi: 10.17223/19988605/64/13

Application of Benford's Law in Deepfake Image Detection Svetlana P. Nikitenkova

Lobachevsky State University of Nizhny Novgorod, Nizhny Novgorod, Russia, [email protected]

Abstract. The development and improvement of deepfake detection technologies is one of the priority areas for ensuring social and biometric security. The main goal of the work is to test the application of the well-known Benford's law as a detection tool for images generated by GAN. The proposed approach is based on the analysis of power spectrum and Shannon entropy of image. The effectiveness of the proposed method was tested on datasets generated by StyleGAN2 and StyleGAN3 neural networks. The proposed method does not require large computing power.

Keywords: AI-synthesized image; Benford's law; entropy; Kullback-Leibler divergences; Random Forest method.

For citation: Nikitenkova, S.P. (2023) Application of Benford's Law in Deepfake Image Detection. Vestnik Tomskogo gosudarstvennogo universiteta. Upravlenie, vychislitelnaja tehnika i informatika - Tomsk State University Journal of Control and Computer Science. 64. pp. 128-137. doi: 10.17223/19988605/64/13

Введение

Прогресс нейросетей GAN (Generative Adversarial Network) позволил значительно улучшить качество синтетических изображений, или дипфейков. С одной стороны, это может использоваться в таких областях, как реклама, кинопроизводство, видеоигры и т.д. С другой стороны, дипфейки представляют собой серьезную угрозу для общества, политической системы и бизнеса. Миллионы сгенерированных цифровых изображений загружаются каждый день в Интернет, распространяясь

© С.П. Никитенкова, 2023

в социальных сетях, размывая границы между фактами и вымыслом. Большинство сфабрикованных новостей содержит поддельные изображения, создавая в обществе путаницу в отношении того, какие источники информации являются надежными, бросая вызов восприятию реальности [1]. Изображения искусственно сгенерированных лиц способны обмануть даже самых опытных наблюдателей и, главное, вызвать симпатию и большее доверие, чем настоящие лица [2]. Высоко реалистичные портреты фальшивых людей используются в качестве визуально убедительного инструмента для облегчения схем мошенничества и кампаний по дезинформации с потенциально катастрофическими последствиями: от репутационных рисков для знаменитостей и частных лиц до проблем социальной стабильности и национальной безопасности [3].

Закон Бенфорда широко используется в мультимедийной криминалистике для обнаружения фальсификации изображений. Как оказалось, интенсивность света на реальных изображениях при определенных ограничениях точно подчиняется закону Бенфорда, что позволяет обнаружить применение фильтров и ретушь изображений [4]. Закон Бенфорда использовался для обнаружения усиления контраста и сокрытия артефактов, возникающих в результате операции повышения контрастности [5].

Соответствие закону Бенфорда квантованных коэффициентов дискретного косинусного преобразования (DCT) изображений, сжатых в формате JPEG, неоднократно демонстрировалось как мощный инструмент для обнаружения манипуляций с изображениями, в том числе в качестве индикатора морфинга изображения лица [6]. Несоответствие закону Бенфорда распределения первых цифр квантованных коэффициентов DCT, присутствующих в файлах JPEG, использовалось в стегоанализе изображений для обнаружения скрытых сообщений [7] и изображений с двойным сжатием, для локализации несанкционированного доступа и идентификации устройства-источника [8, 9].

Исследования применения закона Бенфорда к обнаружению сгенерированных изображений пока единичны. Соответствие закону Бенфорда квантованных коэффициентов DCT использовалось в работе [10] для обнаружения изображений, сгенерированных нейросетью GAN и имеющих формат JPEG. Предложенные сценарии обнаружения базировались на знании фактора качества JPEG и типа содержимого изображения, обучении системы на изображениях, сжатых в формате JPEG.

В работе представлен новый метод обнаружения сгенерированных изображений, основанный на анализе спектра мощности и энтропии изображений в сочетании с распределением Бенфорда.

1. Закон Бенфорда

Закон Бенфорда [11], также известный как закон первой цифры, или закон значащей цифры, является эмпирическим законом. Справедливость закона Бенфорда была продемонстрирована и подтверждена в различных областях. Примерами являются распределение результатов выборов [12], суммарная длительность нот в классических музыкальных произведениях [13], фальсификация научных данных [14], данные заболеваемости и смертности от коронавирусной инфекции [15] и т.д.

123456789 First Significant Digit

Рис. 1. Распределение Бенфорда Fig. 1. Benford distribution

Впервые закон был обнаружен Ньюкомбом в 1881 г. [16] и переоткрыт Бенфордом в 1938 г. [17]. Статистическое объяснение этого закона предложено Хиллом в [18]. В нем говорится, что распределение вероятностей первых цифр х (х = 1, 2, ..., 9) в наборе натуральных чисел является логарифмическим. В частности, если набор данных удовлетворяет закону Бенфорда, его значащие цифры будут иметь следующее распределение:

P (d ) = log,

/

i+1

где ё = 1, 2, ..., 9. График распределения представлен на рис. 1.

2. Информационная энтропия изображения

Энтропия Шеннона успешно использовалась в оценке качества изображения. Также было показано, что различные типы искажений - 1РБО-сжатие, шум, размытие и т.д. - по-разному влияют на пространственную энтропию [19].

Согласно теории энтропии Шеннона [20], энтропию изображения можно определить следующим образом. Пусть 1(х,у) - уровень выбранного канала изображения или уровень серого на изображении, где х = 1, 2, ... М, у = 1, 2, ..., N (М х N - размер изображения). Уровень 1(х,у) е {0, 1, ..., Ь - 1}, где Ь = 2е и в - глубина изображения в пикселях (256, 65 536 и т.д.). Пусть число пикселей определенного уровня к равно пк. Тогда энтропия изображения равна

ь-1

Е = -Х Рк 10§2 (Рк ) > (1)

к=0

где рк = пк /(М х N - нормированная вероятность появления каждого уровня выбранного канала изображения, который можно вычислить по гистограмме изображения.

Энтропия минимальна в однородных областях изображения и максимальна в областях, содержащих широкое распределение значений пикселей.

3. Спектральный анализ

Методы, основанные на спектральном анализе, нашли широкое применение в анализе и обработке изображений. Изображение обычно трактуется как двумерный сигнал, заданный на плоскости. Спектральные свойства изображения можно проанализировать с помощью дискретного преобразования Фурье. Для дискретного двумерного сигнала / (х, у), представляющего отдельные цветовые каналы изображения размера М х N, дискретное преобразование Фурье F(kx, ку) определяется как

F ( кx' К ):

1

MN

M -1 N-1

-Щ/(x

> У) exP

x=0 y = 0

-i2%

f Kx kyy ^

M

y-

N

(2)

JJ

где х, у - позиция пикселя, /(х, у) - значение пикселя выбранного канала изображения, кх, ку - пространственная частота. Значение F(kx, ку) комплексное. Используя формулу Эйлера, F(kx, ку) можно представить как

F(kx, ky) =

F ( kx , ky ) eXp (/ф( kx , ky )) ,

(3)

где |F(kx, ку)| - амплитуда, ф(кх, ку) - фаза. Амплитуда изображения характеризует интенсивность различных частот в изображении и, таким образом, содержит информацию о геометрической структуре изображения в пространственной области. Фаза несет топологическую информацию о границах на изображении.

Спектр мощности изображения является важной статистической характеристикой изображения и определяется как

Р (кх, ку ) = (кх, ку )|2. (4)

После применения преобразования Фурье к изображению информация представлена в новой области, но по-прежнему содержит 2D-информацию. Размерность может быть уменьшена без существенной потери информации путем азимутального усреднения:

1 2п

P (г Г) = — J P (r, еу е,

(5)

где

kl + к 2

4 (М 2 + N2)

, е = atan2(kx,ку).

Азимутальное усреднение спектра мощности позволяет преобразовать двумерное представление в одномерное. Азимутальное усреднение можно рассматривать как сжатие и усреднение схожих частотных компонент. На рис. 2 показаны графики нормализованного азимутально-усредненного спектра мощности реального изображения и изображений, сгенерированных нейросетями StyleGAN2 и StyleGAN3. Изображения взяты из датасетов [21-23].

Рис. 2. Нормализованный азимутально-усредненный спектр мощности реального изображения и изображений,

сгенерированных StyleGAN2 и StyleGAN3 Fig. 2. Normalized azimuth-averaged power spectrum of the real image and images generated by StyleGAN2 and StyleGAN3

r

4. Генеративно-состязательные сети StyleGAN2 и StyleGAN3

Deepfake-изображения чаще всего создаются с помощью методов, основанных на так называемых генеративно-состязательных сетях, или GAN (Generative Adversarial Network) [24]. Впервые представленные в 2014 г., сети GAN завоевали популярность благодаря своей способности создавать фотореалистичные изображения с нуля. Технология StyleGAN (Style Generative Adversarial Network) является расширением архитектуры GAN. Сети StyleGAN обеспечивают генерацию изображений на основе стилей, что позволяет контролировать синтез генерируемых изображений. Первый вариант технологии StyleGAN был опубликован в 2019 г. [25]. Сгенерированные StyleGAN лица содержали очевидные артефакты, в том числе артефакты, напоминающие капли воды (water droplets artifact). В 2020 г. была предложена технология StyleGAN2, позволившая добиться значительного улучшения качества изображений [26]. На основе StyleGAN2 появились многочисленные онлайн сервисы-генераторы, например известный person does not exist. В 2022 г. в официальной релиз Adobe Photoshop включены новые функции, называемые нейронными фильтрами, на основе технологии NVIDIA StyleGAN2.

При анимировании изображений сетями StyleGAN2 было обнаружено, что часть мелких деталей кажется зафиксированной. Этот дефект получил название texture sticking - «залипание текстур». Эффект связан с тем, что при генерации сети GAN усиливают алиасинг. Алиасинг - это эффект пере-

крытия частотных составляющих, возникающий из-за недостаточно большой частоты дискретизации. Алиасинг вызывает появление в амплитудно-частотном спектре частот, которых нет в исходном сигнале. Усиление алиасинга относится ко всем фильтрам, обычно используемым в глубоком обучении, и даже к высококачественным фильтрам, используемым при обработке изображений. В октябре 2021 г. компанией NVIDIA была опубликована архитектура StyleGAN3 (alias-free), главной целью которой стала адаптация технологии StyleGAN для применения в анимации и видео [27]. В StyleGAN3 для подавления артефактов алиасинга после слоя повышающей дискретизации применяется фильтр нижних частот. Эксперименты показали: это приводит к значительному падению производительности и замедляет процесс обучения. Таким образом, архитектура StyleGAN2 пока остается наиболее используемой для генерации изображений.

5. Вычислительный эксперимент

Все вышесказанное мотивирует проанализировать спектр мощности сгенерированных нейросе-тями 81у1еОА№ и 81у1еОА№ изображений на соответствие распределению Бенфорда.

Рисунок 3 иллюстрирует общую архитектуру предлагаемого метода в контексте обнаружения сгенерированных цифровых изображений. Он содержит два основных блока: блок извлечения признаков и обучающий блок, в котором классификатор использует признаки, чтобы определить, настоящее изображение или сгенерированное.

Рис 3. Общая архитектура метода на основе закона Бенфорда Fig 3. General architecture of the method based on Benford's law

Входное изображение преобразуется в оттенки серого перед процедурой дискретного фурье-преобразования (DFT), вычисляемого по формуле (2). Далее вычисляется спектр мощности (Power Spectrum) изображения по формуле (4). Потом выполняется азимутальное усреднение (Azimuthally Averaged) спектра мощности по формуле (5). Энтропия изображения вычисляется по формуле (1). Близость значений азимутально-усредненного спектра мощности к закону Бенфорда оценивается с помощью дивергенции Кульбака-Лейблера, называемой также относительной энтропией, или величиной информационной расходимости [28].

Дивергенция Кульбака-Лейблера определяется как

N

dkl (p\\q ) = Z Piln

грл

(6)

В (6) q - распределение значений азимутально-усредненного спектр мощности, p - распределение (закон Бенфорда), с которым сопоставляется распределение q.

Дивергенция Кульбака-Лейблера интуитивно измеряет, насколько данное произвольное распределение отличается от истинного распределения. Если два распределения идеально совпадают, значение DKi(p\\q) = 0, в противном случае оно может принимать значения от 0 до да.

Чтобы проверить применимость предложенного метода, было сформировано два датасета из произвольно выбранных изображений. Первый датасет состоит из ста изображений реальных лиц в разрешении 1 024 * 1 024 пикселя из набора Flickr-Faces-HQ Dataset (FFHQ) и ста изображений в том же разрешении, сгенерированных StyleGAN2, из набора изображений, предоставленных компанией NVIDIA. Изображения доступны для загрузки с ресурсов [21, 22]. Второй датасет состоит из ста изображений реальных лиц в разрешении 1 024 * 1 024 пикселя из набора данных Flickr-Faces-HQ

i=1

Dataset (FFHQ) и ста изображений в том же разрешении, сгенерированных StyleGAN3. Изображения доступны для загрузки с ресурсов [21, 23]. Назовем первый датасет FFHQ-StyleGAN2, второй -FFHQ-StyleGAN3. Все изображения в датасетах - изображения с близкими портретными кадрами. Как известно, генерация таких изображений удается нейросетям наилучшим образом.

Разность между значениями азимутально-усредненного спектра мощности и закона Бенфорда каждого изображения рассматривалась как вероятностное распределение и характеризовалась дисперсией. Таким образом, каждое изображение характеризовалось 3-мерным вектором признаков: значением дивергенции Кульбака-Лейблера, значением энтропии и значением дисперсии. Полученный вектор признаков подавался на вход классификатора. Было апробировано несколько классификаторов, но наибольшую эффективность продемонстрировал классификатор RandomForest [29]. 70% изображений рассматривалось в качестве обучающего набора датасета, 30% - в качестве теста.

Чтобы проверить, являются ли энтропия и значения дивергенции Кульбака-Лейблера параметрами, по которым можно различить реальные и сгенерированные изображения, нормализованные значения энтропии Шеннона и значения дивергенции Кульбака-Лейблера были визуализированы на диаграмме рассеяния (рис. 4).

1.0

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0.9

0.8

0.7

0.6

°-äoo

StyleGAN2

а *•• .О • ¡¿Ау, . : % • Real • Fake

• • • • ■ %»•• /к W

» 4 • • • • •

• • • •

0.02

0.04 0.06 0.08 0.10

Kullback-Leibler Divergence

0.12 0.14

1.0

0.9

0.8

0.7

0.00 0.02

StyleGAN3

• _ • «Ks»« • те. • • » • Real • Fake

С • мм . Я ф • • л • •

•• " < • •

• •

0.04 0.06 0.08 0.10 0.12

Kullback-Leibler Divergence

0.14

Рис. 4. Двумерный срез (нормализованные значения энтропии Шеннона и значения дивергенции Кульбака-Лейблера) реальных и сгенерированных изображений для датасетов FFHQ-StyleGAN2 (слева) и FFHQ-StyleGAN3 (справа)

Fig. 4. 2D slice (normalized Shannon entropy and Kullback-Leibler divergence values) of real and generated images for FFHQ-StyleGAN2 (left) and FFHQ-StyleGAN3 (right) datasets

Рисунок 4 показывает, что реальные и сгенерированные StyleGAN2 изображения могут быть разделены, хотя в центральной части графика все же есть явные перекрытия, в то время как реальные и сгенерированные StyleGAN3 изображения практически неразделимы.

На основании полученных данных была проведена процедура кластеризации для обнаружения сгенерированных изображений. Результаты этой процедуры можно увидеть в табл. 1. Сгенерированные StyleGAN2 изображения определялись с точностью выше 85% по метрике F1-score [30]. Это превосходит результаты классификатора, базирующегося на соответствии закону Бенфорда квантованных коэффициентов DCT на том же наборе данных, точность которого заявлена авторами как 72,63% [10]. Точность предлагаемого метода, несмотря на его простоту, выше или сравнима с результатами некоторых других классификаторов, таких как Spec (основан на частотном анализе), PatchForensics (основан на анализе локальных артефактов изображений; см. обзор [31]).

Таблица 1

Метрики качества классификации датасетов

Precision Recall F1-Score

Датасет FFHQ-StyleGAN2 0,87 0,85 0,857

Датасет FFHQ-StyleGAN3 0,59 0,59 0,596

Сгенерированные StyleGAN3 изображения определялись с точностью до ~ 60%. Опубликованные исследования применения закона Бенфорда к обнаружению изображений, сгенерированных

StyleGAN3, в настоящее время отсутствуют. Детекторы Spec, PatchForensics демонстрируют аналогичную недостаточно высокую точность (см. обзор [31]).

Чтобы проверить, было распределение значений азимутально-усредненного спектра мощности изображения и значений, полученных по закону Бенфорда, равным или нет, был рассчитан критерий согласия, основанный на критерии Крамера-Мизеса (Cramér-von Mises), где статистика теста измеряет расстояние между наблюдаемыми и ожидаемыми в соответствии с законом Бенфорда значениями. Согласно [32, 33] критерий Крамера-Мизеса рассчитывался как

1 9

^ = 1X ( $ - Т )2 ^, (7)

/ /

где S= X4i и Т = XPj обозначают совокупные наблюдаемые и ожидаемые величины. Величина ti

j=i j j=i j

определяется как ti = (p + pi+i)/2 (i = 0, 1, ..., 8) и tg = (p9 + pi)/2.

Были рассмотрены те же датасеты FFHQ, StyleGAN2, StyleGAN3, каждый из N = 100 изображений [21-23]. Для каждого изображения была выдвинута гипотеза: подчиняется ли случайная величина значений азимутально-усредненного спектра мощности изображения распределению Бенфорда (нулевая гипотеза) или нет. Количество случаев, когда нулевая гипотеза верна, для каждого датасета представлено в табл. 2.

Таблица 2

Проверка гипотез: тест Крамера-Мизеса для N = 100 изображений

Число изображений (нулевая гипотеза верна)

а = 0,1 а = 0,05 а = 0,01

Датасет FFHQ 19 58 35

Датасет StyleGAN2 59 36 11

Датасет StyleGAN3 11 51 24

Результаты показывают, что изображения, сгенерированные StyleGAN2, часто не соответствуют закону Бенфорда, на этом основании их можно отличить от реальных изображений. Однако изображения, сгенерированные StyleGAN3, имеют практически тот же процент соответствия, что и реальные изображения на исследуемых датасетах.

Заключение

Поддельный цифровой мультимедийный контент все чаще используется для совершения ки-берпреступлений, разжигания социальных волнений и подрыва политических систем. И если раньше создать подделку было достаточно сложно, то в настоящее время программы для генерации изображений стали доступны обычным пользователям. В связи с этим особую актуальность приобретает разработка простых и доступных методов обнаружения deepfake-изображений.

В работе исследовалась возможность применения известного закона Бенфорда как инструмента обнаружения изображений, сгенерированных GAN. Был предложен вектор признаков, основанный на законе Бенфорда. Предложенный алгоритм имеет простую реализацию. Были проведены эксперименты на основе простого классификатора Random Forest. Рассматривались датасеты, сгенерированные нейросетями StyleGAN2 и StyleGAN3. Результаты экспериментов показали, что на основании предложенных характеристик можно отличить реальные изображения от сгенерированных нейросетью StyleGAN2 с достоверностью выше 85%. Изображения, сгенерированные StyleGAN3, труднее обнаружить предложенным способом, что мотивирует дальнейшие исследования по данной теме.

Список источников

1. Facing reality? Law enforcement and the challenge of deepfakes : an observatory report from the Europol Innovation Lab / Europol.

Luxembourg : Publications Office of the European Union, 2022. 22 р. URL: https://www.europol.europa.eu/cms/sites/default/

files/documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf (accessed: 22.03.2023).

2. Nightingale S., Farid H. Synthetic Faces Are More Trustworthy Than Real Faces // Journal of Vision. 2022. V. 22, № 14. Art. 3068.

3. Carlini N., Farid H. Evading deepfake-image detectors with white-and black-box attacks // Proc. of the IEEE/CVF Conference on

Computer Vision and Pattern Recognition Workshops. 2020. P. 658-659.

4. Acebo E., Sbert M. Benford's law for natural and synthetic images // Proc. of the First Eurographics Conference on Computational

Aesthetics in Graphics, Visualization and Imaging. 2005. P. 169-176.

5. Moin S.S., Islam S. Benford's law for detecting contrast enhancement // 2017 Fourth International Conference on Image Infor-

mation Processing (ICIIP). IEEE, 2017. P. 1-4.

6. Makrushin A. et al. Generalized Benford's law for blind detection of morphed face images // Proc. of the 6th ACM Workshop on

Information Hiding and Multimedia Security. 2018. P. 49-54.

7. Pevny T., Fridrich J. Detection of double-compression in jpeg images for applications in steganography // IEEE Transactions on

Information Forensics and Security. 2008. V. 3, № 2. P. 247-258.

8. Milani S., Tagliasacchi M., Tubaro S. Discriminating multiple JPEG compressions using first digit features // APSIPA Transac-

tions on Signal and Information Processing. 2014. V. 3. Art. e19.

9. Al-Bandawi H., Deng G. Classification of image distortion based on the generalized Benford's law // Multimedia Tools and

Applications. 2019. V. 78. P. 25611-25628.

10. Bonettini N. et al. On the use of Benford's law to detect GAN-generated images // 2020 25th International Conference on Pattern Recognition (ICPR). IEEE, 2021. P. 5495-5502.

11. Nigrini M.J. Benford's Law: Applications for forensic accounting, auditing, and fraud detection. John Wiley & Sons, 2012. 586 p.

12. Deckert J., Myagkov M., Ordeshook P.C. Benford's Law and the detection of election fraud // Political Analysis. 2011. V. 19, № 3. P. 245-268.

13. Khosravani A., Rasinariu C. Emergence of Benford's Law in Music // arXiv preprint arXiv:1805.06506. 2018.

14. Diekmann A. Not the first digit! using benford's law to detect fraudulent scientific data // Journal of Applied Statistics. 2007. V. 34, № 3. P. 321-329.

15. Koch C., Okamura K. Benford's law and COVID-19 reporting // Economics Letters. 2020. V. 196. Art. 109573.

16. Newcomb S. Note on the frequency of use of the different digits in natural numbers // American Journal of Mathematics. 1881. V. 4, № 1. P. 39-40.

17. Benford F. The law of anomalous numbers // Proceedings of the American Philosophical Society. 1938. V. 78, № 4. P. 551-572.

18. Hill T.P. A statistical derivation of the significant-digit law // Statistical Science. 1995. V. 10, № 4. P. 354-363.

19. Liu L. et al. No-reference image quality assessment based on spatial and spectral entropies // Signal Proc.: Image Communication. 2014. V. 29, № 8. P. 856-863.

20. Shannon C.E. A mathematical theory of communication // The Bell System Technical Journal. 1948. V. 27, № 3. С. 379-423.

21. GitHub - NVlabs/FFHQ-dataset. URL: https://github.com/NVlabs/ffhq-dataset (accessed: 22.03.2023).

22. GitHub - NVlabs/StyleGAN2-dataset. URL: https://github.com/NVlabs/stylegan2 (accessed: 22.03.2023).

23. Stylegan3-dataset. URL: https://www.kaggle.com/datasets/showmik50/stylegan3-dataset (accessed: 22.03.2023).

24. Goodfellow I. et al. Generative adversarial networks // Communications of the ACM. 2020. V. 63, № 11. P. 139-144.

25. Karras T., Laine S., Aila T. A style-based generator architecture for generative adversarial networks // Proc. of the IEEE / CVF Conference on Computer Vision and Pattern Recognition. 2019. P. 4401-4410.

26. Karras T., Laine S., Aittala M., Hellsten J., Lehtinen J., Aila T. Analyzing and Improving the Image Quality of StyleGAN // 2020 IEEE / CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020. P. 8110-8119.

27. Karras T. et al. Alias-Free Generative Adversarial Networks // Advances in Neural Information Processing Systems. 2021. V. 34. P. 852-863.

28. Moreno P., Ho P., Vasconcelos N. A Kullback-Leibler divergence based kernel for SVM classification in multimedia applications // Advances in Neural Information Processing Systems. 2003. V. 16. P. 1-9.

29. Scikit-learn: Machine Learning in Python. URL: http://scikit-learn.org (accessed: 22.03.2023).

30. Ng A. Machine Learning Yearning : Technical Strategy for AI Engineers, In the Era of Deep Learning. Self-publishing, 2018. URL: https://www.mlyearning.org (accessed: 22.03.2023).

31. Corvi R. et al. On the detection of synthetic images generated by diffusion models // arXiv preprint arXiv:2211.00680. 2022.

32. Lesperance M. et al. Assessing conformance with Benford's law: Goodness-of-fit tests and simultaneous confidence intervals // PloS One. 2016. V. 11, № 3. Art. e0151235.

33. Шуленин В.П. Эффективные и робастные MD-оценки Крамера-Мизеса // Вестник Томского государственного университета. Управление, вычислительная техника и информатика. 2010. № 3 (12). С. 107-121.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

References

1. Publications Office of the European Union. (2022) Facing reality? Law enforcement and the challenge of deepfakes, an observatory report from the Europol Innovation Lab. [Online] Available from: https://www.europol.europa.eu/cms/sites/default/files/ documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf (Accessed: 22nd March 2023).

2. Nightingale, S. & Farid, H. (2022) Synthetic Faces Are More Trustworthy Than Real Faces. Journal of Vision. 22(14). Art. 3068.

DOI: 10.1167/jov.22.14.3068

3. Carlini, N. & Farid, H. (2020) Evading deepfake-image detectors with white-and black-box attacks. Proceedings of the IEEE/CVF

conference on computer vision and pattern recognition workshops. pp. 658-659.

4. Acebo, E. & Sbert, M. (2005) Benford's law for natural and synthetic images. Proceedings of the First Eurographics conference

on Computational Aesthetics in Graphics. Visualization and Imaging. pp. 169-176.

5. Moin, S. S. & Islam, S. (2017) Benford's law for detecting contrast enhancement. 2017Fourth International Conference on Image

Information Processing (ICIIP). pp. 1-4.

6. Makrushin, A. et al. (2018) Generalized Benford's law for blind detection of morphed face images. Proceedings of the 6th ACM

Workshop on Information Hiding and Multimedia Security. pp. 49-54.

7. Pevny, T. & Fridrich, J. (2008) Detection of double-compression in jpeg images for applications in steganography. IEEE Transac-

tions on Information Forensics and Security. 3(2). pp. 247-258.

8. Milani, S., Tagliasacchi, M. & Tubaro, S. (2014) Discriminating multiple JPEG compressions using first digit features. APSIPA

Transactions on Signal and Information Processing. 3. Art. e19.

9. Al-Bandawi, H. & Deng, G. (2019) Classification of image distortion based on the generalized Benford's law. Multimedia Tools

and Applications. 78. pp. 25611-25628

10. Bonettini, N. et al. (2021) On the use of Benford's law to detect GAN-generated images. 2020 25th international conference on pattern recognition (ICPR). IEEE. pp. 5495-5502.

11. Nigrini, M.J. (2012) Benford's Law: Applications for forensic accounting, auditing, and fraud detection. Vol. 586. John Wiley & Sons.

12. Deckert, J., Myagkov, M. & Ordeshook, P.C. (2011) Benford's Law and the detection of election fraud. Political Analysis. 19(3). pp. 245-268.

13. Khosravani, A. & Rasinariu, C. (2018) Emergence of Benford's Law in Music. arXiv preprint arXiv:1805.06506.

14. Diekmann, A. (2007) Not the first digit! using benford's law to detect fraudulent scientific data. Journal of Applied Statistics. 34(3). pp. 321-329.

15. Koch, C. & Okamura, K. (2020) Benford's law and COVID-19 reporting. Economics Letters. 196. Art. 109573.

16. Newcomb, S. (1881) Note on the frequency of use of the different digits in natural numbers. American Journal of Mathematics. 4(1). pp. 39-40.

17. Benford, F. (1938) The law of anomalous numbers. Proceedings of the American Philosophical Society. 78(4). pp. 551572.

18. Hill, T.P. (1995) A statistical derivation of the significant-digit law. Statistical Science. 10(4). pp. 354-363.

19. Liu, L. et al. (2014) No-reference image quality assessment based on spatial and spectral entropies. Signal processing: Image communication. 29(8). pp. 856-863. DOI: 10.1016/j.image.2014.06.006

20. Shannon, C.E. (1948) A mathematical theory of communication. The Bell System Technical Journal. 27(3). pp. 379-423.

21. GitHub - NVlabs/FFHQ-dataset. [Online] Available from: https://github.com/NVlabs/ffhq-dataset_ (Accessed: 22nd March 2023).

22. GitHub - NVlabs/StyleGAN2-dataset. [Online] Available from: https://github.com/NVlabs/stylegan2_ (Accessed: 22nd March 2023).

23. Stylegan3-dataset. [Online] Available from: https://www.kaggle.com/datasets/showmik50/stylegan3-dataset (Accessed: 22nd March 2023).

24. Goodfellow, I. et al. (2020) Generative adversarial networks. Communications of the ACM. 63(11). pp. 139-144.

25. Karras, T., Laine, S. & Aila, T. (2019) A style-based generator architecture for generative adversarial networks. Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. pp. 4401-4410.

26. Karras, T., Laine, S., Aittala, M., Hellsten, J., Lehtinen, J. & Aila, T. (2020) Analyzing and Improving the Image Quality of StyleGAN. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. pp. 8110-8119.

27. Karras, T. et al. (2021) Alias-Free Generative Adversarial Networks. Advances in Neural Information Processing Systems. 34. pp. 852-863.

28. Moreno, P., Ho, P. & Vasconcelos, N. (2003) A Kullback-Leibler divergence based kernel for SVM classification in multimedia applications. Advances in neural information processing systems. 16. pp.1-9.

29. Scikit-learn: Machine Learning in Python. [Online] Available from: http://scikit-learn.org (Accessed: 22nd March 2023).

30. Ng, A. (2018) Machine Learning Yearning: Technical Strategy for AI Engineers, In the Era of Deep Learning. Self-publishing. [Online] Available from: https://www.mlyearning.org. (Accessed: 22nd March 2023).

31. Corvi, R. et al. (2022) On the detection of synthetic images generated by diffusion models. arXiv preprint arXiv:2211.00680.

32. Lesperance, M. et al. (2016) Assessing conformance with Benford's law: Goodness-of-fit tests and simultaneous confidence intervals. PloS one. 11(3). Art. e0151235.

33. Shulenin, V.P. (2010) Efficient and robust MD-estimators of Cramer - von Mises. Vestnik Tomskogo gosudarstvennogo universiteta. Upravlenie, vychislitel'naya tekhnika i informatika - Tomsk State University Journal of Control and Computer Science. 3(12). pp. 107-121.

Информация об авторе:

Никитенкова Светлана Павловна - доцент кафедры «Безопасность информационных систем» радиофизического факультета Национального исследовательского Нижегородского государственного университета им. Н.И. Лобачевского (Нижний Новгород, Россия). E-mail: [email protected]

Автор заявляет об отсутствии конфликта интересов.

Information about the author:

Nikitenkova Svetlana P. (Candidate of Technical Sciences, Associate Professor, Lobachevsky State University of Nizhny Novgorod, Nizhny Novgorod, Russia). E-mail: [email protected]

The author declares no conflicts of interests.

Поступила в редакцию 10.04.2023; принята к публикации 04.09.2023 Received 10.04.2023; accepted for publication 04.09.2023

i Надоели баннеры? Вы всегда можете отключить рекламу.