УДК 343.1 Исакова А.Г., Осин А.В.
Исакова А.Г.
магистрант Государственный университет просвещения (г. Мытищи, Россия)
Осин А.В.
к.т.н.,
доцент кафедры информационной безопасности Московский университет связи и информатики (г. Москва, Россия)
ПРИМЕНЕНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
В РАССЛЕДОВАНИИ ПРЕСТУПЛЕНИЙ C ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИИ «ДИПФЕЙК»
Аннотация: статья посвящена использованию искусственного интеллекта, цифровых информационно-поисковых программ и баз данных в расследовании мошенничества с применением технологии «дипфейк» Предложено применение искусственного интеллекта при определении подлинности видео, аудио или другого цифрового контента, применяемых в качестве средства совершения мошенничества.
Ключевые слова: искусственный интеллект, ИТ в криминалистике, дипфейк, мошенничество.
В работе описывается обобщенный подход к использованию искусственного интеллекта в рамках расследования мошеннических действий.
Технологии искусственного интеллекта все активнее проникают в нашу жизнь людей, улучшая качество и комфорт жизни обычных людей. Появляются новые возможности, которые порождают новые виды использования
искусственного интеллекта в том числе с корыстными целями в преступной деятельности.
Технология deepfake (дипфейк) открыла новые возможности для творчества и самовыражения человека. Так, например, музей Сальвадора Дали во Флориде использовал подобную технологию, чтобы "вернуть художника к жизни". Это позволило посетителям пообщаться с Дали, послушать его истории и даже сфотографироваться. Экспертам удалось достаточно точно воссоздать голос, интонацию и манеру речи художника.
Искусственный интеллект: это моделируемая (искусственно-воспроизводимая) интеллектуальная деятельность мышления человека (далее ИИ).
Появились новые возможности, которые позволяют любому человеку без специальных навыков и знаний создавать очень реалистичный медиаконтент-видео и аудиозаписи с использованием методов на основе искусственного интеллекта, в том числе с применением технологии deepfake («дипфейк»). Deepfake («дипфейк») - это технология, которая использует искусственный интеллект для создания видео, аудио или другого цифрового контента, который кажется аутентичным, но на самом деле является фальшивым. При помощи этой технологии можно очень реалистично заменить на фотографии или видео лицо одного человека на другое и/или синтезировать речь человека (имитация голоса), имея в распоряжении лишь короткую запись образца его голоса.
Глубокая нейронная сеть анализирует и синтезирует данные, чтобы создать реалистичные видео и аудиозаписи, часто с лицами или голосами людей, которые на самом деле не участвовали в создании контента. Эта технология может быть использована для создания фальшивых новостей, а также для манипуляции общественным мнением.
Несмотря на потенциальную пользу, которую может принести технология deepfake (дипфейк), одновременно с этим она также дает новые возможности для манипулирования общественным мнением и сознанием, для
дискредитации людей с целью преследования или мести, для обмана или введения в заблуждение людей при совершении мошенничества.
Появление технологии «дипфейков» вызывает серьезные опасения по поводу того, какие может иметь последствия использование данной технологии в различных сферах, включая частную жизнь людей политику, развлечения и национальную безопасность. С использованием технологии «дипфейк» изображения и видео могут быть легко изменены без искажений, что выглядит в реальности очень правдоподобно и может воспринимается зрителем буквально, не подвергая критическому анализу получаемую информацию, в следствие чего он может стать жертвой мошенничества.
Возможность создания поддельного медиаконтента, имитирующего реалистичные фото и видео с участием известных личностей, может пагубно повлиять на их имидж и репутацию, поскольку в большинстве случаев «дипфейки» ограничены лишь человеческим воображением, и некоторыми недостатками алгоритмов, и вычислительными мощностями.
Существует острая потребность в создании автоматизированных инструментов, которые будут способны обнаруживать подобного рода сгенерированный медиаконтент и тем самым смогут помочь предотвратить распространение ложной информации и возможные негативные последствия. Широкий спектр программ, в том числе с применением алгоритмов искусственного интеллекта, обеспечивают возможности для изменения информации содержащейся в исходном медиаконтенте, что привело к увеличению количества подделок.
Достоверность и целостность визуальных или аудиальных данных медиаконтента, обработанного с помощью технологии "дипфейк" сложно определить органами чувств человека, не используя вспомогательные технические программно-аппаратные средства, в том числе искусственный интеллект, которые, в свою очередь, способны выявить значительные погрешности в подлинном изображении и обнаружить различные типы манипуляций.
Медиаконтент обработанный с помощью технологии "дипфейк", можно исследовать используя вспомогательные технические программно-аппаратные средства, в том числе искусственный интеллект, которые, способны обнаружить значительные погрешности в подлинном изображении и выявить технические изменения и иные типы произведенных манипуляций целостности медиаконтента (например артефакты сжатия, неестественные движения или аномалии в данных, несоответствия метаданных файла - даты, географического положения и иных цифровых следов).
Определить наличие погрешностей и внесенных изменений, в медиа контент с помощью ИИ возможно несколькими способами аутентификации -
- алгоритмы и программные решения, которые могут искать признаки deepfake, такие как артефакты сжатия, неестественные движения или аномалии в данных.
- оценка метаданных файла (даты, географического положения, цифровых следов, и так далее) может помочь в определении подлинности контента.
Изучение видео или фотоматериалов подразумевает определение происхождения подобного контента, отсутствие монтажа, искажающего содержание продукта.
Возможность связать изображения или видео с камерой устройства позволяет найти преступника, который распространил или создал определенный мультимедийный контент.
Работы по идентификации устройств с помощью мультимедийного контента опираются на различные способы: изучение самого электронного файла и поиска информации в заголовках, использование шума неравномерности фотоотклика для целей идентификации камеры в силу различной чувствительности пикселей матриц различных камер к свету.
Методы используемые для анализа аудиозаписи, видео и изображений направлены на проверку идентичности или подлинности данных медиафайлов,
идентификации устройства на которых они были созданы, анализ мультмедийных сигналов.
Например, для аудиозаписей методы аутентификации могут включать анализ уникальных акустических характеристик голоса, таких как частоты, интонации и тембр, а также проверку цифровых подписей или шумовых шаблонов для создания уникальных идентификаторов аудиофайлов. Для видео и изображений аутентификация может включать анализ цифровых подписей, водяных знаков, проверку метаданных и анализ цифровых характеристик изображений для обнаружения поддельных или измененных файлов.
Идентификация происходит двумя основными способами — активной и пассивной аутентификацией изображения.
Для наглядности на рисунках 1.1 и 1.2 показаны примеры обобщённых алгоритмов обоих методов.
Рисунок 1.1. Активный подход на примере водяного знака.
Характерные
Рисунок 1.2. Пассивный подход.
Активная аутентификация состоит в проверке наличия кода (предварительно встроенной в медиаконтент информации). Исходное изображение защищено во время записи с использованием специального оборудования кодом аутентификации в виде цифрового водяного знака или цифровой подписи, или отправляется вместе с изображением для доступа к его целостности на принимающей стороне. Наличие кода, который прошёл необходимую проверку, подтверждает подлинность изображения.
Пассивная аутентификация состоит в проверке наличия основных свойств предоставленного изображения на наличие вмешательств, которые если производились, то не могли не оставить следов:
-зависящих от типа подделки в виде: копирования-перемещения или сращивания изображений,
- независящих от подделки в виде: обнаружения ретуши (следов артефактов, оставленных при подделке) или условий освещённости (при объединении фотографий сложно подобрать условия освещения).
Данные методы аутентификации могут быть использованы в том числе при проведении криминалистических экспертиз по определению подлинности медиаконтента в рамках расследования мошенничества.
На сегодняшний день криминалистика совершенствуется и развивается, становиться актуальной разработка технико-криминалистических средств в сфере цифровых технологий и источников информации.
Все чаще на практике криминалистами в качестве доказательств по уголовным делам исследуются и собираются электронные следы, осматриваются материалы теле-, видео- и иных систем наблюдения, что обуславливает создание на этой основе новых методик при расследовании преступлений.
Исходя из вышесказанного, можно сделать следующие выводы: при расследовании мошенничества, где медиафайлы («дипфейки») используются как средство (предмет) совершения преступления, предлагается использовать методы, описанные в статье, для выявления внесённых технических изменений
в исходную запись. Наряду с прямой проверкой аутентичности медиаконтента (Активный метод), при расследовании могут использоваться пассивные методы аутентификации с применением искусственного интеллекта. Практика применения такого подхода может позволить усовершенствовать методики определения подлинности медиафайлов и использоваться в криминалистических экспертизах.
СПИСОК ЛИТЕРАТУРЫ:
1. Авторский коллектив. Криминалистика для бакалавров. - М.: Проспект, 2021. С. 119, 387, 480;
2. Бессонов А.А. Частная теория криминалистической характеристики преступлений. М.: Академия У МВД РФ, Дисс. на соиск. докт. юр. наук, 2017;
3. Бессонов А.А. О некоторых возможностей современной криминалистики в работе с электронными следами. М.: Вестник университета им. О.Е. Кутафина, 2019. С. 46-52;
4. Компьютерная криминалистика (Форензика) // SPY-SOFT URL: https://spy-soft.net/computer-forensics/;
5. Эйнштейн вместо тренера: что такое дипфейк и почему это тренд в обучении // Ispring URL: https://www.ispring.ru/elearning-insights/dipfejk;
6. Что такое Deepfake видео и как сделать Face Swap // Сравни URL: https://www.sravni.ru/text/deepfake-video/;
7. Дипфейки и другие поддельные видео - как защитить себя? // Kaspersky URL: https://www.kaspersky.ru/resource-center/threats/protect-yourself-from-deep-fake
Isakova A. G., Osin A. V.
Isakova A.G.
State University of Education (Mytishchi, Russia)
Osin A.V.
Moscow University of Communications and Informatics (Moscow, Russia)
USE OF ARTIFICIAL INTELLIGENCE IN INVESTIGATION OF CRIMES USING DPFAKE TECHNOLOGY
Abstract: the article is devoted to the use of artificial intelligence, digital information retrieval programs and databases in the investigation offraud using deepfake technology. The use of artificial intelligence in determining the authenticity of video, audio or other digital content used as a means of committing fraud is proposed.
Keywords: artificial intelligence, IT in criminology, deepfake, fraud.