ФИЛОСОФСКО-ПРАВОВЫЕ АСПЕКТЫ
БОРЬБЫ С ПРЕСТУПНОСТЬЮ =
УДК 343.34 : 004 ББК 67.408
Карпика Анатолий Григорьевич Karpika Anatoly Grigorievich
доцент кафедры информационного обеспечения органов внутренних дел Ростовского юридического института МВД России кандидат технических наук, доцент.
Associate Professor of the Department of Information Support of Internal Affairs Bodies of the Rostov Law Institute of the Interior of the Russian Federation, PhD in Engineering, Associate Professor.
ПРОБЛЕМЫ ЭФФЕТИВНОГО ПРОТИВОДЕЙСТВИЯ ПРЕСТУПЛЕНИЯМ, СОВЕРШАЕМЫМ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИИ МАШИННОГО ОБУЧЕНИЯ
Problems of effective counteraction to crimes committed using machine learning technology
В статье проанализированы направления использования технологий машинного обучения применительно к созданию фальшивого синтетического контента. Предложены способы его выявления в интересах противодействия совершению преступлений с использованием этой технологии.
Ключевые слова: искусственный интеллект, машинное обучение, дипфейк, синтетический контент, кибернетическое влияние, правоохранительная деятельность.
The article analyzes the directions of using machine learning technologies in relation to the creation offake synthetic content. The methods of its detection in the interests of countering the commission of crimes using this technology are proposed.
Keywords: artificial intelligence, machine learning, deepfake, synthetic content, cybernetic influence, law enforcement.
Эффективность развития современного общества все больше зависит от процессов цифровизации большинства областей человеческой деятельности, цифровой трансформации протекающих в них социальных, экономических и политических процессов. Частная и общественная жизнь граждан, их социальные модели поведения в рамках межличностного общения и трудовой деятельности все больше мигрируют в цифровую сферу, включая способы доступа к финансам и их использования.
В этих условиях развитие таких технологий, как искусственный интеллект (ИИ), в сочетании с формами взаимодействия безличного присутствия несут с собой потенциал для получения преступной прибыли, затрудняя отслеживание преступников.
Проанализируем криминальный потенциал одного из видов технологий, использующих ИИ, а именно - технологию «машинного обучения» для создания «синтетического контента» (Deepfake).
Технология создания «дипфейк контента» (далее - дипфейка) предполагает применение
машинного обучения, использующего реальный контент, например изображения. Типичный процесс создания дипфейка включает в себя ветвь искусственного интеллекта - «machine-learning» - ML («машинное обучение» - МО), с помощью технологии, использующей состязательную сеть (ГСС). В процессе используются две нейронные сети, которые обучены работать совместно, но друг против друга.
Например, в систему вводится набор данных реальных изображений. Первая сеть «Генератор» используется для создания ложных данных, например фотографий, видео и аудио, которые воспроизводят характеристики реальных данных. Вторая сеть «Дискриминатор» призвана идентифицировать ложные данные. В зависимости от результатов вывода генераторная сеть продолжает вносить корректировки, чтобы улучшить свой вывод до такой степени, что дискриминаторная сеть не может отличить настоящие данные от ложных.
До недавнего времени дипфейки использовались исключительно в развлекательных целях, качество создаваемого ими синтетического контента не представляло непосредственной
угрозы правопорядку, стабильности социальных отношений, финансовой системе государства. С повышением качества и скорости обучения систем МО в настоящее время и несомненным дальнейшим их развитием необходимо принимать в расчет потенциальную угрозу использования рассматриваемой технологии в преступных целях, например, использования ее для получения незаконного доступа к цифровым активам граждан, нанесения целевого ущерба публичным личностям, организациям вплоть до оказания воздействия на значимые функции, выполняемые государством.
Например, публикация глубоких фейковых видеороликов, в которых государственные должностные лица, политические деятели, руководители крупных компаний «допускают» оскорбительные комментарии, «демонстрируют» ненадлежащее поведение, «дают» финансовые прогнозы или советы, может вызвать недоверие общественности, панику на биржах, дезориентацию граждан в политическом, социальном и финансовом поле их жизни и деятельности.
Данную мысль подтверждает анализ публикаций на эту тему в зарубежной прессе. Так, Агентство перспективных исследовательских проектов (США) еще в 2016 г. запустило две программы: Media Forensics (MediFor) и Semantic Forensics (SemaFor), с целью проведения перспективных исследований в интересах развития цифровой криминалистики, связанных с обнаружением дипфейков.
Первая программа (MediFor) состояла в разработке алгоритмов для оценки целостности видео и изображений с целью получения представления о том, как был создан поддельный контент. Цель программы состояла в исследовании методов криминалистического выявления несоответствий в глубоких подделках, таких как несоответствия в пикселях (цифровая целостность), с законами физики (физическая целостность) и с другими источниками информации (семантическая целостность).
Вторая программа (SemaFor) направлена на дальнейшее продвижение работы, выполненной в рамках Medifor. SemaFor фокусируется на поиске и каталогизации семантических несоответствий человеческого облика, таких как несовпадение украшений, неправильные черты лица, фон [1].
В конце 2019 г. Хао Ли, один из лучших в мире создателей дипфейков для кинематографа и эксперт в этой области, объяснил, что технология «дипфейк» быстро развивается и имеет открытый исходный код, поэтому она довольно легко доступна и при этом постоянно совершенствуется. По его словам, дипфейки могут легко создать что-то, что на 90 % не увидеть невооруженным глазом, а оставшиеся 10 % можно замаскировать с помощью алгоритмов или «шума», чтобы скрыть несоответствие реальному объекту.
В марте 2021 г. Центр рассмотрения жалоб на интернет-преступления (США) выпустил Уведомление для частной отрасли, в котором предупреждал, что «злоумышленники почти наверняка будут использовать синтетический контент для операций по оказанию кибернетического влияния в период 2021-2022 гг. [2].
На этом фоне ожидается, что ложный контент в указанный период будет все чаще использоваться «криминальными киберсубъек-тами» для целевого фишинга и социальной инженерии в связи сповышением качества производимого ложного контента.
По оценкам аналитической группы Price waterhouse Coopers (PWC), продолжающийся рост безналичных транзакций во всем мире в период с 2018 по 2020 гг. вырос на 14,1 % с перспективой роста на 200 % до 2030 г. [3]. Это наряду с массовым переходом к онлайн-банкингу и альтернативным цифровым активам, размещаемым на новых финансовых платформах, работающих в том числе с использованием технологии блокчейн, несомненно, стимулирует злоумышленников на поиск и использование высокотехнологичных инструментов совершения преступлений. Это особенно актуально в условиях агрессивного продвижения финансовыми организациями своих товаров и услуг по схеме «Продукт, услуга, транзакция, канал доставки» удаленно, т. е. без личного присутствия потенциального их потребителя.
В качестве подтверждения того, что преступное сообщество осуществляет поиск и апробацию любых доступных технологий для содействия планируемым преступлениям, можно привести факт использования голосовой технологии на основе МО в целях введения в заблуждение генерального директора одной из британских энергетических компаний.
ФИЛОСОФСКО-ПРАВОВЫЕ АСПЕКТЫ БОРЬБЫ С ПРЕСТУПНОСТЬЮ -
В 2019 г. его обманули на 243 000 $. Мошенник с помощью указанной технологии смог убедить должностное лицо в том, что он разговаривает со своим коллегой из головной организации компании в Германии. При этом подделка была выполнена с учетом характерного немецкого акцента и обертонов голоса. Злоумышленники при этом пойманы не были [4].
Анализ доступных документов [2], [3], [4], [5] позволяет сформулировать вероятные преступные сценарии угроз с использованием технологии МО для создания ложного синтетического контента.
Коммерческим организациям, а также государственным организациям, в том числе правоохранительным органам, целесообразно проактивно (упреждающе) рассматривать потенциальные риски, которые ожидаемо возникнут в процессе цифровизации и цифровой трансформации их деятельности, с целью снизить эффективность либо противодействовать преступным сценариям угроз.
Любой сценарий, предполагающий использование ложного контента, должен реа-лизовываться посредством какого-либо средства коммуникации (в отношении конкретного лица), либо средства массовой информации, рассчитанного на широкую либо узкую (целевую) аудиторию, поэтому целесообразно выделить три категории средств доставки ложного контента:
1. Персональные средства коммуникации (целевая аудитория - отдельные лица).
2. Узконаправленные СМИ (узкая целевая аудитория).
3. Широковещательные СМИ (неопределенная аудитория).
В качестве вероятных сценариев угроз со стороны злоумышленников и наиболее ожидаемых соответствующих им категорий средств можно выделить следующие:
- кража личных данных для совершения мошенничества в отношении жертвы (1) или доступа к корпоративной информации (1, 2);
- выдача себя за государственных служащих или членов семьи жертвы для совершения мошенничества (1, 2);
- вымогательство посредством шантажа жертвы (1, 2);
- мошенничество с переводом денежных средств путем выдачи себя за сотрудника финансовой организации (1);
- манипулирование активами с помощью сфабрикованных событий с целью нанесения ущерба репутации руководства компании, создания ложного одобрения продукта с целью введения в заблуждение инвесторов (3);
- вредоносные слухи - распространение ложных слухов с целью инициирования массового изъятия средств из финансовой организации (3);
- сфабрикованные действия руководства страны - создание ложного впечатления о возможном изменении политики, процентной ставки, наложение санкций и т. п. (3);
- регулирующий астротурфинг - создание ложного впечатления о взглядах общественности на предлагаемые изменения в политической, экономической, социальной сферахс целью оказания влияния на предлагаемые изменения.
Достижения в области технологий сделали достаточно сложным процедуру различения дипфейков и реальных изображений или видео невооруженным глазом, поэтому в ряде стран ведется работа по созданию технологий, направленных на их обнаружение. К сожалению, одной только технологии явно недостаточно, во-первых, потому что само «машинное обучение» в принципе может обойти эти технологии за счет более долгого «обучения» генератора дипфейка, во-вторых, она может быть недоступна для использования в некоторых условиях, поэтому совместно с ней в обнаружении дипфейков главным будет оставаться «человеческий» фактор.
Так, эффективным подходом в обнаружении дипфейков видео, фото в отсутствии компьютерных средств, гарантирующих 100 % результат в современных условиях, целесообразно проводить работу, направленную на то, чтобы не только сотрудники, но и обычные граждане были обучены распознавать дипфей-ки голоса, изображений и видео.
В этой связи для решения задачи распознавания ложного фото- и видеоконтента экспертами в 2020 г. предложен набор характерных маркеров [6]:
- неестественные движения глаз или тела, окраска или мимика;
- нереалистичное расположение черт лица, частей тела или его положения;
- отсутствие эмоций;
- нереалистичные волосы, зубы;
- размытие или несовпадение изображения и звука;
- странный шум или неподходящий звук;
- изображение выглядит при замедлении неестественно.
Обобщая результаты анализа, можно предложить следующие направления проактивной деятельности, которые целесообразно включить в виде конкретных мероприятий в План мероприятий по обеспечению безопасности организации. Данные мероприятия при несомненном их выполнении позволят если не предотвратить совсем, то значительно снизить количество преступлений, совершающихся с использованием технологии машинного обучения:
1. Информирование сотрудников о подобных типах вредоносной активности, обязывать их реагировать на необычное поведение собеседника в телефонном разговоре или голосовом сообщении.
2. Внедрение практики многофакторной аутентификации сотрудников.
3. Отслеживание фактов наличия программ для создания дипфейков на компьютерах сотрудников, попыток поиска этих приложений в глобальной сети, проведение в их отношении внутренних проверок.
Литература
1. URL: https://www.arachnys.com/deep-fakes-ghosts-in-machines-and-their-efffect-on-the-financial-world.
2. URL: https://www.ic3.gov/Media/News/ 2021/210310-2.pdf.
3. URL: https://www.pwc.ru/ru/publications/ collection/pwc-future-of-payments.pdf.
4. URL: https://www.wsj.com/articles/fraud-sters-use-ai-to-mimic-ceos-voice-in-unusual-cy-bercrime-case-11567157402.
5. URL: https://translate.google.ru/?hl=ru&sl= en&tl=ru&text=Deepfakes%20and%20Synthetic% 20Media%20in%20the%20Financial%20System%3A% 20Assessing%20Threat%20Scenarios&op=translate.
6. URL: https://www.anti-malware.ru/analytics/ Threats_Analysis/Deepfakes-as-a-information-se-curity-threat#part4/.
4. Минимизация числа каналов коммуникации организации, мониторинг каналов.
5. Обеспечение согласованного распространения информации.
6. Ограничение фото- и видеоконтента с участием руководства организации, разработка плана реагирования на дезинформацию.
7. Для связи с сотрудниками применять практику введения устных паролей, кодовых слов или контрольных вопросов, ответ на которые известен только двум сторонам.
Внедрение предложенных направлений деятельности в практику государственных и коммерческих организаций позволит снизить влияние ложного контента на деятельность организации и повысит эффективность проведения органами внутренних дел оперативно-розыскных мероприятий и следственных действий при расследовании подобных преступлений за счет привлечения большего числа сотрудников организации, понимающих механизм создания и распространения ложного контента, в качестве свидетелей по перспективным уголовным делам, связанным с инцидентами информационной безопасности.
Bibliography
1. URL: https://www.arachnys.com/deep-fakes-ghosts-in-machines-and-their-effect-on-the-financial-world.
2. URL: https://www.ic3.gov/Media/News/ 2021/210310-2.pdf.
3. URL: https://www.pwc.ru/ru/publications/ collection/pwc-future-of-payments.pdf.
4. URL: https://www.wsj.com/articles/fraud-sters-use-ai-to-mimic-ceos-voice-in-unusual-cy-bercrime-case-11567157402.
5. URL: https://translate.google.ru/?hl=ru&sl= en&tl=ru&text=Deepfakes%20and%20Synthetic% 20Media%20in%20the%20Financial%20System%3A% 20Assessing%20Threat%20Scenarios&op=translate.
6. URL: https://www.anti-malware.ru/analytics/ Threats_Analysis/Deepfakes-as-a-information-se-curity-threat#part4/.