Научная статья на тему 'АКТУАЛЬНОЕ ПРАВОВОЕ ИССЛЕДОВАНИЕ DEEPFAKE-ТЕХНОЛОГИЙ И НОВЫЕ ВЫЗОВЫ ДЛЯ РОССИЙСКОЙ ПРАВОВОЙ СИСТЕМЫ'

АКТУАЛЬНОЕ ПРАВОВОЕ ИССЛЕДОВАНИЕ DEEPFAKE-ТЕХНОЛОГИЙ И НОВЫЕ ВЫЗОВЫ ДЛЯ РОССИЙСКОЙ ПРАВОВОЙ СИСТЕМЫ Текст научной статьи по специальности «Право»

CC BY
938
154
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
DEEPFAKE / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ГЛУБОКАЯ ПОДДЕЛКА / «ИНТЕРНЕТ»

Аннотация научной статьи по праву, автор научной работы — Клюева Анастасия Александровна, Белов Данила Александрович

В статье авторы проводят исследование технологии deepfake, которая работает на основе использования искусственного интеллекта. В статье производится анализ отечественного законодательства в сфере регламентации вопросов, связанных с созданием и распространением deepfake-видео, -аудио и иных материалов в информационно-телекоммуникационной сети «Интернет», а также исследуются примеры. В ходе чего установлено, что в нормативной правовой базе большая часть вопросов не урегулирована. Исследование сопровождалось рассмотрением примеров использования deepfake-технологии за рубежом (в таких странах как США и Китай). Представлены возможные варианты решения проблем, обозначенных в работе.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Клюева Анастасия Александровна, Белов Данила Александрович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CURRENT LEGAL RESEARCH OF DEEPFAKE TECHNOLOGIES AND NEW CHALLENGES FOR THE RUSSIAN LEGAL SYSTEM

In the article, the authors conduct a study of the deep face technology, which works on the basis of the use of artificial intelligence. The article analyzes the domestic legislation in the field of regulation of issues related to the creation and distribution of deepfake-video, audio and other materials in the information and telecommunications network «Internet», and also examines examples. During which it was established that most of the issues are not settled in the regulatory legal framework. The study was accompanied by a review of examples of using deepface technology abroad (in countries such as the United States and China).

Текст научной работы на тему «АКТУАЛЬНОЕ ПРАВОВОЕ ИССЛЕДОВАНИЕ DEEPFAKE-ТЕХНОЛОГИЙ И НОВЫЕ ВЫЗОВЫ ДЛЯ РОССИЙСКОЙ ПРАВОВОЙ СИСТЕМЫ»

ИНФОРМАЦИОННОЕ ПРАВО

Клюева Анастасия Александровна Белов Данила Александрович Всероссийский государственный университет юстиции

Юридический факультет Россия, Москва klueva-anastasya@mail.ru danila.belov2001 @listru Klyueva Anastasia Alexandrovna Belov Danila Alexandrovich All-Russian State University of Justice

Faculty of Law Russia, Moscow

АКТУАЛЬНОЕ ПРАВОВОЕ ИССЛЕДОВАНИЕ DEEPFAKE-ТЕХНОЛОГИЙ И НОВЫЕ ВЫЗОВЫ ДЛЯ РОССИЙСКОЙ ПРАВОВОЙ

СИСТЕМЫ

Аннотация: в статье авторы проводят исследование технологии deepfake, которая работает на основе использования искусственного интеллекта. В статье производится анализ отечественного законодательства в сфере регламентации вопросов, связанных с созданием и распространением deepfake-видео, -аудио и иных материалов в информационно-телекоммуникационной сети «Интернет», а также исследуются примеры. В ходе чего установлено, что в нормативной правовой базе большая часть вопросов не урегулирована. Исследование сопровождалось рассмотрением примеров использования deepfake-технологии за рубежом (в таких странах как США и Китай). Представлены возможные варианты решения проблем, обозначенных в работе.

УДК 004.056

Ключевые слова: deepfake, искусственный интеллект, глубокая подделка, «Интернет».

CURRENT LEGAL RESEARCH OF DEEPFAKE TECHNOLOGIES

AND NEW CHALLENGES FOR THE RUSSIAN LEGAL SYSTEM Annotation: in the article, the authors conduct a study of the deep face technology, which works on the basis of the use of artificial intelligence. The article analyzes the domestic legislation in the field of regulation of issues related to the creation and distribution of deepfake-video, audio and other materials in the information and telecommunications network «Internet», and also examines examples. During which it was established that most of the issues are not settled in the regulatory legal framework. The study was accompanied by a review of examples of using deepface technology abroad (in countries such as the United States and China). Key words: deepfake, artificial intelligence, deep forgery, «Internet».

Технология deepfake (рус. «глубокая подделка») - информационная технология на базе искусственного интеллекта. Технология позволяет синтезировать изображения, то есть производить наложение двух изображений: существующего фото- или видеоматериала на исходный фото- или видеоматериал. Применяться данная технология может в следующих сферах: для создания пользовательских юмористических роликов на популярные медиа-платформы, в кино, рекламе. А также активным образом указанная технология применяется и для производства вредной информации, а также совершения мошеннических действий: для создания порнографических материалов с совершенно любым человеком, подмены образов политиков и медийных лиц в целях агитации, а также мошенничестве.

С технологической точки зрения следует заметить, что искусственный интеллект самообучается во время работы, анализируя огромное количество информации, извлекаемой в ходе обработки изображений (видеоизображений).

Таким образом, данная технология постоянно совершенствуется при минимальном влиянии на её программный код. Ввиду данного самообучения и развития информационных технологий изменению могут подлежать внешность, мимика и голос человека. Единственным требованием для работы является предоставление необходимого программе объёма данных для производства модифицированного контента. Дружелюбный пользовательский интерфейс приложений, использующихся для создания deepfake-видео (например: DeepFaceLab, Doublicat, FaceApp), не требует никаких технических навыков у пользователя. Таким образом, для работы программы на базе искусственного интеллекта требуется:

1. Лицо, голос и другие биометрические данные субъекта, являющегося объектом воздействия;

2. Лицо, голос и другие биометрические данные злоумышленника.

Юридическая сторона вопроса актуальна в том плане, что создание и

распространение deepfake-видео с участием третьих лиц без их согласия никак не регламентируется с точки зрения права. В данный момент большая часть зарубежных стран не имеет правовой основы регламентации использования подобных материалов. Необходимость регламентации данного вопроса обусловлена тем, что у совершенно любого человека есть возможность для создания и распространения ложной информации о жизни или деятельности другого лица без согласия на то последнего, оставаясь при этом безнаказанным.

Рассматривая вопрос в частностях и подчёркивая его актуальность, можно привести пример с выборами в Соединённых Штатах Америки в 2020 году. Тогда американская общественность всерьёз озаботилась возможностью изменения предпочтений избирателей из-за распространения видеоматериалов с применением deepfake. Данная технология с точки зрения американских экспертов по безопасности может оказать «разрушительное воздействие на

американскую демократию» [1]. Многие интернет-платформы, основная аудитория которых состоит из граждан Соединённых Штатов Америки обновили правила и пользовательские соглашения в целях внутренней регуляции deepfake-материалов, что является примером саморегуляции отношений, возникающих в сети Интернет.

Регуляцией deepfake-видео в данный момент озаботился и Китай. В 2020 году вступил в силу запрет, на распространение «фейковых новостей», созданных, в том числе, и с применением технологий, основанных на искусственном интеллекте и виртуальной реальности. Любое использование подобных технологий должно помечаться соответствующим маркером, а нарушение может повлечь за собой уголовную ответственность. По заявлению управления по вопросам киберпространства Китая применение подобных технологий может «поставить под угрозу национальную безопасность, нарушить социальную стабильность, общественный порядок и ущемить законные права и интересы граждан» [2].

Самой популярной целью создания deepfake-видео является съёмка порнографических материалов, составляющих 96 % от всего объёма материалов, произведённых с применением технологий, основанных на искусственном интеллекте [3]. Естественно, что данная тема является поводом для различного рода спекуляций, унижающих честь и достоинство лиц, против которых была применена данная технология. По аудиозаписям может так же быть скопирован и голос человека, что затруднит распознавание подлога. Таким образом, может быть разрушена карьера, семья и нарушено право граждан на неприкосновенность частной жизни.

В нашей стране только начинают появляться контуры регулирования использования технологии DeepFake. Так, например, статья 128.1 Уголовного кодекса Российской Федерации (УК РФ) в конце 2020 года была дополнена, в часть 2 были внесены слова о распространении ложных сведений в

информационно-телекоммуникационных сетях, включая интернет [4]. Статья 152 Гражданского кодекса Российской Федерации (ГК РФ) регулирует вопросы, связанные с защитой чести и достоинства [5].

Помимо этого, Deepfake-технологии активно используются мошенниками. Одним из примеров может стать скандал, разгоревшийся вокруг главного исполнительного директора компании ООО «ЮЬгат» Дмитрия Мацкевича. В одном из роликов с рекламой вебинара Мацкевич «предлагает с минимальными вложениями начать зарабатывать до 360 процентов годовых» [6], а ссылка под роликом вела на сайт, к которому Мацкевич не имел никакого отношения.

Из-за подобных действий могут пострадать не только лица, попавшиеся на мошенническую уловку, но и человек, чья внешность и голос были использованы преступниками. Например, упомянутого гражданина Мацкевича правоохранительные органы могли бы привлечь в качестве подозреваемого по статье 159 УК РФ. Тем не менее, в данном примере качество наложения изображения находится на довольно низком уровне, что позволяет без применения дополнительного программного обеспечения узнать о применении deepfake-технологий.

Ещё одним примером мошенничества с применением deepfake стало ограбление директора британской энергетической компании, который отправил 240 000 долл. США мошеннической фирме из Венгрии, потому как несколько раз получил инструкцию (перевести денежные средства) от своего «начальника», которым оказался мошенник, заменявший голос в режиме реального времени [7].

Сама технология появилась в 2017 году, а ее активное распространение началось в 2019 году, из-за чего остаётся только гадать, какие ещё деяния преступного характера будут совершены с помощью технологий искусственного интеллекта в будущем [8]. Возможными формами преступного

применения технологии могут стать фальсификация доказательств с помощью замены лица и голоса подозреваемого, а также дискредитация должностных лиц, путём использования их внешности для создания поддельных роликов, на которых те совершают какое-либо общественно-опасное деяние.

В настоящее время наиболее важным направлением использования deepfake-технологий является политическая агитация. Пока что от подобных видеороликов пострадали только зарубежные политики. От действий бельгийского отделения организации Extinction Rebellion, выступающей против климатических изменений, пострадала бельгийский премьер-министр, которая в подделанном ролике высказалась, что причиной пандемии коронавируса стали экологические проблемы [9]. В США спикер Палаты представителей Нэнси Пелоси была скомпрометирована видеороликом, обработанным с помощью искусственного интеллекта, в котором она выступала в состоянии алкогольного опьянения [10].

На данный момент технология не является совершенной и не позволяет полноценно заменить лицо человека в прямом эфире. Однако злоумышленники могут записать видеоматериал и наложить желаемое лицо заранее, меняя мимику и голос в режиме реального времени. Бороться с подобными мошенническими уловками можно и сейчас, попросив собеседника встать, из-за чего камера перестанет улавливать мимику. Также пока что программа плохо обрабатывает шрамы и татуировки на лице человека.

Нормативная правовая основа Российской Федерации явно недостаточна в вопросах создания и использования массовых медийных продуктов, созданных на базе искусственного интеллекта (DeepFake-технологии). Наиболее рациональным шагом с точки зрения права было бы ввести обязательное упоминание о применении искусственного интеллекта при создании определённого рода материалов. Данная законодательная мера имеет смысл, если обязать делать такое пояснение не граждан, которые создают

определённый материал, а создателей программного обеспечения и искусственного интеллекта, необходимых для работы с подобными аудио-, фото- и видеоматериалами.

Ещё одной актуальной проблемой является то, что становится непонятен вопрос доказывания факта нарушения прав в суде. В гражданско-правовом процессе у истца может не быть доказательств своей правоты, чтобы защитить честь, достоинство и деловую репутацию. Аналогичная проблема возникает в уголовном процессе у обвинителя. В обоих случаях ответчику или обвиняемому в принципе не нужно ничего доказывать, а у обвинителя или истца может попросту не быть доказательств, опровергающих интересующую их информацию.

Важным действенным способом борьбы с deepfake-материалами является создание искусственного интеллекта, способного выявлять следы применения технологии изменения внешности. Однако, использование подобной технологии вряд ли будет эффективным без наличия соответствующей нормативной базы, предусматривающей ответственность за создание и распространение DeepFake-материалов, которые могут нанести ущерб деловой репутации, унизить честь и достоинство человека, или же создаются с заведомо преступными намерениями. Кроме этого, можно обратиться к специалистам (экспертам) по информационной безопасности и искусственному интеллекту.

Естественно, ни о каком полном запрете deepfake-видео не может быть и речи, поскольку искусственный интеллект распространен и применяется в кино, рекламе, реконструкции, юмористических шоу и в таких перспективных областях как робототехника, но уже сейчас существует необходимость усовершенствовать нормативную базу Российской Федерации таким образом, чтобы имелась возможность привлечь к ответственности лиц, виновных в распространении нежелательного материала с использованием технологий искусственного интеллекта. В данном контексте необходимо создать

отечественное программное обеспечение, которое могло бы проверять фото- и видеозаписи всех возможных форматов на предмет их изменения с помощью искусственного интеллекта. Необходимо внедрение и создание оборудования на рабочих местах сотрудников Органов Внутренних Дел, Прокуратуры, Следственного Комитета, судов всех инстанций и других органов, которые могут рассматривать дела с применением deepfake-материалов, данным разработанным программным и техническим обеспечением.

Список литературы:

1. What You Need To Know About Fake Video, Audio And The 2020 Election [Электронный ресурс] // URL: https://www.npr.org/2019/09/02/754415386/what-you-need-to-know-about-fake-video-audio-and-the-2020-election (дата обращения: 07.07.2021)

2. China seeks to root out fake news and deepfakes with new online content rules [Электронный ресурс] // URL: https://www.reuters.com/article/us-china-technology/china-seeks-to-root-out-fake-news-and-deepfakes-with-new-online-content-rules-idUSKBN1Y30VU (дата обращения: 07.07.2021).

3. Ajder H., Patrini G., Cavalli F., Cullen L. The State of Deepfakes: Landscape, Threats, and Impact. [Электронный ресурс] // URL: https://storage.googleapis.com/ deeptrace-public/Deeptrace-the-State-of-Deepfakes-2019.pdf (дата обращения: 07.07.2021).

4. Уголовный кодекс Российской Федерации от 13 июня 1996 г. № 63-ФЗ (ред. от 01.07.2021 г.) // Собрание законодательства РФ. - 1996. - № 25. - Ст. 2954.

5. Гражданский кодекс Российской Федерации, часть первая от 30.11.1994, № 51-ФЗ. // СПС «КонсультантПлюс»

6. Иммерсивное шоу 2021: как с помощью дипфейка стать CEO Dbrain Димой Мацкевичем [Электронный ресурс] // URL: https://vc.ru/Hfe/198176-

immersivnoe-shou-2021-kak-s-pomoshchyu-dipfeyka-stat-ceo-dbrain-dimoy-mackevichem?ref=vc.ru (дата обращения: 07.07.2021).

7. Fraudsters Used AI to Mimic CEO's Voice in Unusual Cybercrime Case [Электронный ресурс] // The Wall Street Journal: сайт. URL: https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402 (дата обращения: 07.07.2021).

8. Игнатовский Я., Иванов В. Deepfakes: где начинается угроза для личности и национальной безопасности? // Политген. 05.03.2020.

9. De waarheid over covid-19 en het klimaat door Premier Shophie Wilmes [Электронный ресурс] // URL: https://www.youtube.com/watch?v=k_e2 Akcu_bI&feature=emb_title (дата обращения: 08.07.2021).

10. Doctored Pelosi video highlights the threat of deepfake tech [Электронный ресурс] // URL: https: //www.youtube. com/watch?v=EfREntgxmDs&feature=emb_title (дата обращения: 08.07.2021).

11. Tayseer M., Mohammad J., Ababneh M., Al-Zoube A., Elhassan A. Digital Forensics and Analysis of Deepfake Videos // 11th International Conference on Information and Communication Systems (ICICS). April 2020.

12. Qi H., Guo Q., Juefei-Xu F., Xie X., Ma L., Feng W., Liu Y., Zhao J. Deep Rhythm: Exposing Deep Fakes with Attentional Visual Heartbeat Rhythms // Proceedings of the 28th ACM International Conference on Multimedia. October 2020. P. 4318-4327.

i Надоели баннеры? Вы всегда можете отключить рекламу.