Научная статья на тему 'ПРАВОВЫЕ АСПЕКТЫ РЕГУЛИРОВАНИЯ "DEEPFAKE" ТЕХНОЛОГИИ В РОССИИ'

ПРАВОВЫЕ АСПЕКТЫ РЕГУЛИРОВАНИЯ "DEEPFAKE" ТЕХНОЛОГИИ В РОССИИ Текст научной статьи по специальности «Право»

CC BY
538
115
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
DEEPFAKE / ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / СКВОЗНЫЕ ТЕХНОЛОГИИ / ЦИФРОВИЗАЦИЯ / НАЦИОНАЛЬНАЯ БЕЗОПАСНОСТЬ

Аннотация научной статьи по праву, автор научной работы — Данилова Валерия Александровна, Левкин Дмитрий Михайлович

В статье дается характеристика потенциала применения технологий deepfake. Сделан акцент на том, что уже в ближайшем будущем deepfakes может затронуть различные уровни общественной и политической жизни и способствовать распространению широкого спектра угроз, начиная репутационными рисками публичных личностей, заканчивая проблемами национальной безопасности целых государств.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

LEGAL ASPECTS OF THE REGULATION OF "DEEPFAKE" TECHNOLOGY IN RUSSIA

The article describes the potential application of deepfake technologies. The emphasis is placed on the fact that in the near future deepfakes may affect various levels of public and political life and contribute to the spread of a wide range of threats, starting with reputational risks for celebrities, ending with the national security problems of entire states.

Текст научной работы на тему «ПРАВОВЫЕ АСПЕКТЫ РЕГУЛИРОВАНИЯ "DEEPFAKE" ТЕХНОЛОГИИ В РОССИИ»

DOI 10.47643/1815-1337_2022_7_88 УДК 342

ПРАВОВЫЕ АСПЕКТЫ РЕГУЛИРОВАНИЯ «DEEPFAKE» ТЕХНОЛОГИИ В РОССИИ Legal aspects of the regulation of "Deepfake" technology in Russia

ДАНИЛОВА Валерия Александровна,

кандидат юридических наук, доцент кафедры «Государственно-правовые дисциплины»

Пензенского государственного университета.

440026, Россия, Пензенская обл., г. Пензха, ул. Красная, 40.

E-mail: v_danilova@list.ru;

ЛЕВКИН Дмитрий Михайлович,

студент Юридического института Пензенского государственного университета. 440026, Россия, Пензенская обл., г. Пензха, ул. Красная, 40. E-mail: v_danilova@list.ru;

Danilova V.,

associate professor, candidate of jurisprudence

The Department of state and legal disciplines of the Penza state university. 40 Krasnaya str., Penza, Penza region, 440026, Russia. E-mail: v_danilova@list.ru;

Levkin D.,

student of the law institute Penza State University. 40 Krasnaya str., Penza, Penza region, 440026, Russia. E-mail: v_danilova@list.ru

Краткая аннотация: В статье дается характеристика потенциала применения технологий deepfake. Сделан акцент на том, что уже в ближайшем будущем deepfakes может затронуть различные уровни общественной и политической жизни и способствовать распространению широкого спектра угроз, начиная репутационными рисками публичных личностей, заканчивая проблемами национальной безопасности целых государств.

Abstract: The article describes the potential application of deepfake technologies. The emphasis is placed on the fact that in the near future deepfakes may affect various levels of public and political life and contribute to the spread of a wide range of threats, starting with reputational risks for celebrities, ending with the national security problems of entire states.

Ключевые слова: deepfake, технологии искусственного интеллекта, сквозные технологии, цифровизация, национальная безопасность.

Keywords: deepfake, artificial intelligence technologies, end-to-end technologies, digitization, national security.

Статья поступила в редакцию: 25.05.2022

«Математика - царица всех наук...» Эта фраза принадлежит Карлу Гауссу, известному немецкому ученому. Но можно было бы тогда, в 18 веке представить как стандартные математические формулы смогут упростить нашу жизнь сейчас? В 21 веке?

Идея математического равенства, технологической сингулярности и искусственного интеллекта. Что это? Красивые и броские названия для первых заголовков бумажной прессы или наша жизнь, наша действительность, наша реальность? Кеми бы мы могли стать без интернета вещей? Без тех технологий, которыми мы обладаем здесь и сейчас?

Не нужно ходить вокруг да около, чтобы сказать, что человечество за прошедшие 20 лет сделало невероятный скачок в сфере изобретений, в сфере науки. Мало кто будет задумываться о том, что скрывается за приложением «Погода» на нашем смартфоне. Хотя если так разобраться, то метеорология давно и прочно срослась с таким понятием как Искусственный Интеллект и Нейросети. То на, что раньше требовался штат сотрудников, которые часами сидели в расчетах и прогнозах, теперь требует лишь компьютера, который будет анализировать и составлять график не хуже целого отряда специалистов, посвятивших учебе добрые пару лет своей жизни. Может Уолтер Питтс и не предполагал, что изобретенная в сотрудничестве с Уорреном Мак-Каллоком модель математический нейронной сети станет настолько актуальной и востребованной практически через век своего существования? Может Хакимов, разрабатывая модель нелинейной синапсической связи даже не предполагал, что ее в последствии будут использовать повсеместно? И, может быть, Фукусима даже мечтать не мог о том, что когнитрон будет использоваться для управления машинами на дороге? Но все это в той или иной мере, подводит нас к тому, что современное общество не может обойтись без технологий, основанных на искусственном интеллекте и нейронных связей, ведь они повсюду, начиная от просчета погоды, заканчивая расчетами в области ядерной энергетики. Может быть даже, что следующий источник энергии будет открыт совсем не человеком [8].

Но как у всего, у искусственного интеллекта есть свои положительные и отрицательные стороны. Технологии искусственного интеллекта относятся к технологиям четвертой промышленной революции. Они применяются во всех сферах жизнедеятельности человека: для развития экономики и социальной сферы; обеспечения правопорядка в обществе, национальной безопасности. Но данные сквозные технологии могут быть использованы и для целей криминального характера. Но нужно было бы отметить, что в современном мире усиливается тенденция внедрения технологий ИИ в различные виды государственной деятельности. Она определена такими факторами, как: технологические решения, принимаемые на основе ИИ, оказывают положительное воздействие на результативность деятельности различных организаций и человека, прежде всего в сфере правопорядка; высокая открытость и простота использования средств для выработки на основе AI технологий принятия управленческих решений; большая потребность в обработке огромных массивов данных, создаваемых как человеком, так и техническими устройствами, для повышения эффективности экономической и управленческой деятельности.

Технологии ИИ наделяют роботов, робототехнику, машинные программы свойством реализовывать интеллектуальные и творческие возможности людей, самостоятельно искать и находить способы решения поставленных задач, делать выводы и принимать решения.

На практике уже сейчас технологии ИИ находят применение при реализации различных видов правоохранительной деятельности в РФ. В их числе анализ оперативной обстановки в городах; анализ видеоизображений с камер с целью розыска правонарушителей; контроль и управление дорожным движением в городах, на платных участках дорог между населенными пунктами; биометрическая идентификация лиц, что встречается как в метро, так и в магазинах, где чтобы оплатить товар, нужно его всего лишь взять с полки и выйти за пределы магазина; распознавание номеров автомашин, с целью выявления и моментального наказания нарушителя; розыск лиц, скрывающихся от органов дознания, следствия, правосудия, службы в армии, поиск людей по соцсетям и другие примеры.

В современном мире AI-технологии применяют в целях профилактики совершения преступлений и криминологического прогнозирования еще с 2004 г. Основная цель их использования - обеспечение безопасности граждан, общества и государства, в том числе и путем противодействия криминальным возможностям их применения. Ведь технологии ИИ имеют большие возможности быть реализованными в преступных целях путем приобретения программных и аппаратных элементов этих систем, а также открытой возможности ознакомиться с новейшими разработками IT-фирм.

Отечественные и зарубежные авторы убеждены, что в ближайшие годы всё большее количество сфер нашей жизни будут преобразовываться благодаря цифровизации, соответственно, будут появляться новые цифровые угрозы национальной безопасности. Для того, чтобы научиться им противостоять, требуются всецелое теоретическое осмысление их сущности, свойств, функциональных особенностей, а также определение правового положения технологических новшеств, законодательное закрепление пределов их использования и ответственности за неправомерные действия. Наибольший скепсис у большинства пользователей вызывают намерения некоторых организаций в будущем проводить аутентификацию исключительно с помощью биометрических параметров. Так еще в 2019 г. была подготовлена правовая основа и введена в действие государственная программа по созданию единой системы биометрических данных (ЕБС) в России, к которой присоединилось большинство банков страны, в том числе и один из крупнейших банков в России - Сбербанк. Именно Сбербанк стал лидером по сбору биометрии и обещает уже к концу 2021 г. предоставлять многие услуги с помощью биометрии [3]. С помощью СберГО - системы распознавания людей по физическим характеристикам (лицу и голосу) - клиенту проще, например, оплатить услуги ЖКХ или провести иной платёж, получить кредит и тд. Именно поэтому в России в рамках действия единой биометрической системы предусмотрена повышенная степень защиты данных. Одним из главных принципов системы является многоуровневая аутентификация: помимо голоса для идентификации ещё используется фото лица, при этом специальная программа считывает расстояние от носа до глаз и от носа до губ, которые у каждого человека индивидуально. Для удалённой идентификации необходима комбинация голоса, лица и некоторых других параметров, при этом используется защита, исключающая подмену фотографий. Можно было предположить, что единое решение найдено, и с введением подобной системы не стоит опасаться за безопасность своего банковского счёта [10]. Но к сожалению или к счастью, ничего просто так не бывает. Как и во всех других случаях есть лазейка, позволяющая нарушить принцип безопасности, в данном случае - это DeepFake. Дипфейками называют реалистичную замену лиц и голоса посредством использования генеративно-состязательных нейросетей. В основе дипфейка лежит нейросеть, которая детально изучает лицо человека, а затем подставляет к исходному файлу лицо «реципиента», т. е. с максимальной реалистичностью «оживляет» изображение человека и заставляет его говорить и делать то, чего он не делал и не говорил. Саму технологию разработал студент Стэнфордского университета Ян Гудфеллоу в 2014 г. О массовом использовании программы тогда речи не шло. Хотя надо отдать должное, что технология служит и на благо. Так в современном кинематографе достаточно часто применяется технология «омоложения» актеров, что работает на тех алгоритмах, что и упомянутый раннее DeepFake. На сегодняшний день существует несколько разновидностей дипфейков: звуковые, фото- и видео дипфейки. Одна из самых популярных программ - DeepFaceLab, открытое ПО от российского разработчика, называющего себя iperov. Позволяет не только вставлять лицо в видео, но и менять движения губ говорящего, т. е. подделывать содержание речи. Компания Vera voice на текущий момент достаточно далеко продвинулась в создании голосовых дипфейков, которые невозможно отличить от оригинала без помощи компьютерных программ. Сейчас инженеры воссоздают голоса певцов и поэтов по фрагментам оставшихся фонограмм. Так можно спокойно услышать вариацию песню «Трава у дома» голосом Илона Маска. Прослушав несколько часов записи голоса человека, нейросеть сможет точно его скопировать и воспроизвести любой текст. Речь звучит реалистично, голоса, создаваемые нейросетью, уже говорят практически без ошибок и «машинного» акцента. Разработчики считают, что технология пригодится в озвучивании книг, игр, фильмов, создании голосовых ассистентов. Создатели понимают, что Vera Voice можно использовать как для невинных розыгрышей, так и в мошеннических целях. Фальсификация голосов политиков и других влиятельных людей может привести к серьёзным последствиям, поэтому авторы проекта сейчас находятся в поиске легальных и безопасных способов использования Vera Voice [9]. Нейросети посредством обучения на основе произведений известных композиторов также способны самостоятельно генерировать классическую музыку. Несмотря на позитивный вектор развития, в 2018 г. много шума наделало видео с Бараком Обамой, который нелестно отзывался о 45-м президенте США Дональде Трампе. Этот дипфейк сделал режиссер Джордан Пил вместе с изданием BuzzFeed, чтобы продемонстрировать, насколько далеко шагнули технологии и почему нужно тщательно проверять источники информации и не верить своим глазам. В последние два года индустрия переживает бурный рост: программ для создания дипфейков становится всё больше, а правовое регулирование за распространение ложной информации отсутствует.

В правовом поле на данный момент не закреплены такие термины, как «дипфейк», «нейростеть», однако они уже стали неотъемлемой частью современной жизни. Их применение может как служить благим целям, так и использоваться при совершении преступлений. Запретить

использование нейросетей не представляется возможным, также невозможен учёт лиц, применяющих нейросети - любой человек может установить программу на компьютер или написать собственную. Полагаем, что стоит сконцентрировать основное внимание на установлении административной или уголовной ответственности за совершение неправомерных действий посредством применения нейросетей. В соответствии с Указом Президента № 490 была разработана и принята Национальная стратегия развития искусственного интеллекта на период до 2030 г. [1] (Стратегия 2030), в которой определяются цели и основные задачи развития искусственного интеллекта в Российской Федерации и закрепляется общий подход: «Использование технологий искусственного интеллекта в отраслях экономики носит общий («сквозной») характер и способствует созданию условий для улучшения эффективности и формирования принципиально новых направлений деятельности хозяйствующих субъектов». В январе 2021 г. планировалось запустить экспериментальные правовые режимы - «цифровые песочницы», - которые позволят гибко подходить к регулированию деятельности в данных сферах, в т. ч. временно отменять действующие предписания, запреты или вводить новые, если это понадобится для нормального функционирования экспериментального режима [11].

Также при использовании данных систем слежения с искусственным интеллектом ставится вопрос о нарушении прав человека на личную, частную жизнь. Но имеется решение Савеловского районного суда г. Москвы за ноябрь 2019 г. об отказе в удовлетворении иска одной гражданки, проживающей в столице. Она добивалась признать незаконным использование данных систем слежения и распознавания. Суд пришел к выводу, что действия столичных властей по их применению не являются вмешательством в частную жизнь граждан. Было констатировано, что данная система не может идентифицировать личность человека, так как в ЕЦХД (Единый центр хранения данных) не хранятся биометрические данные. Личность можно определить только в случае наличия фотографий в базах данных правоохранительных органов. Также суд отметил, что сотрудники ОВД используют доступ к ЕЦХД только для выполнения возложенных служебных обязанностей при розыске лиц, которые скрываются от правосудия, службы в армии, а также пропавших без вести, находящихся под административным надзором.

Решение проблем с незаконным размещением дипфейков на сегодняшний день в сети можно осуществить, используя ч. 1 ст. 152.1. «Охрана изображения гражданина». Но тут же существует огромная пропасть с тем, что фото или видео с изображением человека имеет существенное различие с дипфейковыми аналогами. Так создав дипфейк, где человек совершает противоправные действия, можно сильно подорвать репутацию этого самого гражданина. Таким образом, необходимо сказать, что требуется правовое регулирование не только в отрасли уголовного права, но и в гражданско-правовой отрасли, а также и административной. Нейросети позволяют создавать образы политиков, которые несут ответственность перед всем миром. Дипфейк позволяет синтезировать не только внешность, но и голос, именно по этой причине в США дипфейки признали на государственном уровне угрозой национальной безопасности. Ведь, Deepfake может стать новой «ядерной бомбой» для преступников. Возвращаясь к опыту Америки, в штате Калифорния некоторые виды дипфейков запретили на уровне штата и предусмотрели ответственность за их противоправное использование [2]. В свою очередь, власти Китая пошли ещё дальше: они объявили любую публикацию заведомо ложной информации, в том числе с применением дипфейков, уголовным преступлением. Согласно новым нормам, все дипфейки нужно будет отмечать специальной пометкой, которая будет предупреждать пользователей о том, что это ненастоящая новость [5].

Для Российской Федерации стоит задача в виде издания нового закона, поскольку единственный на данный момент в России Федеральный закон № 123-Ф3 «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных», регулирующий сферу применения искусственного интеллекта, не распространяет своё действие на сферу пользования нейросетями частными лицами.

В связи с этим особую важность приобретает нормативно-правовое регулирование данной технологии. Во-первых, необходимо внести в правовую базу термин «Deepfake» или же «Заведомо ложный материал, основанный на методе синтеза с использованием искусственного интеллекта».

Во-вторых, следует ввести ответственность за распространение в сети «заведомо ложных материалов, основанных на методе синтеза с использованием искусственного интеллекта с целью опорочить деловую репутацию или честь». В статью 207.1. УК РФ «Публичное распространение заведомо ложной информации об обстоятельствах, представляющих угрозу жизни и безопасности граждан» необходимо добавить определение, что обстоятельствами, представляющими угрозу жизни и безопасности граждан, так же несет и распространение поддельных видеоаудио материалов с использованием технологии «DeepFake» [6].

В-третьих, в статью Гражданского кодекса 152 о «Защите чести, достоинства и деловой репутации» необходимо добавить определение, что материалы, созданные искусственным путем с применением «DeepFake» технологии с целью опорочить честь и достоинство, так же несут за собой юридическую ответственность.

В-четвертых, требуется внести дополнения в раздел 5 ГК РФ в ст. 1112 «Наследство», а гл. 65 ГК РФ «Наследование отдельных видов имущества» дополнить новой статьей «Наследование цифрового образа личности и прав на его использование». Поскольку по своей природе цифровой образ личности наиболее близок институту интеллектуальной собственности, так как являет собой нематериальное право.

В-пятых, необходимо продумать возможность верификации материалов в сети интернет на содержание заведомо ложных материалов, созданных путем синтеза с использованием искусственного интеллекта. Требуется разработать механизм, который позволит отслеживать и распознавать контент, созданный путем «Deepfake» технологии.

Неоспоримо то, что распространение опасных «материалов, основанных на методе синтеза с использованием искусственного интеллекта» должно сдерживаться и при помощи внедрения и совершенствования механизмов верификации. Частные лица, социальные медиаплат

формы и особенно СМИ, влияющие на сознание людей, должны иметь в своем арсенале, инструменты для быстрого и эффективного тестирования информационных сообщений, аудио- и видеозаписей, которые они подозревают в подделке. Необходимо, чтобы конечные пользователи, а именно люди были в состоянии определить, является ли подлинной информация, которую они просматривают и которой делятся с другими. Таким образом, одним из способов противоборства является и развитие сервисов и инструментов проверки [4]. Необходимо создать аналог, который будет решать, что правда, а что ложь. Так, специалисты по информационной безопасности в разных странах сходятся в том, что для борьбы с распространением общественно опасных «материалов, созданных путем использования DeepFake технологии» необходимо повышать осведомленность общественности, развивать технологии обнаружения и внедрять новые законы, регулирующие эту перспективную сферу [7].

Основная проблема материалов, созданных путем DeepFake технологии, на сегодняшний день заключается в том, что сфера искусственного интеллекта слабо охраняется и регулируется законом. Интернет сегодня охватывает практически весь земной шар, поэтому распространение угроз, которые несёт «DeepFake», может происходить повсеместно. Такие шаги, как обязательная маркировка медиа, повышенная проверка контента являются в своем роде неизбежным порождением технологического прорыва.

Библиогра фия:

1. Указ Президента РФ от 10.10.2019. № 490 «О развитии искусственного интеллекта в Российской Федерации» // Президент России: [сайт]. URL: http://www.kremlin.ru/acts/bank/44731 (дата обращения: 17.05.2022).

2. Dent S. California cracks down on political and pornographic deepfakes // Engadget : [сайт]. URL: https://www.engadget.com/2019-10-07california-deepfake-pornography-politics.html(дата обращения: 17.05.2022).

3. Биометрия в Сбербанке // Сбербанк: [сайт]. URL: https://www.sberbank.ru/ru/person/dist_ services/bio (дата обращения: 17.05.2022).

4. Бочаров А. Б., Демидов М. О. Технология фактчекинга в борьбе с «Информационным мусором»: проблемы и перспективы // Управленческое консультирование. 2020. №12 (144). URL: https://cyberleninka.ru/article/n/tehnologiya-faktchekinga-v-borbe-s-informatsionnym-musorom-problemy-i-perspektivy (дата обращения: 17.05.2022).

5. В Китае публикацию дипфейков отнесли к уголовным преступлениям // Хабр: [сайт]. URL: https:// habr.com/ru/news/t/478362 (дата обращения:

17.05.2022).

6. Иванов В. Г., Игнатовский Я. Р. Deepfakes: перспективы применения в политике и угрозы для личности и национальной безопасности // Вестник Российского университета дружбы народов. Серия: Государственное и муниципальное управление. 2020. № 4. С. 379-386.

7. Масленкова Н. А. Дипфейк: пользовательский контроль визуального контента в интернете // Пользовательский контент в современной коммуникации: сборник / сост. И. В. Топчий. Челябинск, 2021. С. 186-189.

8. Нейронная сеть // Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов. — М. : Большая российская энциклопедия, 2004—2017.

9. Нейросеть Vera Voice точно имитирует голоса людей // DNS Клуб: [сайт]. URL: https://club.dns-shop.ru/digest/22282-neiroset-vera-voice-tochno-imitiruetgolosa-ludei(дата обращения: 17.05.2022).

10. О единой биометрической системе [Электронный ресурс]. URL: https://bio.гt.ru/about(дата обращения: 17.05.2022).

11. Утверждена концепция правового регулирования искусственного интеллекта // Российская газета: [сайт]. URL: https://rg.ru/2020/08/24/utverzhdenakoncepciia-pravovogo-regulirovaniia-iskusstvennogointellekta.html(дата обращения: 17.05.2022).

References:

1. Decree of the President of the Russian Federation No. 490 dated 10.10.2019 "On the development of artificial intelligence in the Russian Federation" // President of Russia: [website]. URL: http://www.kremlin.ru/acts/bank/44731 (accessed: 05/17/2022).

2. Dent S. California cracks down on political and pornographic deepfakes // Engadget : [website]. URL: https://www.engadget.com/2019-10-07california-deepfake-pornography-politics.html (accessed: 05/17/2022).

3. Biometrics in Sberbank // Sberbank: [website]. URL: https://www.sberbank.ru/ru/person/dist_ services/bio (accessed: 05/17/2022).

4. Bocharov A. B., Demidov M. O. Technology of fact-checking in the fight against "Information garbage": problems and prospects // Managerial consulting. 2020. №12 (144). URL: https://cyberleninka.ru/article/n/tehnologiya-faktchekinga-v-borbe-s-informatsionnym-musorom-problemy-i-perspektivy (date of appeal: 05/17/2022).

5. In China, the publication of dipfakes was attributed to criminal offenses // Habr: [website]. URL: https:// habr.com/ru/news/t/478362 (accessed: 05/17/2022).

6. Ivanov V. G., Ignatovsky Ya. R. Deepfakes: prospects of application in politics and threats to personality and national security // Bulletin of the Peoples' Friendship University of Russia. Series: State and Municipal Administration. 2020. No. 4. pp. 379-386.

7. Maslenkova N. A. Deepfake: user control of visual content on the Internet // User content in modern communication: collection / comp. I. V. Topchy. Chelyabinsk, 2021. pp. 186-189.

8. Neural network // Big Russian Encyclopedia: [in 35 t.] / chief editor Yu. S. Osipov. — M. : Big Russian Encyclopedia, 2004-2017.

9. Neural network Vera Voice accurately imitates the voices of people // DNS Club: [website]. URL: https://club.dns-shop.ru/digest/22282-neiroset-vera-voice-tochno-imitiruetgolosa-ludei (date of reference: 17.05.2022).

10. About the unified biometric system [Electronic resource]. URL: https://bio.rt.ru/about (accessed: 05/17/2022).

11. The concept of legal regulation of artificial intelligence has been approved // Rossiyskaya Gazeta: [website]. URL: https://rg.ru/2020/08/24/utverzhdenakoncepciia-pravovogo-regulirovaniia-iskusstvennogointellekta.html( date of application: 05/17/2022).

i Надоели баннеры? Вы всегда можете отключить рекламу.