Научная статья
УДК 34.096+347.23
https://doi.org/10.24158/tipor.2023.6.36
Анализ зарубежного правового регулирования дипфейков: проблема защиты интеллектуальной собственности
Антон Михайлович Постарнак
Независимый исследователь, Санкт-Петербург, Россия, [email protected], https://orcid.org/0009-0002-8361-4966
Аннотация. Статья посвящена рассмотрению проблем, возникающих при изменении различных произведений с помощью технологии «дипфейк» (обработка нейросетью уже существующего произведения другого автора в различных целях). Отмечено, что создание подобных контентов вызывает противоречие в сфере защиты интеллектуальной собственности, поскольку, с одной стороны, дипдейки представляют собой вторичный продукт, созданный с помощью искусственного интеллекта, не являющегося человеком, а значит, не имеющего авторских прав, а с другой - при их продуцировании используется уже существующий объект интеллектуальной собственности, нуждающийся в защите. Описаны механизмы правового регулирования сферы употребления дипфейков в рамках зарубежных законодательств; приведены российские регламентирующие нормы, затрагивающие выбранную тему. Исследованы мнения научного сообщества о наиболее вероятном пути устранения пробелов в законодательстве. Установлено, что основным подходом по защите авторских прав, используемым международным сообществом, является признание дипфейка интеллектуальной собственностью. Обозначена необходимость изменения российского законодательства с учетом направлений мирового развития.
Ключевые слова: информация, дипфейк, искусственный интеллект, авторское право, автор, интеллектуальная собственность, международное право
Финансирование: инициативная работа.
Для цитирования: Постарнак А.М. Анализ зарубежного правового регулирования дипфейков: проблема защиты интеллектуальной собственности // Теория и практика общественного развития. 2023. № 6. С. 269-273. https://doi.org/10.24158/tipor.2023.6.36.
Original article
Foreign Legal Regulation Analysis of Deepfakes: Intellectual Property Protection Issue
Anton M. Postarnak
Independent Researcher, St. Petersburg, Russia, [email protected], https://orcid.org/0009-0002-8361-4966
Abstract. The article examines the issues that arise when modifying various works with the help of "deepfake" technology (processing by a neural network of an already existing work of another author for various purposes). It is emphasized that the creation of such content causes contradictions in the field of intellectual property protection, since, on the one hand, deepfakes are a secondary product, created by means of artificial intelligence, which is not human and therefore does not have copyrights, and on the other hand, their production uses the already existing intellectual property object, which needs to be protected. Mechanisms of legal regulation of the deepfakes usage sphere in the framework of foreign legislations are described; Russian regulatory norms touching upon the chosen topic are given. Opinions of the scientific community on the most probable way of elimination of gaps in the legislation are investigated. It is deemed that the main approach to copyright protection used by the international community is the recognition of deepfakes as intellectual property. The necessity of changing the Russian legislation taking into account the trends of the world development is outlined.
Keywords: information, deepfake, artificial intelligence, copyright, author, intellectual property, international law
Funding: Independent works.
For citation: Postarnak, A.M. (2023) Foreign Legal Regulation Analysis of Deepfakes: Intellectual Property Protection Issue. Theory and Practice of Social Development. (6), 269-273. Available from: doi: 10.24158/ti-por.2023.6.36 (In Russian).
В современной действительности технологии начинают играть все большую роль в жизни людей. Если в недалеком прошлом с помощью технических средств записи возможно было запечатлеть слепок реального мира, а изменение или фальсифицирование аудиовизуальных произведений компьютерной графикой или другими средствами было заметно для обывателя и (или)
© Постарнак А.М., 2023
ПРАВО \-A\N
требовало значительных трудозатрат, то в настоящий момент дипфейки позволяют любому человеку практически в домашних условиях создать симуляцию какого-либо события, не отличимую от действительности. К счастью, современные технологии пока не позволяют с нуля создать симулякр (Бодрийяр, 2021), то есть копию оригинала, никогда не существовавшего в реальности. Вместе с тем, дипфейки уже способны внести значительные изменения в любое видео- или аудиопроизведение, полностью меняющие смысл изначального творения и существенно нарушающие права автора. Цель настоящего исследования - провести сравнительный анализ действующих подходов иностранных и российской юридических систем к способам защиты интеллектуальных прав, выяснить, необходимы ли какие-либо изменения законодательству России.
Указанная цель подразумевает выполнение следующих задач:
1. Рассмотрение действующего законодательства Российской Федерации в сфере защиты интеллектуальной собственности при изменении ее дипфейками.
2. Изучение международных теоретических и практических подходов по защите прав авторов.
3. Установление способов устранения выявленных в рамках исследования проблем.
Объект исследования - нормативно-правовые акты, регламентирующие механизмы защиты интеллектуальной собственности при изменении ее дипфейками.
Методология работы представлена использованием комплекса современных философских, общенаучных, специально-научных методов познания, включая диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др.
Перед началом исследования нужно определиться с самим понятием «дипфейк». С технической точки зрения оно обозначает технологию замены части видеоизображения на другую, схожую по роду. При этом с помощью использования искусственного интеллекта достигается максимальная на данный момент реалистичность получаемого изображения.
До анализа опыта зарубежных коллег необходимо обратить внимание на то, каким образом в системе российского права осуществляется защита интеллектуальной собственности при изменении ее дипфейками.
В отечественном праве отсутствуют определения «дипфейк» и «нейросеть» (Киселёв, 2021). Согласно положениям части 4 Гражданского кодекса Российской Федерации дипфейк нельзя признать отдельным объектом авторского права1 как производные произведения, поскольку действующее законодательство относит к субъектам творчества исключительно людей, соответственно, продукт, созданный искусственным интеллектом, не имеет защиты, так как не является результатом авторского (человеческого) труда.
В связи с тем, что дипфейк не является самостоятельным произведением, применение данной технологии к авторскому объекту не является использованием последнего путем переработки, соответственно, нарушает не исключительные права автора, а право на неприкосновенность произведения, установленное статьей 1266 Гражданского кодекса Российской Федерации2, которое является личным неимущественным правом гражданина. Защита данных прав осуществляется путем признания права, восстановления положения, существовавшего до нарушения права, пресечения действий, нарушающих право или создающих угрозу его нарушения, компенсации морального вреда, публикации решения суда о допущенном нарушении.
Научное сообщество на данный момент сходится во мнении, что действующее законодательство дает весьма ограниченную защиту как правообладателям произведения, так и создателям дипфейков (Калятин, 2022). Во время сессий на XI Петербургском международном юридическом форуме также регулярно озвучивались мнения о необходимости создания специального законодательства, учитывающего особенности использования технологий искусственного интеллекта в творчестве.3 Кроме того, неоднократно отмечалось, что техническая сторона судебного процесса нуждается в модернизации в связи с появлением данных технологий (Лаптев, 2021). Часть исследователей также выделяет проблему самого факта установления авторства уже измененного произведения (Рахматулина, 2022).
В международной практике в современном мире отсутствует консенсус по вопросу формата регулирования информации, созданной с помощью нейросети вообще и технологии ди-пфейка в частности.
1 Гражданский кодекс Российской Федерации (часть четвертая) от 24.11.2006 № 318-Ф3 (ред. от 05.12.2022) [Электронный ресурс]. Доступ из справ.-правовой системы «КонсультантПлюс».
2 Там же.
3 Правовое регулирование искусственного интеллекта: от возможности к необходимости [Электронный ресурс] // Росконгресс. Ш1_: https://clck.ru/34eprx (дата обращения: 21.05.2023).
В Соединенных Штатах Америки действует доктрина «добросовестного использования». Согласно ее базовому принципу, использование объекта авторского права не является нарушением авторских прав в случае соблюдения принципа «разумности» (Patterson, Lindberg, 1991: 59), то есть допускается переработка произведения в целях пародии, критики и т.д. Также перед американской судебной системой не встает вопроса о признании произведения, созданного нейросетью, в том числе дипфейка, отдельным объектом авторского права при условии наличия авторского замысла и достаточности творческих усилий, приложенных автором к формулированию запроса, предъявленного к нейросети.
Вместе с тем американские законодательные органы учитывают важность проработки механизма использования дипфейков, в связи с чем в США готовится отдельный закон, регулирующий сферу применения дипфейков (Иванов, Игнатовский, 2020). До создания такого закона часть американских штатов самостоятельно приняла локальные нормативные документы, направленные на установление механизма использования дипфеков. Правовое регулирование проблемы разительно отличается от штата к штату: в некоторых устанавливается обязанность по маркировке контента, произведенного с помощью искусственного интеллекта, в ряде других предусмотрены штрафы для лиц за распространение информации, имеющей вредоносный характер1. Так, в штате Калифорния до 01.01.2023 г. действовал закон, запрещавший создание дипфейков, затрагивающих деятельность политических фигур страны2.
Исследуя методы взаимодействия американского права с дипфейками, можно установить, что США придерживаются линии отнесения вопроса о признании дипфейка авторским произведением к компетенции органов судебной власти при одновременном установлении рамок использования указанной технологии законодательными органами. Данная позиция позволяет как сохранять дипфейки, несущие в себе творческую, авторскую субъектность, так и исключать из публичного пространства те из них, которые грубо нарушают права автора изначального произведения или третьих лиц. При этом необходимо отметить, что часть американских правоведов указывает на недостаточность действующего регулирования. Высказываются мнения, что дипфейки и позволяют создать уникальные произведения, подчас невозможные с точки зрения классического творчества, например, «воскрешение» уже умерших актеров в кинофильмах или создание музыкальных творений «от лица» классических композиторов прошедших эпох. Вместе с тем опасность, которую несут в себе дипфейки в разрезе политического влияния, а также возможность введения огромного количества людей в заблуждение перевешивают плюсы от использования данной технологии3.
Схожих взглядов придерживаются власти Китайской Народной Республики, которые запретили любое использование дипфейков без указания на «ложность» данной информации. В случае публикации их без соответствующей пометки лицо, совершившее данное деяние, будет привлечено к уголовной ответственности4. Вместе с тем, как отметила Администрация киберпространства Китая, принявшая данный закон, в связи с потенциальной угрозой для национальной безопасности в виде гипереалистичных видеороликов рассматривалась возможность полного запрета технологии дипфейков в Интернете5. Однако после оценки экономического потенциала указанной технологии для крупных китайских компаний от идеи полного запрета было решено отказаться.
Отличным примером выступает правовая ситуация, установленная на территории Европейского союза. Хоть на его территории и не принят нормативно-правой акт, который посвящен исключительно проблеме дипфейков, но на основе опыта стран-членов разрабатывается регламент, способный консолидировать разрозненные подходы и установить общую правовую позицию, касающуюся искусственного интеллекта.
Согласно Предложению по Постановлению Европейского Парламента и Совета, устанавливающему гармонизированные правила об искусственном интеллекте (Закон об искусственном интеллекте) и вносящему изменения в некоторые законодательные акты Союза6 планируется
1 ИИ не сможет защитить нас от дипфейков, утверждает новый доклад [Электронный ресурс] // Хабр. URL: https://habr.com/ru/news/468105/ (дата обращения: 25.05.2023).
2 Dent S. California Cracks Down on Political and Pornographic Deepfakes [Электронный ресурс] // Engadget. URL: https://clck.ru/34eq3P (дата обращения: 21.05.2023).
3 Sindhu A. Interventions on the Issue of Deepfakes in Copyright [Электронный ресурс] // WIPO. URL: https://clck.ru/34eq4n (дата обращения: 25.05.2023).
4 В Китае публикацию дипфейков отнесли к уголовным преступлениям [Электронный ресурс] // Хабр. URL: https://habr.com/ru/news/478362/ (дата обращения: 25.05.2023).
5 China Seeks to Root out Fake News and deepfakes with New Online Content Rules [Электронный ресурс] // Reuters. URL: https://clck.ru/34eq5v (дата обращения: 21.05.2023).
6 Proposal for a Regulation of the European Parliament and of the Council Laying down Harmonized Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts [Электронный ресурс] // EUR-lex. URL: https://clck.ru/34eqKG (дата обращения: 21.05.2023).
ПРАВО LAW
запретить на локальном уровне накладывать на авторов излишние ограничения при использовании искусственного интеллекта. Вместе с тем предполагается установить возможность запрета специфичных нейросетей, в первую очередь направленных на внушение потребителю заведомо ложной информации. Отнесение технологий, касающихся искусственного интеллекта, к перечню запрещенных будет осуществляться на основании риск-ориентированного подхода, учитывающего главные ценности европейского сообщества (конкурентность, экономическое и техническое развитие) (Степанян, 2021).
Крайне интересной для настоящего исследования является политика транснациональных компаний по предоставлению возможности размещения дипфейков на своих информационных ресурсах. В политике «Twitter», «Facebook»1 и «TikTok» относительно использования дипфейков есть некоторые различия.
«Twitter» запрещает использование дипфейковых видео и фотографий, так как они могут вводить в заблуждение пользователей и нарушать правила платформы. Если владелец страницы загружает дипфейковое видео или фотографию, его аккаунт может быть заблокирован без предупреждения.
«Facebook» также запрещает использование подобного контента, но не блокирует аккаунты пользователей за их использование. Вместо этого компания предупреждает их о том, что они используют дипфейки, и предлагает им удалить контент, если он нарушает правила платформы.
«TikTok» использует дипфейковый контент для своей бизнес-модели. Компания предлагает пользователям создавать и делиться своими дипфейками, чтобы заработать деньги на рекламе. Однако если контент нарушает правила «TikTok», компания может удалить его или заблокировать аккаунт пользователя.
Кроме того, социальные сети предпринимают шаги в направлении разработки технологий, которые позволят оперативно обнаруживать дипфейк контент.
Таким образом, анализ зарубежного законодательства в области защиты интеллектуальной собственности от дипфейка показал, что существуют различные подходы к решению проблемы. В некоторых странах уже приняты законы, которые регулируют использование подобных материалов, а также предусматривают ответственность за нарушение авторских прав. Несмотря на то, что в разных странах существуют различные подходы к регулированию данной проблемы, большинство из них государств признают необходимость защиты авторских прав и интеллектуальной собственности при создании и распространении дипфейков.
Наиболее эффективной, с нашей точки зрения, представляется концепция, при которой дипфейки признаются производными произведениями, что позволит их создателям пользоваться правой защитой, а авторам первоначальных произведений - реализовывать исключительное право на них. При этом оправданной является позиция, утверждающая необходимость сопровождения всех дипфейков специальной пометкой, содержащей указание о том, что это вторичное произведение и дающей ссылку на автора оригинала. Стоит отметить, что данная система применима исключительно к дипфейкам, имеющим художественную ценность и не направленным на совершение преступных деяний.
Кроме того, необходимо учитывать, что дипфейки могут обуславливать возникновение негативных последствий для общества и экономики, поэтому важно разрабатывать меры по их предотвращению. Для чего необходимо развивать технологии, которые позволяют обнаруживать подобный контент
Таким образом, нужно разграничить дипфейки-произведения и дипфейки, намерено искажающие информацию в преступных/политических целях. Наиболее подходящим способом для этого является ориентирование на мотив автора дипфейка и общественно-значимый эффект, производимый созданным им произведением.
Список источников:
Бодрийяр Ж. Символический обмен и смерть. М., 2021. 510 с.
Иванов В.Г., Игнатовский Я.Р. Deepfakes: перспективы применения в политике и угрозы для личности и национальной безопасности // Вестник Российского университета дружбы народов. Серия: Государственное и муниципальное управление. 2020. Т. 7, № 4. С. 379-386. https://doi.org/10.22363/2312-8313-2020-7-4-379-386.
Калятин В.О. Дипфейк как правовая проблема: новые угрозы или новые возможности? // Закон. 2022. № 7. С. 87103. https://doi.org/10.37239/0869-4400-2022-19-7-87-103.
Киселёв А.С. О необходимости правового регулирования в сфере искусственного интеллекта: дипфейк как угроза национальной безопасности // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2021. № 3. С. 54-64. https://doi.org/10.18384/2310-6794-2021-3-54-64.
Лаптев В.А. Deepfake и иные продукты искусственного интеллекта на пути развития онлайн-правосудия // Актуальные проблемы российского права. 2021. Т. 16, № 11 (132). С. 180-186. https://doi.org/10.17803/1994-1471.2021.132.11.180-186.
1 Владеющая «Фейсбуком» организация Meta признана экстремистской в Российской Федерации.
- 272 -
Рахматулина Р.Ш. Технология deepfake в праве интеллектуальной собственности // Юрист. 2022. № 2. С. 52-55. https://doi.org/10.18572/1812-3929-2022-2-52-55.
Степанян А.Ж. Регламент Европейского союза об искусственном интеллекте (Artificial Intelligence Act): первый взгляд на проект // Вестник Университета имени О.Е. Кутафина (МГЮА). 2021. № 7 (83). С. 93-98. https://doi.org/10.17803/2311-5998.2021.83.7.093-098.
Patterson L.R., Lindberg S.W. The Nature of Copyright: A Law of User' Rights. Athens, 1991. 274 р.
References:
Bodriiyar, Zh. (2021) Simvolicheskii obmen i smert' [Symbolic Exchange and Death]. Moscow. 510 р. (In Russian). Ivanov, V. G. & Ignatovskiy, Ya. R. (2020) Deepfakes: Prospects for Political Use and Threats to the Individual and National Security. RUDN Journal of Public Administration. 7 (4), 379-386. Available from: doi:10.22363/2312-8313-2020-7-4-379-386. (In Russian).
Kalyatin, V. O. (2022) Deepfake as a Legal Problem: New Threats or New Opportunities? Statute. (7), 87-103. Available from: doi: 10.37239/0869-4400-2022-19-7-87-103. (In Russian).
Kiselev A. S. (2021) On the Expansion of Legal Regulation in the Field of Artificial Intelligence: Deepfake as a Threat to National Security. Bulletin of Moscow Region State University. Series: Jurisprudence. (3), 54-64. Available from: doi:10.18384/2310-6794-2021-3-54-64. (In Russian).
Laptev, V. A. (2021) Deepfake and Other Artificial Inntelligence Products on the Way to the Development of Online Justice. Actual Problems of Russian Law. 16 (11 (132)), 180-186. Available from: doi:10.17803/1994-1471.2021.132.11.180-186. (In Russian). Patterson, L. R. & Lindberg, S. W. (1991) The Nature of Copyright: A Law of User' Rights. Athens. 274 р. Rakhmatulina, R. Sh. (2022) The Deepfake Technology in Intellectual Property Law. Yurist. (2), 52-55. Available from: doi:10.18572/1812-3929-2022-2-52-55. (In Russian).
Stepanian, A. G. (2021) The European Union Artificial Intelligence Act: the First Look at the Project. Courier of the Kutafin Moscow State Law University (MSAL). (7 (83)), 93-98. Available from: doi:10.17803/2311-5998.2021.83.7.093-098. (In Russian).
Информация об авторе А.М. Постарнак - независимый исследователь, главный специалист-эксперт отдела по делам некоммерческих организаций Главного управления Министерства юстиций Российской Федерации по Санкт-Петербургу и Ленинградской области, Санкт-Петербург, Россия.
Конфликт интересов:
автор заявляет об отсутствии конфликта интересов.
Information about the author A.M. Postarnak - Independent Researcher, Chief Specialist-Expert, Non-Profit Organizations Affairs Department, Main Department of the Ministry of Justice of the Russian Federation for St. Petersburg and the Leningrad Region, St. Petersburg, Russia.
Conflicts of interests:
The author declares no conflicts of interests.
Статья поступила в редакцию / The article was submitted 01.05.2023; Одобрена после рецензирования / Approved after reviewing 29.05.2023; Принята к публикации / Accepted for publication 27.06.2023.
Автором окончательный вариант рукописи одобрен.