К ВОПРОСУ О ПРАВОВОМ РЕГУЛИРОВАНИИ ДИПФЕЙКОВ Ващенко Д.Г.1, Оруспай Э.А.2, Степаненко О.Г.3
!Ващенко Денис Григорьевич - студент; 2Оруспай Эртине Алексеевич - студент; 3Степаненко Ольга Геннадьевна - кандидат социологических наук, доцент,
кафедра гражданское право, Восточно-Сибирский филиал Федерального государственного бюджетного образовательного учреждения высшего образования «Российский государственный университет правосудия», г. Иркутск
Аннотация: технологии искусственного интеллекта, стремительно развивающихся в современном мире, создали опасность для гражданского права. Дипфейк, в переводе с английского означает «глубокая подделка», породил ряд проблем, с которыми сталкивается правоприменитель при охране объектов авторских и смежных с ними прав (далее смежных прав). Хоть технология и зарекомендовала себя как полезная программа, она набрала множество отрицательных отзывов людей, опасающихся возможности нарушения своих прав, а также лиц, уже столкнувшихся с данной проблемой. Таким образом, потенциальная угроза в виде дипфейков становится более значимой и требует внимания не только со стороны законодателя, но и общества в целом.
Цель исследовательской работы - определение проблемы в сфере правового регулирования авторских и смежных прав в России, связанной с использованием дипфейков. Работа направлена на выявление опасностей неправомерного использования такой технологии, поиск способов регулирования данной проблемы.
В соответствие с указанной целью поставлены следующие конкретные задачи:
1.Оценка влияния дипфейков на гражданское право.
2.Нахождение возможных путей решения проблем гражданско-правового регулирования дипфейков.
3.Поиск преимуществ технологии нейросетей для будущего. Методологическая основа исследования представлена общенаучными, частно-научными методами познания, такими как формально-логический, системный, формально-юридический.
Ключевые слова: авторское право, объекты авторских прав, нейросети, дубляж, дипфейки, правовое регулирование.
Успешный научно-технический прогресс и переход к информационному обществу создали новые аспекты в области авторских прав. Однако из-за ограниченности гражданского законодательства России новые объекты авторских прав оставались без должного правового регулирования и защиты. Это могло привести к серьезным последствиям, таким как постоянные
нарушения прав физических и юридических лиц, индивидуальных предпринимателей и авторов, упущенные возможности для развития, сложности в правоприменительной практике и замедление экономического и научного роста.
Одной из основных проблем в сфере авторских прав в киберпространстве является возможность изъятия любой информации, будь то голос или внешность человека, и использование их в Интернете.
Технологии позволяют сохранить уникальные характеристики голоса и речи человека, создавая иллюзию подлинности, которую легко подделать. Например, голоса актеров озвучки могут быть легко воссозданы при помощи искусственного интеллекта и нейросетей. Через специальные программы анализируются аудио- и видеоматериалы, из которых извлекаются особенности тембра и типа голоса. Полученные данные затем могут быть использованы для различных целей.
В 2019 году актриса дубляжа Алёна Андронова заключила договор с банком «Тинькофф» на запись большого объёма текста для виртуального помощника. Она активно участвовала в развитии этой системы, передала свой "голос", интеллектуальное право, на пользование банку на год. "Тинькофф.Банк" пояснил, что записанные образцы всего лишь тестовые, которые помогут создать и настроить нейросеть, а её голос в финальной версии звучать не будет, поэтому не оставлял поводов для беспокойства. Спустя время актриса обнаружила, что её голос находится в открытом доступе для синтеза, а также продается на многих сторонних платформах, из-за чего Алёна лишилась части работы. В ответ на претензии Андроновой представители банка предложили ей денежную компенсацию, равную стоимости одного-двух месяцев её работы. Актрису не устроила эта сумма, и она обратилась в суд. Тембр голоса, особенности и тип речи - всё было положено в основу создания помощника, но сама актриса осталась ни с чем, её голос "украли" Благодаря созданной нейросети, "Тинькофф.Банк" получил бесплатного виртуального ассистента, который может воспроизводить любые фразы, не обращаясь к актрисе, озвучившей оригинальные звукозаписи.
Как утверждает Киселёв А.С.: «Никакой гражданско-правовой или уголовной ответственности за подобные действия в настоящий момент не предусмотрено, что порождает достаточно большой спектр для неограниченного круга лиц по использованию образа знаменитости в коммерческих целях» [6].
Относительно новым явлением в области права и серьезным вызовом для законодателей является результат применения технологии, основанной на искусственном интеллекте - дипфейк.
Дипфейк - это продвинутый вид манипуляции с медиа-материалами, включая фото, видео и аудиозаписи. С использованием сложных алгоритмов и искусственного интеллекта, этот процесс позволяет синтезировать фото или видео, соединяя его с другими материалами. Уникальность технологии заключается в том, что она способна учиться на основе опыта и избегать
повторения ошибок, что делает полученные результаты трудно отличимыми от оригинала. В случае аудиозаписей, технология сохраняет особенности голоса и речи человека, создавая убедительную иллюзию оригинальности как содержания, так и интонаций.
Результат почти невозможно отличить от подделки, ведь в возможность большого процента сходства вложен колоссальный труд разработчиков нейросети и энтузиастов, принимающих участие в её развитии.
Если же рассмотреть дипфейк с точки зрения гражданского законодательства, можно ли расценивать подобные действия - как производное произведение, то есть обработка произведения другого автора, при получении его согласия? Согласно статье 1260 Гражданского кодекса Российской Федерации (далее ГК РФ): «Автор производного или составного произведения осуществляет свои авторские права при условии соблюдения прав авторов произведений, использованных для создания производного или составного произведения» [3]. Это означает, что лицо, создавшее дипфейк, соблюдая права автора произведения, на основе которого было создано производное произведение, то есть дипфейк, будет являться автором, соответственно дипфейк - объектом авторских прав.
Но тут не следует забывать про важный момент, что «автором произведения науки, литературы или искусства признается гражданин, творческим трудом которого оно создано», из этого следует, что создание дипфейка без творческого участия человека не дает возможности отнести дипфейк к категории производного произведения, соответственно, к объектам авторских прав отнести дипфейк также будет нельзя.
Так же важным моментом является то, что даже если в производном произведении есть признаки творческого труда, но при этом дипфейк порочит честь, достоинство или деловую репутацию автора, на которое создаётся производное произведение, то последний имеет право на защиту и восстановление нарушенных его личных неимущественных прав, об этом говорит статья 1266 ГК РФ: «Извращение, искажение или иное изменение произведения, порочащее честь, достоинство или деловую репутацию автора, равно как и посягательство на такие действия, дают автору право требовать защиты его чести, достоинства или деловой репутации».
Но технология нейросетей зашла настолько далеко, что способна, как сказано ранее, копировать голос человека и генерировать его в речь, что дает неограниченные возможности для тех, кто использует данную технологию. А голос человека, занимающегося дубляжом видеоигр, фильмов, реклам не входит в перечень объектов авторских прав. А это важная проблема в эпохе быстроразвивающегося искусственного интеллекта, ведь нейросеть, на основе голоса актёра дубляжа, может сгенерировать такую речь, которую актёр никогда не произносил. Из этого следует, что тем, кому нужна озвучка реклам, фильмов или видеоигр, можно не обращаться за помощью к актёрам дубляжа и не выплачивать им вознаграждение, что является серьёзной проблемой защиты авторских прав.
Однако согласно Постановлению Пленума Верховного суда Российской Федерации (далее ПП ВС РФ) от 23.04.2019 №10 «О применении части четвертой Гражданского кодекса Российской Федерации»: «Перечень объектов авторских прав, содержащихся в пункте 1 статьи 1259 ГК РФ, не является исчерпывающим» [7], значит возможно допустить то, что голос всё же находится под гражданско-правовой защитой, а его недобросовестное использование - нарушение авторских прав, за что предусмотрена ответственность разного рода - уголовная, административная и, конечно, гражданско-правовая.
Проанализировав нормативно-правовую базу, которая регулирует авторские и смежные права, можно увидеть необходимость четко регламентировать правовое санкционирование использования нейросети в данной сфере.
При этом дипфейки могут быть реальной угрозой и для других сфер жизни, например:
1. Дипфейки могут создавать иллюзию реальных событий с участием важных государственных лиц, распространять фейк-новости о событиях, даже не случавшихся в реальности, что может ввести общество в заблуждение.
2. Крупные экономические организации могут столкнуться с репутационными убытками, если лица их руководителей, штатных сотрудников наложат на людей, совершающих неправомерные действия, а общество не поймет, что те стали жертвами дипфейков.
3. Дипфейки можно наложить, взяв лица или голос политиков, затем создав медиа-материалы, в которых можно увидеть, как они говорят или делают то, чего на самом деле не было. В результате есть шанс того, что доверие к власти может быть подорвано, изменится и отношение общества к руководящим лицам государства.
В свете этого угроза, вызванная дипфейками, подчеркивает важность правового регулирования борьбы с ними и предотвращения обмана физических, юридических лиц и мирового общества в целом.
Поэтому, на наш взгляд, необходимо четкое закрепление на законодательном уровне ответственности за неправомерное использование дипфейков. А именно предлагаем ввести в часть 4 Гражданского Кодекса Российской Федерации, регулирующих авторские и смежные с ними права, систему правовых норм, которая имела бы своим содержанием следующие положения:
1. Законодательное закрепление понятия дипфейков, например, дипфейк -метод создания медиа-материалов на основе уже существующих аудио, видео, фото фрагментов, принадлежащих другим авторам и иным правообладателям, с помощью технологий искусственного интеллекта.
2. Допустимые пределы использования чужих данных - голоса, изображения и т.д.
3. Ответственность гражданско-правового характера за неправомерное использование дипфейков.
За более общественно-опасное использование дипфейков необходимо ввести более строгие виды ответственности- административную и уголовную в соответствующие кодифицированные акты.
Необходимо так же учесть и направление, в котором дипфейки можно использовать с пользой вполне правомерно. Ряд положительных преимуществ в этой технологии тоже можно увидеть.
Использование дипфейков лиц выдающихся политических, научных и культурных деятелей, артистов и известных писателей в образовательном процессе может способствовать усилению интереса учащихся школ, ВУЗов к изучаемым отраслям, в рамках изучаемых программ. Обучающиеся смогут наяву увидеть и услышать известную личность, что существенно облегчит усвоение учебного материала, расширит кругозор за счёт визуальных образов.
Технологию можно реализовать и в отношении умерших знаменитостей при создании современных видео-аудиоматериалов, но с соблюдением законодательных норм, этики и морали. Использоваться это будет в целях привлечение внимания детей и молодёжи к отечественным кинолентам.
Таким образом, исходя из цели работы, мы выяснили, что влияние искусственного интеллекта в условиях стремительного научно-технического прогресса создаёт серьёзную угрозу для защиты авторских и смежных прав граждан. Если данный вопрос оставить без внимания, авторское право может перестать существовать как таковое - произведения науки, литературы, искусства утратят свою значимость, ведь теперь это будет создаваться "машиной", без какого-либо творчества человека, что существенно отразится на культурном развитии общества. Дипфейки - новый вызов для правоприменителя, их можно использовать как во вред, так и в пользу общества, и для того, чтобы извлекать только положительное из подобных технологий, нужно серьезно подойти к вопросу о его законодательном регулировании.
Список литературы
1. Агибалова Е.Н., Наумов Н.А. Произведения науки как объект авторского права // Юридический вестник Дагестанского государственного университета. - 2021. - Т. 39. - № 3. - С. 94- 102.
2. «Актриса озвучки Алёна Андронова обвинила Тинькофф в нелегальном использовании её голоса». [Электронный ресурс]. Режим доступа: https://dzen.ru/a/ZPJERoD4rT 1ZTA7X (дата обращения 26.10.2023).
3. Гражданский Кодекс Российской Федерации (часть четвёртая) от 18.12.2006 № 230-Ф3 (ред. от 13.06.2023) (с изм. и доп., вступ. в силу с 29.06.2023) [Электронный ресурс]. Режим доступа: https://www.consultant.ru (дата обращения 18.11.2023).
4. Добробаба М.Б. Дипфейки как угроза правам человека // Lex russica. -2022. - Т. 75. - № 11. - С. 112-119.
5. Калятин В.О. Дипфейк как правовая проблема: новые угрозы или новые возможности? // Закон. 2022. № 7. [Электронный ресурс]. Режим доступа: https://doi.org/10.37239/0869-4400-2022-19-7-87-103 (дата обращения 26.10.2023).
6. Киселёв А.С. О необходимости правового регулирования в сфере искусственного интеллекта: дипфейк как угроза национальной безопасности // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2021. [Электронный ресурс]. Режим доступа: https://vestnik-mgou.ru/Articles/View/14786 (дата обращения 26.10.2023).
7. Постановление Пленума Верховного Суда РФ от 23.04.2019 №10 «О применении части четвёртой Гражданского кодекса Российской Федерации» [Электронный ресурс]. Режим доступа: https://www.consultant.ru (дата обращения18.11.2023).