Научная статья на тему 'Проблемы и перспективы правового регулирования общественных отношений, связанных с применением нейросетей'

Проблемы и перспективы правового регулирования общественных отношений, связанных с применением нейросетей Текст научной статьи по специальности «Право»

CC BY
27
10
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Lex Russica
ВАК
Область наук
Ключевые слова
нейросети / саморегуляция / национальная безопасность / дипфейк / искусственный интеллект / информатизация общества / информатизация государства / neural networks / self-regulation / national security / deepfake / artificial intelligence / informatization of society / informatization of the state

Аннотация научной статьи по праву, автор научной работы — Киселев Александр Сергеевич

Уровень цифровизации в текущем столетии значительно вырос, многократно увеличилась скорость Интернета, появилась возможность доступа к нему из разных уголков земли. Сегодня особое место на рынке цифровых технологий занимает искусственный интеллект, который уже является незаменимым инструментом во многих отраслях экономики развитых стран. Цель исследования состоит в выявлении основных актуальных проблем использования нейросетей, а также в формировании предложений по их правовому регулированию. В исследовании использованы формально-логический метод, сравнительно-правовой метод, анализ и синтез, методы индукции, дедукции, абстрагирования. Установлено, что искусственный интеллект пока не может отличать шутку от реальной команды или запроса пользователя, соответственно, дальнейшее развитие данных технологий невозможно без реализации аналоговой функции когнитивного мышления. Сделан вывод о том, что оптимальным способом регулирования использования нейросетей может стать саморегуляция, поскольку правовая система континентального права, к которой относится Российская Федерация, достаточно жесткая и зачастую может не успевать регулировать быстроразвивающуюся сферу применения искусственного интеллекта. Саморегуляция способна обеспечить возможность донесения предложений по легализации эффективных правил организации деятельности участников рынка IT, создать эффективный механизм гарантий качества, безопасности искусственного интеллекта, основанный на солидарной имущественной ответственности членов саморегулируемых организаций. В то же время требуется принятие норм права об ответственности за незаконное использование нейросетей, как это было сделано в США и Китае. В ближайшем будущем дипфейки, созданные на основе нейросетевых технологий, могут стать угрозой национальной безопасности и причинить вред тысячам граждан.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Киселев Александр Сергеевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Problems and Prospects of Legal Regulation of Public Relations connected with the Use of Neural Networks

The level of digitalization has increased significantly in the current century, the speed of the Internet has increased by many times, and it is now possible to access it from different parts of the world. Today, artificial intelligence occupies a special place in the digital technology market, which is already an indispensable tool in many sectors of the economy of developed countries. The purpose of the study is to identify the main urgent problems of using neural networks, as well as to form proposals for their legal regulation. The study uses the formal logical method, the comparative legal method, analysis and synthesis, methods of induction, deduction, and abstraction. It has been established that artificial intelligence cannot yet distinguish a joke from a real command or user request, respectively, further development of these technologies is impossible without the implementation of an analog function of cognitive thinking. It is concluded that self-regulation can be the best way to regulate the use of neural networks, since the legal system of continental law, to which the Russian Federation belongs, is quite rigid and often may not have time to regulate the rapidly developing field of artificial intelligence. Self-regulation is able to provide an opportunity to convey proposals on the legalization of effective rules for organizing the activities of IT market participants, to create an effective mechanism for guaranteeing the quality and safety of artificial intelligence based on the joint property liability of members of self-regulating organizations. At the same time, it requires the adoption of legal norms on liability for the illegal use of neural networks, as was done in the United States and China. In the near future, deepfakes created on the basis of neural network technologies may become a threat to national security and cause harm to thousands of citizens.

Текст научной работы на тему «Проблемы и перспективы правового регулирования общественных отношений, связанных с применением нейросетей»

КИБЕРПРОСТРАНСТВО

CYBERSPACE

DOI: 10.17803/1729-5920.2024.207.2.140-151

А. С. Киселев

Государственный университет управления Финансовый университет при Правительстве Российской Федерации

г. Москва, Российская Федерация

Проблемы и перспективы правового регулирования общественных отношений, связанных с применением нейросетей

Резюме. Уровень цифровизации в текущем столетии значительно вырос, многократно увеличилась скорость Интернета, появилась возможность доступа к нему из разных уголков земли. Сегодня особое место на рынке цифровых технологий занимает искусственный интеллект, который уже является незаменимым инструментом во многих отраслях экономики развитых стран. Цель исследования состоит в выявлении основных актуальных проблем использования нейросетей, а также в формировании предложений по их правовому регулированию. В исследовании использованы формально-логический метод, сравнительно-правовой метод, анализ и синтез, методы индукции, дедукции, абстрагирования. Установлено, что искусственный интеллект пока не может отличать шутку от реальной команды или запроса пользователя, соответственно, дальнейшее развитие данных технологий невозможно без реализации аналоговой функции когнитивного мышления. Сделан вывод о том, что оптимальным способом регулирования использования нейросетей может стать саморегуляция, поскольку правовая система континентального права, к которой относится Российская Федерация, достаточно жесткая и зачастую может не успевать регулировать бы-строразвивающуюся сферу применения искусственного интеллекта. Саморегуляция способна обеспечить возможность донесения предложений по легализации эффективных правил организации деятельности участников рынка IT, создать эффективный механизм гарантий качества, безопасности искусственного интеллекта, основанный на солидарной имущественной ответственности членов саморегулируемых организаций. В то же время требуется принятие норм права об ответственности за незаконное использование нейросетей, как это было сделано в США и Китае. В ближайшем будущем дипфейки, созданные на основе нейросетевых технологий, могут стать угрозой национальной безопасности и причинить вред тысячам граждан.

Ключевые слова: нейросети; саморегуляция; национальная безопасность; дипфейк; искусственный интеллект; информатизация общества; информатизация государства

Для цитирования: Киселев А. С. Проблемы и перспективы правового регулирования общественных отношений, связанных с применением нейросетей. Lexrussica. 2024. Т. 77. № 2. С. 140-151. DOI: 10.17803/17295920.2024.207.2.140-151

© Киселев А. С., 2024

Problems and Prospects of Legal Regulation of Public Relations connected with the Use of Neural Networks

Alexander S. Kiselev

State University of Management

Financial University under the Government of the Russian Federation

Moscow, Russian Federation

Abstract. The level of digitalization has increased significantly in the current century, the speed of the Internet has increased by many times, and it is now possible to access it from different parts of the world. Today, artificial intelligence occupies a special place in the digital technology market, which is already an indispensable tool in many sectors of the economy of developed countries. The purpose of the study is to identify the main urgent problems of using neural networks, as well as to form proposals for their legal regulation. The study uses the formal logical method, the comparative legal method, analysis and synthesis, methods of induction, deduction, and abstraction. It has been established that artificial intelligence cannot yet distinguish a joke from a real command or user request, respectively, further development of these technologies is impossible without the implementation of an analog function of cognitive thinking. It is concluded that self-regulation can be the best way to regulate the use of neural networks, since the legal system of continental law, to which the Russian Federation belongs, is quite rigid and often may not have time to regulate the rapidly developing field of artificial intelligence. Self-regulation is able to provide an opportunity to convey proposals on the legalization of effective rules for organizing the activities of IT market participants, to create an effective mechanism for guaranteeing the quality and safety of artificial intelligence based on the joint property liability of members of self-regulating organizations. At the same time, it requires the adoption of legal norms on liability for the illegal use of neural networks, as was done in the United States and China. In the near future, deepfakes created on the basis of neural network technologies may become a threat to national security and cause harm to thousands of citizens. Keywords: neural networks; self-regulation; national security; deepfake; artificial intelligence; informatization of society; informatization of the state

Cite as: Kiselev AS. Problems and Prospects of Legal Regulation of Public Relations connected with the Use of Neural Networks. Lexrussica. 2024;77(2):140-151. (In Russ.). DOI: 10.17803/1729-5920.2024.207.2.140-151

В настоящее время искусственный интеллект (ИИ) уже успешно используется во множестве сфер человеческой жизни, что, безусловно, предполагает научную оценку. Вместе с тем при этом выявляется множество социальных, правовых и технических проблем, требующих немедленного устранения и регламентации. Задачи исследования: дать научное определение нейросети, раскрыть сущность и содержание нейронных сетей, определить ключевые сферы, где сегодня применяется искусственный интеллект, обозначить необходимость и возможные последствия неправомерного обращения с технологиями, основанными на искусственном интеллекте, а также предложить рекомендации по регулированию нейросетей в будущем.

Современное общество подготавливали к серьезным цифровым трансформациям. В международной фантастике ХХ-ХХ1 вв. наблюдается большой пласт сценариев, где краеугольным камнем является свобода человека в цифро-

вом пространстве («Матрица», «Джонни Мнемоник», «Исходный код», «Трон: Наследие», «Экзистенция» и др.). Указанные картины обнажают и демонстрируют массовому зрителю гипотетические проблемы, с которыми человечество может столкнуться в случае предельного смешения информационных технологий с нашей обыденной жизнью. Возможно, данный тезис несколько гиперболизирован, однако полвека назад люди не могли себе представить, что мы будем жить в эпоху голограмм, космического Интернета, социальных сетей и многочисленных онлайн-сервисов.

Уже сегодня активно изучаются возможные аспекты применения, использования и правового регулирования искусственного интеллекта, что отражается в научных исследованиях российских и зарубежных ученых. К примеру, И. М. Гарифуллин делает прогнозы по применению функциональных возможностей нейросетей для выявления мошеннических транзакций

1 Гарифуллин И. М. Использование нейросетей для выявления мошеннических транзакций // Инновационная наука. 2021. № 3. С. 30-32.

и пресечения преступлений в экономической сфере1. А. М. Цирин и Е. А. Артеменко рассматривают искусственный интеллект как средство профилактики проявлений коррупции в контрольно-надзорной деятельности2. М. А. Иванченко и П. Е. Архипов изучают искусственный интеллект с позиции постгуманизма, делают выводы о возможности пересмотра парадигмы мышления человека по отношению к искусственному интеллекту3. В. К. Андреев раскрывает теоретические аспекты правового регулирования предпринимательской деятельности в условиях цифровизации и применения технологий, основанных на искусственном интеллекте4. В. Г. Иванов и Я. Р. Игнатовский рассматривают перспективы применения искусственного интеллекта в сфере политики, а также делают вывод о том, что дипфейк, созданный с помощью нейросетей, является угрозой как для личности, так и для национальной безопасности государства5. Н. Р. Красовская, А. А. Гуляев в своем исследовании приходят к однозначному выводу о необходимости контроля фейков, дип-фейков, фейковых аккаунтов в Интернете6 и т.д.

С появлением искусственного интеллекта, применяемого во многих сферах человеческой жизни, появляется и большое количество проблем как правового, так и экономического, социального, этического и политического характера. Особо актуальна разработка искусственного интеллекта, превосходящего возможности человеческого мышления. Подобные разработки ведутся во всех компаниях-гигантах мира, занимающих рынок информационных технологий в США, Японии, Китае, странах Европы7.

Сильный искусственный интеллект будет способствовать максимальному прогрессу любой компании и позволит ей выйти на невообразимый на сегодняшний день уровень. Не

исключается возможность того, что со временем безопасность государства будет зависеть от решений, принимаемых искусственным интеллектом. Однако до сих пор не устранены проблемы теоретического и практического характера, без урегулирования которых нецелесообразно переходить на более высокий уровень развития технологий, основанных на элементах искусственного интеллекта. Таким образом, заявленная в данной статье тема является крайне актуальной, многие авторы пытаются создать доктринальные базисы, способные в будущем стать теоретической и методологической основой при формировании нормативно-правовой базы, регулирующей деятельность в сфере использования искусственного интеллекта на уровне как одного государства, так и всего мира.

Целесообразно дать толкование основных терминов, используемых в настоящем исследовании, а именно — «нейросеть» и «искусственный интеллект». Основополагающая разница между ИИ и нейронной сетью заключается в том, что искусственный интеллект представляет собой крупную самостоятельную отрасль информатики, основная цель которой состоит в создании, изучении и совершенствовании умных машин, роботов и программ, способных имитировать поведение человека и выполнять некоторые локальные, а зачастую обширные, интеллектуальные функции. В свою очередь, искусственные нейронные сети (далее — ИНС) — это математические модели, а также их программные или аппаратные реализации, построенные по принципу организации и функционирования биологических нейронных сетей — сетей нервных клеток живого организма8. Нейросети являются одним из способов машинного обучения, подраздела искусствен-

Цирин А. М., Артеменко Е. А. Цифровые технологии и искусственный интеллект как средства профилактики проявлений коррупции в контрольной (надзорной) деятельности: отечественный и зарубежный опыт // Журнал российского права. 2023. Т. 27. № 3. С. 126-142.

Иванченко М. А., Архипов П. Е. Человек играющий, машина играющая: путь к идеальной нейросети и

предпосылки возникновения постгуманизма // Идеи и идеалы. 2021. Т. 13. № 1-1. С. 151-165. Андреев В. К. Вопросы теории правового регулирования предпринимательства в условиях цифровиза-

ции // Журнал российского права. 2022. Т. 26. № 2. С. 36-47.

Иванов В. Г., Игнатовский Я. Р. Deepfakes: перспективы применения в политике и угрозы для личности

и национальной безопасности // Вестник Российского университета дружбы народов. Серия «Государственное и муниципальное управление». 2020. Т. 7. № 4. С. 379-386.

Красовская Н. Р., Гуляев А. А. Технологии манипуляции сознанием при использовании дипфейков как инструмента информационной войны в политической сфере // Власть. 2020. Т. 28. № 4. С. 93-98. Gutbrod M. Digital transformation in economy and law // Digital Law Journal. 2020. Vol. 1. No. 1. P. 12-23. Энциклопедический сайт «Академик» // URL: https://dic.academic.ru/ (дата обращения: 28.08.2023).

2

3

4

5

6

7

8

ного интеллекта, и лежат в основе алгоритмов глубокого обучения. Нейросеть представляет собой сложную архитектуру, краеугольным камнем которой являются генератор, вырабатывающий идеи, и дискриминатор, выполняющий функции цензора и критика, основная задача которого заключается в том, чтобы выбрать наиболее подходящие аналогии на основе представленного множества вариантов.

Согласно позиции А. М. Тарасова, «искусственные нейронные сети берут начало из биологии и, конечно, сравниваются с работой головного мозга человека. Они также состоят из нейронов, которые имитируют свойства и работу биологического нейрона. Например, они обучаются на основе опыта, обобщают предыдущие прецеденты на новые случаи и извлекают существенные свойства из поступающей информации, содержащей излишние данные»9. А. О. Сурнина более детально описывает процесс работы нейросети: «Искусственная нейросеть представляет собой систему соединенных и взаимодействующих между собой простых процессоров (искусственных нейронов). Будучи соединенными в достаточно большую сеть с управляемым взаимодействием, такие по отдельности простые процессоры вместе способны выполнять довольно сложные задачи»10. Таким образом, нейросеть является компьютерной программой, работающей на основе элементов искусственного интеллекта, имитирующей деятельность человеческого мозга и нацеленной на выполнение узкоспециализированных задач.

На основе данной информации можно сделать вывод о том, что искусственный интеллект выступает общим понятием, в то время как нейросеть представляет собой один из механизмов реализации технологий, основанных на искусственном интеллекте. В большей степени мы будем акцентировать свое внимание на проблемах применения нейросетей.

Мы не будем углубляться в историю и описывать процессы развития нейросетей, тем не менее отметим важный этап, послуживший отправной точкой резкого роста в примене-

нии данных технологий. Одна из первых общедоступных для пользователей нейросетей появилась в 2015 г., ее сущность заключалась в добавлении к существующим картинкам изображения собачьих морд. Технология пользовалась популярностью, однако никакой практической пользы для общества не приносила. Существует более успешный пример: компания Google несколько лет назад добавила функцию перевода текста с помощью наведения на него камеры телефона (умная камера), затем многие другие компании создали аналогичные переводчики. Правда, стоит заметить, что точность перевода может пострадать, если текст слишком мелкий, плохо освещен или набран стилизованным шрифтом. В основе технологии лежит нейросеть, которая распознает символы, складывает их в слова, слова в предложения, мгновенно переводит и проецирует получившийся вариант на дисплей смартфона11. Многие компании и разработчики программного обеспечения поняли, что стоит вкладывать деньги и усилия в развитие нейросетей, пользующихся высоким спросом.

Сегодня в открытом доступе можно найти немало программ, работающих на основе нейросетей. Одна из самых популярных программ — Deep Face Lab, открытое программное обеспечение от российского разработчика, называющего себя Iperov, — позволяет не только добавлять лицо в видео, но и менять движения губ говорящего, т.е. подделывать содержание речи. Компания Vera voice на текущий момент достаточно далеко продвинулась в создании голосовых дипфейков, которые невозможно отличить от оригинала без помощи компьютерных программ. Помимо этого, нейросети посредством обучения на основе произведений известных композиторов способны самостоятельно генерировать классическую музыку. Пока нейросеть не может создать осмысленное произведение, но она может скопировать стиль игры намного лучше человека.

Нейросети умеют копировать лица и голос на видеозаписях. Но, как и любому алгоритму, им нужен материал для обучения — чем его

9 Тарасов А. М. Применение нейронных сетей для систем управления // Научные исследования молодых ученых : сборник статей IV Международной научно-практической конференции : в 2 ч. Пенза, 2020. Ч. 1. С. 71.

10 Сурнина А. О. Элементы глобальной оптимизации моделей нейронной сети // Academy. 2017. № 3 (18). С. 32.

11 Искусственный интеллект уперся в барьер понимания // Сайт «Хабр». URL: https://habr.com/ru/ post/429182/ (дата обращения: 28.08.2023).

LEX 1PSSEA

больше, тем лучше результат. Генеративно-состязательная система составляет карту лица по нескольким десяткам точек и линий между ними. Своеобразный цифровой слепок создается за считаные секунды. Нейросети используются для чтения слов по губам человека. Так, в Оксфорде учеными была создана программа LipNet, точность распознавания слов которой составляет 88 %12 (точность чтения по губам у человека всего лишь 52 %). В Токийском университете разработали нейросеть, способную преобразовывать черно-белые снимки в цветные. Нейросеть научилась определять в изображениях общие мотивы и раскрашивать объекты в наиболее подходящие цвета (стоит отметить американский аналог Algorithmia, российский проект Артемия Лебедева «Колор», DeOldify и многие другие).

Несколько лет нейронные сети успешно используют в кинематографе, переделывают мимику актеров для адаптации дубляжа на других языках (синтезируются движения губ и лицевых мышц). Нейросети могут заменить трудоемкие и дорогостоящие процессы наложения грима на актера — достаточно сгенерировать необходимые внешность и голос. Изначально данная технология была примитивной, движения губ выглядели неправдоподобно, но нейросети крайне быстро прогрессируют. Так, в 2019 г. в фильме «Звездные войны. Скайуокер. Восход» использовался образ покойной актрисы Кэрри Фишер, построенный на основе обработки нейросетями большого объема фотографий и видеозаписей.

Неудивительно, что начинают пользоваться спросом новые профессии, например специалист по машинному обучению (Data Scientist). В США набирают популярность курсы повышения квалификации и вузовские программы обучения по данному направлению подготовки. Во Франции, в Университете Гренобля, успешно реализуются профили «Статистика и наука о данных» и «Специалист по экономическим и статистическим исследованиям данных». В Университете Тулузы реализуется несколько направлений подготовки специалистов в области статистики, экономики и науки о данных13.

Российские вузы также не отстают от зарубежных коллег. В ближайшее десятилетие при сохраняющихся темпах развития технологий машинного обучения появится качественно новый пласт профессий и специальностей, предполагающих различные виды работы с большими данными и связанных с обучением нейросетей. Компаниям понадобятся как разработчики, программисты, так и люди, умеющие настраивать и работать с конкретными нейросетями (тестировщики и др.).

Основными сферами, где применение нейросетей особенно востребовано, являются сфера развлечений (анимация изображений людей, имитация голоса, компьютерные игры); сфера культуры и искусства (с целью «оживления» умерших актеров, например, для завершения съемок в случае скоропостижной смерти одного из главных героев франшизы или писателей и художников различных эпох для просветительского ознакомления современников, при дубляже иностранных фильмов и видео на видеохостингах); сфера образования (нейросети позволяют быстро переводить иностранные слова с помощью камеры смартфона, озвучивать текст и транскрибировать речь, что может значительно помочь лицам с ограниченными возможностями); правоохранительная сфера (помощь в поиске правонарушителей с помощью сканирования лиц через камеры видеонаблюдения, голоса и иных биометрических данных); сфера экономики (нейросети позволяют осуществлять сбор данных и с минимальными погрешностями производить расчеты, строить прогнозы по развитию рынков); социальная сфера (нейросети позволяют удаленно управлять процессами в доме, управлять автомобилем и осуществлять иные полезные человеку функции).

Уже через несколько лет будет сложно представить нашу повседневную жизнь без применения систем искусственного интеллекта, которые в значительной мере облегчают каждодневные рутинные функции человека и выводят качество нашей работы и жизни на новые высоты. Уже нет ничего странного в том, что нейросети будут использоваться в целях пред-

12 Assae Y. M., Shillingford B., Whiteson Sh., Freitas N. de. LipNet: End-to-End Sentence-level Lipreading // URL: https://arxiv.org/abs/1611.01599 (дата обращения: 29.08.2023).

13 Бурова Н. В. Data Scientist: новая профессия или возвращение в будущее (размышления на примере французской системы образования) // Наука о данных : материалы международной научно-практической конференции. Санкт-Петербург, 5-7 февраля 2020 г. СПб. : СПбГЭУ, 2020. С. 73-74.

отвращения преступлений и противодействия злоумышленникам14. В то же время при всех имеющихся благах в этом процессе есть значительные проблемы, одну из которых выделил Л. К. Терещенко: «Информационное законодательство подвержено сильному влиянию процессов цифровизации, функционирования сети Интернет. Новые термины приходят в правовую сферу из технической прежде всего без какой-либо адаптации»15. Как мы указали ранее, существует колоссальное количество сфер человеческой жизнедеятельности, в которых применяются отдельные технологии, основанные на элементах искусственного интеллекта, в частности нейросети. Мы можем предположить, что процесс нормативно-правового закрепления их применения может занять десятилетия, поскольку темпы развития новых технологий будут качественно и количественно опережать законодательные временные издержки, необходимые для их легитимизации.

Еще одной проблемой являются особенности и процессы функционирования некоторых нейросетей. У современного машинного сознания отсутствует гибкость мышления, которая свойственна человеку. Например, распознавание однородных изображений программой происходит на высочайшем уровне. Так, нейро-сеть, используя аналогию, распознает в комнате телевизор, холодильник и иные объекты интерьера. Если на данном изображении появится объект, совершенно не подходящий к интерьеру среднестатистической кухни (акула, летучая мышь, НЛО, птеродактиль), то нейросеть будет сбита с толку. В итоге искусственный интеллект посчитает всё изображение неправильным и отнесет к ошибочным многие объекты на картинке. То же самое произойдет, если нейросеть попытается распознать несуществующий объект — программа запутается и не сможет выполнить заданную операцию (например, по улучшению четкости изображения).

М. А. Иванченко и П. Е. Архипов констатируют: «Даже ребенок не может спутать леопарда с диваном, повернутым на 90 градусов, если знает, что такое диван и что такое леопард, и видел хотя бы несколько картинок. А самая про-

двинутая нейросеть, направленная на определение изображенного предмета, проанализировавшая миллионы артов, делает это. Причина в том, что вместо цепочки закономерностей ИИ склонен концентрироваться на одной (в данном случае размер и цвет пятен) и не проверять свои логические ошибки при виде нестандартного предмета (перевернутый диван). Всё, что мы делаем, — это пытаемся как можно точнее разбросать по категориям кучу картинок, при этом не понимая, что на них изображено»16. Отсюда вытекает вывод о том, что нейросетям предстоит пройти долгий путь обучения до тех пор, пока они без проблем не смогут понимать положение объектов в пространстве, а также учиться идентифицировать объекты, не заложенные изначально в систему. Мы полагаем, что здесь идет речь о необходимости наличия у ИИ творческого мышления и развитого воображения, что довольно сложно представить ввиду ограниченности возможностей алгоритмов, по крайней мере на сегодняшний день.

Обратим внимание на проблему, описанную Д. В. Кузнецовым и Н. В. Колосковой: «При всей технической мощности искусственному интеллекту пока сложно творчески анализировать множество вероятных событий»17. Полагаем, что одна из основных проблем как раз и заключается в том, что нейросети в подавляющем большинстве не предназначены для решения сложных интеллектуальных задач, поэтому их алгоритмы изначально ограничены в возможностях. Тем не менее в последнее десятилетие ученые пытаются научить искусственный интеллект интуиции и воображению. В то же время бывали случаи, когда слова, звучащие в песне или по телевидению, голосовой помощник распознавал как команды хозяина. Это означает, что технология «умный дом» теоретически может навредить своему хозяину. Мошенники могут предварительно записать речь человека, синтезировать его голос с помощью нейросети и на основе голосовых команд проникнуть в чужое жилище.

Несовершенство нейросетей красочно иллюстрирует следующий пример: искусственный интеллект без проблем побеждал про-

14 Гарифуллин И. М. Указ. соч. С. 30-32.

15 Терещенко Л. К. Трансформация понятийного аппарата информационного права в условиях цифровизации // Журнал российского права. 2022. Т. 26. № 12. С. 98-99.

16 Иванченко М. А., Архипов П. Е. Указ. соч. С. 154-155.

17 Кузнецов Д. В., Колоскова Н. В. Возможно ли победить искусственный интеллект? // Colloquium-journal. 2020. № 9-2 (61). С. 19.

LEX 1Р?Ж

фессиональных игроков в компьютерных играх (в шутерах, стратегиях), но если изменить базовые параметры игры: положение игроков и объектов на карте, заменить фон, саму карту или поменять управление персонажем, то ИИ моментально проигрывал. Поэтому даже лучшие и самые совершенные на сегодняшний день технологии, основанные на элементах ИИ, могут подвести в неподходящий момент. Победа или поражение в компьютерных играх не играет значимой роли, в отличие от нашей жизни. Компании Tesla, Uber, «Яндекс» и многие другие активно применяют технологии искусственного интеллекта в своих беспилотных автомобилях. Здесь кроется основная опасность: натренированный с помощью компьютерной симуляции искусственный интеллект на реальной дороге может из-за недостаточного или слишком яркого освещения не среагировать на пешехода или на другой автомобиль. Более того, возникает вопрос, как будет действовать ИИ в случае провокации или умышленного нарушения правил дорожного движения со стороны других водителей. Помимо этого, на дорожном полотне в результате непредвиденных обстоятельств могут возникнуть и другие проблемы, с которыми ИИ просто незнаком и не может знать, как на них следует правильно реагировать.

Следует помнить и о хакерских атаках: в уже существующее изображение ИИ могут быть внесены коррективы — небольшие погрешности, которые могут привести к системной ошибке. Страшно представить масштаб трагедии, если в систему машинного обучения всех автомобилей в одном городе будет загружен вирус. Это создаст циклический сбой, которой может привести к сотням аварий и десяткам и сотням человеческих жертв. В. В. Хилюта высказывает мысль о том, что законодательно следует закрепить категории лиц, которые потенциально могут являться субъектами уголовной ответственности за умышленные или неосторожные противоправные деяния, совершаемые искусственным интеллектом18. Поддерживая данную мысль, укажем, что в этой связи необходима разработка одного или ряда законопро-

ектов, учитывающих случаи причинения вреда ИИ человеку.

Вполне очевидно, что нам не стоит отказываться, а, наоборот, необходимо продолжать развивать системы, основанные на использовании ИИ. Искусственный интеллект уже сегодня принимает решения, от которых зависят судьбы и жизни людей, соответственно, нельзя не принимать в расчет общемировые тенденции и отказываться от использования ИИ в целом и нейросетей в частности. Мы считаем, что со временем наличие сильного ИИ будет залогом обеспечения информационной, экономической, социальной и политической безопасности государства.

Далее, отметим, что к правовому регулированию использования нейросетей необходимо отнестись с особой щепетильностью, поскольку проблема, на наш взгляд, гораздо серьезнее: нейросети сегодня позволяют использовать образы политиков, лидеров мировых держав. На основе нейросетей производятся дипфей-ки, под которыми понимается аудио-, видео-, аудиовизуальный и иной цифровой контент, сгенерированный с помощью алгоритмов глубокого обучения. Современные дипфейки могут создать образ любого человека с высокой реалистичностью. Вне всякого сомнения, «копии изображения политического деятеля или видео оказывают психологическое воздействие на зрителя. Это воздействие будет тем больше, чем меньше зритель сомневается в подлинности изображения или видео. Развитие информационных технологий и Интернета, программных средств обработки и использования "больших данных", увеличение быстродействия и мощности суперкомпьютеров, опережающие разработки "искусственного интеллекта" ставят на повестку дня проблему политического воздействия дипфейков на массовую аудиторию, посредством которых обходится языковой барьер и при этом используются различные психологические инструменты»19. Например, стоит указать, что в США дипфейки из-за их потенциальной опасности признали на государственном уровне угрозой национальной безопасности20.

18 Хилюта В. В. Искусственный интеллект и уголовное право: приемлем ли палингенезис в условиях ци-фровизации? // Журнал российского права. 2023. Т. 27. № 9. С. 90.

19 Красовская Н. Р., Гуляев А. А. Технологии манипуляции сознанием при использовании дипфейков как инструмента информационной войны в политической сфере // Власть. 2020. Т. 28. № 4. С. 94.

20 Иванов В. Г., Игнатовский Я. Р. Указ. соч. С. 383.

Тем не менее, как показала практика, не политические ролики занимают лидирующую позицию среди всей массы видео, созданных с помощью нейросетей. Компания Deeptrace, которая специализируется на кибербезопасности и распознавании дипфейков, опубликовала отчет, в соответствии с которым 96 % поддельных видеороликов относится к категории порно. Четыре основных сайта, которые публиковали подобные фальшивые видео, суммарно получили 134 млн просмотров на контенте такого рода. Безусловно, сюда относятся видео с многочисленными звездами кино, но в эту категорию дипфейков попадают и видео с обычными людьми, ставшими жертвами буллинга или так называемого revenge porn (т.е. мести с помощью порнографии)21. Такие ролики набирают рекордное количество просмотров. Данная проблематика широко освещается в работах российских и зарубежных ученых22. Американский исследователь Дуглас Харрис убежден, что, помимо нарушения авторского права, дип-фейк нацелен на намеренное причинение морального вреда (жертве придется доказать, что создатель видео действительно хотел принести жертве моральные страдания c помощью возмутительных по своей натуре действий, вследствие чего жертва была подвержена тяжелому стрессу) и искажение фактов23.

Стоит рассмотреть вопросы противодействия распространению дипфейков с организационно-правовой точки зрения. Согласимся с позицией Н. Р. Красовской и А. А. Гуляева: «Вы-

явление дипфейков требует применения технологий искусственного интеллекта. В какой-то мере будущее контроля над фейками, дипфей-ками и фейковыми аккаунтами в Интернете уже лежит в сфере использования возможностей искусственного интеллекта»24. Полагаем, именно по этой причине компании-гиганты в сфере IT-технологий вкладывают миллионы долларов в разработку программ, которые могут распознавать дипфейки даже по отдельным фрагментам видео. К примеру, Facebook организовал Deepfake Detection Challenge — конкурс на лучшую программу по распознаванию дипфейков, призовой фонд которого составил 10 млн долл.25 «Всего в конкурсе приняли участие 2 114 разработчиков, которые создали более 35 тыс. моделей. При использовании для проверки закрытого датасета победил белорусский разработчик Селим Сефербеков из компании Mapbox: его алгоритм смог определить дипфейки с точностью 65,18 %»26. В России также предпринимаются действия по противодействию дипфейкам: «МВД России в феврале 2021 г. провело конкурс на разработку аналогичной программы для системы правоохранительных органов»27.

В Университете Баффало (штат Нью-Йорк, США) смогли создать рабочий антидипфейк — программу, степень эффективности которой составляет 94 %28. На реальных фотографиях людей отражения в роговицах, как правило, идентичны. Но дипфейк-изображения, синтезированные с помощью генеративно-состяза-

21 Release Strategies and the Social Impacts of Language Models. OpenAI Report. November, 2019 // URL: https://d4mucfpksywv.cloudfront.net/papers/GPT_2_Report.pdf (дата обращения: 29.08.2023).

22 См.: Архипцев И. Н., Александров А. Н., Максименко А. В., Озеров К. И. Порнографический дипфейк: вымысел или виртуальная реальность? // Социально-политические науки. 2021. Т. 11. № 1. С. 69-74 ; Делфино Р. А. Порнографические дипфейки: следующий трагический акт феномена «порно из мести» и необходимость принятия уголовного закона на федеральном уровне // Актуальные проблемы экономики и права. 2020. Т. 14. № 1. С. 105-141.

23 Douglas Harris Deepfakes: false pornography is here and the law cannot protect you // URL: https://scholarship. law.duke.edu/cgi/viewcontent.cgi?article=1333&context=dltr (дата обращения: 29.08.2023).

24 Красовская Н. Р., Гуляев А. А. К вопросу о контроле фейков, дипфейков, фейковых аккаунтов в Интернете // Вестник Удмуртского университета. Социология. Политология. Международные отношения. 2021. Т. 5. № 1. С. 99.

25 Deepfake Detection Challenge: Identify videos with facial or voice manipulations // URL: https://www.kaggle. com/c/deepfake-detection-challenge (дата обращения: 27.08.2023).

26 Facebook и Microsoft подвели итоги конкурса по борьбе с дипфейками // URL: https://nplus1.ru/ news/2020/06/15/deepfake-detection (дата обращения: 27.08.2023).

27 Петров И. МВД объявило тендер на IT-разработку по распознаванию новой угрозы — видео c замененными лицами // Российская газета. Федеральный вып. № 30 (8381).

28 Каминский Б. Ученые разработали инструмент для разоблачения дипфейков // URL: https://forklog.com/ uchenye-razrabotali-instrument-dlya-razoblacheniya-dipfejkov/ (дата обращения: 27.08.2023).

LEX IPS»

тельной нейросети, зачастую не могут передать это сходство. Алгоритм ученых позволяет находить эти несоответствия, анализируя свет, отраженный в каждом глазном яблоке. Он генерирует оценку, которая служит метрикой сходства. Чем меньше балл, тем больше вероятность, что лицо на фотографии создала нейросеть. Ученые также отметили, что их алгоритм эффективен только для портретных фото. Программа сравнивает разницу пикселей без учета несоответствий в геометрии29. Исследователи планируют изучить эти проблемы, чтобы повысить эффективность метода.

Не стоит полагать, что примененная мера противодействия сможет надолго сдержать распространение дипфейков: машинное обучение развивается очень быстро, и вполне возможно, что в скором будущем появятся более совершенные дипфейки, учитывающие и нивелирующие обнаруженный изъян. Как справедливо замечает Н. Н. Черногор, «если ранее технологическое развитие было внешним фактором эволюции права и правопорядка, то в настоящее время технологии обусловливают их внутреннее преображение, начинают определять само существо права и пределы действия правопорядка»30. Мы считаем, что в отечественной практике стоит предусмотреть меры повышенной ответственности (прежде всего административной) контентмейкеров, которые в будущем могут создавать подобные видео как ради мести, так и ради финансового заработка. Так, предлагаем внести изменения в ст. 5.61 КоАП РФ, добавив п. 6 следующего содержания: «Оскорбление, совершенное публично с использованием информационно-телекоммуникационных сетей, включая сеть "Интернет" и созданное посредством искусственных нейронных сетей, — влечет наложение административного штрафа на граждан в размере от десяти тысяч до пятнадцати тысяч рублей; на должностных лиц — от ста тысяч до ста пятидесяти тысяч рублей; на юридических лиц — от трехсот тысяч до одного миллиона рублей».

Вне всякого сомнения, продвижение искусственного интеллекта изменит все сферы обще-

ственной жизни, включая правовую среду, до неузнаваемости, ведь уже сейчас активно продвигаются проекты по развитию космического Интернета, соответственно, нейросети будут повсеместным явлением в каждой точке мира. Эксперты прогнозируют, что на смену правовому регулированию придут алгоритмы31. Очевидно, что в этих условиях будет увеличиваться роль саморегуляции, а механизмы правового регулирования и саморегулирования будут сближаться и гармонизироваться, что, в свою очередь, способно создать оптимальные условия для регламентации и развития нейронных сетей. Согласимся с позицией В. В. Лазарева, согласно которой «в современных условиях юристы должны продумывать границы, в которых искусственному интеллекту будет позволено самостоятельно мыслить и разбираться в эмоциональных переживаниях личности»32. Здесь потребуется совместная работа юристов и специалистов в сфере информационно-телекоммуникационных технологий.

Из этого следует, что в ближайшие годы должны быть приняты на государственном уровне кодекс этики искусственного интеллекта и отдельные нормативные акты, закрепляющие этические принципы применения искусственного интеллекта в различных областях человеческой жизнедеятельности.

На основе проведенного анализа можем сделать следующие выводы: нами было установлено, что нейросеть представляет собой компьютерную программу, работающую на основе искусственного интеллекта и имитирующую деятельность биологического мозга посредством методов моделирования, дис-криминантного анализа и адаптивного самоуправления. Установлено, что искусственный интеллект пока не преодолел барьер понимания: он еще не может отличить случайно сказанное слово от реальной команды. При этом небольшие погрешности в работе нейросетей могут привести к циклическому сбою и системным ошибкам.

Нейросети позволяют создавать дипфейки, использовать образы политиков, глав госу-

29 Shu Hu, Yuezun Li, Siwei Lyu. Exposing GAN-generated faces using inconsistent corneal specular highlights // URL: https://arxiv.org/pdf/2009.11924.pdf (дата обращения: 27.08.2023).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

30 Черногор Н. Н. Искусственный интеллект и его роль в трансформации современного правопорядка // Журнал российского права. 2022. Т. 26. № 4. С. 5.

31 Юваль Ной Харари. Homо Deus: Краткая история будущего. М. : Синдбад, 2019.

32 Лазарев В. В. Юридическая наука в свете перспектив цифровизации // Журнал российского права. 2023. Т. 27. № 2. С. 5.

дарств, знаменитостей, популярных блоге-ров и иных лидеров общественного мнения, соответственно, оказывать психологическое воздействие на зрителя. Например, публичное распространение ролика, на котором президент одной страны оскорбляет другого президента или целый народ, может спровоцировать международный конфликт. Но в ближайшем будущем дипфейки, созданные на основе нейросетей, вполне могут стать угрозой национальной безопасности и причинить вред тысячам граждан. Стоит отметить, что в России сейчас отсутствует комплексное нормативно-правовое регулирование использования нейросетей. В США33 и Китае34 существуют отдельные законопроекты, предусматривающие порядок использования нейросетей и устанавливающие ответственность за незаконные действия с ними. В связи с этим представляется необходимым принятие в Российской Федерации закона, закрепляющего уголовную ответственность за неправомерное и вредоносное использование нейросетей в политических целях. Предлагаем ввести ст. 274.3 (гл. 28) УК РФ следующего содержания: «Создание, распространение или использование дипфей-ков, основанных на образах политиков, глав

государства и иных лидеров общественного мнения, заведомо предназначенных для возбуждения ненависти либо вражды в политических целях, — наказываются ограничением свободы на срок до шести лет, либо лишением свободы на тот же срок со штрафом в размере до пятисот тысяч рублей или в размере заработной платы или иного дохода осужденного за период до семидесяти двух месяцев».

Вместе с тем многие эксперты выражают сомнение в эффективности государственного регулирования интернет-пространства, без которого немыслимо развитие нейронных сетей, посредством запретов и ограничений. При этом большие надежды возлагаются на саморегулирование как альтернативу государственного регулирования35. Представляется, что внедрение саморегулирующего инструментария в сфере создания и применения нейросетей для профессиональных участников рынка инновационных технологий способно обеспечить возможность донесения предложений по легализации эффективных правил организации их деятельности, создать эффективный механизм гарантий качества, безопасности ИИ, основанный на солидарной имущественной ответственности членов саморегулируемых организаций.

СПИСОК ЛИТЕРАТУРЫ

Андреев В. К. Вопросы теории правового регулирования предпринимательства в условиях цифрови-зации // Журнал российского права. 2022. Т. 26. № 2. С. 36-47.

Архипцев И. Н., Александров А. Н., Максименко А. В., Озеров К. И. Порнографический дипфейк: вымысел или виртуальная реальность? // Социально-политические науки. 2021. Т. 11. № 1. С. 69-74.

Бурова Н. В. Data Scientist: новая профессия или возвращение в будущее (размышления на примере французской системы образования) // Наука о данных : материалы международной научно-практической конференции, Санкт-Петербург, 5-7 февраля 2020 г. СПб. : СПбГЭУ, 2020. С. 73-74.

Гарифуллин И. М. Использование нейросетей для выявления мошеннических транзакций // Инновационная наука. 2021. № 3. С. 30-32.

Делфино Р. А. Порнографические дипфейки: следующий трагический акт феномена «порно из мести» и необходимость принятия уголовного закона на федеральном уровне // Актуальные проблемы экономики и права. 2020. Т. 14. № 1. С. 105-141.

Иванов В. Г., Игнатовский Я. Р. Deepfakes: перспективы применения в политике и угрозы для личности и национальной безопасности // Вестник Российского университета дружбы народов. Серия «Государственное и муниципальное управление». 2020. Т. 7. № 4. С. 379-386.

33 Предлагаемый законопроект США предусматривает наказание за использование искусственного интеллекта для создания чьего-либо образа без согласия. См.: URL: https://www.theartnewspaper. com/2023/10/17/artificial-intelligence-no-fakes-act-us-legislation-non-concensual-likeness (дата обращения: 14.11.2023).

34 China seeks to root out fake news and deepfakes with new online content rules // URL: https://www.reuters. com/article/us-china-technology/china-seeks-to-root-out-fake-news-and-deepfakes-with-new-online-content-rules-idUSKBN1Y30VU (дата обращения: 14.11.2023).

35 Лескова Ю. Г. Саморегулирование как экономическое и правовое явление // Журнал российского права. 2011. № 5. С. 55.

Иванченко М. А., Архипов П. Е. Человек играющий, машина играющая: путь к идеальной нейросети и предпосылки возникновения постгуманизма // Идеи и идеалы. 2021. Т. 13. № 1-1. С. 151-165.

Красовская Н. Р., Гуляев А. А. К вопросу о контроле фейков, дипфейков, фейковых аккаунтов в Интернете // Вестник Удмуртского университета. Социология. Политология. Международные отношения. 2021. Т. 5. № 1. С. 96-99.

Красовская Н. Р., Гуляев А. А. Технологии манипуляции сознанием при использовании дипфейков как инструмента информационной войны в политической сфере // Власть. 2020. Т. 28. № 4. С. 93-98.

Кузнецов Д. В., Колоскова Н. В. Возможно ли победить искусственный интеллект? // Colloquium-journal. 2020. № 9-2 (61). С. 18-19.

Лазарев В. В. Юридическая наука в свете перспектив цифровизации // Журнал российского права. 2023. Т. 27. № 2. С. 5-19.

Лескова Ю. Г. Саморегулирование как экономическое и правовое явление // Журнал российского права. 2011. № 5. С. 48-56.

Сурнина А. О. Элементы глобальной оптимизации моделей нейронной сети // Academy. 2017. № 3 (18). С. 32-36.

Тарасов А. М. Применение нейронных сетей для систем управления // Научные исследования молодых ученых : сборник статей IV Международной научно-практической конференции : в 2 ч. Ч. 1. Пенза, 2020. С. 69-71.

Терещенко Л. К. Трансформация понятийного аппарата информационного права в условиях цифровизации // Журнал российского права. 2022. Т. 26. № 12. С. 98-110.

Хилюта В. В. Искусственный интеллект и уголовное право: приемлем ли палингенезис в условиях цифровизации? // Журнал российского права. 2023. Т. 27. № 9. С. 90-103.

Цирин А. М., Артеменко Е. А. Цифровые технологии и искусственный интеллект как средства профилактики проявлений коррупции в контрольной (надзорной) деятельности: отечественный и зарубежный опыт // Журнал российского права. 2023. Т. 27. № 3. С. 126-142.

Черногор Н. Н. Искусственный интеллект и его роль в трансформации современного правопорядка // Журнал российского права. 2022. Т. 26. № 4. С. 5-15.

Харари Ю. Н. Ното Deus : Краткая история будущего. М. : Синдбад, 2019. 496 с.

Gutbrod M. Digital transformation in economy and law // Digital Law Journal. 2020. Vol. 1. No. 1. С. 12-23.

Release Strategies and the Social Impacts of Language Models. OpenAIReport. November, 2019 // URL: https:// d4mucfpksywv.cloudfront.net/papers/GPT_2_Report.pdf (дата обращения: 29.08.2023).

Shu Hu, Yuezun Li, Siwei Lyu. Exposing GAN-generated faces using inconsistent corneal specular highlights // URL: https://arxiv.org/pdf/2009.11924.pdf (дата обращения: 27.08.2023).

Assael Y. M., Shillingford B., Whiteson Sh., Freitas N. de. LipNet: End-to-End Sentence-level Lipreading // URL: https://arxiv.org/abs/1611.01599 (дата обращения: 29.08.2023).

REFERENCES

Andreev VK. Issues of the theory of legal regulation of entrepreneurship in the context of digitalization. Zhurnal Rossiyskogo Prava [Journal of Russian Law]. 2022;26(2):36-47. (In Russ.).

Arkhiptsev IN, Alexandrov AN, Maksimenko AV, Ozerov KI. Pornographic deepfake: fiction or virtual reality? Socio-political sciences. 2021;11(1):69-74. (In Russ.).

Burova NV. Data Scientist: A new profession or a return to the future (reflections on the example of the French education system). Data Science: Proceedings of the International Scientific and Practical Conference, St. Petersburg, February 5-7, 2020. St. Petersburg: SPbGEU Publ.; 2020. Pp. 73-73. (In Russ.).

Garifullin IM. The use of neural networks to identify fraudulent transactions. Innovative science. 2021;3:30-32. (In Russ.).

Delfino RA. Pornographic deepfakes: The next tragic act of the phenomenon of «revenge porn» and the need to adopt a criminal law at the federal level. Aktualnye problemy ekonomiki i prava [Actual Problems of Economics and Law]. 2020;14(1):105-141. (In Russ.).

Ivanov VG, Ignatovsky YaR. Deepfakes: Prospects of application in politics and threats to personality and national security. Vestnik Rossiyskogo universiteta druzhby narodov [RUDN Journal of Law]. State and Municipal Management Series. 2020;7(4):379-386. (In Russ.).

Ivanchenko MA, Arkhipov PE. A man playing, a machine playing: The path to an ideal neural network and the prerequisites for the emergence of posthumanism. Ideas and ideals. 2021;13(1-1):151-165. (In Russ.).

Krasovskaya NR, Gulyaev AA. On the issue of controlling fakes, deepfakes, fake accounts on the Internet. Bulletin of the Udmurt University. Sociology. Political science. International relations. 1985;5(1):96-99. (In Russ.).

Krasovskaya NR, Gulyaev AA. Technologies of manipulation of consciousness when using deepfakes as an instrument of information warfare in the political sphere. Authorities. 2020;28(4):93-98. (In Russ.).

Kuznetsov DV, Koloskova NV. Is it possible to defeat artificial intelligence? Colloquium-journal. 2020;9-2(61):18-19. (In Russ.).

Lazarev VV. Legal science in the light of the prospects of digitalization. Zhurnal Rossiyskogo Prava [Journal of Russian Law]. 2023;27(2):5-19. (In Russ.).

Leskova YuG. Self-regulation as an economic and legal phenomenon. Zhurnal rossiyskogo prava [Journal of Russian Law]. 2011;5:48-56. (In Russ.).

Surnina AO. Elements of global optimization of neural network models. Academy. 2017;3(18):32-36. (In Russ.).

Tarasov AM. Application of neural networks for control systems. Scientific research of young scientists: Collection of articles of the 4th International Scientific and Practical Conference: in 2 parts. Penza; 2020. Pp. 69-71. (In Russ.).

Tereshchenko LK. Transformation of the conceptual apparatus of information law in the context of digitalization. Zhurnal Rossiyskogo Prava [Journal of Russian Law]. 2022;26(12):98-110. (In Russ.).

Khilyuta VV. Artificial intelligence and criminal law: Is palingenesis acceptable in the context of digitalization? Zhurnal Rossiyskogo Prava [Journal of Russian Law]. 2023;27(9):90-103. (In Russ.).

Tsirin AM, Artemenko EA. Digital technologies and artificial intelligence as a means of preventing corruption in control (supervisory) activities: Domestic and foreign experience. Zhurnal rossiyskogo prava [Journal of Russian Law]. 2023;27(3):126-142. (In Russ.).

Chernogor NN. Artificial intelligence and its role in the transformation of modern law and order. Zhurnal rossiyskogo prava [Journal of Russian Law]. 2022;26(4):5-15. (In Russ.).

Harari YN. Nomo Deus: A Brief history of the Future. Moscow: Sinbad Publ.; 2019. (In Russ.).

Gutbrod M. Digital transformation in economy and law. Digital Law Journal. 2020;1(1):12-23.

Release Strategies and the Social Impacts of Language Models. OpenAIReport. November, 2019. Available from: https://d4mucfpksywv.cloudfront.net/papers/GPT_2_Report.pdf [cited 2023 August 29].

Shu Hu, Yuezun Li, Siwei Lyu. Exposing GAN-generated faces using inconsistent corneal specular highlights. Available from: https://arxiv.org/pdf/2009.11924.pdf [cited 2023 August 29].

Assael YM, Shillingford B, Whiteson Sh, Freitas № de. LipNet: End-to-End Sentence-level Lipreading Available from: https://arxiv.org/abs/1611.01599 [cited 2023 August 29].

ИНФОРМАЦИЯ ОБ АВТОРЕ

Киселев Александр Сергеевич, кандидат юридических наук, доцент кафедры гражданского права юридического факультета Института экономики, управления и права Государственного университета управления; старший научный сотрудник Центра исследований и экспертиз юридического факультета Финансового университета при Правительстве Российской Федерации д. 24, Веры Волошиной ул., г. Мытищи 141014, Российская Федерация alskiselev@fa.ru

INFORMATION ABOUT THE AUTHOR

Alexander S. Kiselev, Cand. Sci. (Law), Associate Professor, Department of Civil Law, Faculty of Law, Institute of Economics, Management and Law, State University of Management; Senior Researcher at the Center for Research and Expertise, Faculty of Law, Financial University under the Government of the Russian Federation, Mytishchi, Russian Federation alskiselev@fa.ru

Материал поступил в редакцию 1 ноября 2023 г. Статья получена после рецензирования 14 декабря 2023 г. Принята к печати 16 января 2024 г.

Received 01.11.2023. Revised 14.12.2023. Accepted 16.01.2024.

i Надоели баннеры? Вы всегда можете отключить рекламу.