DOI: 10.24412/2076-1503-2022-7-236-242 КОСЬМИНА Алена Васильевна,
NIION: 2018-0076-7/22-847 аспирант юридического факультета
MOSURED: 77/27-023-2022-7-1045 Санкт-Петербургского государственного
университета, e-mail: [email protected]
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: НЕКОТОРЫЕ ПРАВОВЫЕ
ПРОБЛЕМЫ
Аннотация. В статье автор рассматривает проблемы, связанные с использованием искусственного интеллекта. Анализируется влияние использования данной технологии на права человека, в частности, на неприкосновенность частной жизни; рассматриваются сущность и возможные варианты разрешения отдельных проблем.
Ключевые слова: искусственный интеллект, этика, цифровая экономика, информационные технологии, права человека.
KOSMINA Alena Vasilyevna,
Postgraduate student of the Faculty of Law, St. Petersburg State University
ARTIFICIAL INTELLIGENCE: SOME LEGAL ISSUES
Annotation. The article is devoted to the consideration of the issues associated with the use of artificial intelligence. The influence of the use of this technology on human rights, in particular, on privacy is analyzed; the essence and possible solutions to some issued are considered.
Key words: artificial intelligence, ethics, digital economy, information technology, human rights.
В современном мире, где продолжается цифровая трансформация общества, в условиях повсеместного распространения использования технологии искусственного интеллекта (далее - ИИ), права человека сталкиваются с новыми вызовами. Технологии больших данных, включая разработки на основе ИИ, способствуют созданию цифровой среды, в которой государства и бизнес получают более широкие возможности для наблюдения за поведением человека, его анализа, прогнозирования и даже воздействия на него на беспрецедентном уровне. В процессе непрерывного сбора данных о человеке, к примеру, в сети Интернет, происходит деа-нонимизация каждого пользователя, создание «профиля» с указанием вероятных интересов человека, характеристик его личности [20].
Влияние использования технологии ИИ на права человека является причиной переосмысления имеющихся подходов, направленных на защиту неприкосновенности частной жизни, сбора и хранения персональных данных, использования и раскрытия личной информации. В цифровом пространстве основные права и свободы имеют соответствующие «преломления»: право на защиту цифровой идентичности; право на доступ или отказ от доступа к цифровым технологиям; право на защиту ментальной неприкосновенности
личности и защиту от манипуляции; право на защиту биометрических и других персональных данных; право на забвение [10].
Г.Г. Камалова отмечает, что наблюдается определенная эволюция прав человека, выраженная в переходе на следующий уровень как понимания признанных прав и свобод, особенностей их реализации, так и формирование новых прав, немыслимых в так называемую доцифровую эпоху, что детерминировано революционными процессами развития и активного внедрения цифровых, биомедицинских и иных инновационных технологий [2].
В докладе Специального докладчика по вопросу о праве на неприкосновенность частной жизни Джозефа А. Каннатачи [11] приводятся следующие принципы для соблюдения при планировании, разработке и внедрении решений на базе ИИ: юрисдикция; этическая и правовая основа; основные требования к данным; ответственность и надзор; контроль; прозрачность и «объясняе-мость»; права субъекта данных; средства защиты. Одним из плюсов можно отметить то, что: «решения на базе ИИ не должны использоваться для принятия окончательных решений, а только в рамках поддержки принятия решений в определенных областях, например в судебной или медицинской сфере. Оценки воздействия на права человека
ОБРАЗОВАНИЕ И ПРАВО № 7 • 2022
должны неизменно проводиться наряду с оценками защиты данных, с тем чтобы можно было получить целостное представление о необходимых рамочных условиях» [11]. Раскрытие алгоритмов, на которых основан ИИ, является основным требованием. Однако на практике конкретная проверка логики принятия решений в высокосложных системах ИИ с использованием раскрытых алгоритмов будет сопряжена с трудностями.
Кильдеев Р.Р. отмечает, что на европейском уровне произошло быстрое осознание потенциальных угроз системе прав человека и конфиденциальности личной жизни гражданина, что послужило основанием для разработки и принятия Конвенции о защите физических лиц при автоматизированной обработке персональных данных. Европейская практика исходит из того, что правоохранительные органы, осуществлявшие сбор персональных данных, должны ознакомить гражданина с таким фактом после того, как отпала надобность в сборе данных либо уже реализованы цели такого сбора, а уведомление лица не станет препятствием для достижения правоохранительных целей [4]. Автор делает вывод о том, что в юридической литературе активно внедряется необходимость появления нового права человека - права на защиту данных, нуждающегося в своем конституционном закреплении и отраслевой конкретизации [4].
В Докладе Верховного комиссара ООН по правам человека (A/HRC/39/29) определяются следующие проблемы:
1) усиление цифрового следа (государства и компании собирают и используют всё больше данных, относящихся к частной жизни физических лиц);
2) обмен и сведение данных (компании и государства постоянно обмениваются личными данными из различных источников и баз данных и занимаются их сведением, причем ключевую роль здесь играют коммерческие поставщики данных);
3) биометрические данные, видеонаблюдение с автоматическим распознаванием лиц;
4) аналитический потенциал технологий, основанных на использовании данных, продолжает расти в геометрической прогрессии;
5) массовое слежение, сбор, хранение и анализ данных обо всех пользователях в рамках широкого круга средств коммуникации. Некоторые государства утверждают, что такое неизбирательное массовое слежение необходимо для защиты национальной безопасности, но эта практика «не допускается международным правом прав человека, поскольку при таких мерах невозможно проводить анализ каждого конкретного случая на предмет необходимости и соразмерности применяемых мер»;
ОБРАЗОВАНИЕ И ПРАВО № 7 • 2022
6) доступ к данным пользователей, имеющимся у коммерческих предприятий, так как государства часто полагаются на компании в деле сбора и перехвата личных данных (поставщики телекоммуникационных услуг и услуг доступа в Интернет предоставлять им прямой доступ к потокам данных);
7) взлом (неизбирательный перехват и сбор всех видов коммуникаций и данных; дистанционный и тайный доступ к личным устройствам и хранящимся на них данным, позволяя проводить слежение в режиме реального времени и манипулировать данными на таких устройствах.
Хакерская деятельность также ставит серьезные проблемы, связанные с экстерриториальностью, поскольку она может затрагивать физических лиц во многих юрисдикциях;
8) попытки ослабления шифрования и анонимности. Некоторые государства требуют встраивания в системы шифрования сообщений утвержденных «потайных ходов», обязывают поставщиков услуг шифрования сообщений передать ключи шифрования или даже запрещают или блокируют некоторые приложения для безопасной связи, включая приложения для использования зашифрованных текстовых сообщений и виртуальные частные сети и сети по анонимизации;
9) обмен разведывательными данными. Угроза для защиты прав человека является особенно серьезной в тех случаях, когда разведданные предоставляются государствам со слабой правоохранительной системой и/или государствам, известным своими продолжительными и систематическими нарушениями прав человека [12].
Национальная стратегия развития ИИ на период до 2030 г. отражает следующие основные, обязательные к соблюдению принципы развития и использования технологий ИИ: защита прав и свобод человека; безопасность; прозрачность; технологический суверенитет; целостность инновационного цикла; разумная бережливость; поддержка конкуренции; одной из целей развития ИИ в РФ является обеспечение национальной безопасности и правопорядка [15]. Признается недопустимым использование ИИ в целях умышленного причинения вреда гражданам и юридическим лицам, а также необходимым являются предупреждение и минимизация рисков возникновения негативных последствий использования технологий ИИ; формирование комплексной системы безопасности при создании, развитии, внедрении и использовании технологий [15].
Рассмотрим подробнее некоторые проблемы, которые несет в себе использование технологий ИИ в настоящее время.
Дипфейк (deep learning (глубокое обучение) + fake (подделка)) - технология синтеза изображе-
ний (видео, голоса) человека при помощи генеративно-состязательных нейросетей. Является новой информационной угрозой, с которой IT-специалисты борются посредством создания программного обеспечения, позволяющего выявить поддельные видео. Глубокие фейки могут использоваться как инструмент межгосударственного информационного противоборства, в террористической, экстремистской и преступной деятельности и для диффамации [17]. Как отмечает в своем исследовании М.А. Желудков, подобные технологии в условиях удаленного доступа могут быть использованы для оформления подложных товарно-денежных операций, получении обманом кредитных ресурсов, изменения доказательств по реальным уголовным делам [1]. Без затруднений и без глубоких познаний в сфере IT можно получить доступ к приложениям и сервисам, многие из которых являются бесплатными, которые позволят любому пользователю создать дипфейк, например: FaceApp, DeepFaceLab, FaceSwap. Н.Р. Красовская говорит о том, что дипфейк может быть использован как инструмент непрекрытого, практически прямого манипулирования сознанием и поведением людей, когда на экране человек выполняет действия, либо говорит вещи, которые на самом деле он никогда не делал и не говорил [5].
Что предлагается для борьбы с данной технологией? К примеру, авторы отчета о трендах информационной безопасности ESET предлагают следующее: 1) необходимо информировать людей о существовании дипфейков; следует научиться относиться с долей скептицизма даже к самым реалистичным видео; 2) разработать улучшенные технологии, способные обнаруживать дипфейки, действующие как «противоядие; 3) платформы социальных сетей должны как можно раньше распознавать потенциальную угрозу и устранять ее, поскольку именно здесь наиболее вероятно распространение дипфейковых видео и оказание пагубного воздействия на общество [23]. С правовой точки зрения возможно регламентировать ответственность за создание и распространение поддельных видеоматериалов - подобные нормативные акты есть в штате Техас [19], штате Калифорния [20] (ответственность за создание дип-фейков с целью оказать влияние на выборы), в Китае [22]. В России в настоящее время идет обсуждение вопроса регулирования дипфейков.
Распознавание лиц (Facial recognition technology (FRT)) - технология, позволяющая идентифицировать (распознать) конкретного человека, подтвердив его личность по уникальным чертам лица. Подобные системы позволяют решить широкий круг задач и используются в криминалистике, в мобильных приложениях, в охран-
ных системах и др. Авторы статьи «Неприкосновенность частной жизни в условиях использования систем искусственного интеллекта для удаленной биометрической идентификации личности» указывают на то, что системы ИИ для удаленной биометрической идентификации личности, как правило, используются государственными органами в целях обеспечения национальной безопасности (поиск и поимка правонарушителей, предиктивная аналитика совершения правонарушений), однако существуют и иные способы их использования в публичном секторе, например оплата общественного транспорта, государственных услуг и т.п [6]. Споры о том, нарушает ли такая технология права человека или же является полностью положительной и оправданной, помогая бороться с преступностью, остаются открытыми -помимо вмешательства в частную жизнь существуют также следующие проблемы: вероятность ошибки при распознавании лица (помехи, ошибка в полученной информации); методы расового и социального профилирования (выявление склонности к «террористическому» или «криминальному» поведению). В 2019 г. Савеловский районный суд Москвы оставил без удовлетворения иск, в котором жительница требовала признать незаконным применение системы распознавания лиц в работе камер наблюдения - суд заключил, что это не является вмешательством в частную жизнь граждан, так как не позволяет установить личность человека - в базе отсутствуют необходимые для этого персональные данные, в т.ч. биометрические. При отсутствии процедуры идентификации личности, видеоизображения граждан не могут считаться биометрическими персональными данными - отсутствует необходимость получать письменное согласие гражданина на обработку биометрических персональных данных [14].
По данным J'son and Partners Consulting объем мирового рынка биометрических услуг достигнет $40 млрд к 2022 году, в России он оценивается более чем в $300 млн [16]. Использование технологии может обеспечить дополнительную безопасность, но также может серьезно нарушить приватность; к тому же, системы ИИ могут выдавать неточную информацию, совершать ошибки в распознавании, в т.ч. дискриминацию по возрасту, полу, взглядам и иным признакам. В январе 2022 г. Совет Федерации потребовал исключить дискриминацию человека ИИ, а также поручил ряду министерств, включая Минцифры, Минздрав и Минэкономики, разработать меры по защите прав граждан при применении систем ИИ [18]. В настоящее время саморегулирование осуществляется при помощи Кодекса этики искусственного интеллекта (26 октября 2021) [13], в котором наряду с другими, отражен принцип недискриминации.
ОБРАЗОВАНИЕ И ПРАВО № 7 • 2022
Большие данные - сквозная цифровая технология; представляют собой колоссальные объемы информации. А.И. Савельев предлагает следующее понятие: «Большие данные - совокупность инструментов и методов обработки структурированных и неструктурированных данных огромных объёмов из различных источников, подверженных постоянным обновлениям, в целях повышения качества принятия управленческих решении", создания новых продуктов и повышения конкурентоспособности» [8]. Среди угроз можно выделить: хищение персональных данных, данных геолокации, передача информации по незащищенным каналам связи и др. А.А. Руслан, И.И. Хабибулла отмечают, что данная проблема требует как правового, так и надлежащего технологического регулирования, поскольку в связи с огромным количеством пользовательских запросов, совершаемых одновременно либо в малые промежутки времени, а также с учетом возможности передачи такой информации третьим лицам, оператор не всегда способен проинформировать о том, как именно будет обработана информация и как в дальнейшем будет осуществляться ее хранение [7].
Относительно защиты персональных данных можно определить следующие риски, возникающие в связи с использованием технологии ИИ в аспекте автоматической обработки данных по заданному алгоритму, который может самообучаться:
- сбор, хранение и анализ данных обо всех пользователях (без осведомленности граждан о сборе информации);
- ведение массовой слежки за гражданами: выявление мест проживания, маршрутов;
- сбор биометрических данных;
- сбор данных о личных особенностях, взглядов граждан;
- последующий сбор данных в «цифровой» профиль, формирование «цифрового следа» граждан (распространение персональных данных);
- дальнейшее использование всей собранной информации (деление граждан на «группы» со схожими характеристиками; анализ поведения, мышления) для предоставления сведений о продуктах, которые вероятнее всего заинтересуют определенных пользователей, включая дискриминационные прецеденты - разная ценовая политика для разных категорий граждан; многократное и неконтролируемое копирование, передача этой информации.
Как показывают различные исследования, ИИ в своем воздействии на права человека может рассматриваться как в положительном, так и в отрицательном ключе. До сих пор остаются откры-
ОБРАЗОВАНИЕ И ПРАВО № 7 • 2022
тыми дискуссии относительно рисков применения технологий ИИ, его негативного влияния на права человека. Отмечается важность соблюдения принципов этики для минимизирования негативных последствий использования ИИ; соблюдение принципов прозрачности, использование ИИ только в рамках поддержки принятия решений и т.д; высказываются мнения о необходимости внедрить новые средства защиты, так как технические особенности передачи и обработки электронных данных нередко разрывают связь с их обладателем и субъектом данных, что снижает возможности использования только права на неприкосновенность частной жизни в вопросах эффективной защиты. В качестве дополнительных средств защиты персональных данных можно выделить:
- разработка набора базовых правил, который позволит минимизировать чрезмерный государственный контроль за данными граждан (социальные сети, другие общедоступные данные [34]);
- разработка международного правового регулирования [21] (при взаимодействии разных правовых культур); разработка общего понятия конфиденциальности;
- усиление административной ответственности (13.11 КоАП) [9];
- введение большей прозрачности и большего контроля для пользователей в области сбора, хранения и использования данных, обмена данными; понимание, каким образом происходит взаимодействие с данными граждан;
- запрет компаниям (операторам связи) скрыто передавать собранные данные своих клиентов другим компаниям;
- отказ от «принудительной цифровизации» в сфере получения государственных услуг.
Справедливо отмечает в своей работе С.Ю. Кашкин: «право должно найти тонкую грань между полезными для развития человека возможностями искусственного интеллекта, достижениями машин и одновременно не потерять качества человека — такие как творчество, самостоятельность и оригинальность мышления, гуманизм, доброта, нравственность, этические принципы, мораль, которые и отличают главные достоинства человека» [3].
Главная угроза - это не сама технология ИИ, а человек, который её использует в своих целях, и ответственность за негативные последствия также несет именно человек - в связи с этим существует необходимость в четком разграничении ответственности между разработчиками, пользователями, операторами и др. Использование ИИ может быть направлено как на повышение защиты и соблюдения прав человека, так и наоборот - на ущемление и ограничение.
Список литературы:
[1] Желудков М.А. Обоснование необходимости адаптации деятельности правоохранительных органов к условиям цифровой трансформации преступной среды // Lex russica (Русский закон). 2021. №74(4). С. 63-70. https://doi. org/10.17803/1729-5920.2021.173.4.063-070
[2] Камалова Г.Г. Теоретико-правовые аспекты эволюции прав человека в условиях циф-ровизации и внедрения технологии искусственного интеллекта // Вестник Удмуртского университета. Серия «Экономика и право». 2021. №4. URL: https://cyberlemnka.ru/article/n/teoretiko-pravovye-aspekty-evolyutsii-prav-cheloveka-v-usloviyah-tsifrovizatsii-i-vnedreniya-tehnologii-iskusstvennogo-intellekta (дата обращения: 02.05.2022).
[3] Кашкин С.Ю. Искусственный интеллект и робототехника: возможность вторжения в права человека и правовое регулирование этих процессов в ЕС и мире // Lex Russica. 2019. №7 (152). URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-i-robototehnika-vozmozhnost-vtorzhemya-v-prava-cheloveka-i-pravovoe-regulirovanie-etih-protsessov-v-es-i-mire (дата обращения: 01.05.2022).
[4] Кильдеев Р.Р. Право на неприкосновенность частной жизни и право на защиту данных: проблемы соотношения // Вестник Уральского юридического института МВД России. 2021. №2. URL: https://cyberleninka.ru/article/n/pravo-na-neprikosnovennost-chastnoy-zhizni-i-pravo-na-zaschitu-dannyh-problemy-sootnosheniya (дата обращения: 02.05.2022).
[5] Красовская Н.Р. Фейковые новости и дип-фейки как психотехнологии современной информационной войны // Гуманитарные проблемы военного дела. 2020. №2 (23). С. 191-194.
[6] Кутейников ДЛ., Ижаев О.А., Алексеевич Л.В., Зенин С.С. Неприкосновенность частной жизни в условиях использования систем искусственного интеллекта для удаленной биометрической идентификации личности // Lex Russica. 2022. №2 (183). URL: https://cyberleninka.ru/ article/n/neprikosnovennost-chastnoy-zhizni-v-usloviyah-ispolzovaniya-sistem-iskusstvennogo-intellekta-dlya-udalennoy-biometricheskoy (дата обращения: 29.04.2022).
[7] Руслан А.А., Хабибулла И.И. Проблемы правового регулирования больших данных // Закон и право. 2022. №1. URL: https://cyberleninka. ru/article/n/problemy-pravovogo-regulirovaniya-bolshih-dannyh-1 (дата обращения: 01.05.2022).
[8] Савельев А.И. Проблемы применения законодательства о персональных данных в эпоху «Больших данных» Big Data // Право. Журнал Высшей школы экономики. 2015. №1. С. 43-66.
[9] Солдатова В. И. Защита персональных данных в условиях применения цифровых технологий // Lex Russica. 2020. №2 (159). URL: https:// cyberleninka.ru/article/n/zaschita-personalnyh-dannyh-v-usloviyah-primeneniya-tsifrovyh-tehnologiy (дата обращения: 05.04.2022).
[10] Доклад Совета при Президенте Российской Федерации по развитию гражданского общества и правам человека: Цифровая трансформация и защита прав граждан в цифровом пространстве. URL: https://ifap.ru/pr/2021/n211213a.pdf (дата обращения: 04.04.2022).
[11] Доклад специального докладчика по вопросу о праве на неприкосновенность частной жизни: Искусственный интеллект и неприкосновенность частной жизни, а также неприкосновенность частной жизни детей. [Электронный ресурс]: 25.01.2021. A/HRC/46/37. URL: https://www.ohchr. org/ru/documents/thematic-reports/ahrc4637-artificial-intelligence-and-privacy-and-childrens-privacy (дата обращения: 01.05.2022).
[12] Доклад Верховного комиссара Организации Объединенных Наций по правам человека: Право на неприкосновенность частной жизни в цифровой век. [Электронный ресурс]: 30.08.2018. A/HRC/39/29. URL: https://www.ohchr.org/ru/ documents/right-privacy-digital-age-report-united-nations-high-commissioner-human-rights (дата обращения: 01.05.2022).
[13] Кодекс этики в сфере искусственного интеллекта [Электронный ресурс]. URL: https://a-ai. ru/wp-content/ uploads/2021/10/Кодекс_этики_в_ сфере_ИИ_финальный.pdf (дата обращения:
01.05.2021).
[14] Решение Савеловского районного суда города Москвы №2а-577/19 от 06.11.2019. URL: https://www.mos-gorsud.ru/rs/savyolovskij/services/ cases/kas/details/988f386e-be51-47b0-b48f-e871043ef1fc?participants=Попова (дата обращения: 01.05.2022).
[15] Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» // Собрание законодательства Российской Федерации. 2019. № 41. Ст. 5700.
[16] В России начался бум на решения по лицевой биометрии // Сайт Itweek.ru. 19.04.2022. URL: https://www.itweek.ru/security/news-company/ detail.php?ID=223471 (дата обращения:
28.04.2022).
[17] «Глубокие фейки» и национальная безопасность - оценка потенциального влияния // Онлайн-издание D-russia.ru. 27.01.2020. URL: https://d-russia.ru/glubokie-fejki-i-natsionalnaya-bezopasnost-otsenka-potentsialnogo-vliyaniya.html (дата обращения: 29.04.2022).
ОБРАЗОВАНИЕ И ПРАВО № 7 • 2022
[18] Совет Федерации потребовал исключить дискриминацию человека искусственным интеллектом // Сайт Forbes.ru. 21.01.2022. URL: https://www.forbes.ru/tekhnologii/453193-sovet-federacii-potreboval-isklucit-diskriminaciu-celoveka-iskusstvennym-intellektom (дата обращения: 01.05.2022).
[19] An act relating to the creation of a criminal offense for fabricating a deceptive video with intent to influence the outcome of an election: Texas Senate Bill No. 751. URL: https://capitol.texas.gov/ tlodocs/86R/billtext/html/SB00751F.htm (дата обращения: 28.04.2022).
[20] Assembly Bill No. 730. State of California. URL: https://leginfo.legislature.ca.gov/faces/billPdf. xhtml (дата обращения: 28.04.2022).
[21] Boshe P. Data privacy law: An international perspective // Information and communications technology law. 2015. Vol. 24. N 1. P. 118-120.
[22] China seeks to root out fake news and deepfakes with new online content rules // Сайт Reuters.com. 29.11.2019. URL: https://www.reuters. com/article/us-china-technology/china-seeks-to-root-out-fake-news-and-deepfakes-with-new-online-content-rules-idUSKBN1Y30VU (дата обращения: 28.04.2022).
[23] ESET Cybersecurity trends 2020 [Электронный ресурс]. URL: https://www.welivesecurity. com/wp-content/uploads/2019/12/ESET_ Cybersecurity_Trends_2020.pdf (дата обращения: 29.04.2022).
Spisok literatury:
[1] ZHeludkov M.A. Obosnovanie neobhodimosti adaptacii deyatel'nosti pravoohranitel'nyh organov k usloviyam cifrovoj transformacii prestupnoj sredy // Lex russica (Russkij zakon). 2021. №74(4). S. 63-70. https://doi.org/10.17803/1729-5920.2021.173.4.063-070
[2] Kamalova G.G. Teoretiko-pravovye aspekty evolyucii prav cheloveka v usloviyah cifrovizacii i vnedreniya tekhnologii iskusstvennogo intellekta // Vestnik Udmurtskogo universiteta. Seriya «Ekonomika i pravo». 2021. №4. URL: https://cyberleninka.ru/ article/n/teoretiko-pravovye-aspekty-evolyutsii-prav-cheloveka-v-usloviyah-tsifrovizatsii-i-vnedreniya-tehnologii-iskusstvennogo-intellekta (data obrashcheniya: 02.05.2022).
[3] Kashkin S.YU. Iskusstvennyj intellekt i robototekhnika: vozmozhnost' vtorzheniya v prava cheloveka i pravovoe regulirovanie etih processov v ES i mire // Lex Russica. 2019. №7 (152). URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-i-robototehnika-vozmozhnost-vtorzheniya-v-prava-cheloveka-i-pravovoe-regulirovanie-etih-protsessov-v-es-i-mire (data obrashcheniya: 01.05.2022).
ОБРАЗОВАНИЕ И ПРАВО № 7 • 2022
[4] Kil'deev R.R. Pravo na neprikosnovennost' chastnoj zhizni i pravo na zashchitu dannyh: problemy sootnosheniya // Vestnik Ural'skogo yuridicheskogo instituta MVD Rossii. 2021. №2. URL: https:// cyberleninka.ru/article/n/pravo-na-neprikosnovennost-chastnoy-zhizni-i-pravo-na-zaschitu-dannyh-problemy-sootnosheniya (data obrashcheniya: 02.05.2022).
[5] Krasovskaya N.R. Fejkovye novosti i dipfejki kak psihotekhnologii sovremennoj informacionnoj vojny // Gumanitarnye problemy voennogo dela. 2020. №2 (23). S. 191-194.
[6] Kutejnikov DL., Izhaev O.A., Alekseevich L.V., Zenin S.S. Neprikosnovennost' chastnoj zhizni v usloviyah ispol'zovaniya sistem iskusstvennogo intellekta dlya udalennoj biometricheskoj identifikacii lichnosti // Lex Russica. 2022. №2 (183). URL: https:// cyberleninka.ru/article/n/neprikosnovennost-chastnoy-zhizni-v-usloviyah-ispolzovaniya-sistem-iskusstvennogo-intellekta-dlya-udalennoy-biometricheskoy (data obrashcheniya: 29.04.2022).
[7] Ruslan A.A., Habibulla I.I. Problemy pravovogo regulirovaniya bol'shih dannyh // Zakon i pravo. 2022. №1. URL: https://cyberleninka.ru/ article/n/problemy-pravovogo-regulirovaniya-bolshih-dannyh-1 (data obrashcheniya: 01.05.2022).
[8] Savel'ev A.I. Problemy primeneniya zakonodatel'stva o personal'nyh dannyh v epohu «Bol'shih dannyh» Big Data // Pravo. ZHurnal Vysshej shkoly ekonomiki. 2015. №1. S. 43-66.
[9] oldatova V. I. Zashchita personal'nyh dannyh v usloviyah primeneniya cifrovyh tekhnologij // Lex Russica. 2020. №2 (159). URL: https://cyberleninka. ru/article/n/zaschita-personalnyh-dannyh-v-usloviyah-primeneniya-tsifrovyh-tehnologiy (data obrashcheniya: 05.04.2022).
[10] Doklad Soveta pri Prezidente Rossijskoj Federacii po razvitiyu grazhdanskogo obshchestva i pravam cheloveka: Cifrovaya transformaciya i zashchita prav grazhdan v cifrovom prostranstve. URL: https://ifap.ru/pr/2021/n211213a.pdf (data obrashcheniya: 04.04.2022).
[11] Doklad special'nogo dokladchika po voprosu o prave na neprikosnovennost' chastnoí zhizni: Iskusstvennyj intellekt i neprikosnovennost' chastnoj zhizni, a takzhe neprikosnovennost' chastnoj zhizni detej. [Elektronnyj resurs]: 25.01.2021. A/ HRC/46/37. URL: https://www.ohchr.org/ru/ documents/thematic-reports/ahrc4637-artificial-intelligence-and-privacy-and-childrens-privacy (data obrashcheniya: 01.05.2022).
[12] Doklad Verhovnogo komissara Organizacii Ob"edinennyh Nacij po pravam cheloveka: Pravo na neprikosnovennost' chastnoj zhizni v cifrovoj vek. [Elektronnyj resurs]: 30.08.2018. A/HRC/39/29. URL: https://www.ohchr.org/ru/documents/right-privacy-
digital-age-report-united-nations-high-commissioner-human-rights (data obrashcheniya: 01.05.2022).
[13] Kodeks etiki v sfere iskusstvennogo intellekta [Elektronnyj resurs]. URL: https://a-ai.ru/ wp-content/ uploads/2021/10/Kodeks_etiki_v_sfere_ II_final'nyj.pdf (data obrashcheniya: 01.05.2021).
[14] Reshenie Savelovskogo rajonnogo suda goroda Moskvy №2a-577/19 ot 06.11.2019. URL: https://www.mos-gorsud.ru/rs/savyolovskij/services/ cases/kas/details/988f386e-be51-47b0-b48f-e871043ef1fc?participants=Popova (data obrashcheniya: 01.05.2022).
[15] Ukaz Prezidenta RF ot 10.10.2019 № 490 «O razvitii iskusstvennogo intellekta v Rossijskoj Federacii» // Sobranie zakonodatel'stva Rossijskoj Federacii. 2019. № 41. St. 5700.
[16] V Rossii nachalsya bum na resheniya po licevoj biometrii // Sajt Itweek.ru. 19.04.2022. URL: https://www.itweek.ru/security/news-company/detail. php?ID=223471 (data obrashcheniya: 28.04.2022).
[17] «Glubokie fejki» i nacional'naya bezopasnost' - ocenka potencial'nogo vliyaniya // Onlajn-izdanie D-russia.ru. 27.01.2020. URL: https:// d-russia.ru/glubokie-fejki-i-natsionalnaya-bezopasnost-otsenka-potentsialnogo-vliyaniya.html (data obrashcheniya: 29.04.2022).
[18] Sovet Federacii potreboval isklyuchit' diskriminaciyu cheloveka iskusstvennym intellektom // Sajt Forbes.ru. 21.01.2022. URL: https://www.
forbes.ru/tekhnologii/453193-sovet-federacii-potreboval-isklucit-diskriminaciu-celoveka-iskusstvennym-intellektom (data obrashcheniya: 01.05.2022).
[19] An act relating to the creation of a criminal offense for fabricating a deceptive video with intent to influence the outcome of an election: Texas Senate Bill No. 751. URL: https://capitol.texas.gov/ tlodocs/86R/billtext/html/SB00751F.htm (data obrashcheniya: 28.04.2022).
[20] Assembly Bill No. 730. State of California. URL: https://leginfo.legislature.ca.gov/faces/billPdf. xhtml (data obrashcheniya: 28.04.2022).
[21] Boshe P. Data privacy law: An international perspective // Information and communications technology law. 2015. Vol. 24. N 1. P. 118-120.
[22] China seeks to root out fake news and deepfakes with new online content rules // Sajt Reuters.com. 29.11.2019. URL: https://www.reuters. com/article/us-china-technology/china-seeks-to-root-out-fake-news-and-deepfakes-with-new-online-content-rules-idUSKBN1Y30VU (data obrashcheniya: 28.04.2022).
[23] ESET Cybersecurity trends 2020 [Elektronnyj resurs]. URL: https://www.welivesecurity. com/wp-content/uploads/2019/12/ESET_ Cybersecurity_Trends_2020.pdf (data obrashcheniya: 29.04.2022).
ОБРАЗОВАНИЕ И ПРАВО № 7 • 2022