Научная статья на тему 'СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ'

СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ Текст научной статьи по специальности «Право»

CC BY
297
83
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Вестник науки
Область наук
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ПРАВОВОЕ РЕГУЛИРОВАНИЕ / УГРОЗЫ / КОНФИДЕНЦИАЛЬНОСТЬ ДАННЫХ / ДИСКРИМИНАЦИЯ / ОТВЕТСТВЕННОСТЬ / ИНТЕЛЛЕКТУАЛЬНАЯ СОБСТВЕННОСТЬ / ПРОЗРАЧНОСТЬ / МЕЖДУНАРОДНЫЙ ОПЫТ

Аннотация научной статьи по праву, автор научной работы — Кантемирова Е.Д.

Искусственный интеллект (ИИ) представляет собой значительный вызов для правового регулирования во всем мире. В статье рассматриваются основные угрозы ИИ в правовой сфере, такие как конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность и прозрачность. Рассматриваются лучшие международные практики по предотвращению этих угроз, такие как разработка законодательства о защите данных и интеллектуальной собственности, ужесточение требований к прозрачности и создание специальных органов для регулирования ИИ. Также представлены конкретные рекомендации для России по усилению правового регулирования в этой области, основанные на международном опыте. Статья подчеркивает необходимость улучшения правового регулирования ИИ, чтобы обеспечить эффективную защиту прав и свобод человека в мире, где ИИ все более интегрирован в нашу повседневную жизнь

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

IMPROVING THE LEGAL REGULATION OF ARTIFICIAL INTELLIGENCE IN RUSSIA

Artificial Intelligence (AI) presents a significant challenge for legal regulation worldwide. This article examines the major legal threats of AI, such as data privacy, discrimination, responsibility, intellectual property, and transparency. Best international practices for preventing these threats are discussed, such as the development of legislation to protect data and intellectual property, increased transparency requirements, and the establishment of specialized agencies to regulate AI. Specific recommendations for Russia to strengthen its legal regulation in this area are presented, based on international experience. The article emphasizes the need to improve legal regulation of AI to ensure effective protection of human rights and freedoms in a world where AI is increasingly integrated into our daily lives.

Текст научной работы на тему «СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ»

УДК 349

Кантемирова Е.Д.

студент Международно-правового института Московский государственный юридический университет имени О.Е. Кутафина (г. Москва, Россия)

СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ

Аннотация: Искусственный интеллект (ИИ) представляет собой значительный вызов для правового регулирования во всем мире. В статье рассматриваются основные угрозы ИИ в правовой сфере, такие как конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность и прозрачность. Рассматриваются лучшие международные практики по предотвращению этих угроз, такие как разработка законодательства о защите данных и интеллектуальной собственности, ужесточение требований к прозрачности и создание специальных органов для регулирования ИИ. Также представлены конкретные рекомендации для России по усилению правового регулирования в этой области, основанные на международном опыте. Статья подчеркивает необходимость улучшения правового регулирования ИИ, чтобы обеспечить эффективную защиту прав и свобод человека в мире, где ИИ все более интегрирован в нашу повседневную жизнь.

Ключевые слова: искусственный интеллект, правовое регулирование, угрозы, конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность, прозрачность, международный опыт

Искусственный интеллект (ИИ) — это технология, которая использует алгоритмы и данные для обучения машин, чтобы они могли выполнять задачи, которые раньше могли решать только люди. Использование ИИ имеет большой потенциал для улучшения жизни людей и сокращения времени на выполнение рутинных задач. Однако, как и любая технология, ИИ должен быть правильно

регулирован, чтобы предотвратить возможные негативные последствия, такие как нарушение прав человека и угрозы безопасности.

История правового регулирования искусственного интеллекта восходит к 1950-м годам, когда были разработаны первые системы искусственного интеллекта. В то время искусственный интеллект был в первую очередь исследовательским инструментом, и правовой или нормативный надзор за его разработкой и использованием был незначительным.

В 1960-х и 1970-х годах, когда системы искусственного интеллекта начали использоваться в коммерческих приложениях, были высказаны опасения по поводу потенциальных рисков и негативных последствий искусственного интеллекта. Это привело к разработке этических и правовых рамок, регулирующих разработку и использование систем искусственного интеллекта.

В 1980-х и 1990-х годах правовая и нормативная база для искусственного интеллекта продолжала развиваться по мере того, как искусственный интеллект становился все более распространенным в различных отраслях промышленности. В 1986 году Соединенные Штаты приняли Закон о компьютерном мошенничестве и злоупотреблениях, который запрещал доступ к компьютерной системе без разрешения или использование компьютера для совершения преступления [1].

В начале 2000-х годов опасения по поводу этических и юридических последствий искусственного интеллекта росли по мере того, как системы искусственного интеллекта становились все более изощренными и начали использоваться во все более сложных приложениях. В 2009 году Европейский союз учредил Европейскую группу по этике в науке и новых технологиях [2], которая отвечает за предоставление рекомендаций по этическим и правовым вопросам, связанным с разработкой и использованием искусственного интеллекта.

Сегодня многие страны создали правовую и нормативную базу для искусственного интеллекта, включая законы и подзаконные акты, регулирующие

конфиденциальность данных, дискриминацию, ответственность и интеллектуальную собственность. Эти законы и нормативные акты призваны гарантировать, что системы искусственного интеллекта разрабатываются и используются этичным и ответственным образом [3].

Искусственный интеллект может представлять различные юридические угрозы, включая следующие [4, 5]:

1. Конфиденциальности данных. Искусственный интеллект использует большие объемы данных для обучения и принятия решений. Если эти данные содержат личную или конфиденциальную информацию, они могут подвергаться риску несанкционированного доступа или неправильного использования, что может привести к нарушениям законов о защите данных.

2. Дискриминации. Системы искусственного интеллекта могут увековечивать существующие предубеждения и дискриминировать определенных людей или группы, намеренно или непреднамеренно. Это может привести к судебным разбирательствам, связанным с дискриминацией и равным обращением.

3. Ответственности. По мере того, как системы искусственного интеллекта становятся все более сложными и автономными, может стать трудно назначить ответственность в случае несчастных случаев или ошибок. Это может создать юридические проблемы, связанные с ответственностью за продукт.

4. Интеллектуальной собственности. Системы искусственного интеллекта могут создавать новые произведения или изобретения, что вызывает вопросы о том, кому принадлежат права на эти творения. Это может привести к судебным разбирательствам, связанным с интеллектуальной собственностью и патентным правом.

5. Прозрачности. Системы искусственного интеллекта могут быть непрозрачными, что затрудняет понимание того, как принимаются решения. Такое отсутствие прозрачности может вызвать юридические и этические

вопросы, связанные с подотчетностью, особенно в таких отраслях, как здравоохранение и финансы.

Рассмотрим примеры правовых угроз ИИ, а также лучшие международные практики по нейтрализации данных угроз (таблица 1).

Таблица 1. Примеры правовых угроз ИИ и лучшие международные практики по их нейтрализации

Правовые угрозы ИИ Пример Лучшие международные

практики

Конфиденциальности Использование систем Общий регламент по защите

данных распознавания лиц в данных (GDPR) в

общественных местах. Европейском союзе

В некоторых странах ужесточил законы о

были конфиденциальности данных

зарегистрированы и увеличил штрафы для

случаи компаний, которые их

неправомерного нарушают. Другие страны

использования этих последовали этому примеру,

систем для сбора и например, Бразилия с ее

хранения Общим законом о защите

персональных данных данных (LGPD) и Калифорния

граждан, включая с ее Законом о

фотографии и конфиденциальности

видеозаписи без их потребителей (CCPA).

согласия. Это может

привести к нарушению

прав на

конфиденциальность и

частную жизнь людей,

а также угрожать их

безопасности в случае

утечки таких данных.

Дискриминации В 2016 году В 2018 году правительство

исследование Великобритании создало

ProPublica показало, Центр этики и инноваций в

что алгоритм, области данных, чтобы

используемый консультировать по вопросам

американской этического использования

компанией для данных и ИИ. Закон об

прогнозирования алгоритмической

уровня рецидивизма, ответственности,

имеет расовую предложенный в США,

предвзятость. потребует от компаний оценки возможности дискриминации в их алгоритмах.

Ответственности В 2018 году Правительство

беспилотный Великобритании предложило

автомобиль сбил новый кодекс поведения для

пешехода в Аризоне, разработчиков ИИ, который

что вызвало вопросы будет включать принципы

об ответственности за подотчетности и

несчастные случаи, прозрачности. Европейский

вызванные ИИ. парламент также предложил, чтобы разработчики ИИ имели страховой полис для покрытия ущерба,

причиненного их

технологией.

Интеллектуальной В 2012 году было Верховный суд США

собственности обнаружено, что разъяснил, что программное

Google нарушил обеспечение может быть

авторские права Oracle запатентовано, если оно

на Java при разработке отвечает определенным

своей операционной требованиям. Всемирная

системы Android. организация

интеллектуальной

собственности (ВОИС)

разработала правила

патентования изобретений

ИИ.

Прозрачности Cambridge Analytica Федеральная торговая

использовала личные комиссия США выпустила

данные более чем 50 руководство по

миллионов использованию объяснимого

пользователей ИИ (XAI) для повышения

Facebook, чтобы прозрачности и

создать профили для подотчетности систем ИИ.

предсказания их Закон об алгоритмической

политических прозрачности, предложенный

убеждений и в США, потребует от

поведения. Это компаний раскрывать

вызвало серьезные информацию о том, когда они

вопросы о используют алгоритмы для

прозрачности принятия решений.

использования личных

данных пользователей

социальных медиа и

подчеркнуло необходимость

прозрачности и

контроля над

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

использованием

личных данных в

Интернете.

Эти примеры демонстрируют, как разные страны устраняют юридические угрозы, создаваемые искусственным интеллектом, с помощью законодательства и подзаконных актов, позволяя разрешать споры с помощью правовых рамок.

Правовое регулирование искусственного интеллекта в России находится на стадии развития, но уже существуют некоторые законы и инициативы в этой области.

В 2019 году президент России Владимир Путин поручил правительству разработать национальную стратегию развития искусственного интеллекта до 2030 года [6]. Эта стратегия была утверждена в октябре 2019 года и содержит рекомендации по регулированию ИИ, в том числе по защите прав потребителей и обеспечению конфиденциальности данных.

Также в России существует проект Федерального закона «Об искусственном интеллекте», разработанный Минцифры России. Этот законопроект предусматривает определение ИИ, его видов и классификацию, а также устанавливает правила и ограничения для использования ИИ, включая обязательную процедуру оценки влияния ИИ на окружающую среду.

Несмотря на наличие некоторых законов и инициатив, в России все еще есть недостаток ясности и конкретики в правовом регулировании ИИ [7]:

1. Отсутствие четкого определения того, что считается ИИ. В законодательстве России отсутствует определение ИИ, что может привести к разногласиям и неопределенности в его применении.

2. Нехватка законодательства, регулирующего использование ИИ в различных областях, таких как здравоохранение, банковское дело, транспорт и т.д.

3. Необходимость улучшения механизмов защиты данных, связанных с использованием ИИ. Российское законодательство обеспечивает защиту персональных данных, однако недостаточно четко определено, как эта защита должна осуществляться при использовании ИИ.

4. Недостаточно развитая система ответственности за применение ИИ. Необходимо уточнение ответственности за применение ИИ в различных областях, например, в медицине, где неправильное решение, принятое ИИ, может повлиять на жизнь пациента.

5. Нехватка механизмов для обеспечения прозрачности принятия решений на основе ИИ. Для того чтобы сделать решения на основе ИИ более прозрачными, необходимо установить механизмы, позволяющие пользователям легко получать информацию о том, как ИИ принимает решения и как эти решения могут повлиять на них.

На основе проведенного анализа международного опыта мы разработали рекомендации по правовому регулированию искусственного интеллекта в России:

1) Разработка и внедрение механизмов оценки рисков, связанных с применением ИИ, включая оценку влияния на права человека и конституционные принципы, и учет этих рисков при разработке законов и политик.

2) Разработка и внедрение нормативных актов, обеспечивающих прозрачность и открытость процессов принятия решений на основе ИИ.

3) Разработка и внедрение механизмов ответственности за использование ИИ, включая установление стандартов надлежащей заботы при разработке, тестировании и внедрении ИИ.

4) Разработка и внедрение механизмов защиты данных и конфиденциальности при использовании ИИ, включая обеспечение прозрачности при сборе, использовании и обработке данных.

5) Разработка и внедрение механизмов защиты интеллектуальной собственности, включая права на патенты, авторские права и торговые марки, связанные с использованием ИИ.

6) Установление механизмов международного сотрудничества для разработки общих стандартов и норм в области правового регулирования ИИ.

7) Развитие механизмов государственного регулирования ИИ, включая создание органов, ответственных за регулирование использования ИИ и защиту прав человека в этой области.

8) Обеспечение широкой консультации и участия всех заинтересованных сторон в процессе разработки и принятия законов и политик, связанных с ИИ.

9) Обеспечение эффективной системы обучения и подготовки специалистов в области ИИ и права, в том числе путем создания специализированных курсов и программ обучения.

Эти рекомендации основаны на лучших международных практиках и могут помочь России создать более эффективную систему правового регулирования использования искусственного интеллекта.

Несмотря на все усилия по минимизации правовых угроз ИИ, юридические и этические проблемы, связанные с его использованием, сохраняются, включая опасения по поводу того, что ИИ может быть предвзятым, дискриминационным или причинять вред отдельным лицам или обществу в целом. Поскольку технология искусственного интеллекта продолжает

развиваться, очевидно, что правовая и нормативная база для искусственного интеллекта также продолжит развиваться.

СПИСОК ЛИТЕРАТУРЫ:

1. Computer Fraud and Abuse Act (CFAA) [Электронный ресурс]. URL: https: //www.nacdl. org/Landing/ComputerFraudandAbuseAct (дата обращения: 25.03.23).

2. European Group on Ethics in Science and New Technologies (High Level) (EGE) [Электронный ресурс]. URL: https: //www.eumonitor.eu/9353000/1/j 9vvik7m1 c3 gyxp/vk66hky9lrxh (дата обращения: 24.03.23).

3. Тюлякова С. Сравнительный анализ правового регулирования технологий искусственного интеллекта в России, США, ЕС и Китае // Сравнительное правоведение в условиях интернационализации науки и образования : Материалы IV Всероссийской научной конференции молодых ученых Института международного права и правосудия Московского государственного лингвистического университета. 2022. С. 19-26.

4. Баттахов П. П. Правовые проблемы в сфере интеллектуальной собственности в законодательстве Российской Федерации // Право и государство: теория и практика. 2021. № 7(199). С. 9-12.

5. Изотова В. Ф. Проблемы правового регулирования искусственного интеллекта киберфизических систем и робототехники // Проблемы и вызовы цифрового общества: тенденции развития правового регулирования цифровых трансформаций : Сборник научных трудов по материалам I Международной научно-практической конференции. 2019. С. 125-127.

6. Федеральный проект «Искусственный интеллект» [Электронный ресурс]. URL:

https://www.economy.gov.ru/material/directions/fed proekt iskusstvennyy intellekt/ (дата обращения: 28.03.23).

7. Келепова М.Е., Молодчик А.В., Нагорная М.С. Правовое и институциональное регулирование искусственного интеллекта на международном и национальном уровнях // Управление в современных системах. 2022. №3 (35). С. 68-78.

Kantemirova E.D.

Kutafin Moscow State Law University (Moscow, Russia)

IMPROVING THE LEGAL REGULATION OF ARTIFICIAL INTELLIGENCE IN RUSSIA

Abstract: Artificial Intelligence (AI) presents a significant challenge for legal regulation worldwide. This article examines the major legal threats of AI, such as data privacy, discrimination, responsibility, intellectual property, and transparency. Best international practices for preventing these threats are discussed, such as the development of legislation to protect data and intellectual property, increased transparency requirements, and the establishment of specialized agencies to regulate AI. Specific recommendations for Russia to strengthen its legal regulation in this area are presented, based on international experience. The article emphasizes the need to improve legal regulation of AI to ensure effective protection of human rights and freedoms in a world where AI is increasingly integrated into our daily lives.

Keywords: artificial intelligence, legal regulation, threats, data privacy, discrimination, responsibility, intellectual property, transparency, international experience.

i Надоели баннеры? Вы всегда можете отключить рекламу.