Научная статья на тему 'ПРОБЛЕМА УНИФИКАЦИИ ПРИНЦИПОВ РАЗРАБОТКИ, ВНЕДРЕНИЯ И ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

ПРОБЛЕМА УНИФИКАЦИИ ПРИНЦИПОВ РАЗРАБОТКИ, ВНЕДРЕНИЯ И ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Право»

CC BY
29
4
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Контентус
Область наук
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ИНФОРМАТИЗАЦИЯ ОБЩЕСТВА / ПРОЗРАЧНОСТЬ И ОБЪЯСНИМОСТЬ / НАЦИОНАЛЬНАЯ СТРАТЕГИЯ / ПРИНЦИПЫ / УНИФИКАЦИЯ

Аннотация научной статьи по праву, автор научной работы — Шмытов И.А.

Цель работы: обобщение опыта международного сообщества в определении рамок развития искусственного интеллекта для использования в правовом регулировании развития отечественных технологий. Методы: системный и сравнительный анализ, комплексное толкование норм международных актов. Результаты: составлен перечень основополагающих принципов разработки, внедрения и использования искусственного интеллекта, которые возможно распространить на предмет права искусственного интеллекта как института информационного права. Подробно рассмотрены различия в понимании и наименовании принципа прозрачности и объективности, обозначенные в актах международных организаций. Предложено унифицированное толкование по каждому из принципов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PROBLEM OF UNIFICATION OF THE PRINCIPLES OF DEVELOPMENT, IMPLEMENTATION AND USE OF ARTIFICIAL INTELLIGENCE

The purpose of the work is to generalize the experience of the international community in determining the framework for the development of artificial intelligence for use in the legal regulation of the development of domestic technologies. Methods: systematic and comparative analysis, complex interpretation of the norms of international acts. Results: a list of the fundamental principles of the development, implementation and use of artificial intelligence has been compiled, which can be extended to the subject of artificial intelligence law as an institute of information law. The differences in the understanding and naming of the principle of transparency and objectivity, indicated in the acts of international organizations, are considered in detail. A unified interpretation is proposed for each of the principles.

Текст научной работы на тему «ПРОБЛЕМА УНИФИКАЦИИ ПРИНЦИПОВ РАЗРАБОТКИ, ВНЕДРЕНИЯ И ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

ПРОБЛЕМА УНИФИКАЦИИ ПРИНЦИПОВ РАЗРАБОТКИ, ВНЕДРЕНИЯ И ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Шмытов Иван Андреевич*

студент

1уэ n17shmvtov@va ndex.ru

* Университет имени О. Е. Кутафина (МГЮА), Москва, Россия

Аннотация:

Цель работы: обобщение опыта международного сообщества в определении рамок развития искусственного интеллекта для использования в правовом регулировании развития отечественных технологий.

Методы: системный и сравнительный анализ, комплексное толкование норм международных актов.

Результаты: составлен перечень основополагающих принципов разработки, внедрения и использования искусственного интеллекта, которые возможно распространить на предмет права искусственного интеллекта как института информационного права. Подробно рассмотрены различия в понимании и наименовании принципа прозрачности и объективности, обозначенные в актах международных организаций. Предложено унифицированное толкование по каждому из принципов.

Ключевые слова: искусственный интеллект, информатизация общества, прозрачность и объяснимость, Национальная стратегия, принципы, унификация.

УДК 94:323.1(4-15)

Р01: 10.24411/2658-6932-2022-10000

Для цитирования: Шмытов И. А. Проблема унификации принципов разработки, внедрения и использования искусственного интеллекта / И. А. Шмытов // Контентус. - 2022. - № 8. - С. 34 - 42.

Введение

В современном мире, где повсеместно распространены цифровые технологии, словосочетание «искусственный интеллект» (далее - ИИ) уже не вызывает удивления. Компьютерные программы обыгрывают людей в

сложных играх: шахматы - Deep Blue победила Каспарова, го - AlphaGo обыграла Ли Седоля [2,3]. Это лишь верхушка айсберга возможностей ИИ, которые уже сегодня используются в банковской деятельности, медицине, на производстве и т. д.; что заставляет задуматься: «А не так ли далеко восстание машин?». Так, Т.В. Черниговской были высказаны опасения относительно вероятности выхода ИИ из-под контроля ввиду возможности становления ИИ личностью [3, 4, 5].

ИИ привлекает к себе все больше внимания и, как фактор, влияющий на общественные отношения, становится объектом подлежащим правовому регулированию. В научном сообществе до сих пор нет единого мнения относительно определения ИИ. Публикации на данную тематику, в том числе правового характера, изобилуют разнообразными формулировками. В таких условиях, для правового регулирования большое значение имеет определение принципов разработки, внедрения и использования технологий ИИ (далее - принципы ИИ). На данный момент уже имеется довольно обширный массив международно-правовых актов, содержащих принципы ИИ, среди которых отметим следующие: Резолюция Европейского парламента от 16 февраля 2017 года с рекомендациями Комиссии по нормам ГП в области робототехники, Рекомендации Совета ОЭСР по искусственному интеллекту 22 мая 2019 года, Принципы «Группы двадцати» в области развития искусственного интеллекта 28-29 июня 2019 года, Рекомендации по этике ИИ (ЮНЭСКО) от 24 ноября 2021 года. Также стоит обратить внимание на документы, принимаемые по итогам экспертных конференций в области ИИ, например, Азиломарские принципы ИИ 2017 года [7] и отечественный Кодекс этики в сфере искусственного интеллекта (далее Кодекс этики) [8] , действующий в порядке саморегулирования. Кроме того, в российском правовом поле существует Национальная стратегия развития искусственного интеллекта на период до 2030 года, утв. Указом Президента РФ от 10 октября 2019 г. № 490 (далее - Национальная стратегия) [9].

Выявление сущности принципа прозрачности и объяснимости

Анализ вышеупомянутых нормативных актов выявляет отсутствие единой терминологии для обозначения принципов ИИ, которым должна соответствовать деятельность пользователей и разработчиков ИИ (ими могут быть как физические или юридические лица, так и публичные образования), а также само функционирование ИИ как технологической системы.

В качестве примера рассмотрим принцип «прозрачности и объяснимости».

Резолюция Европейского парламента от 16 февраля 2017 года определяет принцип «прозрачности» как необходимость рационального

Шмытов И. А. Проблема унификации принципов разработки, внедрения и ...

объяснения в форме, понятной человеку, решения, принятого с помощью ИИ; если оно повлияло на чью-либо жизнь (одного или более человека) [10];

Рекомендации ОСЭР по искусственному интеллекту 22 мая 2019 года используют термин «прозрачность» в связке с «объяснимостью» и раскрывают их как необходимость «способствовать общему пониманию систем ИИ», информировать о взаимодействии с системами ИИ. В пункте 1.3 Рекомендаций постулируется обязанность «участников ИИ» обеспечить понимание результата деятельности пострадавшим от неё, тем самым, сужая круг лиц, которым должно быть разъяснено почему именно ИИ было принято то или иное решение [11].

Принципы искусственного интеллекта G20, принятые в июне 2019 года на саммите в Осаке, провозгласили ряд «общепризнанных» принципов. Увы, это не привело к формированию унифицированной терминологии. При разработке принципов «группа двадцати» рассматривала соответствующие рекомендации ОСЭР, но, в итоге, для обозначения обязанности обеспечить доступность информации о технических принципах работы ИИ и, при необходимости, о механизме принятия решения в частном случае; было использовано словосочетание «транспарентность и объяснимость». Однако, всё это касается только возможности ознакомится с необходимыми данными, что вовсе не означает их понимание теми, кто не обладает специальными знаниями, т.е. объяснимости.

В свою очередь, п. 39-41 Рекомендаций по этике ИИ ЮНЕСКО 25 ноября 2021 года [14, 15] дают более подробное представление о «прозрачности и объяснимости», однако вновь ограничивает необходимость объяснять механизм принятия решения возможностью такового повлиять на жизнь человека последствиями, «не являющимися временными, легко обратимыми и не отличающимися низкой степенью рисков». К тому же это касается лишь пользователей «приложений на базе ИИ». Положительным моментом стало толкование принципа «прозрачности» в качестве основания для предоставления в открытый доступ («раскрытия») алгоритмов или наборов данных, если есть «серьезные риски негативных последствий для прав человека», и закрепление «прозрачности» в качестве фактора, упитывающегося при привлечении к ответственности за последствия функционирования ИИ.

Обращая внимание на российское законодательство хочется отметить, что на наш взгляд, Национальная стратегия содержит достаточно скупую формулировку принципа «прозрачности и объяснимости», которая никак не характеризует круг лиц кому «объяснимость» должна быть обеспечена; в аспекте «прозрачности» провозглашает «недискриминационный» доступ каждому пользователю к сведениям о применяемых в продуктах алгоритмах работы искусственного интеллекта, необоснованно забывая о том, что потенциальные пользователи технологий ИИ должны иметь возможность ознакомиться с упомянутой информацией перед началом пользования.

Кодекс этики также не упоминает об «объяснимости», поскольку очевидно, что понять каким образом и на основании каких данных ИИ принял решение может понять только специалист.

Заключение

На примере принципа «прозрачности и объяснимости» видим, насколько из документа в документ отличаются как содержательная часть, так и, порой, само наименование принципа. Целесообразным представляется создание унифицированной системы принципов ИИ, в которую, с учётом существующего мирового опыта стоит включить принципы:

- соблюдения прав и свобод человека - недопустимо нарушение основополагающих и общепризнанных личных, социальных, политических, экономических и культурных прав при разработке, внедрении и использовании ИИ;

- справедливости и недопустимости дискриминации - отказ от внедрения и использования ИИ, если существует существенный риск ущемления прав отдельных людей или групп; и гарантированность возможности оспорить решение, принятое с использованием ИИ;

- прозрачности и объяснимости - открытый доступ к информации об алгоритмах работы искусственного интеллекта и обеспечение объяснимости пользователю принятия отдельно взятого решения ИИ, если таковое влияет на правоотношение, одной из сторон или потенциальным участником, которого, является пользователь;

- безопасности и контроля пользователя - запрещается разработка, внедрение и использование технологий ИИ с целью причинения вреда жизни и (или) здоровью человека, а также имущественного ущерба. При внедрении технологий ИИ, когда это необходимо должна быть обеспечена возможность вмешательства пользователя. Всегда должен быть предусмотрен механизм прекращения взаимодействия с системой ИИ;

- безопасности персональных данных - разрешенные национальным законодательством данные пользователей и иных лиц, используемые для целей функционирования систем ИИ, должны быть защищены надлежащим образом;

- информированности и добровольности взаимодействия - перед взаимодействием с системой ИИ необходимо уведомить пользователя. Возможный отказ от взаимодействия не должен нанести ущерба пользователю;

- соблюдения общечеловеческих этических ценностей - цели разработки ИИ не могут противоречить общечеловеческим моральным ценностям;

- распределения ответственности - ответственность за вред, причинённый использованием ИИ, распределяется между разработчиком и

Шмытов И. А. Проблема унификации принципов разработки, внедрения и ...

пользователем в зависимости от причины наступления негативных последствий (системный сбой или нарушение правил эксплуатации).

Следует акцентировать внимание на обеспечение обязательности принципов, поскольку преобладание метода рекомендаций в сфере ИИ может привести к негативным последствиям, так как технологии ИИ обладают потенциально безграничными возможностями [13]. Большинство разработчиков ИИ - частные компании, действующие, само собой, с целью, получения прибыли, поэтому отсутствие ограничения на применение ИИ в отдельных сферах деятельности, а также неопределенность допустимых способов его использования, характера воздействия на человека вызывают разумные опасения. В связи с этим, при проведении унификации принципов ИИ желательно не ограничиваться международными нормативными актами, а предусмотреть создание наднационального контролирующего органа. С учетом последних событий в мире, перспективным может стать проведение унификации в рамках организаций: БРИКС, ШОС, ЕАЭС.

Список использованных источников

1. Люди против суперкомпьютеров. История шахматных матчей Гарри Каспарова и Deep Blue. Официальный сайт «ТАСС» // URL: https://tass.ru/info/l0656315 (дата обращения 10.03.2022).

2. Игры, в которые играли люди. Программа AlphaGo обыграла признанного чемпиона со счетом 4-1. Официальный сайт «ТАСС» // URL: https://nauka.tass.ru/sci/6822187 (дата обращения 10.03.2022).

3. «Мир перестал быть человекомерным». Татьяна Черниговская о проблемах развития искусственного интеллекта. Сайт журнала «Сноб» // URL: https://snob.ru/entry/189353/ (дата обращения 10.03.2022).

4. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. № 2. 2019. С. 79-102.

5. Писаренко М. С. К вопросу об искусственном интеллекте и его сущности // Вопросы российской юстиции, 2020, №10, С. 44 - 54.

6. Косых А. А. Право искусственного интеллекта в системе права: отрасль права или правовой институт? // Вестник Владимирского юридического института, 2021, №1 (58), C. 159 - 164.

7. Азиломарские принципы ИИ. Сайт Исследовательского центра проблем регулирования робототехники и искусственного интеллекта // URL: https://robopravo.ru/azilomarskiie_printsipy_ii (дата обращения 09.03.2022).

8. В России подписан "Кодекс этики искусственного интеллекта". Официальный сайт издания «Российская газета» // URL: https://rg.ru/2021/10/26/v-rossii-podpisan-kodeks-etiki-iskusstvennogo-intellekta.html (дата обращения 09.03.2022); Текст документа - Ежедневное онлайн-издание D-russia.ru // URL: https://d-russia.ru/wp-content/uploads/2021/10/kodeks_etiki_ii.pdf (дата обращения 09.03.2022).

9. Указ Президента РФ от 10 октября 2019 г. N 490 "О развитии искусственного интеллекта в Российской Федерации" // СЗ РФ. 2019. №41. ст. 5700.

10. Резолюция Европарламента от 16 февраля 2017 года. Текст документа. Сайт Исследовательского центра проблем регулирования робототехники и искусственного интеллекта // URL: https://robopravo.ru/riezoliutsiia_ies (дата обращения 11.03.2022).

11. Рекомендации Совета ОЭСР по искусственному интеллекту 22 мая 2019 года. Текст документа доступен для скачивания на официальном сайте «ОЭСР» // URL: https://www.oecd.org/science/forty-two-countries-adopt-new-oecd-principles-on-artificial-intelligence.htm (дата обращения 11.03.2022).

12. Понкин И. В., Редькина А. И. Искусственный интеллект с точки зрения права // Вестник Российского университета дружбы народов. Серия: Юридические науки, 2018, №1, С. 91 - 109.

13. Соменков С. А. Искусственный интеллект: от объекта к субъекту? // Вестник университета им. О. Е. Кутафина, 2019, №2, С. 76 - 85.

14. ЮНЕСКО приняло первые глобальные этические стандарты в сфере искусственного интеллекта. Официальный сайт «ТАСС» // URL: https://tass.ru/ekonomika/13026163 (дата обращения 10.03.2022).

15. Рекомендаций по этике искусственного интеллекта ЮНЕСКО - Ежедневное он-лайн-издание D-russia.ru // URL: https://d-russia.ru/wp-content/uploads/2021/11/unesco_ai_etic_16-11-2021.pdf (дата обращения 10.03.2022).

PROBLEM OF UNIFICATION OF THE PRINCIPLES OF DEVELOPMENT, IMPLEMENTATION AND USE OF ARTIFICIAL INTELLIGENCE

Shmytov Ivan**

Student

iva n17shmytov@ya ndex.ru

** O.E. Kutafin University (MSLA), Moscow, Russia

Abstract:

The purpose of the work is to generalize the experience of the international community in determining the framework for the development of artificial intelligence for use in the legal regulation of the development of domestic technologies.

Methods: systematic and comparative analysis, complex interpretation of the norms of international acts.

Results: a list of the fundamental principles of the development, implementation and use of artificial intelligence has been compiled, which can be extended to the subject of artificial intelligence law as an institute of information law. The differences in the understanding and naming of the principle of transparency and objectivity, indicated in the acts of international organizations, are considered in detail. A unified interpretation is proposed for each of the principles.

Keywords:

artificial intelligence, informatization of society, transparency and explicability, National strategy, principles, unification.

i Надоели баннеры? Вы всегда можете отключить рекламу.