Научная статья на тему 'АНАЛИЗ РИСКОВ ВОЗНИКНОВЕНИЯ ПРЕДУБЕЖДЕННОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ИМПЛЕМЕНТАЦИИ ПУБЛИЧНЫХ ПРАВООТНОШЕНИЙ: ОПЫТ ЗАРУБЕЖНЫХ СТРАН И ПЕРСПЕКТИВЫ АДМИНИСТРАТИВНОГО ПРАВА РОССИИ'

АНАЛИЗ РИСКОВ ВОЗНИКНОВЕНИЯ ПРЕДУБЕЖДЕННОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ИМПЛЕМЕНТАЦИИ ПУБЛИЧНЫХ ПРАВООТНОШЕНИЙ: ОПЫТ ЗАРУБЕЖНЫХ СТРАН И ПЕРСПЕКТИВЫ АДМИНИСТРАТИВНОГО ПРАВА РОССИИ Текст научной статьи по специальности «Право»

CC BY
98
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / СРАВНИТЕЛЬНОЕ ПРАВОВОЕ ИССЛЕДОВАНИЕ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / ПУБЛИЧНЫЕ ПРАВООТНОШЕНИЯ / ИНФОРМАЦИОННОЕ ПРАВО / ПРЕДУБЕЖДЕННОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / БЕЗОПАСНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ПУБЛИЧНОЕ ПРАВО

Аннотация научной статьи по праву, автор научной работы — Атабеков Атабек Рустамович

Технологии искусственного интеллекта являются одним из основных движущих технических решений, способных кардинально трансформировать действующий общественный уклад и публичные правоотношения. Цель статьи - провести сравнительный анализ актуальных подходов по преодолению предубежденности искусственного интеллекта в контексте выполнения административной функции органов власти зарубежных стран и России с последующим формулированием правовых мероприятий, требующих регулятивного закрепления. Предмет исследования - нормативные акты и иные документы, регламентирующие вопросы функционирования искусственного интеллекта в сфере публичных правоотношений России и других государств, академические публикации по рассматриваемой проблематике. Методология исследования интегрирует методы познания, включая диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и т. д. Полученные результаты могут найти отражение в законодательной и правоприменительной практике России в целях минимизации рисков нарушения конституционных прав граждан при обработке данных искусственного интеллекта в публично-правовом секторе.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Атабеков Атабек Рустамович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ANALYSIS OF THE ARTIFICIAL INTELLIGENCE BIAS RISKS IN THE IMPLEMENTATION OF PUBLIC LEGAL RELATIONS: FOREIGN COUNTRIES' EXPERIENCE AND RUSSIAN ADMINISTRATIVE LAW PERSPECTIVES

Artificial intelligence (AI) technologies are one of the main driving technical solutions capable of radically transforming the current social order and public legal relations. The aim of the article is to conduct a comparative analysis of current approaches to overcome the artificial intelligence bias in the context of the administrative function of the authorities of foreign countries and Russia, followed by the formulation of legal measures that require regulatory consolidation. The subject of the study are normative acts and other documents regulating the functioning of artificial intelligence in the field of public relations by Russia and other states, academic publications on the issues under consideration. The research methodology integrates the methods of knowledge, including dialectical, systemic, structural-functional, hermeneutic, comparative-legal, formal-legal (dogmatic), etc. The results obtained can be reflected in the legislative and law enforcement practice of Russia in order to minimize the risks of violation of constitutional rights of citizens in the processing of data by artificial intelligence in the public law sector.

Текст научной работы на тему «АНАЛИЗ РИСКОВ ВОЗНИКНОВЕНИЯ ПРЕДУБЕЖДЕННОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ИМПЛЕМЕНТАЦИИ ПУБЛИЧНЫХ ПРАВООТНОШЕНИЙ: ОПЫТ ЗАРУБЕЖНЫХ СТРАН И ПЕРСПЕКТИВЫ АДМИНИСТРАТИВНОГО ПРАВА РОССИИ»

Общество: политика, экономика, право. 2023. № 5. С. 155-162. Society: Politics, Economics, Law. 2023. No. 5. P. 155-162.

Научная статья УДК 342.9

https://doi.org/10.24158/pep.2023.5.22

Анализ рисков возникновения предубежденности искусственного интеллекта в имплементации публичных правоотношений: опыт зарубежных стран и перспективы административного права России

Атабек Рустамович Атабеков

Российский университет дружбы народов, Москва, Россия, atabekov-ar@rudn.ru

Аннотация. Технологии искусственного интеллекта являются одним из основных движущих технических решений, способных кардинально трансформировать действующий общественный уклад и публичные правоотношения. Цель статьи - провести сравнительный анализ актуальных подходов по преодолению предубежденности искусственного интеллекта в контексте выполнения административной функции органов власти зарубежных стран и России с последующим формулированием правовых мероприятий, требующих регулятивного закрепления. Предмет исследования - нормативные акты и иные документы, регламентирующие вопросы функционирования искусственного интеллекта в сфере публичных правоотношений России и других государств, академические публикации по рассматриваемой проблематике. Методология исследования интегрирует методы познания, включая диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и т. д. Полученные результаты могут найти отражение в законодательной и правоприменительной практике России в целях минимизации рисков нарушения конституционных прав граждан при обработке данных искусственного интеллекта в публично-правовом секторе.

Ключевые слова: искусственный интеллект, сравнительное правовое исследование применения искусственного интеллекта, публичные правоотношения, информационное право, предубежденность искусственного интеллекта, безопасный искусственный интеллект, публичное право

Для цитирования: Атабеков А.Р. Анализ рисков возникновения предубежденности искусственного интеллекта в имплементации публичных правоотношений: опыт зарубежных стран и перспективы административного права России // Общество: политика, экономика, право. 2023. № 5. С. 155-162. https://doi.org/10.24158/pep.2023.5.22.

Original article

Analysis of the Artificial Intelligence Bias Risks in the Implementation of Public Legal Relations: Foreign Countries' Experience and Russian Administrative Law Perspectives

Atabek R. Atabekov

Peoples' Friendship University of Russia, Moscow, Russia, atabekov-ar@rudn.ru

Abstract. Artificial intelligence (AI) technologies are one of the main driving technical solutions capable of radically transforming the current social order and public legal relations. The aim of the article is to conduct a comparative analysis of current approaches to overcome the artificial intelligence bias in the context of the administrative function of the authorities of foreign countries and Russia, followed by the formulation of legal measures that require regulatory consolidation. The subject of the study are normative acts and other documents regulating the functioning of artificial intelligence in the field of public relations by Russia and other states, academic publications on the issues under consideration. The research methodology integrates the methods of knowledge, including dialectical, systemic, structural-functional, hermeneutic, comparative-legal, formal-legal (dogmatic), etc. The results obtained can be reflected in the legislative and law enforcement practice of Russia in order to minimize the risks of violation of constitutional rights of citizens in the processing of data by artificial intelligence in the public law sector.

Keywords: artificial intelligence, comparative legal study of artificial intelligence applications, public law relations, information law, artificial intelligence bias, secure artificial intelligence, public law

For citation: Atabekov, A.R. (2023) Analysis of the Artificial Intelligence Bias Risks in the Implementation of Public Legal Relations: Foreign Countries' Experience and Russian Administrative Law Perspectives. Society: Politics, Economics, Law. (5), 155-162. Available from: doi:10.24158/pep.2023.5.22 (In Russian).

© Атабеков А.Р., 2023

Актуальность применения технологии искусственного интеллекта (ИИ) для целей публичного права находит отражение на уровне как наднациональных организаций1, так и национальных стратегий разных стран (каталогизировано ОЭСР)2. В рамках исследования предлагается рассмотреть опыт ЮАР, США, Испании и России в области теоретических подходов к обеспечению автономного принятия решения ИИ для целей административного права, а также практические ситуации некорректной работы алгоритмов ИИ и правовых последствий для общества.

Общая дефиниция алгоритмизированного принятия решения для целей публичного права подразумевает под этим процессом полную или частичную автоматизацию роли людей, принимающих решения, с использованием алгоритмов и машинного обучения. Машинное обучение, в свою очередь, представляет собой процесс компьютерного обучения, позволяющий делать прогнозы с применением шаблонов и корреляций в наборах данных без дополнительного участия разработчика (Cobbe, 2019: 639-640).

Говоря об алгоритмизированном принятии решений для целей административного права ЮАР, необходимо обратиться к разделу 33 Конституции Южно-Африканской Республики 1996 г., предоставляющему каждому право на принятие административных мер, которые являются законными, разумными и справедливыми с процедурной точки зрения. Закон № 3 о содействии административному правосудию от 2000 г. был принят для того, чтобы наполнить это право дополнительным содержанием и установить основания для пересмотра административных решений3. Эти основания одновременно служат цели информирования лиц, принимающих решения, о стандартах, которых они должны придерживаться при принятии своих решений.

Простым примером полностью автоматизированного процесса принятия решений в Южной Африке является новая политика в отношении зачисления учащихся в школы Гаутенга4, где поданная заявка родителей ребенка обрабатывается полностью системой на основании удаленности школы от предполагаемого места жительства, работы родителей, количества детей в семье и т. д.

С точки зрения базовых положений принятия решений в контексте личной информации необходимо отметить Закон № 4 о защите личной информации от 2013 г.5, который запрещает принятие административного решения с юридическими последствиями или существенным воздействием на субъектов данных, которые были приняты исключительно на основе автоматической обработки личной информации. Однако в данном законе имеются исключения, предусмотренные в ст. 71 для обстоятельств, связанных с эффективностью системы уголовного правосудия, и если существует закон или кодекс поведения, который включает меры безопасности для надлежащей защиты интересов субъектов данных.

Говоря о правоприменительной практике, нельзя не отметить заложенный в Законе № 3 принцип рациональности и разумности административного решения (раздел 6(2)(f)(ii), который был использован судом в рамках рассмотрения дела Carephone (Pty) Ltd против Marcus NO36 (Carephone)). В рамках указанного дела суд определил необходимость установить объективную, рациональную связь между материалами, доступными лицу, принимающему решение, и его результирующим решением, чтобы оно было разумным6.

В контексте административной юстиции необходимо отметить судебное решение Южной Африки по делу Foodcorp (Pty) Ltd против заместителя генерального директора Департамента по вопросам окружающей среды и туризма7. В рамках указанного дела рассматривалась обоснованность математической формулы, применяемой для распределения прав на рыбный промысел.

1 Первый проект рекомендации об этических аспектах искусственного интеллекта [Электронный ресурс] // ЮНЕСКО. URL: https://unesdoc.unesco.org/arkY48223/pro000373434_njs (дата обращения: 23.03.2023) ; Ad Hoc Committee on Artificial Intelligence (CAHAI) [Электронный ресурс] // Council of Europe. URL: https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da (дата обращения: 23.03.2023).

2 Обсерватория ИИ ОЭСР: OECD AI Policy Observatory [Электронный ресурс]. URL: https://oecd.ai/en/about (дата обращения: 23.03.2023).

3 Promotion of Administrative Justice Act 3 of 2000 [Электронный ресурс] // South African Government. URL: https://www.gov.za/documents/promotion-administrative-justice-act (дата обращения: 23.03.2023).

4 Adeaga F., Wangare J. GDE admissions 2020: Step-by-step guide to online application [Электронный ресурс] // Briefly News. 2022. April 28. URL: https://briefly.co.za/26847-gde-admissions-2020-step-by-step-guide-online-application.html (дата обращения: 23.03.2023).

5 Protection of Personal information act, 2013 [Электронный ресурс] // South African Government. URL: https://www.gov.za/sites/default/files/gcis_document/201409/3706726-11act4of2013protectionofpersonalin-forcorrect.pdf (дата обращения: 23.03.2023).

6 Carephone v Marcus NO and others (JA52/98) [Электронный ресурс] // Southern African Legal Information Institute. 1998. URL: http://www.saflii.org/za/cases/ZALAC/1998/11.html (дата обращения: 23.03.2023).

7 Foodcorp (Pty) LTD v Deputy Director General Department of Environmental Affairs and Tourism: Branch Marine and Coastal Management & 2 others [Электронный ресурс] // Supreme Court of Appeal. URL: https://www.su-premecourtofappeal.org.za/index.php/component/jdownloads/summary/18-judgements-2004/1065-foodcorp-pty-ltd-v-deputy-director-general-department-of-environmental-affairs-and-tourism-branch-marine-and-coastal-management-2-others-case-no-87-04-19-november-2004 (дата обращения: 23.03.2023).

В ходе дела было установлено, что служащие не принимали собственное решение при использовании алгоритма, а возлагали данную функцию на алгоритм. Однако суд не стал вдаваться в детали работы алгоритма и порядка обработки его данных, признав необоснованным использование указанной математической модели.

Дополнительным кейсом в области обеспечения эффективной интеграции ИИ в сферу публичной власти и административного права является соблюдение принципа разумности и соразмерности, представленного в судебной практике ЮАР в деле совета школы Бель-Порто против руководства провинции Западный Кейп1. В рамках указанного дела проводилась проверка принятого решения и уровня ущемленных интересов, как следствие - разумности принятого решения в контексте его последующей легитимности. Для целей алгоритмизированного принятия решений необходимо понимать, что данный принцип разумности может быть использован обеими сторонами процесса и его технический аспект потребует более высокой степени готовности к анализу и экспертизе со стороны органов судебной власти.

Для административного права США нужно отметить недавно представленный отчет ACUS, который содержит перечень аспектов и проблем в области применения технологий ИИ органами исполнительной власти2. Комплексные исследования показывают, что гражданское и политическое сообщество США отмечает необходимость административного контроля ИИ и производных технологий (Zhang, Dafoe, 2019: 3-4). При этом сам процесс внедрения ИИ в деятельность органов власти находится в активной фазе, однако большая часть информации о ней носит закрытый характер3.

Отчет ACUS фиксирует следующие тезисы:

1) набор инструментов искусственного интеллекта правительства разнообразен и охватывает почти весь комплекс федеральных органов власти;

2) разработка ИИ для публичных и административных целей значительно усложняется по сравнению с аналогами из частного сектора;

3) ИИ для административных целей создает серьезные проблемы с подотчетностью;

4) действия ИИ могут серьезно влиять на остальные ветви власти.

Примечательно, что в качестве одного из предложений в отчете обозначена необходимость ослабления презумпции против возможности пересмотра исполнительных решений, зафиксированной Верховным судом в деле Хеклер против Чейни4.

Дополнительный правоприменительный кейс из феномена ИИ проистекает из того, что требуется высокая адаптивность законодательства и ведомства к технологическому прогрессу, и наоборот, высокая адаптивность ИИ к быстрому пересмотру своих алгоритмов с учетом изменения регулирующих требований5. Например, Комиссия по ценным бумагам и биржам США (SEC) использует контролируемый алгоритм обучения для прогнозирования мошенничества на основе прошлых обращений в SEC6. Пул обращений со временем увеличивается, что может привести к изменениям в модели по мере ее разработки и развертывания (Lemos, 2017: 932).

В отчете также упоминается проблема предвзятости данных, поскольку используются большие наборы данных, подобные тем, которые обладают существенным потенциалом для систематической дискриминации, особенно по признаку уязвимых групп. В этой ситуации показательны судебная практика в отношении Агентства по страхованию от безработицы штата Мичиган7 и практика компании «Амазон»8. В последнем случае, даже после обнаружения проблемы и устранения конкретных упоминаний дискриминации из рассмотрения, система продолжала делать несправедливые выводы на основе данных.

1 Bel Porto School Governing Body and Others v Premier Western Cape and Another [ Электронный ресурс] // The Constitutional Court of South Africa. URL: https://collections.concourt.org.za/handle/20.500.12144/2108 (дата обращения: 23.03.2023).

2 Engstrom D., Ho D., Sharkey C., Cuellar M.-F. Government by algorithm: Artificial intelligence in federal administrative agencies: Report submitted to the Administrative Conference of the United States [Электронный ресурс] // NYU School of Law. 2020. URL: https://law.stanford.edu/wp-content/uploads/2020/02/ACUS-AI-Re-port.pdf (дата обращения: 23.03.2023).

3 H.R.6395 - William M. (Mac) Thornberry National Defense Authorization Act for Fiscal Year 2021 [Электронный ресурс] // Congress.gov: Official website for U.S. federal legislative information. 2020. URL: https://www.con-gress.gov/bill/116th-congress/house-bill/6395/text (дата обращения: 23.03.2023).

4 Heckler v Chaney, 470 U.S. 821 (1985) [Электронный ресурс] // Justia. U.S. Supreme Court. URL: https://su-preme.justia.com/cases/federal/us/470/821 (дата обращения: 23.03.2023).

5 Engstrom D., Ho D., Sharkey C., Cuellar M.-F. Op. cit.

6 Ibid.

7 Charette R.N. Michigan's MiDAS Unemployment System: Algorithm Alchemy Created Lead, Not Gold [Электронный ресурс] // IEEE Spectrum. 2018. Jan. 24. URL: https://spectrum.ieee.org/michigans-midas-unem-ployment-system-algorithm-alchemy-that-created-lead-not-gold#toggle-gdpr (дата обращения: 23.03.2023).

8 Satell G., Sutton J. We need ai that is explainable, auditable, and transparent [Электронный ресурс] // Harvard Business Review. 2019. Oct. 28. URL: https://hbr.org/2019/10/we-need-ai-that-is-explainable-auditable-and-transparent (дата обращения: 23.03.2023).

Большое внимание было уделено тому, как федеральные агентства должны регулировать коммерческое использование ИИ1. Были высказаны опасения по поводу риска чрезмерного регулирования со стороны этих организаций2.

Однако недавние исследования показывают, что прогресс, достигнутый в регулировании использования ИИ федеральными агентствами, на сегодняшний день ограничен3. В конце 2016 г. администрация Б. Обамы выпустила отчет о перспективах ИИ под названием «Подготовка к будущему искусственного интеллекта»4 в тандеме с сопутствующим Национальным стратегическим планом исследований и разработок в области искусственного интеллекта и иными последующими документами в сфере регулирования ИИ в США5. Администрация Д. Трампа добилась прогресса в федеральном ответе на разработку ИИ, предприняла шаги по организации и регулированию систем, развертываемых государственными учреждениями в соответствии с Указом № 138596 о сохранении лидерства Америки в области искусственного интеллекта и Указом № 13960, изданным в декабре 2020 г., о содействии использованию надежного искусственного интеллекта в федеральном правительстве7.

Указанные документы инициировали общегосударственный процесс разработки руководства по регулированию приложений ИИ на макроуровне. Поскольку исполнительная власть борется с юридическими последствиями новых технологий, разработка ИИ в административных учреждениях остается в зачаточном состоянии (Coglianese, Ben-Dor, 2021: 793-794; Lehr, Ohm, 2017).

Таким образом, можно отметить, что для указанной страны вопрос предубежденности ИИ, равно как социальный эффект от его применения со стороны общества, а также общий правоприменительный вектор являются одним из значительных факторов сдерживания ИИ. Одним из очевидных решений выступает формирование и возложение на централизованный орган вопроса регламентации ИИ для публичных целей или изменение процедурных аспектов, закрепленных в Законе об административных процедурах8.

Говоря об опыте Испании в области интеграции ИИ в сферу публичных правоотношений и исполнения административных процедур, необходимо учитывать, что созданы стратегические условия на уровне Европейского парламента9, в том числе в части формирования инструментов полностью автономного принятия решений10. Так, ИИ может трансформировать различные аспекты деятельности правительства, включая взаимодействие с гражданами, предоставление услуг, разработку государственной политики и процесс принятия решений (Sun, Medaglia, 2019: 373-375).

В части локальных инициатив нужно отметить Цифровую стратегию Испании до 2025 г.11 и Испанскую стратегию исследований и разработок в области искусственного интеллекта12. В этой стране наряду с политико-стратегическим измерением цифрового администрирования есть регуля-тивно-нормативная составляющая. В 2010 г. вступили в силу два королевских указа: Национальная

1 Memorandum for the heads of Executive Departments and Agencies from R.T. Vought [Электронный ресурс] // The White House. URL: https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-0MB-Memo-on-Regulation-of-AI-1-7-19.pdf (дата обращения: 23.03.2023).

2 How the White House "Guidance for regulation of artificial intelligence" invites overregulation [Электронный ресурс] // Forbes. 2020. April 15. URL: https://www.forbes.com/sites/waynecrews/2020/04/15/how-the-white-house-guid-ance-for-regulation-of-artificial-intelligence-invites-overregulation/?sh=376cba653a2c (дата обращения: 23.03.2023).

3 Memorandum for the heads ...

4 Preparing for the future of artificial intelligence [Электронный ресурс] // The White House. President Barack Obama. 2016. May 3. URL: https://obamawhitehouse.archives.gov/blog/2016/05/03/preparing-future-artificial-intel-ligence (дата обращения: 23.03.2023).

5 U.S. National Ai strategy documents [Электронный ресурс] // An official website of the United States government. URL: https://www.ai.gov/strategy-documents (дата обращения: 23.03.2023).

6 Maintaining American Leadership in Artificial Intelligence Executive [Электронный ресурс] : Order 13859 of February 11, 2019 // FederalRegister.gov. URL: https://www.federalregister.gov/documents/2019/02/14/2019-02544/main-taining-american-leadership-in-artificial-intelligence (дата обращения: 23.03.2023).

7 Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government Executive : Order 13960 of December 3, 2020 [Электронный ресурс] // FederalRegister.gov. URL: https://www.federalregister.gov/docu-ments/2020/12/08/2020-27065/promoting-the-use-of-trustworthy-artificial-intelligence-in-the-federal-government (дата обращения: 23.03.2023).

8 Summary of the Administrative Procedure Act 5 USC § 551 et seq. [Электронный ресурс] // EPA. URL: https://clck.ru/34FarL (дата обращения: 23.03.2023).

9 Tambiama M. EU guidelines on ethics in artificial intelligence: Context and implementation [ Электронный ресурс] // European Parliament. URL: https://clck.ru/34FauD (дата обращения: 23.03.2023).

10 Ibid.

11 Digital Spain 2025 [Электронный ресурс] // España Digital. URL: https://espanadigital.gob.es/sites/agen-dadigital/files/2022-01/Digital-Spain-2025.pdf (дата обращения: 23.03.2023).

12 Spanish RDI Strategy in Artificial Intelligence [Электронный ресурс] // Ministry of Science, Innovation and Universities. 2019. URL: https://knowledge4policy.ec.europa.eu/sites/default/files/Spanish_RDI_strategy_in_AI.pdf (дата обращения: 23.03.2023).

схема оперативной совместимости и Национальная схема безопасности. Документы «присоединились» к соответствующим техническим стандартам и заложили основу для обмена данными между государственными администрациями в соответствии с необходимыми нормами безопасности1.

В 2015 г. вступили в силу два закона: Закон № 39/2015 Общей административной процедуры государственного управления2 и Закон № 40/2015 Правового режима государственного сектора3. Эти документы нацелены на обеспечение права и обязанности граждан взаимодействовать с государственными органами через цифровые носители, от простейших административных процедур до систем идентификации и электронных подписей. В частности, Закон № 40/2015 установил положение об использовании электронных средств во внутренней деятельности государственного сектора, обеспечив возможность реализации автоматизированных административных действий. Следовательно, впервые было предусмотрено использование таких технологий, как ИИ, в государственном секторе Испании.

В настоящее время правовая система Испании в контексте автоматизированного принятия решения подразумевает возможность того, что исполнительные органы власти могут применять практику принятия алгоритмизированных решений с помощью доступных электронных средств. Тем не менее использование иИ в процессе принятия публичных решений требует рассмотрения ряда элементов: этапов административной процедуры, в которые могут вмешиваться алгоритмы; мотивации публичных решений; порядка взаимодействия органов власти с ИИ. Примечательно, что данная регламентация ИИ при всех белых зонах правового (Martínez, 2020: 18-20) регулирования является единственной базисной точкой административной регламентации (Solé, 2018: 2-3).

Однако отсутствие конкретного положения не освобождает от применения остальных положений административного права, а также принципов прозрачности, открытого правительства и надлежащего управления (Sierra Morón, 2021).

В контексте правоприменительной практики необходимо отметить следующее: европейские суды постановили4, что алгоритм является общедоступной информацией, если хранится у администрации (Pilving, 2023). Данный тезис нашел иное отражение в допуске программы иИ (ChatGPT) с открытым кодом к формированию судебного решения, о чем открыто декларируется в тексте документа, принятого судом г. Картахена5. Однако суд особо отметил, что контроль за его действиями (конечный результат действий ИИ) оставался полностью за человеком.

В аспекте наличия предубежденности со стороны ИИ, выступающего представителем публичного лица, необходимо выделить следующий кейс. В ноябре 2017 г. канцелярия государственного секретаря по энергетике выпустила программное обеспечение BOSCO для компаний, поставляющих электроэнергию. Цель алгоритма - определить правомочность граждан, обращающихся за финансовой помощью при оплате электроэнергии6.

НКО Civio7, получив большое количество обращений о некорректной работе алгоритма от заявителей (более 500 тыс. граждан), выступила в качестве административного истца и запросила у правительства исходный код BOSCO, чтобы выяснить причину ошибок. Запрос прошел через три разных министерства, прежде чем попал в Комитет по прозрачности и надлежащему управлению, который отказался поделиться кодом, заявив, что это нарушит положения об авторском праве (хотя программное обеспечение было разработано самой государственной администрацией). В июле 2019 г. Civio подала административную жалобу в Верховный суд Испании, утверждая, что исходный код любой системы ADM, используемой государственной администрацией, должен быть обнародован по умолчанию точно так же, как обнародуются юридические тексты8.

1 Kyriakopoulou K. The National Interoperability Framework of Spain (ENI) [Электронный ресурс] // NIFO - National Interoperability Framework Observatory. 2021. URL: https://joinup.ec.europa.eu/collection/nifo-national-in-teroperability-framework-observatory/solution/eif-toolbox/discussion/national-interoperability-framework-spain-eni (дата обращения: 23.03.2023).

2 Law 39/2015, of October 1, of the Common Administrative Procedure of the Public Administrations [Электронный ресурс] // Afyonluoglu.org. URL: https://afyonluoglu.org/PublicWebFiles/Reports/PDP/2015%20Spain-Law%2039-2015%20Common%20Administrative%20Procedure%20of%20PA.pdf (дата обращения: 23.03.2023).

3 Law 40/2015, of 1 of October, Of Regime Legal of the Sector Public [Электронный ресурс] // Global-Regulation. URL: https://www.global-regulation.com/translation/spain/615484/law-40---2015%252c-of-1-of-october%252c-of-re-gime-legal-of-the-sector-public.html (дата обращения: 23.03.2023).

4 Opinion of Advocate General Campos Sánchez-Bordona [Электронный ресурс] // EUR-Lex. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:62021CC0300 (дата обращения: 23.03.2023).

5 Rama Judicial de Colombia Juzgado 1° Laboral Del Circuito Cartagena [Электронный ресурс] // Firma Electronica. URL: https://www.diariojudicial.com/public/documentos/000/106/904/000106904.pdf (дата обращения: 23.03.2023).

6 Bono Social de Electricidad [Электронный ресурс]. URL: https://www.bonosocial.gob.es (дата обращения: 23.03.2023).

7 Civio [Электронный ресурс]. URL: https://civio.es/en/about-us (дата обращения: 23.03.2023).

8 "Being ruled through secret source code or algorithms should never be allowed in a democratic country under the rule of law"" [Электронный ресурс] // Civio. URL: https://clck.ru/34FbEM (дата обращения: 23.03.2023).

На уровне доктринальных исследований ученые Испании отмечают проблематику предвзятости алгоритмов как на основе гендерной предвзятости (ОаПэкап е! а1., 2017), так и в части маргинальных и уязвимых групп в силу низкого качества данных или узкой выборки (Агпап, 2021). Основное решение, предлагаемое специалистами, - повышение качества данных, принятых в базе систем машинного обучения, открытый доступ к базам данных ИИ, используемых для государственного сегмента, а также активное привлечение научного сообщества (Регп^ег-АНег е! а1., 2021: 49-51).

На уровне регулятивных подходов в отношении ИИ в России необходимо отметить основополагающий Указ Президента России, который рассматривает комплексные проблемы импле-ментации ИИ, в том числе в сферу публичных правоотношений. Вопросы предубежденности и сохранения баланса интересов предлагается решать через призму гибкого и взвешенного правового регулирования, положения которого должны быть разработаны до 2024 г.1

Отечественные ученые-юристы отмечают положительные тренды в указанной области с точки зрения регулирования и общей правоприменительной практики. С.Г. Чубукова выделяет феномен создания единой федеральной информационной системы, содержащей сведения о населении Российской Федерации, оператором которой выступает ФНС, и подчеркивает положительные подходы к реализации данной системы в отличие от общей практики GDPR, принятой в ЕС (Чубукова, 2020: 214).

Е.В. Алферова отмечает ключевую проблему предвзятости и «черного ящика», если речь идет об ИИ. Данный тезис проистекает из общего рассмотрения правоприменительной практики в мире при использовании полностью автоматизированных систем принятия решений для органов власти (Алферова, 2021: 59-60).

А.К. Жарова в сравнительно-правовом исследовании вопросов цифрового профилирования человека в ЕС и России отмечает необходимость обеспечения регламентации деятельности компаний, занимающихся цифровым профилированием граждан, и предлагает учесть в них положения контроля со стороны субъектов за обрабатываемыми персональными данными и их корректировкой в случае несоответствия действительности. Этот подход должен быть нацелен на обеспечение недискриминационной, справедливой и прозрачной выборки данных для последующего использования ИИ (Жарова, 2020: 85-86).

Говоря о публично правовом аспекте ИИ, нужно отметить труды О.А. Ястребова и Э.В. Та-лапиной. О.А. Ястребов, детально изучая феномен ИИ и возможной предубежденности в процедуре принятия решений в контексте имплементации публичных правоотношений, одним из первых в России указал на необходимость совершенствования заложенных принципов административного права и формирования надлежащих инструментов в КоАП РФ (Ястребов, 2018а: 325), равно как и на необходимость создания инструментов по выделению конструкции электронного лица и отдельной правосубъектности ИИ (Ястребов, 2018б: 49-50). Э.В. Талапина отмечает, что при всех достоинствах технологии ИИ сохраняются существенные конституционные риски нарушения базовых прав человека при условии слабого технического исполнения и правовой регламентации деятельности ИИ в контексте большого массива данных (2020: 35-36).

На основании вышеизложенного можно сформулировать универсальные предложения для последующего регулирования ИИ и минимизации рисков предубежденности применительно к реализации и внедрению алгоритмов действий ИИ.

1. В любых действиях ИИ и при алгоритмической обработке большого массива данных для публично-правовых целей должны соблюдаться принципы соразмерности и разумности.

2. Необходимо сохранение универсального принципа оспаривания действия ИИ и предоставления развернутых комментариев эксплуатирующего его органа власти в частном порядке.

3. Публикация баз данных и обнародование алгоритма обработки данных ИИ для публичных целей могут снизить риск предубежденности и предвзятости при принятии решений. Однако, по нашему мнению, такой подход сформирует поведенческую адаптацию и исказит принцип функционирования контрольно-надзорной деятельности.

4. На текущем этапе развития технологии ИИ мы говорим о технологическом ассистенте как об «узком ИИ»2, и перекладывание административных функций органа власти является некорректным с точки зрения как права (необходимы легализация правового статуса и регламентация деятельности ИИ), так и человеческого контроля (риски предубежденности ИИ из-за обвинительной практики ведомства, малый массив данных правоприменения в отношении редко используемых норм права и т. д.).

1 О развитии искусственного интеллекта в РФ [Электронный ресурс] : Указ Президента РФ от 10.10.2019 № 490 // Президент России. URL: http://www.kremlin.ru/acts/bank/44731 (дата обращения: 24.04.2023).

2 Jajal T.D. Distinguishing between Narrow AI, General AI and Super AI [Электронный ресурс] // Medium. 2018. May 21. URL: https://medium.com/mapping-out-2050/distinguishing-between-narrow-ai-general-ai-and-su-per-ai-a4bc44172e22 (дата обращения: 23.03.2023).

5. Трансформация административного права с учетом появления феномена «сверх-ИИ»1 в ближайшем будущем потребует оперативного изменения права путем либо введения заградительных административных барьеров, либо формирования иных инструментов гибкого нормотворчества и правоприменения.

Список источников:

Алферова Е.В. Алгоритмизированное принятие решения и право на его интерпретацию // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Серия 4: Государство и право. 2021. № 1. С. 49-61. https://doi.org/10.31249/rgpravo/2021.01.05.

Жарова А.К. Правовое обеспечение цифрового профилирования деятельности человека // Вестник Южно-Уральского государственного университета. Серия: Право. 2020. Т. 20, № 2. С. 80-87. https://doi.org/10.14529/law200214.

Талапина Э.В. Алгоритмы и искусственный интеллект сквозь призму прав человека // Журнал российского права. 2020. № 10. С. 25-39. https://doi.org/10.12737/jrl.2020.118.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Чубукова С.Г. Защита прав субъекта персональных данных при автоматизированном принятии решений // Право и государство: теория и практика. 2020. № 3 (183). С. 212-214.

Ястребов О.А. Искусственный интеллект в правовом пространстве // Вестник Российского университета дружбы народов. Серия: Юридические науки. 2018а. Т. 22, № 3. С. 315-328. https://doi.org/10.22363/2313-2337-2018-22-3-315-328.

Ястребов О.А. Правосубъектность электронного лица: теоретико-методологические подходы // Труды Института государства и права Российской академии наук. 2018б. Т. 13, № 2. С. 36-55.

Arnanz A.S. Decisiones Automatizadas y Discriminación: Aproximación y Propuestas Generales // Revista General de Derecho Administrativo. 2021. Vol. 56.

Caliskan A., Bryson J.J., Narayanan A. Semantics Derived Automatically from Language Corpora Contain Human-Like Biases // Science. 2017. Vol. 356, iss. 6334. P. 183-186. https://doi.org/10.1126/science.aal4230.

Cobbe J. Administrative Law and the Machines of Government: Judicial Review of Automated Public-Sector Decision-Making // Legal Studies. 2019. Vol. 39, iss. 4. P. 636-655. http://doi.org/10.2139/ssrn.3226913.

Coglianese C., Ben-Dor L.M. AI in Adjudication and Administration // Brooklyn Law Review. 2021. Vol. 86, iss. 3.

Fernández-Aller C., Velasco A., Riesco A., Pastor-Escuredo D., Pickin S., Salgado J., Ausín T. An Inclusive and Sustainable Artificial Intelligence Strategy for Europe Based on Human Rights // IEEE Technology and Society Magazine. 2021. Vol. 40, iss. 1. P. 46-54. https://doi.org/10.1109/MTS.2021.3056283.

Lehr D., Ohm P. Playing with the Data: What Legal Scholars should Learn about Machine Learning // University of California, Davis Law Review. 2017. Vol. 51. P. 653-717.

Lemos M.H. Democratic Enforcement? Accountability and Independence for the Litigation State // Cornell Law Review. 2017. Vol. 102. P. 929-1002.

Martínez A.C. ¿Son Fiables las Decisiones de las Administraciones Públicas Adoptadas por Algoritmos? // European Review of Digital Administration & Law. 2020. Vol. 1, iss. 1-2. P. 18-36.

Pilving I. Guidance-Based Algorithms for Automated Decision-Making in Public Administration: The Estonian Perspective // CERIDAP. 2023. Vol. 1. https://doi.org/10.13130/2723-9195/2023-1-105.

Sierra Morón S. de la. Control Judicial de los Algoritmos: Robots, Administración y Estado de Derecho // Revista de Jurisprudencia. 2021. Vol. 1.

Solé J.P. La Prevención de Riesgos de Mala Administración y Corrupción, la Inteligencia Artificial y el Derecho a Una Buena Administración // Revista Internacional de Transparencia e Integridad. 2018. Vol. 6.

Sun T.Q., Medaglia R. Mapping the Challenges of Artificial Intelligence in the Public Sector: Evidence from Public Healthcare // Government Information Quarterly. 2019. Vol. 36, iss. 2. P. 368-383. https://doi.org/10.1016/j.giq.2018.09.008.

Zhang B., Dafoe A. Artificial Intelligence: American Attitudes and Trends // SSRN Electronic Journal. 2019. http://doi.org/10.2139/ssrn.3312874.

References:

Alferova, E.V. (2021) Algorithmized Decision-Making and the Right to Interpret IT. Social Sciences and Humanities. Domestic and Foreign Literature. Series 4: State and Law. (1), 49-61. Available from: doi:10.31249/rgpravo/2021.01.05. (In Russian)

Arnanz, A.S. (2021) Decisiones Automatizadas y Discriminación: Aproximación y Propuestas Generals. Revista General de Derecho Administrativo. 56. (In Spanish)

Caliskan, A., Bryson, J.J. & Narayanan, A. (2017) Semantics Derived Automatically from Language Corpora Contain HumanLike Biases. Science. 356 (6334), 183-186. Available from: doi:10.1126/science.aal4230.

Chubukova, S.G. (2020) Protection of the Rights of the Subject of Personal Data in Automated Decision-Making. Law and State: The Theory and Practice. (3), 212-214. (In Russian)

Cobbe, J. (2019) Administrative Law and the Machines of Government: Judicial Review of Automated Public-Sector Decisionmaking. Legal Studies. 39 (4), 636-655. Available from: doi:10.2139/ssrn.3226913.

Coglianese, C. & Ben-Dor, L.M. (2021) AI in Adjudication and Administration. Brooklyn Law Review. 86 (3).

Fernández-Aller, C., Velasco, A., Riesco, A., Pastor-Escuredo, D., Pickin, S., Salgado, J. & Ausín, T. (2021) An Inclusive and Sustainable Artificial Intelligence Strategy for Europe Based on Human Rights. IEEE Technology and Society Magazine. 40 (1), 46-54. Available from: doi:10.1109/MTS.2021.3056283.

Lehr, D. & Ohm, P. (201) Playing with the Data: What Legal Scholars should Learn about Machine Learning. University of California, Davis law Review. 51, 653-717.

Lemos, M.H. (2017) Democratic Enforcement? Accountability and Independence for the Litigation State. Cornell Law Review. 102, 929-1002.

Martínez, A.C. (2020) ¿Son Fiables las Decisiones de Las Administraciones Públicas Adoptadas por Algoritmos? European Review of Digital Administration & Law. 1 (1-2), 18-36. (In Spanish)

1 Jajal T.D. Op. cit.

Pilving, I. (2013) Guidance-Based Algorithms for Automated Decision-Making in Public Administration: The Estonian Perspective. CERIDAP. 1. Available from: doi:10.13130/2723-9195/2023-1-105. (In Italian)

Sierra Morón, S. de la. (2021) Control Judicial de Los Algoritmos: Robots, Administración y Estado de Derecho. Revista de Jurisprudencia. 1. (In Spanish)

Solé, J.P. (2018) La Prevención de Riesgos de Mala Administración y Corrupción, la Inteligencia Artificial y el Derecho a una Buena Administración. Revista Internacional de Transparencia e Integridad. 6. (In Spanish)

Sun, T.Q. & Medaglia, R. (2019) Mapping the Challenges of Artificial Intelligence in the Public Sector: Evidence from Public Healthcare. Government Information Quarterly. 36 (2), 368-383. Available from: doi:10.1016/j.giq.2018.09.008.

Talapina, E.V. (2020) Algorithms and Artificial Intelligence in the Human Rights Context. Journal of Russian Law. (10), 25-39. Available from: doi:10.12737/jrl.2020.118. (In Russian)

Yastrebov, O.A. (2018а) Artificial Intelligence in the Legal Space. RUDN Jurnal of Law. 22 (3), 315-328. Available from: doi: 10.22363/2313-2337-2018-22-3-315-328. (In Russian)

Yastrebov, O.A. (2018б) The Legal Capacity of Electronic Persons: Theoretical and Methodological Approaches. Proceedings of the Institute of State and Law of the RAS. 13 (2), 36-55. (In Russian)

Zhang, B. & Dafoe, A. (2019) Artificial Intelligence: American Attitudes and Trends. SSRN Electronic Journal. Available from: doi:10.2139/ssrn.3312874.

Zharova, A.K. (2020) Legal Support for Digital Profiling of Human Activities. Bulletin of the South Ural State University. Ser. Law. 20 (2), 80-87. Available from: doi:10.14529/law200214. (In Russian)

Информация об авторе А.Р. Атабеков - кандидат экономических наук, доцент кафедры административного и финансового права Юридического института, Российский университет дружбы народов, Москва, Россия. https://elibrary.ru/author_items.asp?authorid=903288

Information about the author A.R. Atabekov - PhD in Economics, Associate Professor, Department of Administrative and Financial Law, Law Institute, Peoples' Friendship University of Russia, Moscow, Russia. https://elibrary.ru/author_items.asp?authorid=903288

Статья поступила в редакцию / The article was submitted 22.03.2023; Одобрена после рецензирования / Approved after reviewing 12.04.2023; Принята к публикации / Accepted for publication 23.05.2023.

i Надоели баннеры? Вы всегда можете отключить рекламу.