Научная статья на тему 'СОЗДАНИЕ И ПРИМЕНЕНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПУБЛИЧНЫХ ЦЕЛЯХ: СРАВНИТЕЛЬНО-ПРАВОВОЙ АНАЛИЗ.'

СОЗДАНИЕ И ПРИМЕНЕНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПУБЛИЧНЫХ ЦЕЛЯХ: СРАВНИТЕЛЬНО-ПРАВОВОЙ АНАЛИЗ. Текст научной статьи по специальности «Право»

CC BY-NC
69
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Право и политика
ВАК
Область наук
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ЭЛЕКТРОННОЕ ЛИЦО / СРАВНИТЕЛЬНО-ПРАВОВОЕ ИССЛЕДОВАНИЕ ИИ / ТЕХНИЧЕСКИЙ ДИЗАЙН / ПРЕДУБЕЖДЕННЫЙ ИИ / БЕЗОПАСНЫЙ ИИ / ПУБЛИЧНОЕ ПРАВО / АДМИНИСТРАТИВНОЕ ПРАВО / ИНФОРМАЦИОННОЕ ПРАВО / ПРАВОПРИМЕНИТЕЛЬНАЯ ПРАКТИКА

Аннотация научной статьи по праву, автор научной работы — Атабеков Атабек Рустамович

Предметом исследования выступают вопросы влияния проектирования искусственного интеллекта на последующее его применение в публичной сфере. Объектом исследования выступают нормативные документы, рекомендации и иные документы регламентирующие вопросы преоктирования искусственного интеллекта для публичных правоотношений в России и зарубежных странах, судебная практика, академические публикации и аналитические отчеты по исследуемой проблематике. Методология исследования интегрирует комплекс современных философских, общенаучных, специально-научных методов познания, включая, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др. В рамках настоящего исследования делается особый акцент на осуществлении сравнительного правового исследования проблем проектирования искусственного интеллекта и его последующего применения в рамках публично-правового поля в контексте проблем заложенных на базовом этапе создания. В рамках статьи проводится сравнительный анализ действующих подходов по вопросам соответствия проектируемого искусственного интеллекта (ИИ) для публичных целей зарубежных стран и России действующим национальным стратегиям и нормативным подходам. В рамках проведенного сравнительного анализа выявлены базовые проблемы в области прозрачности принятия решения искусственного интеллекта, проблемы неявного регулятивного характера для ИИ в публичной сфере проистекающие из технического дизайна проектируемого разработчиками систем ИИ, рассмотрены теоретические и практические ситуации применения искусственного интеллекта не соответствующего принципам проектирования ИИ на базе основополагающих правовых норм, а также предложены возможные компенсирующие правовые мероприятия, обеспечивающие безопасную интеграцию искусственного интеллекта в публичную сферу России. Предложенные в результате проведенного исследования мероприятия могут найти свое применение в законодательной и правоприменительной практике профильных органов власти реализующих интеграцию искусственного интеллекта в сферу публичных отношений в России, а также научной сфере в целях определения последующих векторов анализа минимизации предубежденности ИИ в результате некорректного проектирования технологии в нарушении базовых правовых конструкций.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Атабеков Атабек Рустамович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CREATION AND APPLICATION OF ARTIFICIAL INTELLIGENCE FOR PUBLIC PURPOSES: A COMPARATIVE LEGAL ANALYSIS.

The article focuses on a comparative analysis of existing approaches regarding the compliance of the artificial intelligence (AI) designed for public purposes in foreign countries and Russia with the current national strategies and regulatory approaches. As part of the study, the research identified the basic problems in the field of transparency in the decision-making of artificial intelligence, specified challenges to implicit regulatory nature for AI in the public sphere arising from the technical design of AI systems designed by developers; suggested theoretical and practical situations of using artificial intelligence that does not comply with the principles of designing AI on the basis of fundamental legal norms; and outlined possible compensatory legal measures that ensure the safe integration of artificial intelligence into the Russian public sphere. The subject of the study covers the issues of the influence of the design of artificial intelligence on its subsequent application in the public sphere. The object of the study focuses on the normative documents, recommendations and other documents regulating the issues of artificial intelligence preoccupation for public legal relations in Russia and foreign countries, judicial practice, academic publications and analytical reports on the issues under study. The research methodology integrates a complex of modern philosophical, general scientific, special scientific methods of cognition, including dialectical, systemic, structural-functional, hermeneutical, comparative legal, formal legal (dogmatic), etc. Within the framework of this study, special emphasis is placed on the implementation of a comparative legal study of the problems of designing artificial intelligence and its subsequent application within the public law field in the context of the problems inherent in the basic stage of creation. Subsequently, potential scenarios for regulating responsibility for AI actions are identified. The research has resulted in asset of measures that can be applied in the legislative and law enforcement practice of relevant authorities implementing the integration of artificial intelligence into the sphere of public relations in Russia, as well as in the scientific field in order to determine subsequent vectors for analyzing the minimization of AI bias as a result of incorrect technology design in violation of the basic legal structures.

Текст научной работы на тему «СОЗДАНИЕ И ПРИМЕНЕНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПУБЛИЧНЫХ ЦЕЛЯХ: СРАВНИТЕЛЬНО-ПРАВОВОЙ АНАЛИЗ.»

Право и политика

Правильная ссылка на статью:

Атабеков А.Р. — Создание и применение искусственного интеллекта в публичных целях: сравнительно-правовой анализ // Право и политика. - 2023. - № 6. DOI: 10.7256/2454-0706.2023.6.40848 EDN: IIGGCY URL: https;//nbpublish.com'library_read_article.php?id=40848

Создание и применение искусственного интеллекта в публичных целях: сравнительно-правовой анализ

Атабеков Атабек Рустамович

кандидат экономических наук

доцент, кафедра административного и финансового права, Российский университет дружбы народов

117198, Россия, г. Москва, ул. Миклухо-Маклая, 6

И atabekoff1 @таИ.ш Статья из рубрики 'Трансформация правовых и политических систем"

DOI:

10.7256/2454-0706.2023.6.40848

EDN:

IIGGCY

Дата направления статьи в редакцию:

27-05-2023

Дата публикации:

06-06-2023

Аннотация: Предметом исследования выступают вопросы влияния проектирования искусственного интеллекта на последующее его применение в публичной сфере. Объектом исследования выступают нормативные документы, рекомендации и иные документы регламентирующие вопросы преоктирования искусственного интеллекта для публичных правоотношений в России и зарубежных странах, судебная практика, академические публикации и аналитические отчеты по исследуемой проблематике. Методология исследования интегрирует комплекс современных философских, общенаучных, специально-научных методов познания, включая, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др. В рамках настоящего исследования делается особый акцент на осуществлении сравнительного правового исследования проблем проектирования искусственного интеллекта и его последующего применения в рамках публично-правового поля в контексте проблем заложенных на базовом этапе создания. В рамках статьи проводится сравнительный а на лиз действующих подходов по вопроса м соответствия проектируемого

искусственного интеллекта (ИИ) для публичных целей зарубежных стран и России действующим национальным стратегиям и нормативным подходам. В рамках проведенного сравнительного анализа выявлены базовые проблемы в области прозрачности принятия решения искусственного интеллекта, проблемы неявного регулятивного характера для ИИ в публичной сфере проистекающие из технического дизайна проектируемого разработчиками систем ИИ, рассмотрены теоретические и практические ситуации применения искусственного интеллекта не соответствующего принципам проектирования ИИ на базе основополагающих правовых норм, а также предложены возможные компенсирующие правовые мероприятия, обеспечивающие безопасную интеграцию искусственного интеллекта в публичную сферу России. Предложенные в результате проведенного исследования мероприятия могут найти свое применение в законодательной и правоприменительной практике профильных органов власти реализующих интеграцию искусственного интеллекта в сферу публичных отношений в России, а также научной сфере в целях определения последующих векторов анализа минимизации предубежденности И И в результате некорректного проектирования технологии в нарушении базовых правовых конструкций.

Ключевые слова:

искусственный интеллект, электронное лицо, сравнительно-правовое исследование ИИ, технический дизайн, предубежденный ИИ, безопасный ИИ, публичное право, административное право, информационное право, правоприменительная практика

Правительства разных стран все чаще используют технические и информационные системы системы в рамках правоприменительной практики. Например, представители власти используют компьютерные системы для вынесения приговоров обвиняемым, утверждения или отказа в предоставлении государственных пособий, прогнозирования мест совершения будущих преступлений и введения запрета на въезд через границу

государства [1-2]. В каждом случае технология используется для принятия важных решений в отношении индивидуальных юридических прав или распределения государственных ресурсов.

Одним из важных открытий является то, что технологии могут иметь «ценности» (она же политика и технические правила), имплементированные в их конструкцию В этом контексте имеется ввиду влияние технического дизайна (удобство интерфейса, его доступность, понятность пользователю, юридическая осведомленность и т.д.), которое в последствие генерирует ту самую ценность в т.ч. посредством формирования определенных преференций для конкретных социальных подгрупп.

В этой логике интересной отправной точкой является позиция Лессига который отметил, что инженерную архитектуру технологической системы можно рассматривать как аналог

правового регулирования (в контексте запретов и правоустанавливающих аспектов)^. Исследователь отметил, что в то время, как законы явно и открыто регулируют общество, технический дизайн может аналогичным образом влиять на поведение или «ценности» для общества, но часто менее очевидным образом.

Та же технология интернета (которая в принципе является одним из столпов текущего технологического уклада), в рамках реализации инженерных решений сталкивалась с проблемами в области обеспечения анонимности С одной стороны, анонимность

обеспечивала свободу слова и поведения, с другой затрудняла идентификацию преступников и экстремистов.

В этом контексте становится актуальным вопрос технического дизайна, который выступает неявным регулятивным инструментом, находящимся за контуром контроля правительства и отданным на откуп разработчикам.

Рассматривая стратегические национальные документы Франции в области регулятивной политики в отношении искусственного интеллекта (далее - ИИ), необходимо обратить внимание на необходимость выработки не регулятивных, а этических требований в области разработки ИИ, включая следующие: внедрение объяснимых инструментов проводящих аудит систем ИИ, внедрение дополнительных инструментов мониторинга дискриминационного воздействия ИИ, контроля исключительной роли человеческого суждения и невозможности ее подмены ИИ и иные публичные аспекты (создание экспертных советов и т.д.)

При этом иная позиция представлена в стратегическом документе Президента США, в котором отсутствуют указанные положения и весь регулятивный акцент направлен на создание необходимых финансовых условий для НИОКР, а также на безопасную интеграцию ИИ в сферу государственного управления с точки зрения безопасности данных и их управляемости

В национальной стратегии ИИ Германии подготовлен отдельный раздел в отношении

регулятивных подходов для указанной технологии В определении регулятивной политики Германии относительно ИИ делается значимый акцент на соблюдении фундаментальных прав, которые лежат в основе строя Федеративной Республики Германии и закреплены в Конституции ФРГ, включая, в частности, общую свободу действий, защиту неприкосновенность частной жизни гражданина и его контроль над своими личными данными. Отмечается, что действующее законодательство нуждается в пересмотре с учетом технологического развития ИИ и наличия неурегулированных аспектов в отношении указанной технологии. Отдельно предлагается закрепить контроль технического дизайна с точки зрения безопасности для пользователя.

В рамках стратегии имплементации ИИ в необходимо обратиться к Указу Президента Правительства Российской Федерации^10!.

сферу публичных правоотношений России Российской Федерации^9 и Распоряжению

В положениях 49 Указа Президента России обозначена необходимость благоприятного режима допуска к данным, проведения тестирования ИИ, снятия административных барьеров для продукции ИИ, разработки единых систем стандартизации, стимулирования привлечения инвестиций, а также разработка этических правил. При этом, создание гибкой системы регулирования ИИ планируется к 2030 году. С точки зрения вопросов регламентации технического дизайна ИИ необходимо более подробно обратиться к Распоряжению Правительства Российской Федерации, в подразделе 4 раздела 1, в котором отмечены базовые правовые проблемы, требующие решения. Среди них выделяются соблюдение баланса между защитой персональных данных и обучения ИИ, определение предмета и границ регулирования ИИ, идентификация систем ИИ при взаимодействии с человеком, решение вопросов правового делегирования решений ИИ, ответственность за действия ИИ, прозрачность ИИ и т.д. Среди принципов регулирования ИИ в рамках указанного документа закрепляется обязанность разработчиков при проектировании ИИ соблюдения принципов соответствия законов, т.е. применение

систем ИИ не должно заведомо для разработчика приводить к нарушению правовых норм.

На уровне доктринальных исследований реализация неявных стратегий на практическом правоприменительном поле отмечают Солон Барокас и Эндрю Селбст. Исследователи указывают на расовые или этнические предубеждения, которые могут возникнуть при

алгоритмическом принятии решений i11^. Джошуа Кролл, Эдвард Фелтен, а также Даниэль Цитрон обращают внимание на отсутствие подотчетности при принятии решений на основе компьютеров, что все чаще встречается в контексте принимаемых алгоритмических решениях правительства [12-13].

Отечественные ученые также выделяют существенные проблемы, проистекающие из вопросов технического дизайна и его регулятивно-правовых особенностей. Д.В. Бахтеев в своем объемном исследовании отмечает необходимость на проектируемом этапе разработки учитывать уважение основных конституционных прав человека и гражданин, компетентность разработчика, а также ряд иных требований направленных на снижение

рисков неправомерного применения ИИ В. Э. Карпов и др. фокусируются на

проблеме отсутствия этической верификации при проектировании и разработки ИИ, что в свою очередь формирует практику корректировки действий ИИ по факту сбоев, а не упреждающий характер реагирования со стороны разработчика -t15^ А. В. Минбалеев t16-

а также О.А. Ястребов и д.р. [17] поднимают последующий вопрос возможности выделения отдельной пра восубъектности И И ка к электронного лица , что может иметь принципиальное значение на условном этапе его «рождения».

При рассмотрении практических примеров предлагается обратиться к опыту США, с технологией MiDAS. В рамках осуществления автоматического анализа мошеннических действий, связанных с получением пособия по безработице, Агентство по страхованию от бе зра ботицы штата М ич ига н, внедрило ука за нный а лгоритм в свою правоприменительную практику. Отличительной чертой указанного алгоритма является отсутствие процедуры оспаривания принятого решения ИИ в рамках указанного органа власти. Следствием некорректной работы соответствующего ИИ является большой круг пострадавших от действий органа власти, которые обратились в суд и обжаловали

неправомерно принятые ИИ решения [18]. В рамках резолютивной части решения суда выделено вменение вины за действия ИИ в адрес его разработчиков.

Вторым примечательным примером выступает SyRi, которая также использовалась для

выявления мошенничества в сфере социального обеспечения ü^i. Однако в рамках указанного кейса в суде оспаривалось не столько действия самого ИИ, сколько вопросы

«черного ящика» i20!, в рамках которого не был понятен алгоритм принятого машинным обучением решения. Мотивировочная часть судебного решения базируется на нарушении статьи 8 Европейской конвенции о правах человека при применении ука з а нной технологии госслужа щими.

При этом следует отметить, что в основе вышеуказанных кейсов со стороны госслужащих и пользователей так же присутствует определенная предубежденность в отношении самой ИИ, как более беспристрастной системы при принятии решений. В этой связи нам представляется возможным сделать акцент на положения Арбитражного процессуального кодекса России, где прямо зафиксирована опция суда принимать

решения на основании внутреннего убеждения (ч. 1. ст. 71 АПК РФ [21]).

Кроме того, обсужда я да нную проблема тику, нельзя не вспомнить кейс в смежной

области права в зарубежной практике, связанной с программой Компас, оценивающей риск рецидива у подсудимого ■22].

Следует понимать, что формально рекомендательный отчет на самом деле маскирует основную серию субъективных суждений со стороны разработчиков системы. Этот субъективный выбор включает следующие позиции: какие источники данных использовать для построения прогностической модели, какие части выбранных данных включать или исключать, как взвешивать эти данные, какие методы использовать для анализа данных и т.д.

Однако поскольку рекомендация генерируется автоматизированной системой с использованием некоего механистического процесса и представляется в строгой вычислительной форме, результат может иметь вводящее в заблуждение впечатление почти математической объективности в рамках закона. Из-за этой ауры механистической объективности судьи и другие должностные лица могут уделять больше внимания компьютерным рекомендациям, в отличие от сопоставимых человеческих оценок. Эта человеческая склонность необоснованно приписывать технологическому процессу принятия решений ценностный нейтралитет (по сравнению с людьми, находящимися в аналогичном положении) и полагаться на кажущуюся точность математического анализа и анализа, основанного на данных, должна быть тщательно исследована в контексте технологических систем, влияющих на юридическую оценку доказательств и суждений.

Однако следует учесть, что правовые нормы имеют долю неопределенности как в установлении вины, так и ее размеров.

Тот же Кодекс об административных правонарушениях Российской Федерации предоставляет возможность при определении обстоятельств правонарушения судье, органу власти и должностному лицу учитывать отягчающие и смягчающие факторы, что напрямую влияет в ряде случаев на вид административного наказания, его размер и длительность (Главы 3 и 4 КоАП РФ ■23!)

В этой связи одна из основных функций должностных лиц заключается в устранении этих неопределенностей при применении законов в конкретных обстоятельствах с учетом таких положений, как сама норма закона, общая практика ее применения, судебная практика, а также сама государственная политика. Общество часто не знает окончательного ответа на такую правовую неопределенность до тех пор, пока конкретное должностное лицо по правовым вопросам не вынесет обязательное, окончательное определение, предпочтя один набор возможных аргументов и интерпретаций другим.

При этом нужно понимать, что оцифровка этого процесса будет происходить ровно по таким же алгоритмам, включая предпочтения в «суждениях» и аргументации одной стороны другим подходам. При этом необходимо учитывать, что набор неявных знаний и признаков, на которые может обратить внимание должностное лицо как «человек», и прямо не закреплено действующим законодательством, процессуальным аспектом оценки доказательств и иными подзаконными актами.

На основании вышеизложенного предлагается проведение следующих мероприятий:

1. Введение дополнительных инструментов административного наказания для разработчиков систем ИИ, при несоблюдении ими принципов проектируемого соответствия законов ИИ, в виде дисквалификации и запрета на осуществление указанной деятельности.

2. Формирование и законодательное закрепление реестра технологий ИИ, в рамках которого пользователь может увидеть сферу применения ИИ, его разработчика, объем пользователей, техническую надежность (используемые математические и иные инструменты, факты и объем взлома), административную активность с точки зрения права (количество выявленных нарушений, судебное обжалование и т.д.).

3. При использовании ИИ для публичных целей надзора и контроля, необходимо обязательное соблюдение прозрачности алгоритмов ИИ (для разработчиков), сохра нение процедуры оспа рива ния действий И И у должностного лица , введение обязательных дополнительных квалификационных требований в отношении образования и знаний у должностных лиц, рассматривающих указанные жалобы, запрет на использование зарубежных систем ИИ для публичных целей.

Библиография

1. Citron D. K. Technological due process //Wash. UL Rev. - 2007. - Т. 85. - С. 1249.

2. Roth A. Trial by machine //Geo. LJ. - 2015. - Т. 104. - С. 1245.

3. Stilgoe J., Guston D. Responsible research and innovation. - MIT Press, 2016.

4. Lessig L. Code 2.0: Code and other laws of cyberspace. - 2006.

5. Goldberg I., Wagner D. TAZ servers and the rewebber network. - 1998.

6. Villani C. et al. For a meaningful artificial intelligence: Towards a French and European strategy. Conseil national du numérique: [сайт]. — URL:

https ://www.aiforhumanity.fr/pdfs/MissionVillani_Report_ENG-VF.pdf (дата обращения : 17.05.2023).

7. Maintaining American Leadership in Artificial Intelligence. A Presidential Document by the Executive Office of the President on 02/14/2019: [сайт]. — URL:

https ://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence (дата обращения: 17.05.2023).

8. Germany AI Strategy Report: [сайт]. — URL: https://ai-watch.ec.europa.eu/countries/germany/germany-ai-strategy-report_en (дата обра щения : 17.05.2023).

9. Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации»: [сайт]. — URL:

https ://www.garant.ru/products/ipo/prime/doc/72738946/ (дата обращения : 17.05.2023).

10. Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.: [сайт]. — URL:

https ://www.garant.ru/products/ipo/prime/doc/74460628/ (дата обращения : 17.05.2023).

11. Barocas S., Selbst A. D. Big data's disparate impact //California law review. - 2016. -С. 671-732.

12. Kroll J. A. et al. Accountable algorithms'(2017) //University of Pennsylvania Law Review. - Т. 165. - С. 633.

13. Citron D. K. Technological due process //Wash. UL Rev. - 2007. - Т. 85. - С. 1249.

14. Бахтеев Д. В. Риски и этико-правовые модели использования систем искусственного интеллекта //Юридические исследования. - 2019. - №. 11. - С. 1-11.

15. Карпов В. Э., Готовцев П. М., Ройзензон Г. В. К вопросу об этике и системах

искусственного интеллекта //Философия и общество. - 2018. - №. 2 (87). - С. 84105.

16. Минбалеев А. В. Проблемы регулирования искусственного интеллекта //Вестник южно-уральского государственного университета. серия: право. - 2018. - Т. 18. -№. 4. - С. 82-87.

17. Ястребов О. А., Аксенова М. А. Влияние искусственного интеллекта на административно-правовой режим противодействия легализации доходов, полученных преступным путем и финансированию терроризма: вопросы права //Правовая политика и правовая жизнь. - 2022. - №. 3. - С. 84-109.

18. Michigan's MiDAS Unemployment System: Algorithm Alchemy Created Lead, Not Gold. : [сайт]. — URL: https://spectrum.ieee.org/michigans-midas-unemployment-system-algorithm-alchemy-that-created-lead-not-gold#toggle-gdpr (дата обращения: 17.05.2023).

19. SyRI legislation in breach of European Convention on Human Rights: [сайт]. — URL: https ://www.rechtspraak.nl/Organisatie-en-

contact/Organisatie/Rechtbanken/Rechtbank-Den-Haag/Nieuws/Paginas/SyRI-legislation-in-breach-of-European-Convention-on-Human-Rights.aspx (дата обращения: 17.05.2023).

20. District Court of the Hague, 6 March 2020, ECLI:NL:RBDHA:2020:865: [сайт]. — URL: uitspraken.rechtspraak.nl/inziendocument?id = ECLI:NL:RBDHA:2020:1878 (дата обращения: 17.05.2023).

21. Арбитражный процессуальный кодекс Российской Федерации от 24 июля 2002 г. №95-ФЗ // Собрание законодательства Российской Федерации от 29 июля 2002 г. № 30 ст. 3012.

22. State v. Loomis. Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing.: [сайт]. — URL:

https ://harvardlawreview.org/print/vol-130/state-v-loomis/ (дата обращения: 17.05.2023).

23. "Кодекс Российской Федерации об административных правонарушениях" от 30.12.2001 N 195-ФЗ // "Собрание законодательства РФ", 07.01.2002, N 1 (ч. 1), ст. 1

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.

Со списком рецензентов издательства можно ознакомиться здесь.

Предмет исследования. В рецензируемой статье "Анализ феномена технического дизайна для целей публичного регулирования искусственного интеллекта: опыт зарубежных стран и перспективы России" в качестве предмета исследования выступают правовые нормы, регулирующие общественные отношения в сфере создания и использования искусственного интеллекта. Автор обращается к отечественному праву, а также анализирует право зарубежных стран в области создания и использования искусственного интеллекта.

Методология исследования. Основной метод исследования - это сравнительный анализ. Кроме того, автором применялись и иные современные методы научного познания: исторический, формально-логический, юридико-технический, формально-догматический, сравнительного правоведения и др. Также автором статьи применялись такие научные способы и приемы, как дедукция, моделирование, систематизация, обобщение и др.

Актуальность исследования. Глобальная цифровизация всех сфер жизнедеятельности людей ставит вопросы о необходимости соответствующего правового регулирования новых видов общественных отношений, к которым можно отнести созда ние и использование искусственного интеллекта человеком. Данное исследование не только посвя щено выя вле нию проблем и пробелов в пра ве при регулировании общественных отношений с применением искусственного интеллекта , но и содержит конкретные предложения по их разрешению, которые заслуживают внимания законодателя и правоприменителя (например, "введение дополнительных инструментов административного наказания для разработчиков систем ИИ, при несоблюдении ими принципов проектируемого соответствия законов ИИ, в виде дисквалификации и запрета на осуществление указанной деятельности" или "при использовании ИИ для публичных целей надзора и контроля, необходимо обязательное соблюдение прозрачности алгоритмов ИИ (для разработчиков), сохранение процедуры оспаривания действий ИИ у должностного лица, введение обязательных дополнительных квалификационных требований в отношении образования и знаний у должностных лиц, рассматривающих указанные жалобы, запрет на использование зарубежных систем ИИ для публичных целей".

Научная новизна. Представляется, что данная статья отличается научной новизной, хотя обращение к вопросу о правовом регулировании применения искусственного интеллекта в публичных целях не является абсолютно новым для российской юридической науки. Однако аспект, выбранный автором - анализ феномена технического дизайна для целей публичного регулирования искусственного интеллекта, основанный на сравнительном пра воведении, имеет элементы на уч ной новиз ны.

Стиль, структура, содержание. В целом стиль написания работы можно считать научным. Вместе с тем, в качестве замечания следует отметить, что автор использует применение аббревиатур, известных узкому кругу читателей (например, ИИ, ИТ), сокращает слова (на пример, кол-во), отходит от официа льных на зва ний документов и должностей (например, кодекс (правильнее Кодекс) об административных правонарушениях, Указ Президента России (правильнее Российской Федерации). Совсем неясно, кто такие "юридические должностные лица". В предложениях отмечается повтор однокоренных слов, например, в предложении "Однако следует учесть, что изначально правовые нормы имеют определенную долю неопределенности ка к в определении вины, та к и ее размеров". Такие предложения подлежат перефразированию. Статья структурирована (введение, основная часть и заключение). На взгляд рецензента, по содержанию раскрыта тема: "Создание и применение искусственного интеллекта в публичных целях: сравнительно-правовой анализ". Все-таки, следовало бы объяснить "феномен технического дизайна", в чем он заключается. Термин "феномен" применен автором в названии статьи, а в тексте не раскрывается совсем. Автор использует как тождественные категории "технический дизайн" и "технологический дизайн". Допустимо ли?

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Библиография. Автором изучено достаточное количество источников. Однако ссылки на источники оформлены с нарушением требований библиографического ГОСТа. Апелляция к оппонентам. В статье представлены точки зрения других ученых по вопроса м созда ния и применения искусственного интеллекта , все обра щения к оппонентам корректные. Однако при ссылке на ФИО автора мнения (точки зрения) в тексте статьи нарушен порядок написания (следует указывать сначала инициалы, затем фамилию).

Выводы, интерес читательской аудитории. Статья "Анализ феномена технического дизайна для целей публичного регулирования искусственного интеллекта: опыт зарубежных стран и перспективы России" может быть рекомендована к опубликованию

при условии корректировки ее названия и доработки содержания, устранения всех отмеченных замечаний. Статья написана на актуальную тему. Статья может представлять интерес для специа листов в обла сти информа ционного пра ва и цифрового пра ва .

Результаты процедуры повторного рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.

Со списком рецензентов издательства можно ознакомиться здесь.

Предметом исследования в представленной на рецензирование статье, как это следует из ее наименования, является создание и применение искусственного интеллекта (ИИ) в публичных целях. Автором осуществляется сравнительно-правовой анализ данной проблемы. Как следствие, ученым вырабатываются рекомендации по применению ИИ в отечественной правоприменительной практике. Заявленные границы исследования полностью соблюдены автором.

Методология исследования в тексте статьи не раскрывается, но очевидно, что ученым использовались всеобщий диалектический, логический, формально-юридический и сравнительно-правовой методы исследования.

Актуальность избранной автором темы исследования обоснована следующим образом: "Правительства разных стран все чаще используют технические и информационные системы в рамках правоприменительной практики. Например, представители власти используют компьютерные системы для вынесения приговоров обвиня емым, утверждения или отказа в предоставлении государственных пособий, прогнозирования мест совершения будущих преступлений и введения запрета на въезд через границу государства [1-2]. В каждом случае технология используется для принятия важных решений в отношении индивидуальных юридических прав или распределения государственных ресурсов". Дополнительно ученому необходимо перечислить фамилии ведущих специалистов, занимавшихся исследованием поднимаемых в статье проблем, а также раскрыть степень их изученности. Частично об этом говорится в ряде положений основной части работы.

В чем проявляется научная новизна исследования, в статье прямо не говорится. Фактически она проявляется во введении в оборот отечественной юридической науки данных о фактах, представляющих непосредственный интерес для российского законодателя и правоприменителей, а также в разработанных автором рекомендациях по совершенствованию применения систем ИИ на практике. Таким образом, статья заслуживает внимания читательской аудитории и вносит определенный вклад в развитие отечественной юридической науки.

Научный стиль исследования выдержан автором в полной мере.

Структура работы вполне логична. Во вводной части статьи ученый обосновывает актуальность избранной им темы исследования. В основной части работы автор анализирует особенности создания и применения систем ИИ во Франции, США, Германии и России, выявляет возникающие при этом проблемы, а также приводит примеры из практики, иллюстрирующие отдельные положения статьи. В заключительной части работы содержатся выводы по результатам проведенного исследования. Содержание статьи полностью соответствует ее наименованию и не вызывает особых нареканий.

Библиография исследования представлена 23 источниками (нормативными правовыми актами, монографиями и научными статьями), в том числе на английском языке. С формальной и фактической точек зрения этого вполне достаточно. Характер и количество использованных при написании статьи источников позволили автору

раскрыть тему исследования с необходимой глубиной и полнотой. Положения работы аргументированы в должной степени.

Апелляция к оппонентам имеется, как общая, так и частная (С. УП1ат и др.). Научная дискуссия ведется автором корректно.

Выводы по результатам проведенного исследования имеются, они четко структурированы, конкретны и заслуживают внимания читательской аудитории (ученый предлагает: "1. Введение дополнительных инструментов административного наказания для разработчиков систем ИИ, при несоблюдении ими принципов проектируемого соответствия законов ИИ, в виде дисквалификации и запрета на осуществление указанной деятельности. 2. Формирование и законодательное закрепление реестра технологий ИИ, в рамках которого пользователь может увидеть сферу применения ИИ, его разработчика, объем пользователей, техническую надежность (используемые математические и иные инструменты, факты и объем взлома), административную активность с точки зрения права (количество выявленных нарушений, судебное обжалование и т.д.). 3. При использовании ИИ для публичных целей надзора и контроля, необходимо обязательное соблюдение прозрачности алгоритмов ИИ (для разработчиков), сохранение процедуры оспаривания действий ИИ у должностного лица, введение обязательных дополнительных квалификационных требований в отношении образования и знаний у должностных лиц, рассматривающих указанные жалобы, запрет на использование зарубежных систем ИИ для публичных целей").

Статья нуждается в дополнительном вычитывании. В ней встречаются орфографические, пунктуационные, синтаксические ошибки.

Интерес читательской аудитории к представленной на рецензирование статье может быть проявлен прежде всего со стороны специалистов в сфере административного права и информационного права при условии ее небольшой доработки: раскрытии методологии исследования, дополнительном обосновании актуальности избранной темы работы, устранении нарушений в оформлении статьи.

i Надоели баннеры? Вы всегда можете отключить рекламу.