Научная статья на тему 'РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ􀀝 􀅨КЛЕКТИКА ПОДХОДОВ И АКТОРОВ'

РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ􀀝 􀅨КЛЕКТИКА ПОДХОДОВ И АКТОРОВ Текст научной статьи по специальности «Право»

CC BY
57
5
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Сравнительная политика
ВАК
RSCI
ESCI
Область наук
Ключевые слова
искусственный интеллект / вызовы ИИ / регулирование ИИ / технологическое лидерство / технологический суверенитет / диалектика морали и права / AI / artificial intelligence / AI challenges / AI regulation / technological leadership / technological sovereignty / dialectic of morality and law

Аннотация научной статьи по праву, автор научной работы — Маслова Елена Александровна, Самойловская Наталья Александровна, Сорокова Екатерина Дмитриевна, Чеков Александр Дмитриевич

Искусственный интеллект (ИИ) становится одной из важнейших технологий XXI в., развитие которой, вероятно, станет определяющим фактором формирования глобального баланса сил. Сегодня все больше стран, включая Россию, работает над реализацией национальных программ развития технологии искусственного интеллекта. В фокусе исследования 􀆣 российская практика и подход к регулированию ИИ, которые сочетают в себе нормотворчество с применением этического императива. Настоящая статья тематически делится на три части. В первой представлен анализ стратегического планирования и нормативно-правового регулирования ИИ в России, во второй рассматриваются основные дилеммы и этические принципы. Отдельный раздел посвящен участию негосударственных акторов в регулировании ИИ. В заключении авторы приходят к выводу, что Россия, сохраняя приоритет «доверенного ИИ», постепенно отходит от «мягких» форм регулирования. В то же время национальный подход учитывает мировые тенденции и включает в себя этический императив. В сфере автономных технологий ИИ это выражается в сохранении человекоцентричности.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Маслова Елена Александровна, Самойловская Наталья Александровна, Сорокова Екатерина Дмитриевна, Чеков Александр Дмитриевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

REGULATION OF ARTIFICIAL INTELLIGENCE IN RUSSIA􀀝 ECLECTICISM OF APPROACHES AND ACTORS

Many observers expect artificial intelligence (AI) to become one of the most important technologies of the 21st century, whose development will be a decisive factor in shaping the future global technological balance of power. A practical confirmation of this statement is the fact that today an increasing number of states are striving to accelerate their national AI development programmes. Russia is one of them, although it is generally not perceived in the West as a potential leader in this emerging competition. At the same time, Russia’s demonstrated ability to build its own successful national IT ecosystem is attracting increased international interest in its national AI development efforts. The purpose of this paper is to outline the contours of these efforts, and to trace the evolution of the regulatory framework and its underlying principles. The authors draw the following conclusions. Russia is developing a flexible and science-based approach to AI and its potential humanitarian impacts, combining its own historical experience with international practices. Strategically, Russia sees the development of national AI as an important means of advancing its economic and technological development in a way that benefits its citizens and businesses, as well as preventing a possible economic and technological slowdown. Significant progress has been made on legal and ethical issues. The focus of Russian efforts in this area is more on soft law norms and self-regulation rather than on prohibitive legislative norms. This approach leaves a lot of room for the development of AI and reduces the possibility of its premature bureaucratisation, which could hinder innovation in the field. There are certain similarities between the Russian and European approaches to AI development and regulation. Human security concerns, data protection and a risk-based approach to the development of AI technologies are prioritised by the state and supranational institutions (respectively) as the main actors responsible for safeguarding the well-being, interests and rights of the citizens.

Текст научной работы на тему «РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ􀀝 􀅨КЛЕКТИКА ПОДХОДОВ И АКТОРОВ»

Сравнительная политика, Том 13, No 4, сс. 65-84 DOI 10.24833/2221-3279-2022-4-13-65-84

РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ: ЭКЛЕКТИКА ПОДХОДОВ И АКТОРОВ

Елена МАСЛОВА

МГИМО МИД России; НИУ ВШЭ

Наталья САМОЙЛОВСКАЯ, Екатерина СОРОКОВА, Александр ЧЕКОВ МГИМО МИД России

Аннотация: Искусственный интеллект (ИИ) становится одной из важнейших технологий XXI в., развитие которой, вероятно, станет определяющим фактором формирования глобального баланса сил. Сегодня все больше стран, включая Россию, работает над реализацией национальных программ развития технологии искусственного интеллекта. В фокусе исследования - российская практика и подход к регулированию ИИ, которые сочетают в себе нормотворчество с применением этического императива. Настоящая статья тематически делится на три части. В первой представлен анализ стратегического планирования и нормативно-правового регулирования ИИ в России, во второй рассматриваются основные дилеммы и этические принципы. Отдельный раздел посвящен участию негосударственных акторов в регулировании ИИ. В заключении авторы приходят к выводу, что Россия, сохраняя приоритет

Маслова Елена Александровна - кандидат политических наук, доцент Кафедры интеграционных процессов, МГИМО МИД России; доцент, Департамент международных отношений, НИУ ВШЭ.

ORCID 0000-0002-2493-3900. E-mail: e.maslova@inno.mgimo.ru

119454 Москва, пр-т Вернадского, д.76;

119017 Москва, ул. Малая Ордынка, д.17 стр.1.

Самойловская Наталья Александровна - младший научный сотрудник Центра евро-атлантической безопасности, Институт международных исследований, МГИМО МИД России.

ORCID 00 00-0003-3793-175X. Е-mail: natalya.samoylovskaya@gmail.com

119454 Москва, пр-т Вернадского, д.76.

Сорокова Екатерина Дмитриевна - аспирант Кафедры интеграционных процессов, МГИМО МИД России.

ORCID 0000-0002-4542-7767. Е-mail: sorokova.e.d@my.mgimo.ru

119454 Москва, пр-т Вернадского, д.76.

Чеков Александр Дмитриевич - научный сотрудник Центра евро-атлантической безопасности, Институт международных исследований, МГИМО МИД России.

ORCID 0000-0001-7425-6170. Е-mail: a.d.chekov@gmail.com

119454 Москва, пр-т Вернадского, д.76.

Поступила в редакцию: 19.11.2023 Принята к публикации: 04.12.2023

Конфликт интересов: Авторы заявляют об отсутствии конфликта интересов.

«доверенного ИИ», постепенно отходит от «мягких» форм регулирования. В то же время национальный подход учитывает мировые тенденции и включает в себя этический императив. В сфере автономных технологий ИИ это выражается в сохранении человекоцентричности.

Ключевые слова: искусственный интеллект, вызовы ИИ, регулирование ИИ, технологическое лидерство, технологический суверенитет, диалектика морали и права

Введение

Развитие цифровых технологий и их внедрение во все сферы жизни общества оказывают существенное влияние на социально-экономическое развитие стран в современном мире. С одной стороны, передовые технологии способны многократно увеличить возможности человечества, с другой -создают новые риски, вызовы и угрозы (Кравченко, 2019). Одним из наиболее ярких примеров является искусственный интеллект (далее - ИИ), который во многих странах мира, в том числе и в России, уже объявлен одним из приоритетов государственной политики.

Считается, что термин «искусственный интеллект» (artificial intelligence) был введен в оборот в 1956 г. на семинаре Дартсмутского колледжа (США) при обсуждении темы логических задач1. Перевод термина на русский язык имеет антропоморфную составляющую, имплицитно подразумевая интеллект, присущий человеку, однако главнейшее отличие состоит в том, что ИИ не ориентирован на эмоции и социальные отношения. В данной работе под ИИ авторы понимают способность машины выполнять задачи с эффективностью, близкой к человеческой или превышающей ее. В России официально утверждено следующее определение ИИ: «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека»2.

Авторы настоящей работы задаются целью концептуализировать российский подход к разработке и использованию ИИ с учетом роли ключевых заинтересованных сторон (стейкхолдеров) и акторов, а именно: государства, бизнес-сообщества, экспертного сообщества и гражданского общества3.

1 Artificial Intelligence (AI) Coined at Dartmouth (n.d.). Dartmouth College (n.d.). Available at: https://home. dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth (accessed 10 July 2022).

2 Указ Президента Российской Федерации «О развитии искусственного интеллекта в Российской Федерации» от 10 октября 2019 года № 490. Официальный сайт Президента Российской Федерации. 10 октября, 2019. Available at: http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwVtMOfPDhcb Rpvd1HCCsv.pdf (дата обращения: 23.11.2022).

3 За рамками исследования остается военный кластер и применение ИИ в этой сфере.

В первой части статьи проанализированы законодательное регулирование и общий подход к управлению ИИ: приведены основные стратегические документы и нормативные правовые акты, выделен ряд первоочередных вопросов, находящихся в центре внимания российских регулирующих органов. Во второй части работы рассмотрены этические принципы и ценности, сформулированные в российских документах «мягкого права», касающихся сферы ИИ. В третьей части уделено внимание вкладу стейкхолдеров (экспертное и научное сообщество) в формирование стратегического подхода к регулированию ИИ. В заключении изложены результаты и выводы исследования.

Законодательное регулирование ИИ и связанные с ним вызовы

Наряду с другими цифровыми технологиями, ИИ в России стремительно внедряется как в частном секторе, так и в сфере государственных услуг, оказывая влияние на общественные отношения и экономику. Целый ряд документов стратегического планирования, нормативно-правовых актов и законопроектов прямо или косвенно связаны с его регулированием.

В России существует развитая система стратегического планирования, определяющая долгосрочные цели, приоритеты, ключевые задачи и целевые показатели эффективности основных сфер государственной политики. Документы, устанавливающие национальные цели в области социально-экономического развития, а также научно-технологического развития РФ, разрабатываются на федеральном уровне наряду со Стратегией национальной безопасности и ежегодным Посланием Президента Российской Федерации Федеральному Собранию. Такие документы стратегического планирования принимаются на высшем уровне либо указами Президента, либо постановлениями Правительства4.

Фундаментальный подход к развитию ИИ в России зафиксирован в государственной программе «Информационное общество». Этот документ определяет цели, задачи и меры по реализации внутренней и внешней политики страны в сфере применения информационных и коммуникационных технологий (ИКТ), направленные на развитие информационного общества, формирование национальной цифровой экономики, обеспечение национальных интересов и реализацию стратегических национальных приоритетов5. Отдельные аспекты развития и регулирования ИИ концептуально оформлены в Национальной программе «Цифровая экономика» (2019), Национальной стратегии развития искусственного интеллекта на период до 2030 года (2019),

4 См. Статью 11 Федерального закона от 28.06.2014 N 172-ФЗ «О стратегическом планировании в Российской Федерации» (2014). Консультант Плюс. 28 июня, 2014. Available at: https://www.consultant.ru/ document/cons_ doc_LAW_164841/fe7140d7cfc6c641ae322fe648d99702d8b2a8f1/

5 Государственная программа «Информационное общество» (2020). Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации 24 декабря, 2020. Available at: https://digital.gov.ru/ru/ activity/programs/1/?utm_referrer=https%3a%2f%2fyandex.ru%2f.

федеральных проектах «Правовое регулирование цифрового ландшафта» (2019) и «Искусственный интеллект» (2020), а также в Концепции регулирования искусственного интеллекта и робототехники до 2024 г. (2020).

При этом в связи с распространением НБИК-технологий, ускорением технического прогресса и внедрением его результатов в производственные, экономические и политические процессы концептуальные документы требуют обновления: так, на конференции AI Journey 2022 г. Президент России анонсировал обновление приоритетов Национальной стратегии развития искусственного интеллекта на период до 2030 года.

Под законодательное регулирование в сфере ИИ попали прежде всего вопросы, уже являющиеся предметом регулирования в других областях: такие, как обеспечение конфиденциальности и безопасности персональных данных, соблюдение прав человека, защита жизни и безопасности граждан. С учетом высоких темпов развития ИИ и потенциальных масштабов его негативных последствий эти направления по-прежнему остаются в высокой степени секьюритизированными.

Сегодня основные дискуссии сосредоточены вокруг следующих проблем:

1) Регулирование доступа к массивам больших данных. Это необходимо для дальнейшего развития, совершенствования и масштабирования технологий ИИ, а также имеет значительный экономический потенциал: согласно реалистичному и оптимистичному сценариям, разработанными Российской ассоциацией больших данных, использование результатов обработки больших данных в различных отраслях может привести к росту ВВП на 1,2-1,8% в текущей пятилетке (2019-2024)6. Новые нормы должны учитывать интересы всех участвующих сторон (государства, бизнеса и пользователей), а также обеспечивать законность обработки данных, защиту прав граждан, безопасность и надежность. Механизм тестирования новых технологий, основанных на обработке данных, уже разработан: в 2020 г. федеральный закон «О регу-ляторных песочницах» в сфере цифровых инноваций ввел понятие экспериментальных правовых режимов при реализации проектов на определенной территории. В г. Москве собственный пятилетний экспериментальный режим был введен еще раньше, 1 июля 2020 г., на основании отдельного закона для активизации разработки и внедрения технологий ИИ, а также использования полученных результатов в различных сферах, в том числе в медицине (одной из первых была введена в эксплуатацию система ИИ, позволяющая выявлять коронавирус на рентгеновских снимках) (Салихов, 2020).

2) Работа с персональными данными, их защита и автоматизированная обработка. В 2018 г. Россия присоединилась к модернизированной версии Конвенции о защите физических лиц при обработке персональных данных

6 Стратегия развития рынка больших данных до 2024 года (2020). Ассоциация больших данных. Март, 2020. Available at: https://rubda.ru/wp-content/uploads/2020/03/strategiya-bolshih-dannyh_srednyaya.pdf (дата обращения: 24.11.2022).

(Конвенция 108+). Это влечет за собой три вида изменений в российском законодательстве, включая принципы пропорциональности, минимизации и законности сбора, обработки и хранения персональных данных (которые уже закреплены в действующем законодательстве), введение генетических данных как новой категории чувствительных данных. А также разработку новых норм, закрепляющих права граждан на управление своими данными, вовлеченными в алгоритмическую или искусственную обработку и определяющих ответственность операторов и режим трансграничной передачи данных7. Последние вопросы до сих пор активно обсуждаются.

Аналогичным образом уточнены правила и требования, касающиеся хранения и обработки данных российских граждан международными компаниями. Согласно закону 2021 г. о «приземлении» глобальных ИТ-компаний, иностранные организации, владеющие информационным интернет-ресурсом с числом пользователей в России более 500 тыс. в сутки, обязаны создать в России полноценный филиал или учредить юридическое лицо, разместить на своих сайтах электронные формы для обращений российских граждан и организаций и зарегистрировать личные кабинеты компаний на сайте Ро-скомнадзора. Эксперты отмечают, что данный закон отражает общемировую тенденцию: национальные власти активно пытаются вовлечь транснациональные ИТ-компании в прямое взаимодействие, сделать их действия и практику более прозрачными и обеспечить соблюдение ими национального законодательства (аналогичные правила были введены в Ирландии и Турции)8.

Данная тенденция - усиление антимонопольного регулирования в отношении «техногигантов» в юрисдикциях отдельных стран и их объединений (например, ЕС), установление жестких требований по локализации персональных данных пользователей и ограничений на их трансграничную передачу - является одним из способов реагирования на глобальный технологический риск - «концентрацию цифровой мощи» (термин взят из докладов Всемирного экономического форума) (Сорокова, 2022а).

3) Законодательство в отношении автономных транспортных средств. Если вопросы регистрации и использования беспилотников и квадрокопте-ров достаточно регламентированы, то статус автономных автомобилей все еще законодательно не определен. Автономные такси («роботакси») тестируются на дорогах Иннополиса компанией «Яндекс» с 2018 г. Законопроект «О высокоавтоматизированных транспортных средствах», представленный

7 Модернизированная Конвенция Совета Европы предоставляет россиянам новые права в сфере защиты персональных данных (2018). Федеральная служба по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор). 18 октября, 2018. Available at: https://rkn.gov.ru/news/rsoc/ news62380.htm.

8 Законопроект о приземлении зарубежных IT-гигантов - часть международной тенденции, считают российские эксперты (2021). Интерфакс. 27 мая, 2021. Available at: https://www.interfax.ru/presscenter /769158 (дата обращения: 24.11.2022).

в июне 2021 г. Министерством транспорта РФ, обозначает общие правила использования беспилотных автомобилей (т.е. передвигающихся без человека за рулем)9. В случае принятия закон вступит в силу не раньше 2025 г., поскольку экспериментальное развертывание беспилотных автомобилей на дорогах еще предстоит оценить и отразить в окончательном варианте законопроекта. Потенциальные коллизии связаны с определением ответственности в случае причинения ущерба при ДТП. Эксперты подчеркивают, что закон является важной вехой, но, прежде чем беспилотные автомобили появятся на дорогах, необходимо адаптировать и разработать «с нуля» еще много норм, в т.ч. регулирующих процесс получения разрешения на эксплуатацию автоматизированного транспортного средства; требования к системам управления; сбор, передачу и использование данных, собираемых беспилотными автомобилями и т.п. (Сазонова, 2021).

Однако, несмотря на уже предпринятые меры, регулирование ИИ и цифровой трансформации в целом как в России, так и в мире остается весьма фрагментарным и имеет множество «слепых зон». При этом эксперты НИУ ВШЭ отмечают, что для обновления законодательства в этой сфере будет достаточно «точечных» поправок в действующие акты, основанных на единой логике, терминологии и принципах регулирования. В качестве наиболее актуальных вопросов регулирования ИИ они выделяют: делегирование ИИ юридически значимых решений; ответственность существующих субъектов права за деятельность беспилотных систем; обеспечение алгоритмической прозрачности и пересмотр подходов к охране отдельных видов объектов интеллектуальной собственности (для использования их в машинном обучении и с учетом отсутствия правосубъектности робототехнических систем) (Якушев, 2022).

По состоянию на конец 2022 г. не было принято ни одного комплексного закона, охватывающего все этапы жизненного цикла систем ИИ. Причины такого отставания не сводятся к малоизученности самой технологии: жесткие законодательные ограничения в этой быстро развивающейся области вызывают неоднозначные оценки стейкхолдеров. Так, проект комплексного закона, разработанный в Евросоюзе («Регламент о гармонизации правил в сфере ИИ») вызвал полемику в бизнес-сообществе. В отсутствии законодательных норм ЕС продолжает развивать «мягкое» регулирование, делая ставку на «доверенный ИИ», позволяющий обеспечить экономический рост и гарантировать безопасность граждан (Маслова, Сорокова, 2022).

9 Как новый закон меняет правила использования беспилотников (2019). Государственная Дума Федерального Собрания Российской Федерации. 21 ноября, 2019. Available at: http://duma.gov.ru/ news/46465/ (дата обращения: 24.11.2022).

Этика искусственного интеллекта: ценностно-нормативный подход России

В последние несколько лет наблюдается всплеск принятия различными субъектами добровольных обязательств в сфере регулирования ИИ: только в Европе с 2006 по 2019 гг. было принято около 70 документов «мягкого» права в этой области (в основном рекомендации, стандарты, принципы, стратегии), если считать только документы, выпущенные Евросоюзом, Советом Европы, НПО и другими организациями, не считая отдельных стран (Gutierrez and Marchant, 2021).

Этика ИИ определяется авторами как совокупность морально-этических принципов, ценностей и норм поведения в области разработки, внедрения и эксплуатации ИИ, которые одобряются участниками и заинтересованными сторонами, добровольно соблюдающими их в своей деятельности. Этическое регулирование ИИ является развивающейся областью в России и на международном уровне. Хотя «жесткие вопросы безопасности», такие как кибератаки с использованием ИИ (Sharikov, 2018; Heinl, 2014) или возможные угрозы технологической гонки в сфере ИИ (Armstrong, Bostrom and Shulman, 2013) все еще широко обсуждаются, в последние годы наметилась новая тенденция, связанная с социо-гуманитарными последствиями цифровой трансформации.

Многие этические принципы, включая прозрачность, подотчетность, объ-яснимость, надежность, достоверность, справедливость, недискриминацию, конфиденциальность данных, уже присутствуют (с незначительными вариациями) в многочисленных корпоративных, национальных и международных документах, посвященных этическому развитию ИИ (Готовцев и др., 2021).

С 2017 г. этические вопросы заняли особое место в «мягком» регулировании ИИ. В подписанных в начале 2017 г. Асиломарских принципах ИИ есть целый подраздел, посвященный этике и ценностям развития ИИ, его возможному долгосрочному гуманитарному воздействию и связанным с ним исследовательским вопросам. К настоящему времени этот документ подписали более 5 700 исследователей в области ИИ и робототехники и специалистов в других областях10. Несколько месяцев спустя, в ноябре 2017 г., Монреальская декларация об ответственном развитии ИИ продолжила эту тему с целью вызвать широкие дискуссии о возможных социальных трансформациях, этических принципах и фундаментальных ценностях, которые должны применяться при разработке и использовании ИИ. По состоянию на 2022 г. Декларация одобрена более чем 2 тыс. граждан разных стран и 200 организациями11.

10 The Asilomar AI Principles (2017). Future of Life Institute. 11 August, 2017. Available at: https://futureoflife. org/2017/08/11/ai-prindple/ (accessed 10 July 2022).

11 The Montreal Declaration for a Responsible Development of Artificial Intelligence (2017). Université de Montréal. 03 November, 2017. Available at: https://recherche.umontreal.ca/english/strategic-initiatives/montreal-declaration-for-a-responsible-ai/ (accessed 10 July 2022).

Исследователи отмечают, что рост популярности этики как инструмента регулирования породил и обратную реакцию. Этические принципы часто рассматриваются как декларация, попытка отвлечь общественность от реальных политических проблем, или как «этический камуфляж» для компаний, стремящихся избежать законодательного регулирования или использовать этику в качестве маркетинговой уловки. Кроме того, во многих случаях даже четко сформулированные принципы не имеют механизмов реализации, распределения ответственности и подотчетности (Delacroix and Wagner, 2021), что: а) оставляет их открытыми для интерпретации и утилитарного использования авторами и другими участниками; б) делает их трудными для практического применения и в) менее надежными в глазах общества, учитывая отсутствие механизмов принуждения.

Несмотря на эти противоречия и широко распространенный скептицизм, этика ИИ играет самостоятельную роль в регулировании данной области. Она устанавливает границы, за которые нельзя переступать при разработке, внедрении и использовании технологий ИИ, и определяет степень допустимых антропологических и социальных последствий. В этом контексте кодификация является первым шагом к тому, чтобы сделать этические нормы действенными и практически применимыми. Российские специалисты подчеркивают, что этические кодексы делают этичное поведение в конкретных областях применения ИИ более артикулированным и понятным для акторов ИИ (Kuleshov, Ignatiev, Abramova and Marshalko, 2020). Поскольку реализация этических решений на инженерном уровне и их последующий контроль возложены на различных участников, кодификация этики ИИ будет полезна как на уровне производства технологий, так и на уровне общественного восприятия и доверия, поскольку кодексы помогают соотнести этические ожидания с ответственностью человека на всех этапах жизненного цикла систем ИИ. Общепринятые принципы могут быть в дальнейшем сужены до отраслевых кодексов, что также облегчит классификацию, оценку и экспертизу систем ИИ.

Учитывая сложную природу ИИ и его возможные социальные последствия, этическое регулирование и разработка политики в области ИИ требуют многостороннего подхода. Поэтому некоторые исследователи считают, что отношения между законодательным и этическим регулированием ИИ необходимо перестать рассматривать как антагонистические (Delacroix and Wagner, 2021). Напротив, эти две сферы должны взаимно дополнять друг друга за счет сотрудничества государства, бизнеса, экспертного и научного сообществ. Так, например, интеграция этики ИИ в индустрию может сочетать привычный подход «сверху вниз» (государственное регулирование и стандартизация) с подходом «снизу вверх» (например, через механизмы корпоративной социальной ответственности, саморегулирование). В этом случае государство может взять на себя роль посредника в процессе проектирования, разработки и внедрения этических норм. Р. Ибрагимов, к.ю.н., директор по правовым исследованиям НИУ ВШЭ, предложил предварительную модель разделения ответственности в сфере регулирования ИИ, сочетая ее с риск-ориентиро-

ванным подходом. Согласно этой модели, государство берет на себя ведущую роль в сфере высокорисковых технологий ИИ и разрабатывает законы и технические стандарты; бизнес-сообщество отвечает за саморегулирование и ответственный подход к системам ИИ со средним риском, совместно с государством разрабатывает и применяет на практике этические нормы и технические стандарты, а этическое регулирование и контроль за ИИ с низким риском делегируется на уровень отдельных корпораций (Ибрагимов, Су-рагина, Чурилова, 2021).

В последние годы российский бизнес, НКО и экспертное сообщество заняли активную позицию в обсуждении и развитии этического регулирования в сфере ИИ путем создания механизмов саморегулирования.

Первым вопросом стало этичное использование больших данных. На Неделе российского Интернета-2019 был представлен Кодекс этики использования данных, соавторами которого выступили Ассоциация больших данных и Институт развития интернета, а подписантами - 17 крупнейших ^-компаний (Яндекс и Mail.Ru/VK ), банков (Сбербанк, Тинькофф) и операторов связи (МегаФон, МТС, Ростелеком). Документ содержит принципы профессиональной этики, направленные на обеспечение защиты субъектов данных, повышение общественного доверия, соблюдение баланса интересов различных участников рынка и развитие добросовестной практики работы с данными. В рамках корпоративной социальной ответственности Кодекс охватывает все виды отношений, возникающих при работе с данными (пользовательскими, коммерческими, полученными в результате межмашинного взаимодействия), за исключением тех, которые регулируются действующим законодательством Российской Федерации. Совет по совершенствованию практик работы с данными осуществляет мониторинг соблюдения Кодекса, составляет Реестр добросовестных участников рынка данных, а также формирует, ведет и актуализирует Белую книгу12.

Разработка этических норм, регулирующих отношения и поведение акторов ИИ, стала логичным продолжением этой тенденции. Более того, по мере формирования российского стратегического подхода к ИИ этическое регулирование заняло в повестке дня отдельное место. Эта задача была заявлена в ряде стратегических документов, включая Национальную стратегию развития искусственного интеллекта до 2030 г. и Концепцию регулирования искусственного интеллекта и робототехники, а также определена в качестве приоритетного направления федерального проекта «Искусственный интеллект». В качестве задачи для профессионального сообщества создание Кодекса этики ИИ было сформулировано в выступлении Президента Российской Федерации на А1 Journey-2020 - ежегодной конференции по новым технологиям и ИИ, проводимой компанией «Сбер».

12 Кодекс этики использования данных (2019). Аналитический центр при Правительстве Российской Федерации. 12 декабря, 2019. Available at: https://ac.gov.ru/files/content/25949/kodeks-etiki-pdf.pdf (дата обращения: 24.11.2022).

В октябре 2021 г. готовый Кодекс был представлен на Первом международном форуме «Этика ИИ: Начало доверия», где к нему присоединились крупнейшие российские компании и банки, включая Сбер, Яндекс, Ростелеком, VK, МТС, Газпромнефть, Росатом и другие, а также несколько университетов и научных организаций.

Кодекс стал результатом сотрудничества широкого круга стейкхолде-ров - экспертного и научного сообществ, бизнеса и государства. В число соавторов вошли Альянс в сфере искусственного интеллекта, Аналитический центр при Правительстве Российской Федерации, Министерство экономического развития, а также МГИМО МИД России, НИУ ВШЭ и МФТИ. Разработка этого документа стала примером аналитико-делиберативного подхода, сочетающего научно обоснованную и предупредительную стратегии; для оценки возможных гуманитарных последствий и дальнейшего развития этических норм в сфере ИИ применялись дискурсивные практики (Klinke and Renn, 2002).

Российский Кодекс этики в сфере искусственного интеллекта (далее -Кодекс) - это документ «мягкого права», открытый для подписания любыми российскими и международными акторами ИИ. На основании этого документа российский подход к этике ИИ можно охарактеризовать как человекоцен-тричный, риск-ориентированный, ответственный и практический. Сфера применения Кодекса ограничена гражданским (невоенным) использованием ИИ.

Анализируя содержание Кодекса, можно выделить несколько основных принципов и характеристик, на которые он опирается: человеко-центрированность и гуманистичность, ответственность акторов ИИ, обеспечение безопасности данных пользователей, различие степеней рисков ИИ и контроль высокорисковых систем со стороны государства, выстраивание механизма реализации Кодекса и взаимодействия акторов ИИ (Сорокова, 2022).

С точки зрения ценностей и приоритетов Кодекс ставит человека в центр развития технологий ИИ: права, свободы и интересы человека должны оставаться ключевыми приоритетами для всех акторов ИИ. Подчеркивается необходимость сохранения автономии и свободы воли, когнитивных способностей, творческого потенциала, нравственной, духовной и культурной целостности человека в ходе технического прогресса. В Кодексе также перечислены и разъяснены некоторые из используемых в международной практике ценностей и характеристик безопасных и надежных систем ИИ, включая соблюдение закона, непричинение вреда, безопасность работы с данными и информационную безопасность, отсутствие дискриминации, прозрачность и достоверность информации о развитии технологий ИИ, применение в соответствии с целевым назначением, а также контроль человека над системами ИИ. Отдельно оговаривается право человека на информирование о взаимодействии с системой ИИ и возможность избрать как альтернативу общение с

другим человеком, особенно если автоматизированные решения затрагивают права или какие-либо критические сферы жизни (безопасность, здоровье и другие)13.

Примечательно, что авторы Кодекса не наделяют системы ИИ ни правовым статусом, ни способностью делать моральный выбор. Кодекс определяет, что ответственность за функционирование, а также запланированные или непредвиденные последствия использования систем ИИ лежит на людях и не может быть делегирована машинам. Соответственно, Кодекс постулирует необходимость оценки рисков и анализа возможных гуманитарных последствий применения систем искусственного интеллекта. Он призывает субъектов ИИ оценивать возможные негативные последствия использования ИИ для общества и граждан на всех этапах его жизненного цикла, стимулирует акторов ИИ принимать должные меры предосторожности и отслеживать проявления таких последствий в кратко-, средне- и долгосрочной перспективе.

В Кодексе упомянуты две ситуации, требующие учитывать национальные приоритеты России. Первая связана с принятием решений по использованию ИИ, которые могут существенно повлиять на общество и государство. Это требует предварительного междисциплинарного и научно обоснованного прогнозирования гуманитарных последствий и возможных изменений в парадигме ценностно-культурного развития общества. Соответственно, контроль над вопросами, связанными с появлением и возможным использованием «сильного ИИ», также возлагается на государство. Вторая ситуация связана с мотивацией и дальнейшим стимулированием разработки безопасных и этичных решений в области ИИ.

Кодекс очерчивает широкий круг акторов ИИ: тех, кто непосредственно участвует в жизненном цикле систем ИИ (разработчики, производители, операторы, заказчики и т.д.); тех, кто поставляет данные и формирует массивы данных, а также тех, кто использует ИИ для принятия решений, оказывает регулирующее воздействие на отношения в сфере ИИ или может иным образом повлиять на результаты действий систем ИИ. Поощряется сотрудничество всех участников с целью формирования национальной школы развития технологий ИИ, корректного сравнения и оценки возможностей систем ИИ, а также контроля его рекурсивного самосовершенствования.

Еще одна особенность Кодекса - фиксированный механизм реализации. Новым подписантам Кодекса предлагается в течение двух месяцев назначить уполномоченных по этике ИИ или создать внутри компании комиссии по этике в области ИИ. Ведение реестра членов Кодекса и координация их работы возложены на межсекторальный орган - Комиссию по реализации Кодекса (далее - Комиссия).

13 Кодекс этики в сфере искусственного интеллекта (2021). Альянс в сфере искусственного интеллекта. 26 октября, 2021. Available at: https://ethics.a-ai.ru/ (дата обращения: 24.11.2022).

Для обсуждения и решения отдельных задач в рамках Комиссии создаются рабочие группы. Направления их работы позволяют судить о приоритетных проблемах, волнующих профессиональное сообщество, бизнес и государство. Первая группа занимается разработкой и мониторингом методики оценки рисков и гуманитарного воздействия систем ИИ. Вторая - работает над сводом лучших практик разрешения основных этических вопросов, возникающих на протяжении жизненного цикла ИИ. Сам Кодекс ориентирован на прикладное использование этических положений и обмен знаниями между подписантами, и потому также поощряет акторов в сфере ИИ к созданию собственных сводов лучших практик, разработке методики оценки и процедуры добровольной сертификации для иллюстрации прикладного использования этических положений и обеспечения обмена знаниями между различными участниками. Третья группа разрабатывает предложения в сфере использования рекомендательных сервисов для соответствующих индустрий (агре-гаторы, соцсети, аудио- и видеохостинги, маркетплейсы). Четвертая группа проводит оценку эффективности реализации Кодекса, что также предполагает создание методических материалов и разработку критериев для оценки соответствия присоединившихся к Кодексу акторов его требованиям14.

Регулирование ИИ: государство+

Общественное обсуждение Национальной стратегии развития искусственного интеллекта выявило ряд особенностей, которые помогают понять, как формировалось взаимодействие между различными заинтересованными сторонами в сфере ИИ.

Прежде всего, наряду с государственными органами в дискуссии стал активнее включаться бизнес. Предварительное экспертное обсуждение проекта стратегии было организовано Министерством цифрового развития, связи и массовых коммуникаций совместно со Сбербанком, «Газпром нефтью» и Российским фондом прямых инвестиций. Представители экспертного сообщества высказали ряд комментариев относительно определения термина «ИИ» и общей бизнес-ориентированности проекта стратегии, а также предложили внести изменения и дополнения в ее положения, касающиеся политики в области данных и роли ИИ в развитии российских регионов15. Судя по всему, хотя бы часть этих предложений была учтена при доработке документа. Это свидетельствует о медленном сдвиге государственной политики в сторону более широкого принятия инициатив, исходящих от бизнеса и экспертного сообщества.

14 Реализация Кодекса этики в сфере искусственного интеллекта (2022). Альянс в сфере искусственного интеллекта, Комиссия по реализации Кодекса этики в сфере искусственного интеллекта. Январь, 2022. Available at: https://ethics.a-ai.ru/ (дата обращения: 24.11.2022).

15 Экспертное сообщество обсуждает Национальную стратегию ИИ (2019). Аналитический центр при Правительстве Российской Федерации. 21 июня 2019. Available at: https://ac.gov.ru/news/page/ekspertnoe-soobsestvo-obsuzdaet-nacionalnuu-strategiu-ii-22613 (дата обращения: 24.11.2022).

Вторая тенденция - снижение традиционно сильного влияния Российской академии наук (РАН). Еще в 2018 г. Федеральный исследовательский центр информатики и управления при РАН разработал концепцию научно-технической программы «Искусственный интеллект как драйвер цифровой трансформации российской экономики». Она включала в себя широкий спектр работ в области ИИ и базировалась на таких направлениях, как фундаментальные исследования, разработка базовых технологий ИИ, создание инструментальных и программно-аппаратных средств ИИ, внедрение технологий ИИ в различные сферы цифровой экономики и подготовки кадров, но не стала источником для обсуждения Национальной стратегии развития искусственного интеллекта.

В 2021 г. из шести научных организаций, получивших государственные гранты в рамках федерального проекта «Искусственный интеллект», только одна представляла собой академическую структуру - Институт системного программирования РАН, в то время как остальными победителями стали научные центры, созданные российскими университетами. Эти тенденции во многом связаны с более широким контекстом государственной научной политики, которая с 2000-х гг. - с реформированием РАН в рамках академической (фундаментальной) науки в России - предпринимает попытку перехода к активному вовлечению организаций высшего образования и бизнеса для получения большей компетенции в области трансформационной науки, исходя из мирового опыта. Академический сектор традиционно ассоциировался в России с системой Академии наук; после реорганизации РАН в 2013 г., лишившей ее сети подведомственных учреждений, этот сектор в основном перешел к повышению роли научного потенциала образовательных организаций высшего образования, находящихся в ведении Министерства науки и высшего образования. Один из планов такого перехода отражен в программе Министерства науки и высшего образования стратегического академического лидерства «Приоритет 2030», посвященной принципам интеграции и кооперации научных и образовательных организаций. Создание консорциума Центра компетенций Национальной технологической инициативы в области искусственного интеллекта соответствует этой политике государства и ориентировано на эффекты наукоемкого рынка.

В качестве значимых результатов научно-исследовательской работы Центра заявлены три направления: проект по созданию мобильных автономных комплексов оперативного мониторинга различного назначения с использованием технологий искусственного интеллекта для обработки, интерпретации данных и поддержки принятия решений в реальном времени; разработка средств оптимизации железнодорожной инфраструктуры и автоматизации контроля поездной обстановки в реальном времени; операци-

онная система нового поколения, обеспечивающая способность роботов к самообучению сложному целесообразному поведению с большим горизонтом планирования16.

Бизнес-сектор представлен компаниями различного уровня, занимающимися исследованиями и внедрением ИИ. Авторы Российского альманаха по ИИ выделяют четыре типа компаний в этой области: 1) универсальные лидеры, работающие во всех областях ИИ (Яндекс, Сбербанк и на тот момент Mail.ru Group); 2) лидеры-специалисты, т.е. компании с нишевыми решениями (Cognitive Technologies, Лаборатория Касперского, ABBYY, Ойкумена (Ростелеком) и Центр речевых технологий); 3) государственные корпорации (Ростех, Росатом); 4) сильные стартапы, которых, по приблизительным оценкам авторов альманаха, в России около 33017.

Важнейшую роль в координации отношений бизнеса и государства в области ИИ играет вхождение Минэкономразвития и Сбербанка в созданный в 2019 г. подкомитет по развитию искусственного интеллекта. Он исполняет в основном оперативные цели по реализации федерального проекта «Искусственный интеллект». В 2021 г. премьер-министр России М. Мишустин подписал постановление, утверждающее создание экспертного центра в составе Аналитического центра при Правительстве России для экспертного сопровождения реализации Стратегии развития искусственного интеллекта, а также мониторинга реализации федерального проекта «Искусственный интеллект».

На «догоняющую» политику государства в сфере ИИ оказывают влияние, в частности, накопление лучших мировых практик в области науки и трансформация традиционно сильной роли академического сектора. Усиление влияния бизнеса и университетов как научных кластеров в этом процессе идет параллельно с ослаблением роли РАН как автономного игрока (Dezhina, 2014), что привело к резкой критике научного сообщества в адрес государственной политики и весьма избирательной роли бывших академических институтов в ней.

Заключение

В последние несколько лет развитие и регулирование ИИ стало одним из приоритетных направлений российской экономической и научной политики. На актуальном этапе различные субъекты стремятся сначала определить общие принципы, а затем перейти к более конкретным вопросам и направлениям в основных сферах регулирования ИИ, включая стратегическое планирование, законодательство и этику. Эволюционировал и российский подход к разработке стратегических и этических документов в сфере цифровизации

16 Центр компетенций НТИ «Искусственный интеллект» (n.d.). Московский физико-технический институт (национальный исследовательский университет). (n.d.). Available at: https://ai.mipt.ru/ (дата обращения: 24.11.2022).

17 Альманах «искусственный интеллект» (n.d.). Московский физико-технический институт (национальны/й исследовательский университет). (n.d.). Available at: https://aireport.ru/ (дата обращения: 24.11.2022).

и, в частности, ИИ. Поскольку ИИ - многосложное явление, его регулирование требует специальных знаний и научно обоснованного прогнозирования и целеполагания. Поэтому процесс разработки и принятия долгосрочных стратегических документов в сфере ИИ, особенно этики ИИ и данных, стал более инклюзивным, поскольку в его обсуждении, реализации и продвижении более активную роль стали играть российские деловые и экспертные сообщества, а также НКО, в то время как государство выступило скорее в роли фасилитатора процесса.

Хотя технологии ИИ рассматриваются как обладающие огромным экономическим и трансформационным потенциалом, наблюдается гибкость регулирования, где конфиденциальность и безопасность данных пользователей остаются для государства одним из главных приоритетов, иногда предпочтительнее возможной экономической выгоды. В качестве промежуточного звена были введены регулятивные «песочницы», позволяющие снять законодательные барьеры для высокотехнологичных компаний, работающих в сфере ИИ-инноваций, но при этом процесс их работы остается под надзором выполнения обязательств по прозрачности.

В России продолжается формирование собственного подхода к автономным технологиям ИИ, с акцентом на человекоориентированность, который прослеживается во всех документах. Принципы человеческого надзора, ответственности и контроля отстаиваются в этическом кодексе. Продвигается риск-ориентированный и научно обоснованный подход к оценке технологий ИИ и их возможного гуманитарного воздействия. Предполагается, что государство и пользователи ИИ сохранят определенные механизмы воздействия на «умные» технологии, поскольку ни полной автономии, ни делегирования морального выбора, ни правового статуса ИИ в текущей документации не предусматривается. Напротив, неоднократно подчеркивается, что любые значимые решения и действия ИИ в жизненно важных сферах жизни граждан (таких, как здоровье или безопасность) будут подлежать обжалованию, человеческому надзору и контролю. Не исключено, что некоторые высокорискованные, потенциально вредные или социально опасные виды использования технологий ИИ и роботов (по крайней мере, в гражданской сфере) в скором времени будут ограничены или запрещены в зависимости от степени риска, который они представляют.

Этические принципы в сфере ИИ и их кодификация закладывают основу для более детального диалога между участниками ИИ, определяют приоритеты и общие правила при отсутствии масштабного законодательного регулирования. Они могут применяться на практике в качестве решения этических дилемм и, в определенной степени, интегрироваться в инженерно-технические решения. Однако многое еще зависит от дальнейшей реализации этих принципов и положений.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В условиях высокой неопределенности, усиливаемой технологическими трансформациями, Россия вырабатывает гибкий и научно обоснованный подход к ИИ, его возможному гуманитарному воздействию, сочетая собствен-

ный исторический опыт с международной практикой. Страна рассматривает развитие национального ИИ как важный инструмент стимулирования экономико-технологического развития в интересах граждан и бизнеса. С конца 2010-х гг. в России применяется инклюзивный многосторонний подход, направленный на создание более широкой среды сотрудничества и обеспечение участия в процессе разработки политики наряду с государственными органами и аффилированными структурами академического сообщества, неправительственных экспертов и частного бизнеса. Такой подход пока является новым и практически уникальным для России, где исторически реализация крупных национальных инициатив осуществлялась в основном с опорой на государственные корпорации.

В вопросах регулирования усилия направлены скорее на нормы «мягкого права» и саморегулирование, чем на запретительные законодательные нормы. Такой подход оставляет пространство для развития ИИ и снижает вероятность ранней бюрократизации, способной помешать развитию инноваций на данном этапе.

В подходах России и других государственных или квази-государствен-ных акторов (ЕС) к разработке и регулированию ИИ можно выделить определенные общие черты. Вопросы безопасности человека, защиты данных и риск-ориентированного подхода к развитию технологий ИИ ставятся соответственно государством и наднациональными институтами в качестве основных акторов, отвечающих за обеспечение благополучия, интересов и прав граждан.

Список литературы

1. Armstrong S., Bostrom N. and Shulman C. (2013) Racing to the Precipice: a Model of Artificial Intelligence Development. Technical Report #2013-1, Future of Humanity Institute, Oxford University: 1-8. Available at: https://www.fhi.ox.ac.uk/wp-content/uploads/Racing-to-the-precipice-a-model-of-artificial-intelligence-development.pdf.

2. Delacroix S. and Wagner B. (2021) Constructing a Mutually Supportive Interface between Ethics and Regulation. Computer Law & Security Review 40: 1-11. DOI: 10.1016/J. CLSR.2020.105520.

3. Dezhina I. (2014) Reform of the Russian Academy of Sciences: Causes and Consequences for Russian Science. Russie.Nei.Visions 77: 1-27. Paris: Institute Français des Relations Internationales.

4. Gutierrez C. and Marchant G. (2021) A Global Perspective of Soft Law Programs for the Governance of Artificial Intelligence. Arizona State University. 27 May, 2021. DOI: 10.2139/ ssrn.3855171.

5. Heinl C. (2014) Artificial (Intelligent) Agents and Active Cyber Defence: Policy Implications. In: Brangetto P., Maybaum M. and Stinissen J. (eds.) 6th International Conference on Cyber Conflict. Proceedings 2014. Tallin: NATO CCD COE Publications: 53-66.

6. Klinke A. and Renn O. (2002) A New Approach to Risk Evaluation and Management: Risk-Based, Precaution-Based, and Discourse-Based Strategies. Risk Analysis 22(6): 1071-1094. DOI: 10.1111/1539-6924.00274.

7. Kuleshov A., Ignatiev I., Abramova A. and Marshalko G. (2020) Addressing AI Ethics Through Codification. 2020 International Conference Engineering Technologies and Computer Science (EnT): 24-30. DOI: 10.1109/EnT48576.2020.00011.

8. Sharikov P. (2018) Artificial Intelligence, Cyberattack, and Nuclear Weapons - A Dangerous Combination. Bulletin of the Atomic Scientists 74(6): 368-373. DOI: 10.1080/00963402.2018.1533185.

9. Готовцев П.М., Душкин Р.В., Кузнецов О.П., Мильке В.Э., Незнамов А.В., Потапова Е.Г. (2021) Этичное применение искусственного интеллекта. Этика и «цифра»: этические проблемы цифровых технологий 1: 50-61. М.: Институт Менеджмента и Маркетинга РАНХиГС при Президенте РФ совместно с Издательским домом «Наука». Available at: https://ethics.cdto.center/3_3.

10. Ибрагимов Р., Сурагина Е., Чурилова Д. (2021) Этика и регулирование искусственного интеллекта. Закон 8: 85-95. Available at: https://zakon.ru/publication/igzakon/9024.

11. Кравченко С.А. (2019) Усложняющиеся метаморфозы: социологические поиски ответов на вызовы. М.: Редакция журнала «Знание-сила», 236 с.

12. Маслова Е.А., Сорокова Е.Д. (2022) Диалектика этики и права в регулировании технологии искусственного интеллекта: опыт ЕС. Современная Европа 5: 19-33. DOI: 10.31857/S0201708322050023.

13. Сазонова М. (2021) Беспилотные автомобили: как планируется регулировать их эксплуатацию в России? Гарант. 2 июля, 2021. Available at: https://www.garant.ru/ article/1471258/.

14. Салихов Д.Р. (2020) «Регулятивные песочницы» в России: новые горизонты и вызовы. Цифровое право 1(2): 17-27. DOI: 10.38044/2686-9136-2020-1-2-17-27.

15. Сорокова Е.Д. (2022а) Стратегии реагирования России и Евросоюза на глобальные технологические риски. Научно-аналитический вестник ИЕ РАН 4: 18-29. D0I:10.15211/ vestnikieran420221829.

16. Сорокова Е.Д. (2022b) Этика искусственного интеллекта в России и Европейском союзе: общее в риск-ориентированных подходах. Дискурс-Пи 19(3): 157— 169. DOI: 10.17506/18179568_2022_19_3_157.

17. Якушев В. (ред.) (2022) Приоритетные направления правового регулирования цифровой трансформации в Российской Федерации. Внедрение в нормотворчество системы оценки гуманитарного воздействия (2022-2025 годы). Доклад к XXIII Ясинской (Апрельской) международной научной конференции по проблемам развития экономики и общества. Национальный исследовательский университет «Высшая школа экономики». Москва: Изд. дом Высшей школы экономики.

Comparative Politics. Volume 13. No. 4. October-December / 2022 DOI 10.24833/2221-3279-2022-4-13-65-84

REGULATION OF ARTIFICIAL INTELLIGENCE IN RUSSIA: ECLECTICISM OF APPROACHES AND ACTORS

Dr Elena A. MASLOVA - Associate Professor, MGIMO University; Associate Professor, HSE University.

ORCID 0000-0002-2493-3900. E-mail: e.maslova@inno.mgimo.ru

76 Prospect Vernadskogo, Moscow, Russia, 119454;

17 Malaia Ordynka, Moscow, Russia, 119017.

Natalya A. SAMOYLOVASKAYA - Junior Research Fellow, Center of Euro-Atlantic Security, Institute for International Studies, MGIMO University.

ORCID 00 00-0003-3793-175X. E-mail: natalya.samoylovskaya@gmail.com

76 Prospect Vernadskogo, Moscow, Russia, 119454.

Ekaterina D. SOROKOVA - PhD Student, MGIMO University.

ORCID 0000-0002-4542-7767. E-mail: sorokova.e.d@my.mgimo.ru

76 Prospect Vernadskogo, Moscow, Russia, 119454.

Aleksander D. CHEKOV - Research Fellow, Center of Euro-Atlantic Security, Institute for International Studies, Lecturer, MGIMO University.

ORCID 0000-0001-7425-6170. E-mail: a.d.chekov@gmail.com

76 Prospect Vernadskogo, Moscow, Russia, 119454.

Received November 19, 2023 Accepted December 4, 2023

Abstract: Many observers expect artificial intelligence (AI) to become one of the most important technologies of the 21st century, whose development will be a decisive factor in shaping the future global technological balance of power. A practical confirmation of this statement is the fact that today an increasing number of states are striving to accelerate their national AI development programmes. Russia is one of them, although it is generally not perceived in the West as a potential leader in this emerging competition. At the same time, Russia's demonstrated ability to build its own successful national IT ecosystem is attracting increased international interest in its national AI development efforts. The purpose of this paper is to outline the contours of these efforts, and to trace the evolution of the regulatory framework and its underlying principles. The authors draw the following conclusions. Russia is developing a flexible and science-based approach to AI and its potential humanitarian impacts, combining its own historical experience with international practices. Strategically, Russia sees the development of national AI as an important means of advancing its economic and technological development in a way that benefits its citizens and businesses, as well as preventing a possible economic and technological slowdown. Significant progress has been made on legal and ethical issues. The focus of Russian efforts in this area is more on soft law norms and self-regulation rather than on prohibitive legislative norms. This approach leaves a lot of room for the development of AI and reduces the possibility of its premature bureaucratisation, which could hinder innovation in the field. There are certain similarities between the Russian and European approaches to AI development and regulation. Human security concerns, data protection and a risk-based approach to the development of AI technologies are prioritised by the state and supranational institutions (respectively) as the main actors responsible for safeguarding the well-being, interests and rights of the citizens.

Keywords: AI, artificial intelligence, AI challenges, AI regulation, technological leadership, technological sovereignty, dialectic of morality and law

References:

1. Armstrong S., Bostrom N. and Shulman C. (2013) Racing to the Precipice: a Model of Artificial Intelligence Development. Technical Report #2013-1, Future of Humanity Institute, Oxford University: 1-8. Available at: https://www.fhi.ox.ac.uk/wp-content/uploads/Racing-to-the-precipice-a-model-of-artificial-intelligence-development.pdf.

2. Delacroix S. and Wagner B. (2021) Constructing a Mutually Supportive Interface between Ethics and Regulation. Computer Law & Security Review 40: 1-11. DOI: 10.1016/J. CLSR.2020.105520.

3. Dezhina I. (2014) Reform of the Russian Academy of Sciences: Causes and Consequences for Russian Science. Russie.Nei.Visions 77: 1-27. Paris: Institute Français des Relations Internationales.

4. Gutierrez C. and Marchant G. (2021) A Global Perspective of Soft Law Programs for the Governance of Artificial Intelligence. Arizona State University. 27 May, 2021. DOI: 10.2139/ ssrn.3855171.

5. Heinl C. (2014) Artificial (Intelligent) Agents and Active Cyber Defence: Policy Implications. In: Brangetto P., Maybaum M. and Stinissen J. (eds.) 6th International Conference on Cyber Conflict. Proceedings 2014. Tallin: NATO CCD COE Publications: 53-66.

6. Klinke A. and Renn O. (2002) A New Approach to Risk Evaluation and Management: Risk-Based, Precaution-Based, and Discourse-Based Strategies. Risk Analysis 22(6): 1071— 1094. DOI: 10.1111/1539-6924.00274.

7. Kuleshov A., Ignatiev I., Abramova A. and Marshalko G. (2020) Addressing AI Ethics Through Codification. 2020 International Conference Engineering Technologies and Computer Science (EnT): 24-30. DOI: 10.1109/EnT48576.2020.00011.

8. Sharikov P. (2018) Artificial Intelligence, Cyberattack, and Nuclear Weapons - A Dangerous Combination. Bulletin of the Atomic Scientists 74(6): 368-373. DOI: 10.1080/00963402.2018.1533185.

9. Gotovtsev P.M., Dushkin R.V., Kuznetsov O.P., Mil'ke V.E., Neznamov A.V., Potapova E.G. (2021) Etichnoe primenenie iskusstvennogo intellekta [Ethical Application of Artificial Intelligence]. Etika i «tsifra»: eticheskie problemy tsifrovykh tekhnologii [Ethics and "Digital": Ethical Problems of Digital Technologies] 1: 50-61. M.: Institut Menedzhmenta i Marketinga RANKhiGS pri Prezidente RF sovmestno s Izdatel'skim domom «Nauka».

10. Ibragimov R., Suragina E., Churilova D. (2021) Etika i regulirovanie iskusstvennogo intellekta [Ethics and Regulation of Artificial Intelligence]. Zakon [The Law] 8: 85-95.

11. Kravchenko S.A. (2019) Uslozhnyayushchiesya metamorfozy: sotsiologicheskie poiski otvetov na vyzovy [Complicating Metamorphoses: Sociological Quest for Responses to Challenges]. M.: Redaktsiya zhurnala «Znanie-silA», 236 s.

12. Maslova E.A., Sorokova E.D. (2022) Dialektika etiki i prava v regulirovanii tekhnologii iskusstvennogo intellekta: opyt ES [The Dialectics of Ethics and Law in the Regulation of Artificial Intelligence: Case of the EU]. Sovremennaya Evropa [Contemporary Europe] 5: 19-33.

13. Salikhov D.R. (2020) «Reguliativnye pesochnitsy» v Rossii: novye gorizonty i vyzovy ["Regulatory Sandboxes" in Russia: New Horizons and Challenges]. Tsifrovoe pravo [Digital Law Journal] 1(2): 17-27.

14. Sazonova M. (2021) Bespilotnye avtomobili: kak planiruetsia regulirovat' ikh ekspluatatsiiu v Rossii? [Self-driving Cars: How is it Planned to Regulate their Operation in Russia?] Garant. 2 iiulia, 2021.

15. Sorokova E.D. (2022b) Jetika iskusstvennogo intellekta v Rossii i Evropejskom sojuze: obshhee v risk-orientirovannyh podhodah [AI Ethics in Russia and the European Union: Commonalities in Risk-Oriented Approaches]. Diskurs-Pi [Discourse-P] 19(3): 157-169. DOI: 10.17506/18179568_2022_19_3_157.

16. Sorokova E.D. (2022a) Strategii reagirovanija Rossii i Evrosojuza na global'nye tehnologicheskie riski [The Strategies of Policy Response to Global Technological Risks: the Cases of Russia and the EU.]. Nauchno-analiticheskij vestnik IE RAN [Scientific and Analytical Bulletin of the Institute of Europe of the Russian Academy of Sciences] 4: 18-29. D0l:10.15211/vestnikieran420221829.

i Надоели баннеры? Вы всегда можете отключить рекламу.