Научная статья на тему 'Этическое и правовое измерение технологий искусственного интеллекта: игра по правилам и без'

Этическое и правовое измерение технологий искусственного интеллекта: игра по правилам и без Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
15
2
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / этика / регулирование / сопротивление / социальные последствия / риски / artificial intelligence / ethics / regulation / resistance / social implications / risks

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Евгения Владимировна Попова, Дарья Михайловна Мацепуро

Рассматриваются этические, правовые и социальные аспекты развития и внедрения технологий искусственного интеллекта (ИИ). Исследование проведено методом фокус-групп. Участниками междисциплинарных обсуждений стали представители бизнеса и академических структур, в том числе участники государственных и межправительственных площадок обсуждения вопросов развития ИИ. Рассмотрены дилеммы «управление – саморегулирование» ИИ, варианты социальных и бизнес-ответов применения ИИ.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по СМИ (медиа) и массовым коммуникациям , автор научной работы — Евгения Владимировна Попова, Дарья Михайловна Мацепуро

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Ethical and legal dimensions of the AI technologies: Fair play or dirty pool

Artificial intelligence (AI) is called the end-to-end, closing and most discussed technology of the 21st century. Along with issues of the effectiveness of technologies, ideas about a better life as a result of their implementation, there are pressing questions about how to regulate and manage them in terms of justice, the safety of society, its individual groups and future generations. Yet at the same time besides growth in the number of new AI-based products and their widespread use, there are issues of reliable AI, security and control of potential risks up for debates. In this regard, the beginning of the 2020s is marked with the search for optimal regulatory tools in the field of AI. Academic structures, universities and institutions for development, along with governments and business community in the broad sense, are key platforms for discussing the social implications of new technologies, as well as the tools and mechanisms for their regulation. The materials of such discussions were taken as the basis for this study – these are two panel discussions (2022 and 2023), which were held at Tomsk State University as part of the International Congress “Language, Culture and Technological Transits: New Facets of the Human”. The study was conducted using the focus group method. The list of participants for the panel discussions was formed in a similar way, so as, on the one hand, to preserve the interdisciplinary contour of the discussion due to the nature of AI technologies and, on the other hand, to provide a comparison of the two discussions and consisted of representatives of leading companies developing AI, researchers in the field of law, philosophy, ethics and sociology, academic structures represented by vice-rectors. Representatives of business and academia included participants in government councils and intergovernmental groups on AI development. Questions for discussion included the following blocks: co-production of technology and society in relation to AI, changing concepts of risk and benefit; issues of regulation of digital and AI technologies, ethical dilemmas in the AI era and ways to solve them; maintaining a balance of interests and building trust in the field of AI development. The dilemmas of “government – governance” of AI as well as options for social and business responses to the use of AI were considered. Based on the results of a qualitative analysis of the expert discussion, we can conclude that, under turbulence in the AI technology itself, ethics becomes the basis that provides an opportunity to dialogue and development of optimal norms and rules at this stage for all players involved. Moreover, variability and flexibility of these norms and rules are being observed. Ethics as an instrument of soft law comes forward with a self-regulation mechanism, which is evidence-based and which builds up public confidence and fosters the development of AI technologies.

Текст научной работы на тему «Этическое и правовое измерение технологий искусственного интеллекта: игра по правилам и без»

Вестник Томского государственного университета. 2024. № 502. С. 57-67 Vestnik Tomskogo gosudarstvennogo universiteta - Tomsk State University Journal. 2024. 502. рр. 57-67

Научная статья

УДК 316.422.4

doi: 10.17223/15617793/502/6

Этическое и правовое измерение технологий искусственного интеллекта:

игра по правилам и без*

Евгения Владимировна Попова1, Дарья Михайловна Мацепуро2

12Национальный исследовательский Томский государственный университет, Томск, Россия

1 [email protected] 2 [email protected]

Аннотация. Рассматриваются этические, правовые и социальные аспекты развития и внедрения технологий искусственного интеллекта (ИИ). Исследование проведено методом фокус-групп. Участниками междисциплинарных обсуждений стали представители бизнеса и академических структур, в том числе участники государственных и межправительственных площадок обсуждения вопросов развития ИИ. Рассмотрены дилеммы «управление -саморегулирование» ИИ, варианты социальных и бизнес-ответов применения ИИ.

Ключевые слова: искусственный интеллект, этика, регулирование, сопротивление, социальные последствия, риски

Источник финансирования: исследование выполнено при поддержке Программы развития ТГУ («Приори-тет-2030»).

Для цитирования: Попова Е.В., Мацепуро Д.М. Этическое и правовое измерение технологий искусственного интеллекта: игра по правилам и без // Вестник Томского государственного университета. 2024. № 502. С. 57-67. doi: 10.17223/15617793/502/6

Original article

doi: 10.17223/15617793/502/6

Ethical and legal dimensions of the AI technologies: Fair play or dirty pool

Evgeniya V. Popova1, Daria M. Matsepuro2

12 National Research Tomsk State University, Tomsk, Russian Federation 1 [email protected] 2 [email protected]

Abstract. Artificial intelligence (AI) is called the end-to-end, closing and most discussed technology of the 21st century. Along with issues of the effectiveness of technologies, ideas about a better life as a result of their implementation, there are pressing questions about how to regulate and manage them in terms of justice, the safety of society, its individual groups and future generations. Yet at the same time besides growth in the number of new AI-based products and their widespread use, there are issues of reliable AI, security and control of potential risks up for debates. In this regard, the beginning of the 2020s is marked with the search for optimal regulatory tools in the field of AI. Academic structures, universities and institutions for development, along with governments and business community in the broad sense, are key platforms for discussing the social implications of new technologies, as well as the tools and mechanisms for their regulation. The materials of such discussions were taken as the basis for this study - these are two panel discussions (2022 and 2023), which were held at Tomsk State University as part of the International Congress "Language, Culture and Technological Transits: New Facets of the Human". The study was conducted using the focus group method. The list of participants for the panel discussions was formed in a similar way, so as, on the one hand, to preserve the interdisciplinary contour of the discussion due to the nature of AI technologies and, on the other hand, to provide a comparison of the two discussions and consisted of representatives of leading companies developing AI, researchers in the field of law, philosophy, ethics and sociology, academic structures represented by vice-rectors. Representatives of business and academia included participants in government councils and intergovernmental groups on AI development. Questions for discussion included the following blocks: co-production of technology and society in relation to AI, changing concepts of risk and benefit; issues of regulation of digital and AI technologies, ethical dilemmas in the AI era and ways to solve them; maintaining a balance of interests and building trust in the field of AI development. The dilemmas of "government - governance" of AI as well as options for social and business responses to the use of AI were considered. Based on the results of a qualitative analysis of the expert discussion, we can conclude that, under

* Результаты исследования обсуждались в рамках II Международного конгресса «Язык, культура и технологические транзиты: новые грани человеческого», который прошел в НИ ТГУ 23-25 ноября 2023 г.

© Попова Е.В., Мацепуро Д.М., 2024

turbulence in the AI technology itself, ethics becomes the basis that provides an opportunity to dialogue and development of optimal norms and rules at this stage for all players involved. Moreover, variability and flexibility of these norms and rules are being observed. Ethics as an instrument of soft law comes forward with a self-regulation mechanism, which is evidence-based and which builds up public confidence and fosters the development of AI technologies. Keywords: artificial intelligence, ethics, regulation, resistance, social implications, risks

Financial support: The study was supported by the Tomsk State University Development Programme (Priority-2030).

For citation: Popova, E.V. & Matsepuro, D.M. (2024) Ethical and legal dimensions of the AI technologies: Fair play or dirty pool. Vestnik Tomskogo gosudarstvennogo universiteta - Tomsk State University Journal. 502. pp. 57-67. (In Russian). doi: 10.17223/15617793/502/6

Введение

2022 г. стал знаковым для развития технологий искусственного интеллекта (ИИ) - презентация чат-бота ChatGPT от Open AI породила новый виток растущих ожиданий пользователей и корпораций от широкого применения больших языковых моделей, позволяющих не только генерировать код, но и создавать оригинальные тексты на разных языках [1]. В этом же году впервые корпорации создали больше моделей машинного обучения, чем академические учреждения [2]. Одновременно с ростом количества новых продуктов на основе технологий ИИ и массовости их применения все острее встает вопрос о доверенном характере, безопасности и контроле потенциальных рисков. В связи с этим дебаты о развитии технологий, связанных с искусственным интеллектом, робототехникой и большими данными, рисках и доверии к ним в обществе часто заходят в тупик. Это обусловлено сложностью и запутанностью вопроса, поскольку любые обсуждения и решения здесь связаны с научно-технической экспертизой, неопределенностями в биографии появляющихся технологий, а также с этическими и эмоциональными соображениями, надеждами и страхами. Наряду с вопросами эффективности технологий, представлений о лучшей жизни в результате их внедрения появляются вопросы о том, как регулировать новые технологии и управлять ими в терминах справедливости, безопасности общества, его отдельных групп и будущих поколений.

В связи с двумя доминирующими тенденциями в современном мире - усилением роли технологий во всех сферах жизни общества, включая государство и управление, а также смешением границ между публичным и частным - меняются форматы управления научно-техническим развитием (НТР). Надо сказать, что этот тренд возник два десятилетия назад, еще до появления развитых технологий ИИ, с экспоненциальным развитием информационно-коммуникационных технологий [2] и биотехнологий, ИИ лишь усилил и ускорил его. В сфере международных отношений и государственного управления на национальном уровне это привело к активному участию разнообразных акторов (бизнеса, государства, академии, разработчиков и некоммерческого сектора) в системе управления. Происходит смешение централизованного управления, иначе - регулирования, у/правления (government) и само/управления (governance). Само/управление (governance) - это термин неновый [3], но его популярность, несомненно, выросла за последние два десятилетия.

Стоит отметить сложность перевода самого термина и разное понимание в областях гуманитарных наук (government-governance)1.

Большинство ученых связывают с самоуправлением снижение способности централизованной правительственной власти в регулировании технологий. Размывается граница между управлением внутри страны и между странами, между централизованным управлением и участием частного сектора в решении задач НТР. Государство теряет исключительное право политического управления, контроль размывается и смещается, с одной стороны, на порядок вверх (участие региональных и международных организаций); на порядок вниз (управление в регионах и локальных населенных пунктах) и «наружу» (международных корпораций, неправительственных организаций и других частных или квази-частных акторов) [7]. Обычно эти два понятия помещают на континуум, где управление сверху и координация, самоорганизация диаметрально противоположны, это заставляет усомниться в возможности заимствования каких-либо элементов с другого «полюса». Если крайняя форма правления была на стороне «сильного государства», то на другом полюсе этому соответствует самоорганизация и координационная сеть социальных акторов. Важно отметить, что такие сети не только влияют на общее управление, но и берут на себя дело управления, активно сопротивляются существующему типу управления. Однако есть мнение о том, что современные международные отношения в сфере НТР двигаются в сторону объединения этих двух парадигм, заимствуя для разных проблем ИИ, ГМО, проблемы климатических изменений, экологические проблемы, т.е. те, что могут решаться как на государственном, так и на индивидуальном уровне, -наиболее удачные формы управления на разных уровнях [8]. Теоретически можно выделить по меньшей мере четыре возможные формы взаимодействия между у/правлением и само/управлением [9]:

1) дополнять друг друга, фактически не сливаясь;

2) сливаться друг с другом;

3) конкурировать и конфликтовать друг с другом;

4) заменять друг друга.

Современные системы управления новыми технологиями на международном и национальных уровнях показывают, что основной формой выработки решения и регуляторных правил в сфере новых технологий становятся дискуссионные площадки [10], объединяющие классические подходы государственного управления с самоуправляемыми правилами и практиками; таким образом, управление и самоуправление представлены

в единстве или даже приоритет отдается практикам самоуправления.

Академические структуры, вузы и институты развития наряду с государством, бизнес-сообществом и некоммерческим сектором являются ключевыми площадками для обсуждения социальных импликаций новых технологий, а также инструментов и механизмов их регулирования. В создаваемой системе управления ИИ современной России мы видим те же тенденции поиска методов управления в форме дискуссионных площадок (например, Альянс в сфере ИИ, дискуссионные площадки и форумы при вузах и органах власти (Молодежные дискуссионные площадки по применению ИИ в научных исследованиях, МГУ; форум «Этика искусственного интеллекта (ИИ): начало доверия», 2021 и др.). Ведущие российские вузы, как и компании, являются, с одной стороны разработчиками, а с другой -пользователями технологий ИИ и активными участниками процесса их осмысления. Однако остается открытым вопрос, насколько широко представительство различных игроков и взглядов на подобных площадках, а также какие проблемы этики и регулирования ИИ и способы их решения маркируются экспертами и участниками дискуссионных площадок как основные, какие подходы к этическим аспектам доверия и рисков могут привести к более ответственным с моральной точки зрения принятию решений и разработке технологических инноваций. Эта проблема стала предметом представленного исследования.

Методы исследования

В качестве данных послужили материалы двух дискуссионных площадок в формате панельных дискуссий в Томском государственном университете в рамках международного конгресса «Язык, культура и технологические транзиты: новые грани человеческого» по сходным тематикам и единой логике подбора участников. Темами для обсуждений в первый и второй год соответственно были определены «Вызовы новых технологий: этика, доверие, безопасность» и «Игра по правилам и без: этическое и правовое измерение технологий искусственного интеллекта». Участниками дискуссии стали эксперты, участвующие в обсуждениях ИИ на различных национальных площадках. Нам было важно понять, какие вопросы обсуждаются на подобных площадках и какие решения предлагаются экспертами.

Таким образом, были проведены две фокус-группы с экспертами национальных и региональных площадок, первая - 24 октября 2022 г., вторая - 24 ноября 2023 г. Всего участвовали 13 экспертов. Состав дискуссии в 2022 и 2023 гг. формировался схожим образом, так, чтобы, с одной стороны, сохранить междисциплинарный характер обсуждения, обусловленный природой технологий ИИ, а с другой - обеспечить сравнение двух обсуждений и включал (таблица): представителей ведущих компаний в сфере ИИ (3 эксперта), разработчиков в сфере ИИ (2 эксперта), исследователей в области права, философии, этики и социологии (9 экспертов), академические структуры в лице проректоров (2 эксперта).

Среди представителей бизнеса и академии были участники государственных советов и межправительственных групп по вопросам развития ИИ.

Участники Фокус-групп с указанием организационной принадлежности

Фокус-группа 1 Фокус-группа 2

Эксперт 1, юрист, академия, участник региональных обсуждений по вопросам правового статуса Эксперт 8, юрист, академия, участник российских комиссий в сфере ИИ

Эксперт 2, юрист, бизнес, участник межправительственных комиссий в сфере ИИ Эксперт 9, юрист, участник региональных обсуждений по вопросам правового статуса

Эксперт 3, бизнес, разработчик Эксперт 10, академия, участник правительственных обсуждений

Эксперт 4, академия, эксперт по этике Эксперт 11, бизнес

Эксперт 5, академия, исследователь Эксперт 12, академия, эксперт по этике

Эксперт 6, бизнес, специалист по разработкам ИИ Эксперт 13, академия, специалист по разработкам ИИ

Эксперт 7, академия, участник российских комиссий в сфере ИИ

Вопросы для обсуждения включали следующие блоки: вопросы сопроизводства технологий и общества в отношении ИИ, изменение понятий риска и выгод; вопросы регулирования цифровых и ИИ-технологий, этические дилеммы в эпоху развития ИИ и способы их решения; соблюдение баланса интересов и выстраивание доверия в сфере развития ИИ.

Результаты

Основной вопрос, который обсуждался на панельных дискуссиях, - какие принципиальные изменения происходят в базовых социальных полях в связи с разработкой и внедрением технологий ИИ и как они преломляются с точки зрения управления. Для того чтобы ответить на него, мы рассмотрели, как участники групп понимают технологии ИИ, какие изменения фиксируют эксперты, а также формы и способы, которые представляются оптимальными для ответа на эти изменения.

Все эксперты согласны, что ИИ как новая технология появился совсем недавно2, хотя и скептическое отношение к вероятности появления этой технологии еще пять лет назад - реальность. Это дает основания экспертам предполагать, что любые прогнозы в отношении развития данных технологий невозможны, понятно лишь, что они должны значимо изменить социальные, экономические процессы и человечество в целом: «Еще пять лет назад, когда мы запускали проект при поддержке РФФИ по правовому регулированию новых ИТ-технологий и искусственного интеллекта, я встречался с академиками РАН, и многие из них говорили, что ИИ существует как идея, а так его нет и вряд ли в скором времени появится. Но за последние пять лет на основе этих разработок прошли такие масштабные технологические внедрения, которые стали настолько доступными, что мы уже практически в любой сфере своей жизни так или иначе сталкиваемся с ИИ. Вот интересная статистика, что около половины

всего мирового трафика в интернете генерируется программами, функционирующими на основе технологии искусственного интеллекта. Представляете себе, какие масштабы применения этих технологий!» (эксперт 8).

В силу новизны ИИ на нынешнем этапе его развития и непредсказуемости технического прогресса мы до настоящего времени не можем четко охарактеризовать данную технологию. Она не является единой, и поэтому практически невозможно говорить о формах социальной импликации ИИ: «Все алармистские высказывания по его поводу исходят из неопределенности. Цитирую недавнюю большую международную конференцию разработчиков, которые говорили об угрозах ИИ и о том, что он несет те же угрозы, что ядерное оружие или ко-вид, то есть является тем, чем мы не можем управлять. Если посмотреть на то, что пишут историки технологий, такие же высказывания были и в отношении железнодорожного транспорта, и в отношении машин, и в отношении множества других технологий, и с рисками ИИ нужно разбираться» (эксперт 12).

Мы сейчас на начальном этапе формирования того, что далее станет технологией ИИ, и едва ли сможем предсказать, чем будет эта технология в результате конкурирующих представлений о ее развитии и форм разработки. Эксперты согласились, что, если мы говорим об ИИ как о некой цельности, мы тем самым теряем предмет обсуждения. В качестве примера трое из экспертов обращались к метафоре машины как технологии, которая развивалась много лет: формировалась технология, внешний вид, пользовательский опыт, адаптация ее для разных групп, и только через почти половину столетия появились правила дорожного движения. Эта метафора показывала, что ИИ находится в начале своего оформления. Технология никогда не появляется одномоментно, как единство, она всегда множественна. Таким образом, разделяемое представление о том, как она работает, принципы и регулирующие нормы появляются значительно позже, чем множество вариантов, которые конкурируют между собой и из которых начинает вырисовываться то, что затем становится конкретной технологией. Подтверждают этот тезис выступления представителей бизнеса, которые под технологией ИИ понимают большой спектр абсолютно разных цифровых сервисов: «...на сегодняшний день ИИ - это всего лишь имитация процесса, это алгоритмы, данные, на основе которых мы делаем или проверяем те или иные гипотезы, создаем те или иные продукты. В телеком-индустрии используются из ИИ, конечно же, машинное обучение, обработка естественного языка, генерированный текст, машинный перевод и классификация, и computer vision (компьютерное зрение), без этого никак, и технологии преобразования речи в текст. Это давно мы используем» (эксперт 11).

Эксперты от бизнеса утверждают, что в первую очередь развиваются сервисы, нацеленные на пользователей: работа с их потребностями на основе их данных, предсказание их поведения и целевое предложение продуктов: «Как у любого оператора связи у нас огромный объем данных. Это ключевое преимущество телекома.

Мы знаем все обо всех в режиме 24 на 7, можем отличать и выявлять более 1000 различных поведенческих признаков. Можем смотреть перемещения, маршруты, можем отслеживать в реальном режиме времени определенные цепочки событий, а также анализировать, можем смотреть на какие сайты кто заходит.

Ну, не кто что читает, а просто куда заходит, ну и наличие тех или иных приложений и даже заходят ли в эти приложения или просто они установлены. То есть фактически это огромный массив данных, и мы это активно используем для создания определенных элементов ИИ» (эксперт 11). Подтверждает это и директор компании - разработчика моделей ИИ, говоря, что стремление и заказы от бизнеса в первую очередь связаны с увеличением возможностей продвижения своих продуктов: «Любой разработчик находится между двумя видами страха: между страхами общества и страхами бизнес-сообщества. У одних страх чтение мыслей и манипуляции сознанием, у других желание и страх найти волшебную кнопку в мозге потребителя для того, чтобы их продукты, их услуги больше покупались» (эксперт 3). Бизнес-структурам понятно, что эти функции ИИ - дело будущего, но они к этому активно стремятся: «Все компании хотят улучшать клиентский опыт... Наличие такого обширного количества данных приводит к разработке различных подходов и моделей, направленных на оценку, через что лучше выйти на клиента, какое лучше следующее предложение ему преподнести на основе анализа поведения, предпочтений, потребления и так далее. Очень важно не просто набрать абонента, очень важный вопрос, как его удержать. В этом плане в любой телеком компании в той или иной мере реализованы различные предиктивные модели ИИ, которые анализируют и предсказывают вероятный отток клиентов. Это только сейчас получает первичное свое развитие: мониторинг и отслеживание параметров в режиме реального времени» (эксперт 11). С этой точки зрения бизнес-структуры совсем не заинтересованы в ограничениях ИИ.

В силу отсутствия ясного представления, что из себя представляет ИИ, поскольку он еще не стал полноценно оформленной технологией со всеми социо-техническими переплетениями внутри нее или, говоря словами известного исследователя технологий Б. Ла-тура, еще не ставшей непроблематичным «черным ящиком» [11], представления о возможных последствиях ИИ очень сильно различаются. Представители академии высказывают спектр мнений, крайними точками которого будут следующие. В одном случае это безусловный помощник, который делает жизнь лучше. Есть опасности, но необходимо их регулировать и будет получен позитивный результат. Об этом мы будем говорить подробнее в разделе обсуждения форматов регулирования ИИ. Вторая точка зрения - сущностная, что ИИ значимо меняет сущность человека и общества через пока невидимые формы воздействия на ценности человека, его картину мира через образование, работу с этическими максимами: «Логическая связка "искусственный интеллект-язык-текст" во многом задает

один из центральных нарративов, разворачивание которого сформирует и новый образ человека, и новый образ его жизни» (эксперт 8). Все базовые сферы жизни человека функционируют на основании текстов, и как только ИИ будет совершенно владеть языком, на базе чего функционирует человеческая культура, он сможет менять ценностные ориентиры, формировать новые нравственные поля: «Возьмем, например, религию, у нас все религии мировые базируются на текстах, ИИ будет переосмыслять их и давать какие-то новые нормативы, причем это будет делаться в таком контексте, что люди даже не будут понимать, что это результат переосмысления этих базовых установок нравственных, моральных» (эксперт 8). Еще один эксперт подтверждает эту мысль: «Не так давно мы обсуждали с высшим духовенством Русской православной церкви, что очень много уже есть практик, когда GPT-чат ведет проповеди, когда автоматизируются ритуалы, и это тоже все про архетипы и про культуру. И, например, наше поколение еще заметило этот переход, а дети, они уже не знают, им кажется, что весь контент, который они получают, - это то, что им надо, их личный выбор. И здесь вопрос критического мышления и фильтрации очень важен. Здесь состоит фундаментальная проблема свободы воли и выбора человека» (эксперт 13), а это уже этическое измерение, о котором нужно помнить.

Упомянутые выше представителем телеком компании возможности собирать данные пользователей и формировать предиктивные модели поведения человека с «девяностопроцентной вероятностью» дают основания экспертам предполагать смену экономической системы с рыночного капитализма в форму плановой экономики, где путем распределения имеющихся ресурсов в отношении каждого человека строится наиболее эффективная экономическая модель. Усугубляет данные возможности внедрение ИИ в образование, что формирует иную модель мышления, которая влияет на восприятие этого мира, ценности и отношения: «Сегодня в кремниевой долине разрабатывается приложение, которое будет писать детские сказки. Качество их написания зависит только от массива информации, с которой работает этот алгоритм. Что такое детские сказки? Детские сказки - это архетипы, архетипы - это базовые установки нравственные, это модели поведения» (эксперт 8).

Так ли это на нынешнем этапе развития ИИ, утверждать сложно, но в отношении изменений роли государства в процессах регулирования и развития новых технологий юристы высказываются однозначно: «Право совершенно не успевает за теми изменениями, которые происходят в связи с бурным развитием технологий, оно просто не готово. И государство - тот вариант, который складывался долгие века, когда государство своей волей придает общую обязательность определенным правилам поведения, и в этом смысле является их творцом - эта модель перестает работать эффективно. Государство не успевает за изменениями, и поэтому когда мы говорим про регулирование ИИ, мы говорим, как правило, о двух разнонаправленных тенденциях, одна из которых - это попытки межгосу-

дарственных образований, международного сообщества урегулировать ИИ, остановить, создать какие-то границы, рамки для его развития и применения, a второе - это то направление, которое снизу идет, от союза разработчиков» (эксперт 9). Директор компании-разработчика вторит ей, говоря об этических нормах, которые становятся рамкой для деятельности компании в условиях отсутствия четкой позиции государства в отношении ИИ: «...вот с того момента, как мы начали этим заниматься, мы достаточно быстро вошли в мировую ассоциацию, она так и называется "Нейромар-кетинг для бизнеса", и одно из первых, к чему должны были присоединиться, это к этическому кодексу. И в этом этическом кодексе было заложено два основных принципа: принцип честности и принцип приватности. .Наша компания с первого дня взяла себе на вооружение и в компании внедрила принципы работы с людьми. И информированное согласие - это первый документ, без которого мы не можем к себе в лабораторию впустить ни одного человека. Дальше к этому мы добавили принципы международные, это честность. Расскажи честно человеку, что ты будешь делать, и сними страхи общества о том, что мы сейчас там навоздействуем на его мозг, прочтем все его мысли, что совершенно невозможно» (эксперт 6).

Эти изменения ставят вопрос, вынесенный в заголовок данной статьи, насколько возможны правила в условиях технологической и социальной неопределенности, порожденной нынешним этапом развития ИИ.

Контроль этических, правовых и социальных рисков при стремительном развитии технологий: утопия или целевая модель?

Как было указано выше, возможности государства в отношении технологий - формулировки правил игры, их контроля и форм наказаний - ставятся под сомнение, причем эта проблема в отношении новых и появляющихся технологий встала задолго до появления GPT-чата и иных технологий, относимых сейчас к ИИ [12, 13]. Однако ИИ, оцениваемый как значительная угроза человечеству, актуализирует вопрос о том, кто и как должен нести ответственность за создаваемые технологии и последствия их применения. Все эксперты согласны, что в первую очередь разработчики становятся теми акторами, которые берут на себя данные функции: «Google в какой-то момент остановился в исследованиях именно исходя из этого, он решил, что здесь дальше опасно, и он для себя, и тем самым для всех, на какой-то этап создал новое правило. Эти правила создаются, в том числе кодекс этики ИИ в России, и представляют собой нечто иное, как попытку или процесс создания правовых норм, правил поведения снизу теми, кто создает ИИ, кто лучше понимает опасности, плюсы, минусы ИИ, того, как этот процесс может развиваться дальше» (эксперт 9), «Очень важно, когда сам разработчик и применитель этих инструментов добровольно закрепляет определенные ограничения за собой. это снимает общественные страхи и позволяет развивать дальше технологии» (эксперт 1). Но каковы механизмы осуществления подобных инициатив, все еще остается открытым вопросом.

В настоящее время низовые инициативы в отношении определения правил игры и внутренних кодексов называются привычным для широкой аудитории словом «этика», хотя один из экспертов прямо говорит, что это не очень удачный термин для характеристик происходящего в деле саморегулирования ИИ: «В сегодняшнем мире под этикой понимается определенный компромисс между всеми, кто развивает ИИ: между государством, обществом, экспертами, учеными, о том, какие будут правила в условиях, пока нет закона» (эксперт 2). Причем первыми о таких правилах заговорили компании-разработчики: порядка 35 мировых компаний решили сами показать, что они ответственно относятся к теме ИИ [14], «затем этой темой стало заниматься государство. Вы можете зайти на сайт правительств ведущих стран, там вы найдете раздел ИИ. Там будут правила работы с ИИ в этой стране. Вы увидите, что эти правила носят этический характер. Ну и при таком подходе совершенно неудивительно, что в 2021 году ЮНЕСКО приняло первую в мире глобальную рекомендацию по этике ИИ» (эксперт 2).

О сущностном и изменчивом в вопросах этики как важном исследовательском и прикладном вопросе говорили большинство экспертов: «Дэвид Эдмонтон несколько лет назад книжку издал. Там даже загадка о вагонетке уже звучит по-другому. Потому что этика изменчива» (эксперт 4). Ответом экспертного сообщества стал консенсус о том, что для выявления культурных различий необходимы дискуссионные площадки, в которых участвуют разные по статусу участники. Например, один из экспертов - участник Альянса этики ИИ России утверждает: «Как решить сложную историю с тем, что этика касается каждого, всего общества, а ответ только от одного из участников рынка? И мы для себя приняли следующее решение: нам важно сделать так, чтобы среди подписантов Кодекса было максимальное представительство самых разных игроков: и науки, и компаний разного профиля, гражданского общества, даже государства. Они должны быть не из одного города, а из самых разных регионов нашей большой страны. Они должны иметь разный опыт, разный возраст. Это позволит обеспечить какую-то легитимность тех решений, которые сообщество предложит... Поэтому мы видим, что это [Кодекс этики ИИ] не только частные инициативы, скорее инициатива всех, кто занимается развитием этой технологии на ближайшие годы. Я думаю, по меньшей мере, несколько лет этот инструмент будет главным инструментом диалога государства с разработчиками, с учеными по вопросам развития ИИ» (эксперт 2). С этой точки зрения очень важно изучать суть этических кодексов, принимаемых в отношении новых технологий, а также структуру участников этих обсуждений. Эксперт 2 показывает, как это работает на примере Кодекса этики ИИ в России и деятельности Альянса в сфере ИИ, однако представитель компании - разработчика моделей ИИ отмечает, что и при отсутствии государственного принуждения, как в случае деятельности Альянса, процессы саморегулирования - вполне рабочий инструмент: «На сегодняшний день, мне кажется,

успех только в коллаборации между компаниями, разработчиками, университетами и потребителями услуг. Здесь как раз вопрос права и кто за него отвечает. Мне кажется, это все-таки самоорганизующиеся структуры: я присоединяюсь к определенному кодексу, мы создаем это сообщество, и те, кто нарушают эти правила, они исключаются из этого сообщества, и дальше это уже доступ к услугам таких компаний. Мне кажется, это путь, как двигаться дальше» (эксперт 3).

Коллегиальные формы принятия правил позволяют преодолеть закрытость системы принятия решений в структурах государства и влияния групп интересов на этот процесс, которая потенциально формирует риски социальных импликаций ИИ: «Принятие закона, такая немножко закрытая вещь. Неявные зачастую интересы в ней прослеживаются. Поэтому для заинтересованных субъектов кодексы этики - возможность создать то правовое регулирование, которое выстраивает баланс. И еще один момент, этот баланс он тоже не создает правило навсегда» (эксперт 1). Важно, что этот тезис относится к любым формам государства. В ситуации неопределенности, встроенной в любую инновацию, тем более такую разрушительную (disruptive innovaton [15]), как ИИ, закрепление нормы на уровне государственного закона несет дополнительные риски; необходим более гибкий инструмент, каковым являются саморегулирующиеся правила, такие как этические кодексы. «Право - это инструмент очень опасный, он должен применяться строго в тех ситуациях, когда он очень необходим. Излишнее количество правил - это не очень хорошая вещь. Идеальный закон, это тот, который позволяет нам делать то, что мы делали и так. И в этом смысле этические правила, когда они разрабатываются субъектами, которые их будут применять и когда они выстраивают баланс с интересами общества, с интересами государства, это как раз тот самый идеальный вариант» (эксперт 1). Современная юридическая практика дает государству возможность применять в судебной практике правила, разработанные внутри сообщества, даже существующего в виртуальном мире (см. пример решения конфликтов онлайн игроков в судах в [16]).

Еще одним вариантом управления ИИ утверждается деятельность исследовательских групп по этике и кейсам работы ИИ, которые могут дать экспертные заключения и рекомендации в отношении происходящих изменений. Автор этих высказываний утверждает, что только этика, основанная на доказательствах, на практической деятельности, кейсы которых собраны исследователями, может стать основой для формулирования базовых регуляторных принципов (эксперт 4).

Следующий обсуждаемый вопрос - насколько универсальны этические нормы в отношении ИИ в настоящий момент. Некоторые авторы утверждали, что в силу культурной рамки этики она локальна и должны быть созданы исключительно приемлемые в рамках данной культуры нормы (эксперты 5 и 7). Особенности культуры эксперты подтверждают исследовательскими экспериментами и опросами, которые показывают значительную разницу в решении этических ди-

лемм, значимых для разработчиков современных технологий: «Все-таки все страны разные, и мы не можем просто слепо взять чужой опыт. Нам надо обязательно комплиментировать его к нашей ситуации. В MIT провели такой эксперимент, называется решение для проблемы вагонетки. Там 30 вопросов, кого вы будете давить в ситуации выбора: одного или двух человек, пожилого человека или ребенка, и там таких дилемм составлено очень много. Женщину или мужчину, а если один человек ученый, а трое какие-то бездельники. Ценность этого эксперимента заключается в том, что он показывают статистику о том, в каком регионе мира, как отвечают на эти вопросы. И выяснилось, что в зависимости от региона отличается ответ на вопрос. Например, в регионах Ближнего Востока и Кавказа традиционно в выборе, кого задавить, пожилого человека или ребенка отдают предпочтение сохранить жизнь пожилому человеку. А в странах Азии, наоборот, отдают предпочтение сохранить жизнь ребенка. Такова культура. Я хочу вам показать, что существуют определенные исследования, обосновывающие, что этика - это культура и носит достаточно специфичный характер». Отсюда следует вывод, что «мы не можем в сфере этики в ближайшее время утвердить какой-то единый стандарт, который примут все люди и все регионы, но мы можем сделать основу, из которой дальше могут развиваться отдельные треки» (эксперт 2). Однако большинство экспертов полагают необходимым опираться как на локальный, так и на международный опыт. Это позволит минимизировать риски, экономить собственные ресурсы, даст возможность учитывать и те кейсы, которые случились где-то, учиться на чужих ошибках.

Известный современный философ Питер Сингер утверждает, что присоединиться к чужой этике означает вообще уйти от этической ответственности и перестать быть этичным. Просто поступать, как написано или как кто-то решил, это недостаточно этично. Этика и ответственность только тогда становятся таковыми, когда субъект регулярно сам стоит перед выбором. В этой связи есть возможность учесть культурные паттерны, также как и оперативно отвечать на вновь появившиеся дилеммы и технологии и нести ответственность перед разными социальными группами, учитывая их интересы и мнения.

Социальные ответы на вопросы этики и регулирования. Когда мы говорим о технологиях, мы чаще всего говорим в терминах экономической или политической целесообразности либо оказываемся в рамках дискурса вокруг отдельного человека, его защиты. Практически никогда дебаты не касаются сообществ: каким образом ИИ живет, встраивается в сообщество, и какие потенции могут быть, если мы будем смотреть не на то, как живет взаимодействие ИИ с отдельным человеком, но на то, каким образом оно встраивается в сообщества, что производит внутри них?

Чаще всего когда говорят об ИИ, если обращаются к социуму, то говорят о социальном неравенстве, о политических паттернах, которые встроены вольно или невольно в структуру алгоритмов через процесс обучения ИИ. При этом практически никто не задумывается,

каким образом сообщества могут ответить на это вмешательство. Чаще различные государства и бизнес подходят к оценке позиций общества, применяя опросы3. Такой обобщенный подход к управлению ИИ, свойственный большинству игроков на настоящий момент, основан на ожиданиях того, что со сходными последствиями столкнутся все или большинство членов общества. На самом деле воздействие ИИ в значительной степени зависит от контекста и распределено неравномерно, что препятствует регулирующему вмешательству государства в формате «умного регулирования» [20]. С этой позиции важно вычленить различные сценарии поведения сообществ, описать варианты взаимовлияния ИИ и сообществ.

Сообщества и, шире, социальное упоминаются экспертами в нескольких ситуациях. Во-первых, наиболее часто употребляемый в публичном пространстве перенос существующих ценностей и дискриминирующих паттернов в алгоритмы ИИ, которые воспроизводят существующие несправедливости. Бизнес-участники много обсуждают не только пользователей, но и влияние ИИ на рынок труда, возможности и ограничения, которые он вносит в устоявшиеся модели оценки соискателей. В этом же ключе обсуждаются организационные структуры и ответ людей внутри организаций на внедрение ИИ: «.как бы мы ни упорядочивали, ни регулировали те этические вопросы, о которых постоянно у нас идет речь, мы упираемся в то, что это исполняется конкретными людьми, и это всегда вопрос» (эксперт 5), поэтому норма, основанная на практиках и обсужденная многими сторонами, дает более устойчивую историю принятия технологии.

Важно подчеркнуть, что все представленные экспертами примеры показывают, что на данный момент ИИ не меняет действующие социальные нормы, он дискриминирует на базе имеющихся дискриминационных паттернов, ускоряет процессы, например, поиска рабочего места или партнера, но социальные правила остаются прежними. Например, «для рынков труда мы знаем, что особенно в бедных странах очень большую долю экономики составляет неформальный сектор занятости. Он позволяет существовать малым предприятиям, бедным слоям, кто не может заключить постоянные трудовые контракты. В Индии я недавно рассматривала проект внедрения платформы, основанной на ИИ, для того, чтобы помочь бедным молодым людям в поисках работы. Там очень высокий уровень безработицы, чтобы помочь им найти неформальную занятость, была создана платформа. Оказалось, что процесс поиска подработки ускоряется, но при этом все социальные проблемы неформального труда никаким образом не решаются» (эксперт 12).

Вторая ситуация, когда упоминаются группы людей, влияние ИИ на социум, - предположительные воздействия отдельных цифровых продуктов: «Сегодня есть огромное количество приложений, функционирующих на основе ИИ, которые в перспективе формируют новые социальные отношения, новые формы социальной жизни. Приложения, через которые можно пообщаться с ушедшим родственником, или приложение по знакомству. Сегодня в мире этим приложением

пользуется порядка 4 миллионов человек. Это колоссальная цифра» (эксперт 8). Мы действительно видим примеры появления новых ритуалов и устойчивых практик, связанных с новыми ИТ-продуктами, но это происходит последние двадцать лет в рамках появления разного рода цифровых сервисов, начиная от электронного правительства и бизнес-коммуникаций, заканчивая новыми культурными паттернами, например, формированием цифровых кладбищ, которые задают новые ритуалы «цифрового поминовения» [21, 22]. Действительно ли это критично для человечества, и можем ли мы экстраполировать этот опыт на оценку воздействия на человечество и отдельные группы технологий ИИ, вопрос все еще остается открытым. ИИ на настоящем этапе развития не выглядит чем-то принципиально отличным от цифровых сервисов недавнего прошлого.

Один из экспертов показывает другую сторону подобного рода сервисов, основанных на технологиях ИИ, например компьютерного зрения или иных форм контроля, делая акцент не на опасностях со стороны изменений культуры и социальных групп, а фокусируясь на возможностях и желании государства в целях общего блага контролировать деятельность разных групп. Здесь не имелся в виду крайний случай социального рейтинга гражданина в Китае, но и в демократических государствах излишний государственный контроль может привести к коллапсу некоторых форм государственных сервисов, которые строятся на большом количестве неформальных практик. «Еще до ИИ, наблюдаются попытки стандартизировать, оценить разные формы деятельности государственных служащих, отдельных сотрудников компаний. Иногда это работает позитивно, а иногда очень деструктивно. Например, исследователи государственного управления еще в семидесятые годы ввели термин «уличные бюрократы». Это обычные учителя, врачи, полицейские, те, кто исполняют государственные функции, часто они, нарушая инструкции, повышают доверие граждан к собственному государству, потому что очень часто инструкции не в состоянии предусмотреть какие-то особенности, локальные контексты. Мы делали исследование в России, смотрели, как врачи нарушают стандарты и инструкции, чтобы лучше помочь пациенту. Это довольно частая ситуация, которая повышает результативность их работы. Роль неформальности в реализации государственных или социальных функций очень важна. Сейчас нет, а возможно, и не появится, технического продукта, который будет чувствителен к социальным контекстам: он слишком сложный, чтобы его можно было алгоритмизировать. Исследования показывают, что отсутствие социального биоразнообразия мешает развитию общества» (эксперт 12).

Такие обобщенные описания означают, что собранных примеров, кейсов ответа различных групп населения, культурных и иных сообществ в исследовательской литературе и практической деятельности нашим экспертам практически не встречалось, хотя в зарубежных текстах можно видеть внимание как к способам вовлечения сообществ, так и к моделированию разного

вида сопротивления со стороны разных социальных групп [23, 24]. Есть варианты ответа на появление ИИ, когда сообщества объединяются и начинают разрабатывать то, что им нужно, в том числе методы сопротивления с помощью технологий ИИ. Эксперты лишь косвенно затронули вопросы сопротивления общества технологиям ИИ. Но нам этот вопрос кажется важным, и, возможно, он станет решающим для развития технологий ИИ. Это требует проведения более детальных и углубленных исследований с анализом кейсов взаимодействия с ИИ разных социальных групп и сообществ.

Дискуссия и заключение

В настоящее время вычислительные мощности наших мобильных устройств на несколько порядков быстрее и мощнее, чем у компьютера, использовавшегося в космических разработках середины прошлого века. Тем не менее, несмотря на огромное увеличение объема оперативной памяти и частот центрального процессора, самым слабым компонентом, препятствующим созданию трансчеловеческой цифровой утопии, являются предубеждения людей, которые адаптируют технологии под свои нужды, а также программируют код или «алгоритмы». Многие техно-оптимисты сейчас представляют себе будущее, в котором решения будут касаться благополучия людей, как в больницах и транспорте или, наоборот, как в вопросах, связанных с военными беспилотниками и автоматическим оружием. Останется ли место обсуждению вопросов социального благополучия, сохранения разных представлений в мире, где социальное поведение и культура формируются созданными человеком алгоритмами, встроенными практически в каждый аспект нашей жизни с использованием цифровых технологий?

ИИ показал значительные преимущества для бизнеса и экономики в разных сферах и отраслях. Однако многие ученые, а после появления GPT-чата, и бизнес-структуры часто связывают рост популярности ИИ с мрачными видениями будущего. В прошедшем году появилось множество заявлений со стороны исследователей, коммерческих и некоммерческих структур в разных частях мира, которые стимулируют обсуждения об опасностях ИИ, который, по их мнению, может стать причиной исчезновения человечества. Дебаты и дискуссии для выработки правил и норм в отношении технологий ИИ происходят в разных странах вне зависимости от их идеологических предпочтений или позиций общества в отношении новых технологий. Некоторые авторы говорят о преимуществах в системах нынешнего управления ИИ небольшого числа крупных компаний, называя современную систему управления олигополией [23], государства отдают предпочтение технократическому подходу, когда технологические инциденты становятся основой для принятия решений в отношении ИИ [25]; другие акторы ищут варианты организации дискуссионных площадок для формирования партиципаторных подходов [26]; третьи формируют представления о формах сопротивления, прежде всего, со стороны разработчиков [27] и пользователей [24]. Наше исследование показало, что из представленных вариантов

среди экспертов в России распространены партиципатор-ный подход и внимание к позициям и сопротивлениям сообществ. Из этих позиций основным ответом на вопрос о регулировании ИИ становится вариант: только самоуправление с участием разных игроков и широкими площадками обсуждений. Возможно ли это в условиях современной государственноцентричной формы управления в России - вопрос открытый, но участники фокус-групп показывают уверенность, что это возможно.

Мы стали свидетелями, как прошли те времена, когда использование машины было делом личного выбора, поскольку машины, начиная от смартфонов и заканчивая персональными компьютерами, становятся необходимостью в нашей повседневной жизни.

Норберт Винер, отец кибернетики, предсказал, что наше отношение к машинам «касается некоторых из наиболее важных моральных ловушек, в которые, вероятно, попадет нынешнее поколение людей». Одним из последствий таких замкнутых отношений с машиной считается снижение роли ценностей, и чтобы такое не произошло, обсуждение и осторожное движение - то, что поддерживается исследователями и участниками процессов развития ИИ в России. Кажется, человечество сейчас проходит некий зеркальный тест в поведенческой психологии - умение в зеркале распознать себя. Можем ли мы

сохранить способность идентифицировать себя и свое место, сталкиваясь с технологией ИИ в повседневной жизни.

Только обсуждая это с различными участниками, фиксируя взгляд не только на обществе в целом, но и на отдельных, в том числе маргинальных группах и сообществах, можно ответить на вопрос, справимся ли мы с этим.

В отношении технологий ИИ, которые демонстрируют стремительное развитие, не только оказывая влияние на все сферы экономики и социальной жизни, но и затрагивая когнитивные способности человека, его жизненный уклад и повседневные привычки, закономерно отмечается догоняющий характер всех социальных институтов, включая право.

В этих условиях этика становится основой, которая позволяет выстраивать диалог и формировать оптимальные на данный момент нормы и правила для всех вовлеченных игроков. При этом отмечается изменчивость, адаптивность и вариативность этих норм и правил.

Этика как форма реализации мягкого права выступает тем самым механизмом саморегулирования, основы которого складываются из практики, формируя общественное доверие и позволяя развиваться технологиям ИИ.

Примечания

1 В области международных отношений разные традиции понимания и перевода (см.: [4-6]).

2 Мы не в полной мере согласны с такой позицией, так как первая нейросеть была разработана в 1950 г., 1970-1990 гг. - период отката в развитии технологий ИИ, поэтому едва ли ИИ появился совсем недавно, скорее он получил стремительное развитие.

3 Примером таких опросов может служить всероссийский опрос ВЦИОМ по заказу Национального центра развития искусственного интеллекта при Правительстве Российской Федерации на тему удовлетворенности условиями работы в РФ граждан, заинтересованных в развитии технологий искусственного интеллекта [17] или о применении ИИ в здравоохранении, вопросы которого повторяют аналогичный опрос Исследовательского центра Пью (Pew Research Center) в США [18]. Китайский подход к управлению ИИ также декларирует делиберативный подход и обсуждения, и действительно разные типы организаций и экспертов участвуют в обсуждении, однако мы не нашли информацию о включении общественности в эти дебаты [19].

Список источников

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1. Abdullah M., Madain A., Jararweh Y. ChatGPT: Fundamentals, applications and social impacts // 2022 Ninth International Conference on Social Networks Analysis, Management and Security (SNAMS). IEEE. 2022. P. 1-8.

2. Artificial Intelligence Index Report 2023. Stanford University Human-Centered AI. URL: https://aiindex.stanford.edu/wp-content/up-loads/2023/04/HAI_AI-Index-Report_2023.pdf (дата обращения: 15.01.2024).

3. Pierre J., Peters B.G. Governance, Politics and the State. Basingstoke : Macmillan, 2000. 329 p.

4. Темников Д. Проблемы мирового регулирования в современной зарубежной политологии // Международные процессы. 2013. Т. 11, № 1 (32).

5. Барабанов О.В. Проблемы глобального управления: выбор аналитической парадигмы // Вестник международных организаций: образование, наука, новая экономика. 2009. № 2 (24). С. 5-13.

6. Трухин Д. Феномен глобального управления в трактовке западных ученых // Обозреватель-Observer. 2012. № 7. С. 60-67.

7. Stoker G. Governance as Theory // International Social Science Journal. 1998. № 155. P. 17-28.

8. Eberlein B., Kerwer D. New Governance in the EU: A Theoretical Perspective // Journal of Common Market Studies. 2004. № 42 (1). P. 121-42.

9. Jordan A., Wurzel R.K., Zito A. The Rise of "New" Policy Instruments in Comparative Perspective: Has Governance Eclipsed Government? // Political Studies. 2005. № 53 (3). P. 477-496.

10. Cihon P., Maas M.M., Kemp L. Fragmentation and the future: investigating architectures for international AI governance // Global Policy. 2020. № 11 (5). P. 545-556.

11. Латур Б. Наука в действии: Следуя за учеными и инженерами внутри общества. СПб. : Изд-во Европейского ун-та, 2013.

12. Чурилов А. Правовое регулирование интеллектуальной собственности и новых технологий: вызовы XXI века. Litres, 2022.

13. Положихина М.А. Регулирование процесса цифровизации экономики: европейский и российский опыт // Россия и современный мир. 2022. № 4 (101). С. 64-81.

14. Kuleshov A., Ignatiev A., Abramova A., Marshalko G. Addressing AI ethics through codification // 2020 International Conference Engineering Technologies and Computer Science (EnT). 2020. IEEE. P. 24-30.

15. Si S., Chen, H. A literature review of disruptive innovation: What it is, how it works and where it goes // Journal of Engineering and Technology Management. 2020. № 56. Art No. 101568.

16. Ivanov V.V., Trubnikova T.V., Churilov A.Y. Liability in the World of Games: The Interaction of Positive and Soft La // International Conference on Professional Culture of the Specialist of the Future. 2023. P. 134-144.

17. Опрос ВЦИОМ для заинтересованных в развитии искусственного интеллекта. URL: https://fasie.ru/press/fund/opros-dlya-zainteresovannykh-v-razvitii-ai/ (дата обращения: 15.01.2024).

18. Прогресс или угроза, или об искусственном интеллекте в медицине. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/progress-ili-ugroza-ili-ob-iskusstvennom-intellekte-v-medicine (дата обращения: 15.01.2024).

19. Lofty principles, conflicting incentives: AI ethics and governance in China. Report. URL: https://merics.org/en/report/lofty-principles-conflicting-incentives-ai-ethics-and-governance-china (дата обращения: 15.01.2024).

20. Бычкова О.В. «Умное регулирование»: как предотвратить появление необоснованных регулирующих правил : учеб. пособие. СПб. : Изд-во Европейского ун-та в СПб., 2018.

21. Maciel C., Pereira V.C., Leitao C., Pereira R., Viterbo J. Interacting with digital memorials in a cemetery: Insights from an immersive practice // 2017 Federated Conference on Computer Science and Information Systems (FedCSIS). IEEE. 2017. P. 1239-1248.

22. Allison F., Nansen B., Gibbs M., Arnold M. Bones of contention: Social acceptance of digital cemetery technologies // Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems. 2023. P. 1-17.

23. Ulnicane I., Knight W., Leach T., Stahl B.C., Wanjiku W.G. Framing governance for a contested emerging technology: insights from AI policy // Policy and Society. 2021. Vol. 40 (2). P. 158-177.

24. Agnew W., McKee K.R., Kay J. Technologies of Resistance to AI // Power, Participation and Alignment. 2023. URL: https://eaamo.org/papers/ EAAMO23_paper_154.pdf (дата обращения: 15.01.2024).

25. Lupo G. Risky Artificial Intelligence: The Role of Incidents in the Path to AI Regulation // Law, Technology and Humans. 2023. Vol. 5 (1).

26. Buhmann A., Fieseler C. Deep Learning Meets Deep Democracy: Deliberative Governance and Responsible Innovation in Artificial Intelligence // Business Ethics Quarterly. 2023. Vol. 33 (1). P. 146-179.

27. Бычкова О.В., Космарский А.А. Блокчейн как res publica: к политической генеалогии распределенного реестра // Философия. Журнал Высшей школы экономики. 2021. Т. 5, № 4. С. 175-200.

References

1. Abdullah, M., Madain, A. & Jararweh, Y. (2022) ChatGPT: Fundamentals, applications and social impacts. 2022 Ninth International Conference on Social Networks Analysis, Management and Security (SNAMS). IEEE. pp. 1-8.

2. Stanford University. (2023) Artificial Intelligence Index Report 2023. Stanford University Human-Centered AI. [Online] Available from: https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf (Accessed: 15.01.2024).

3. Pierre, J. & Peters, B.G. (2000) Governance, Politics and the State. Basingstoke: Macmillan, 329 p.

4. Temnikov, D. (2013) Problemy mirovogo regulirovaniya v sovremennoy zarubezhnoy politologii [Problems of global regulation in modern foreign political science]. Mezhdunarodnye protsessy. 11:1 (32).

5. Barabanov, O.V. (2009) Problemy global'nogo upravleniya: vybor analiticheskoy paradigmy [Problems of Global Governance: The Choice of an Analytical Paradigm]. Vestnik mezhdunarodnykh organizatsiy: obrazovanie, nauka, novaya ekonomika. 2 (24). pp. 5-13.

6. Trukhin, D. (2012) Fenomen global'nogo upravleniya v traktovke zapadnykh uchenykh [The Phenomenon of Global Governance as Interpreted by Western Scientists]. Obozrevatel'-Observer. 7. pp. 60-67.

7. Stoker, G. (1998) Governance as Theory. International Social Science Journal. 155. pp. 17-28.

8. Eberlein, B. & Kerwer, D. (2004) New Governance in the EU: A Theoretical Perspective. Journal of Common Market Studies. 42 (1). pp. 121-42.

9. Jordan, A., Wurzel, R.K. & Zito, A. (2005) The Rise of "New" Policy Instruments in Comparative Perspective: Has Governance Eclipsed Government? Political Studies. 53 (3). pp. 477-496.

10. Cihon, P., Maas, M.M. & Kemp, L. (2020) Fragmentation and the future: investigating architectures for international AI governance. Global Policy. 11 (5). pp. 545-556.

11. Latour, B. (2013) Science in action. How to follow scientists and engineers through society. Saint Petersburg: European University. (In Russian).

12. Churilov, A. (2022) Pravovoe regulirovanie intellektual'noy sobstvennosti i novykh tekhnologiy: vyzovy XXI veka [Legal Regulation of Intellectual Property and New Technologies: Challenges of the 21st Century]. Litres.

13. Polozhikhina, M.A. (2022) Regulirovanie protsessa tsifrovizatsii ekonomiki: evropeyskiy i rossiyskiy opyt [Regulation of the Digitalization Process of the Economy: European and Russian Experience]. Rossiya i sovremennyy mir. 4 (101). pp. 64-81.

14. Kuleshov, A. et al. (2020) Addressing AI ethics through codification. 2020 International Conference Engineering Technologies and Computer Science (EnT). IEEE. pp. 24-30.

15. Si, S. & Chen, H. (2020) A literature review of disruptive innovation: What it is, how it works and where it goes. Journal of Engineering and Technology Management. 56. Art No. 101568.

16. Ivanov, V.V., Trubnikova, T.V. & Churilov, A.Y. (2023) Liability in the World of Games: The Interaction of Positive and Soft La. International Conference on Professional Culture of the Specialist of the Future. pp. 134-144.

17. Fasie.ru. (2024) VTsIOM survey for those interested in the development of artificial intelligence. [Online] Available from: https://fasie.ru/press/fund/opros-dlya-zainteresovannykh-v-razvitii-ai/ (Accessed: 15.01.2024). (In Russian).

18. VtsIOM. (2024) Progress or threat, or about artificial intelligence in medicine. [Online] Available from: https://wciom.ru/analytical-reviews/analiticheskii-obzor/progress-ili-ugroza-ili-ob-iskusstvennom-intellekte-v-medicine (Accessed: 15.01.2024). (In Russian).

19. Merics.org. (2024) Lofty principles, conflicting incentives: AI ethics and governance in China. Report. [Online] Available from: https://merics.org/en/report/lofty-principles-conflicting-incentives-ai-ethics-and-governance-china (Accessed: 15.01.2024).

20. Bychkova, O.V. (2018) "Umnoe regulirovanie": kakpredotvratit'poyavlenie neobosnovannykh reguliruyushchikhpravil: ucheb. posobie ["Smart regulation": how to prevent the emergence of unreasonable regulations: textbook]. Saint Petersburg: European University at St. Petersburg.

21. Maciel, C. et al. (2017) Interacting with digital memorials in a cemetery: Insights from an immersive practice. 2017 Federated Conference on Computer Science and Information Systems (FedCSIS). IEEE. pp. 1239-1248.

22. Allison, F. et al. (2023) Bones of contention: Social acceptance of digital cemetery technologies. Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems. pp. 1-17.

23. Ulnicane, I. et al. (2021) Framing governance for a contested emerging technology: insights from AI policy. Policy and Society. 40 (2). pp. 158177.

24. Agnew, W., McKee, K.R. & Kay, J. (2023) Technologies of Resistance to AI. Power, Participation and Alignment. [Online] Available from: https://eaamo.org/papers/ EAAMO23_paper_154.pdf (Accessed: 15.01.2024).

25. Lupo, G. (2023) Risky Artificial Intelligence: The Role of Incidents in the Path to AI Regulation. Law, Technology and Humans. 5 (1).

26. Buhmann, A. & Fieseler, C. (2023) Deep Learning Meets Deep Democracy: Deliberative Governance and Responsible Innovation in Artificial Intelligence. Business Ethics Quarterly. 33 (1). pp. 146-179.

27. Bychkova, O.V. & Kosmarskiy, A.A. (2021) Blokcheyn kak res publica: k politicheskoy genealogii raspredelennogo reestra [Blockchain as res publica: towards a political genealogy of a distributed ledger]. Filosofiya. Zhurnal Vysshey shkoly ekonomiki. 5 (4). pp. 175-200.

Информация об авторах:

Попова Е.В. - канд. полит. наук, доцент, и.о. зав. кафедрой антропологии и этнологии Национального исследовательского

Томского государственного университета (Томск, Россия). E-mail: [email protected]

Мацепуро Д.М. - канд. ист. наук, директор Сибирского (Томского) центра изучения искусственного интеллекта и цифровых

технологий, директор Центра науки и этики Национального исследовательского Томского государственного университета

(Томск, Россия). E-mail: [email protected]

Авторы заявляют об отсутствии конфликта интересов.

Information about the authors:

E.V. Popova, Cand. Sci. (Political Science), docent, acting head of the Department of Anthroplogy and Ethnology, National Research Tomsk State University (Tomsk, Russian Federation). E-mail: [email protected]

D.M Matsepuro, Cand. Sci. (History), director of the Siberian (Tomsk) Center for the Study of Artificial Intelligence and Digital Technologies, director of the Center of Science and Ethics, National Research Tomsk State University (Tomsk, Russian Federation). E-mail: [email protected]

The authors declare no conflicts of interests.

Статья поступила в редакцию 05.02.2024; одобрена после рецензирования 25.05.2024; принята к публикации 31.05.2024.

The article was submitted 05.02.2024; approved after reviewing 25.05.2024; accepted for publication 31.05.2024.

i Надоели баннеры? Вы всегда можете отключить рекламу.