Научная статья на тему 'ОТ СОЦИОЛОГИИ АЛГОРИТМОВ К СОЦИАЛЬНОЙ АНАЛИТИКЕ ИСКУССТВЕННОЙ СОЦИАЛЬНОСТИ: АНАЛИЗ КЕЙСОВ API И CHATGPT'

ОТ СОЦИОЛОГИИ АЛГОРИТМОВ К СОЦИАЛЬНОЙ АНАЛИТИКЕ ИСКУССТВЕННОЙ СОЦИАЛЬНОСТИ: АНАЛИЗ КЕЙСОВ API И CHATGPT Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
42
13
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / искусственная социальность / взаимозависимость «человек — алгоритм» / ChatGPT / API / новая социальная аналитика / artificial intelligence / artificial sociality / human-algorithm interdependence / ChatGPT / API / new social analytics

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Резаев Андрей Владимирович, Трегубова Наталья Дамировна

Статья рассматривает два примера информационных технологий — API и ChatGPT, — стремительно набравших популярность в последние несколько лет. Авторы описывают каждый из кейсов и анализируют, какие проблемы распространение этих технологий ставит перед социальными учеными. Отдельно рассматривается влияние ChatGPT и сходных технологий на сферу образования в рамках более общей тенденции — развития универсальных технологий искусственного интеллекта. В заключении обсуждается взаимосвязь между рассмотренными технологиями, которая определяется развитием онлайн-культуры и взаимозависимости «человек — алгоритм». Авторы формулируют тезис о необходимости перехода к новым исследовательским вопросам об искусственной социальности в рамках социальной аналитики и иллюстрируют его на примере анализа использования ChatGPT в разных обществах и культурах.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

FROM THE SOCIOLOGY OF ALGORITHMS TO SOCIAL ANALYTICS OF ARTIFICIAL SOCIALITY: REFLECTING ON THE CASES OF API AND CHATGPT

Building on understanding AI as a set of rules that simulates humans’ goal-oriented rational actions, this paper conceptualizes and offers a framework for analyzing two cases of currently developed technologies: API and ChatGPT. The authors probe the approach they introduced recently to parse out how these two cases shape the development of social sciences in studying human-machine interdependence. They formalize the problems that the technological advancement of API and ChatGPT generate for society. Specifically, the paper considers the impact of ChatGPT on education. The authors characterize the relationships between API and ChatGPT regarding online culture and human-algorithm interdependence advances. Questioning how and why ChatGPT is to be used in different societies and cultures, they argue that new social analytic needs to be developed to approach further questions coming to the fore with a new reality — artificial sociality

Текст научной работы на тему «ОТ СОЦИОЛОГИИ АЛГОРИТМОВ К СОЦИАЛЬНОЙ АНАЛИТИКЕ ИСКУССТВЕННОЙ СОЦИАЛЬНОСТИ: АНАЛИЗ КЕЙСОВ API И CHATGPT»

®

ИССЛЕДОВАНИЯ НАУКИ И ТЕХНОЛОГИЙ

DOI: 10.14515/monitoring.2023.3.2384

А. В. Резаев, Н. Д. Трегубова

ОТ СОЦИОЛОГИИ АЛГОРИТМОВ К СОЦИАЛЬНОЙ АНАЛИТИКЕ ИСКУССТВЕННОЙ СОЦИАЛЬНОСТИ: АНАЛИЗ КЕЙСОВ API И CHATGPT

Правильная ссылка на статью:

Резаев А. В., Трегубова Н. Д. От социологии алгоритмов к социальной аналитике искусственной социальности: анализ кейсов API и ChatGPT // Мониторинг общественного мнения: экономические и социальные перемены. 2023. № 3. С. 3—22. https://doi.org/10.14515/ monitoring.2023.3.2384. For citation:

Rezaev A. V., Tregubova N. D. (2023) From the Sociology of Algorithms to Social Analytics of Artificial Sociality: Reflecting on the Cases of API and ChatGPT. Monitoring of Public Opinion: Economic and Social Changes. No. 3. P. 3-22. https://doi.org/10.14515/monitoring.2023.3. 2384. (In Russ.)

Получено: 11.02.2023. Принято к публикации: 17.04.2023.

ОТ СОЦИОЛОГИИ АЛГОРИТМОВ К СОЦИАЛЬНОЙ АНАЛИТИКЕ ИСКУССТВЕННОЙ СОЦИАЛЬНОСТИ: АНАЛИЗ КЕЙСОВ API И CHATGPT

РЕЗАЕВ Андрей Владимирович — доктор философских наук, профессор, руководитель Международной исследовательской лаборатории ТАНДЕМ, Санкт-Петербургский государственный университет, Санкт-Петербург, Россия E-MAIL: rezaev@hotmail.com https://orcid.org/0000-0002-3918-835X

ТРЕГУБОВА Наталья Дамировна — кандидат социологических наук, доцент кафедры сравнительной социологии, Санкт-Петербургский государственный университет, Санкт-Петербург, Россия E-MAIL: n.tregubova@spbu.ru https://orcid.org/0000-0003-3259-5566

Аннотация. Статья рассматривает два примера информационных технологий — API и ChatGPT,— стремительно набравших популярность в последние несколько лет. Авторы описывают каждый из кейсов и анализируют, какие проблемы распространение этих технологий ставит перед социальными учеными. Отдельно рассматривается влияние ChatGPT и сходных технологий на сферу образования в рамках более общей тенденции — развития универсальных технологий искусственного интеллекта. В заключении обсуждается взаимосвязь между рассмотренными технологиями, которая определяется развитием онлайн-культуры и взаимозависимости «человек — алгоритм». Авторы формулируют тезис о необходимости перехода к новым исследовательским вопросам об искусственной социальности в рамках социальной аналитики и иллюстриру-

FROM THE SOCIOLOGY OF ALGORITHMS TO SOCIAL ANALYTICS OF ARTIFICIAL SOCIALITY: REFLECTING ON THE CASES OF API AND CHATGPT

Andrey V. REZAEV 1 — Prof. Dr. habil., Director of International Research Laboratory TANDEM

E-MAIL: rezaev@hotmail.com https://orcid.org/0000-0002-3918-835X

Natalia D. TREGUBOVA1—Cand. Sci. (Soc.), Associate Professor, Chair of Comparative Sociology

E-MAIL: n.tregubova@spbu.ru https://orcid.org/0000-0003-3259-5566

1 St Petersburg State University, St Petersburg, Russia

Abstract. Building on understanding AI as a set of rules that simulates humans' goal-oriented rational actions, this paper conceptualizes and offers a framework for analyzing two cases of currently developed technologies: API and ChatGPT. The authors probe the approach they introduced recently to parse out how these two cases shape the development of social sciences in studying human-machine interdependence. They formalize the problems that the technological advancement of API and ChatGPT generate for society. Specifically, the paper considers the impact of ChatGPT on education. The authors characterize the relationships between API and ChatGPT regarding online culture and human-algorithm interdependence advances. Questioning how and why ChatGPT is to be used in different societies and cultures, they argue that new social analytic needs to be developed to approach further questions

ют его на примере анализа использования ChatGPT в разных обществах и культурах.

Ключевые слова: искусственный интеллект, искусственная социальность, взаимозависимость «человек — алгоритм», ChatGPT, API, новая социальная аналитика

Благодарность. Исследование выполнено при финансовой поддержке РФФИ и Министерства по науке и технологиям Тайваня в рамках научного проекта № 21-511-52002. Авторы выражают искреннюю благодарность двум анонимным рецензентам за внимательное отношение к работе, ценные замечания и рекомендации.

coming to the fore with a new reality — artificial sociality.

Keywords: artificial intelligence, artificial sociality, human-algorithm interdependence, ChatGPT, API, new social analytics

Acknowledgments. The study was supported by RFBR and MOST, the research project No. 21-511-52002. The authors acknowledge valuable comments and recommendations provided by two anonymous reviewers of the paper's earlier draft.

Введение

Цель настоящей статьи — рассмотреть два примера ставших популярными технологий, API и ChatGPT, с точки зрения развития искусственной социальности и ее осмысления в социологии. В наших публикациях, посвященных развитию современных информационных технологий [Rezaev, 2021; Резаев, Трегубова, 2019, 2022], мы рассуждали об искусственном интеллекте (ИИ), искусственной социальности, онлайн-культуре, формировании взаимозависимости «человек — машина/алгоритм». Были предложены соответствующие определения [Резаев, Трегубова, 2019: 40—43], сформулированы ключевые теоретико-методологические тезисы о том, что и как исследовать социальным ученым в связи со стремительным вхождением технологий ИИ в повседневную жизнь общества.

Наш первый и основной тезис состоит в том, что технологии ИИ, ранее направленные на решение инструментальных задач, становятся активными посредниками и участниками социальных взаимодействий.

Второй тезис заключается в том, что люди и вычислительные машины/алгоритмы — принципиально разные сущности, и понять их взаимодействие и его результаты в принципе можно, только если помнить об этой разнице и понимать ее.

Третий тезис состоит в том, что, несмотря на острую необходимость в осмыслении процессов и явлений, связанных с развитием искусственной социальности, социологи здесь пока хронически отстают. При этом обращение социологов (и шире — социальных ученых) к проблематике ИИ могло бы помочь социологии справиться с ее современным кризисом.

То, что мы будем обсуждать в настоящей статье, опирается на сформулированные тезисы, раскрывает их и — в этом отношении — не характеризует принципи-

ально новые теоретико-методологические положения. Однако здесь проблемы искусственной социальности мы рассматриваем на материалах двух конкретных кейсов. Один кейс — это широкое распространение класса технологий API и, соответственно, популярность API management. Второй кейс — конкретная технология ИИ, которая приобрела известность и необычайную популярность, — ChatGPT.

В рамках статьи мы попытаемся ответить на следующие вопросы: что такое API? Что такое ChatGPT? Что нового привносит каждый из кейсов в развитие искусственной социальности и в формирование взаимозависимости «человек—алгоритм»? Есть ли связь между развитием этих технологий? Что могут и чего не могут социологи, анализируя подобные кейсы?

Однако перед тем как перейти к характеристике искомых технологий, необходимо сделать несколько замечаний об идее взаимозависимости «человек—машина/ алгоритм».

Информационные технологии в условиях развития взаимозависимости «человек — машина/алгоритм»

Развитие агентов ИИ невозможно представить без их постоянного взаимодействия с людьми, но и жизнь современного человечества практически немыслима без использования технологий ИИ. На современном этапе технологического развития уже недостаточно говорить о том, что искусственный интеллект является активным участником и посредником во взаимодействиях между людьми, то есть о формировании искусственной социальности. Возникает нечто новое — взаимозависимость между человеком и машиной/алгоритмом (human-machine interdependence) [Rezaev, 2021]. Полный цикл этой взаимозависимости проходит три этапа. Сначала человек создает машины, затем передает контроль над автоматами алгоритмам, включая алгоритмы ИИ, а на завершающем этапе возникает положение, когда человек не может организовывать и проживать свою жизнь без алгоритма, становится зависимым от него 1.

Формирование взаимозависимости между людьми и алгоритмами в значительной степени связано с характером данных. Те данные, которые сегодня используются в бизнесе, в управлении, в организации взаимодействий между людьми, — колоссальные по масштабу, разнообразию и скорости поступления, и поэтому уже не могут быть проанализированы человеком или группой людей. Здесь нужны алгоритмы, которые способны не только анализировать информацию, но и принимать промежуточные решения, при этом конкретные варианты использования подобных алгоритмов могут быть очень разными 2. Вместе с тем и сами алгоритмы не могут работать без людей, они вынуждены постоянно с ними взаимодействовать — как для принятия решений, так и для сбора данных пользователей, чтобы было на чем обучаться другим алгоритмам.

При этом для формирования взаимозависимости важны как сами технологии ИИ, так и иные информационные технологии, обеспечивающие их эффек-

1 Насколько нам известно, данное определение взаимозависимости «человек — машина» в специальной литературе формулируется впервые. Однако сходные процессы, хотя и в иных терминах, неоднократно описаны и обсуждались в литературе на стыке социальных и технических наук (см., например, [Ли, 2019; О'Нил, 2018]).

2 Наиболее очевидный пример — сфера высокочастотной торговли (high-frequency trading) [MacKenzie, 2018].

тивную деятельность. В качестве примера первых в настоящей статье выступает ChatGPT, в качестве примера вторых — API.

Представляется, что сегодня вопрос уже не в том, возможно ли будущее без искусственного интеллекта, — вопрос в том, каким станет будущее с ним. И здесь перед социальными учеными встает вопрос, в каких терминах анализировать и как исследовать новые явления и процессы, связанные с формированием взаимозависимости «человек—машина/алгоритм».

В социальных науках предлагаются разные концептуальные решения для анализа вхождения технологий ИИ в жизнь общества и роста взаимозависимости между людьми и этими технологиями.

Одно из наиболее популярных направлений — STS (science and technology studies), к которому мы относим и акторно-сетевую теорию. Здесь подобного рода вопросы начали обсуждаться еще в конце 1980-х годов [Woolgar, 1985; Law, 1990]. Исследования в рамках данного направления изначально фокусируются на процессах взаимосвязей и взаимозависимостей между людьми, вещами, идеями и т. д. В этом их преимущество для анализа процессов формирования взаимозависимости между людьми и ИИ, однако в этом и их ограничение. Суть дела в том, что в STS интерес ученых направлен на конкретные технологии в конкретных ситуациях их создания / распространения / использования. Поэтому исследовательские подходы в рамках STS позволяют ухватить специфику конкретных кейсов, однако плохо пригодны для обобщения таких проблем, как «технологии ИИ и их влияние на современный мир», — да они и не ставят перед собой подобную задачу. Если же обобщение имеет место, то обычно оно происходит сразу до «алгоритмов» (см., например, [Lee, Larsen, 2019]), что не позволяет поставить вопрос об отличительных чертах ИИ. Нам известна лишь одна последовательная и серьезная попытка в рамках STS проанализировать специфику ИИ — это работы Гарри Коллинза [Collins 2018; 2021]. Однако и здесь автор для теоретизирования об ИИ вынужден обращаться к «внешним» источникам — к микросоциологии и философии языка.

Еще одно направление исследования взаимозависимости «человек — алгоритм» в современных социальных науках связано с анализом новых информационных технологий как агентов коммуникации. Причем особый интерес вызывают не работы, отталкивающиеся от исследования медиа, где ИИ остается своего рода «черным ящиком» (см., например, [Guzman, Lewis, 2020]), а исследования, основанные на социологических подходах к анализу коммуникации. Здесь необходимо выделить работы Елены Эспозито, которая использует лумановскую теорию коммуникации для анализа возникновения и функционирования новых технологий, не умеющих думать, но способных поддерживать коммуникацию [Esposito, 2017; 2022].

Наконец, отдельные социологические исследования фокусируются на социальной критике вхождения технологий ИИ в жизнь людей, рассматривая вопросы о трансформации существующих видов неравенства и формировании новых его видов [Joyce et al., 2021]. Большинство подобных исследований сосредоточено на текущих тенденциях, что не позволяет их авторам увидеть контуры новой взаимозависимости «человек — машина». В качестве исключения следует упомянуть прежде всего теорию «надзорного капитализма» Шошаны Зубофф [Zuboff, 2019].

Основным ограничением для всех трех выделенных направлений оказывается то, что ученые склонны рассматривать ИИ как «еще одну» технологию (совокупность технологий). Исследования Г. Коллинза, Е. Эспозито, Ш. Зубофф — важные исключения. Вместе с тем в социальных науках, помимо упомянутых работ, существуют и иные концепции, в рамках которых ИИ понимается как особого рода технология — и похожая, и непохожая на человека [Dreyfus, 1992; Wolfe, 1993; Turkle, 2005]. Именно эта игра сходств и различий и делает искусственный интеллект особенным с точки зрения социальной теории — и именно здесь, мы полагаем, лежит ключ к пониманию того, как анализировать процессы формирования взаимозависимости «человек — алгоритм». Далее мы попытаемся применить данную установку к анализу API и ChatGPT.

API: от коммуникации между машинами к взаимодействию между организациями

Аббревиатура API означает application programming interface. На русский язык данный термин чаще переводится как «программный интерфейс приложения» или вообще остается без перевода. «Интерфейс» обозначает границу, «стык» между компьютерными системами (приложениями, программами, частями одной программы), выполняющими некоторые функции по обработке информации. Для конкретной программы или приложения программируются правила о том, как другие программы могут обмениваться с ней информацией: эти правила и есть API. В повседневной жизни мы постоянно сталкиваемся с их применением, например, когда приложение, информирующее нас о погоде, посылает запрос в метеослужбу 3. Возможность совершить покупку онлайн 4 или зарегистрироваться на некотором сайте через аккаунт в социальных сетях 5 также определяется работой API искомых сайтов и банка / социальной сети.

Итак, API — это правила обмена информацией одной компьютерной системы с другими. Здесь необходимо выделить несколько аспектов:

1) API определяет правила в одностороннем порядке. При этом правила могут быть разными для разных внешних программ. Скажем, некоторый банк разрешает оплату для одних сайтов, но запрещает для других.

2) Правила API можно рассматривать в юридических терминах—как контракт (договор) 6.

3) API позволяет программам взаимодействовать так, что их внутренние процессы остаются скрытыми друг от друга 7. Таким образом, API позволяют разработчикам открывать информацию на свое усмотрение. Однако пользователи часто остаются в неведении о том, какие данные получают внешние приложения и программы.

3 Что такое API? // AWS. URL: https://aws.amazon.com/ru/what-is/api/ (дата обращения: 10.02.2023).

4 Что такое API // Хабр. 2019. 19 августа. URL: https://habr.com/ru/post/464261/ (дата обращения: 10.02.2023).

5 Что такое API. Объясняем простыми словами // Секрет фирмы. 2021. 30 октября. URL: https://secretmag.ru/ enciklopediya/chto-takoe-api-obyasnyaem-prostymi-slovami.htm (дата обращения: 10.02.2023).

6 Что такое API // Хабр. 2019. 19 августа. URL: https://habr.com/ru/post/464261/ (дата обращения: 10.02.2023).

7 Что такое API и как он работает // Skillbox Медиа. 2022. 26 октября. URL: https://skillbox.ru/media/code/chto_ takoe_api/ (дата обращения: 10.02.2023).

4) Использование API может осуществляться как без участия человека 8 (например, приложение погоды запрашивает информацию у метеостанции), так и при его участии (например, вы регистрируетесь на сайте через аккаунт в социальной сети). Во втором случае над API «надстраивается» пользовательский интерфейс 9.

API — это широкий класс технологий 10, используемых давно и повсеместно: в программировании, в работе операционных систем, при взаимодействии сервисов в интернете 11. Почему же API и API management стали популярными именно в последние годы? 12

Ответ на эти вопросы заключается в том, что сегодня API все чаще рассматривается не как программный код, а как продукт, который одни организации (платно или бесплатно) предоставляют другим 13. То есть, оставаясь инструментом коммуникации между компьютерными программами, API становится средством для выстраивания взаимодействия между организациями.

Почему так происходит? Сегодня многие покупки и — шире — многие взаимодействия и активности осуществляются онлайн: развивается то, что в специальной литературе именуется «платформенной экономикой» и «алгоритмическим управлением» [Радаев, 2022]. API позволяют организации превратить ее продукты в платформы, предоставляя их внешним пользователям 14. И здесь, разумеется, необходимо решать, что, в каком виде и на каких условиях предоставлять. Как следствие, возникают идеи о необходимости новых форм управления, API management [Mathijssen, Overeem, Jansen, 2020], обсуждаемые в связи с цифровой трансформацией (digital transformation) 15. Последняя предполагает повышение уровня использования цифровых технологий в бизнесе и не только 16 и призвана увеличить объем прибыли трансформирующихся компаний.

Итак, как можно характеризовать развитие API, если отталкиваться от концепции искусственной социальности? И чем здесь могут быть полезны социологи?

Прежде всего, API организует коммуникацию «алгоритм — алгоритм». Однако сегодня, не переставая быть инструментом коммуникации между компьютерными

8 Работа API без участия человека — пример расширения взаимозависимости «человек—алгоритм», когда в некоторых цепочках взаимодействий человека может уже не быть. Однако нужно понимать, что сам процесс взаимодействия технологий организуют (пока еще) люди.

9 Что такое API // Хабр. 2019. 19 августа. URL: https://habr.com/ru/post/464261/ (дата обращения: 10.02.2023).

10 API можно определить и как правила, и как технологии. API — это формализованные (запрограммированные) правила обмена информацией, а совокупность таких правил сама является информационной технологией.

11 Что такое API и как он работает // Skillbox Медиа. 2022. 26 октября. URL: https://skillbox.ru/media/code/chto_ takoe_api/ (дата обращения: 10.02.2023).

12 Google trends фиксирует рост поиска по запросам API и API management в течение последних двух лет. В техническом секторе востребованность работы с API возникла, видимо, еще раньше: см. Что такое API // Хабр. 2019. 19 августа. URL: https://habr.com/ru/post/464261/ (дата обращения: 10.02.2023).

13 Frye M.-K. What is an API? // MuleSoft. URL: https://www.mulesoft.com/resources/api/what-is-an-api (дата обращения: 10.02.2023).

14 The Practical Guide to API Management // Software AG. URL: https://www.softwareag.com/en_corporate/resources/ api/guide/api-management.html (дата обращения: 18.06.2023). Заметим, что API management также означает превращение стратегии развития API в организации в маркетинговый продукт.

15 Zachariadis M., Ozcan P. The API Economy and Digital Transformation in Financial Services: The Case of Open Banking. SWIFT Institute Working Paper No. 2016—001. 2017. http://dx.doi.org/10.2139/ssrn.2975199.

16 Цифровизация и искусственный интеллект // Социодиггер. 2020. Вып. 3. URL: https://sociodigger.ru/3d-flip-book/ 2020vol1-3/ (дата обращения: 10.02.2023).

программами, API встраивается в систему взаимозависимости «человек—машина/ алгоритм».

Во-первых, над взаимодействием между приложениями с помощью API сегодня часто «надстраивается» пользователь, который и запускает это взаимодействие, запрашивая информацию, совершая покупку, проходя регистрацию онлайн.

Во-вторых, API все чаще используется для определения границ между организациями и регулирования взаимодействия между ними. Здесь технические границы (интерфейсы) применяются для создания и поддержания социальных и экономических границ.

В-третьих, подобное использование API имеет последствия на макроуровне: оно обеспечивает рост экономики платформ и способствует цифровой трансформации. Что, в свою очередь, задает новые векторы развития API.

Наконец, те «договоры», которые заключают между собой программы, взаимодействующие через API, становятся предметом этических и юридических споров. Какие данные следует и не следует передавать? Что должен знать и с чем должен соглашаться пользователь при передаче данных о себе? И кто несет ответственность, если что-то пошло не так в конкретной ситуации?

Социологам, безусловно, есть что сказать в отношении сформулированных тенденций. Границы между организациями и роль технологий в их поддержании — проблема, которой они охотно и плодотворно занимаются [Папакостас, 2016]. Современные тенденции экономического развития анализируются социальными учеными в терминах «капитализма платформ» [Срнчек, 2019] и «надзорного капитализма» [Zuboff, 2019]. Вопросы поведения пользователей, их отношения к проблемам приватности и утечке данных также активно обсуждаются социологами (см., например, [Heimstädt, Egbert, Esposito, 2020]). Таким образом, использование API порождает важные и интересные проблемы, которые могут становиться предметом социологических исследований.

Но причем здесь «искусственная социальность»? Какое отношение распространение API имеет, собственно, к искусственному интеллекту? Суть дела в том, что API обеспечивает развитие взаимозависимости «человек—алгоритм», в рамках которой становятся все более востребованными технологии ИИ. Анализу одной из таких технологий будет посвящен следующий раздел.

ChatGPT как «лакмусовая бумажка» развития искусственной социальности

ChatGPT—чат-бот, созданный компанией OpenAI и представленный в открытый доступ в ноябре 2022 г.17 ChatGPT обладает широкими способностями в создании текстов: он отвечает на вопросы, пишет рассказы, научные и журналистские статьи, стихи и даже программный код. В последние месяцы в сети активно обсуждаются его поразительные способности и не менее поразительные ошибки 18.

17 ChatGPT: Optimizing Language Models for Dialogue // OpenAI. 2022. November 30. URL: https://openai.com/blog/ chatgpt/ (дата обращения: 10.02.2023).

18 Обзор возможностей и ограничений чат-бота можно найти, например, в: Обзор ChatGPT с примерами использования в различных задачах // Хабр. 2022. 31 декабря. URL: https://habr.com/ru/post/708646/ (дата обращения: 10.02.2023) и Yang S. The Abilities and Limitations of ChatGPT // Anaconda. 2022. 10 December. URL: https://www. anaconda.com/blog/the-abilities-and-limitations-of-chatgpt (дата обращения: 10.02.2023). Комментарии к первому материалу свидетельствуют, что ответы, которые дает ChatGPT, меняются: чат-бот «дообучается» и обновляется разработчиками, чтобы устранить ошибки.

ChatGPT основан на языковой модели GPT-3.5; предшествовавшие ей модели (GPT-2 и GPT-3) обсуждались разработчиками ИИ и заинтересованной общественностью последние три года 19. В марте 2023 г. OpenAI выпустила новую версию чат-бота, основанную на новой языковой модели — GPT-4 20. Создание этих моделей потребовало обучения на огромных массивах данных и использования значительных вычислительных мощностей. Данные (разного рода тексты) были получены из интернета; для обеспечения необходимых вычислительных мощностей использовалась платформа Azure компании Microsoft. Сама компания OpenAI была основана в 2015 г. как некоммерческая организация, однако впоследствии у нее появилось коммерческое (ориентированное на прибыль) «крыло», одним из результатов работы которого и стал ChatGPT.

Результат этот, несмотря на некоторые ошибки чат-бота, выглядит удивительно убедительным — особенно для людей, далеких от компьютерных наук. Следует заметить, что убедительность результатов связана не только с качествами самого чат-бота, но и с тем, что люди склонны «одушевлять» подобные технологии и закрывать глаза на их ошибки. Это было замечено еще Джозефом Вейценбау-мом, который был удивлен слишком оптимистичным восприятием возможностей созданной им программы «Элиза» (1966)—достаточно простого по своей структуре чат-бота-психотерапевта [Вейценбаум, 1982]. От более ранних технологий ChatGPT отличает то, что он может поддерживать беседу и генерировать текст практически на любые темы, на разных языках и в разных форматах, и при этом его ответы выглядят достаточно правдоподобными (хотя они не всегда верны).

Разумеется, можно (и нужно) говорить о том, что ChatGPT не человек, что он не учится как человек. Но для социологов важно не это (хотя социальным аналитикам, к чему мы вернемся в конце статьи, необходимо учитывать данное обстоятельство). Что же важно? Важно, в каких ситуациях, как и с какими последствиями новая технология ИИ будет использоваться.

Однако перед тем как ответить на вопрос об использовании, рассмотрим, как чат-бот взаимодействует с пользователями. Здесь будет полезным сравнение ChatGPT с языковой моделью, на основании которой он разрабатывался. Оказывается, что по сравнению с GPT-3 ChatGPT «знает» (может сообщить) примерно тот же объем информации, однако эту информацию легче извлечь: чат-бот лучше настроен на взаимодействие с пользователем 21. Настройка эта производилась через учет реакций людей, которые выбирали из сгенерированных чат-ботом текстов тот, что кажется им наилучшим. Таким образом, ChatGPT устроен так, чтобы создавать текст, который понравится пользователю. Кроме того, чат-

19 Обсуждение технических особенностей моделей можно найти, например, в: AI Language Models & Transformers // Computerphile. URL: https://www.youtube.com/watch?v=rURRYI66E54&ab_channel=Computerphlle (дата обращения: 10.02.2023) и GPT3: An Even Bigger Language Model // Computerphile. URL: https://www.youtube.com/ watch?v=_8yVOC4ciXc&ab_channel=Computerphile (дата обращения: 10.02.2023). В популярных медиа в связи с моделью GPT-3 часто обсуждался вопрос, заменит ли ИИ человека. Интересный пример, когда сам ИИ создает текст о том, почему его не нужно бояться: A Robot Wrote this Entire Article. Are you Scared Yet, Human? // The Guardian. 2020. September 8. URL: https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3 (дата обращения: 10.02.2023).

20 GPT-4 // OpenAI. 2023. March 14. URL: https://openai.com/research/gpt-4 (дата обращения: 13.04.2023).

21 ChatGPT with Rob Miles // Computerphile. URL: https://www.youtube.com/watch?v=viJt_DXTfwA (дата обращения: 10.02.2023).

бот обучали избегать генерации текстов, содержащих оскорбительную или травмирующую информацию.

С такого рода подстройкой под пользователя связаны четыре особенности ChatGPT — конформность, самоцензура, упрощение задачи и создание правдоподобной, но ложной по сути информации. Выделяя эти свойства, мы не приписываем чат-боту человеческие характеристики. Данные характеристики следует понимать в терминах теории коммуникации, где у отправителя сообщения есть некоторая цель (получить одобрение пользователя) и определенные представления, как эту цель достичь (модель обобщенного пользователя, созданная в ходе обучения). В связи с этим возникает разрыв между тем, какой информацией располагает отправитель сообщения, и тем, что именно он сообщает.

Конформность легче всего проиллюстрировать на примере «математических способностей» чат-бота. В первой версии ChatGPT не был уверен, сколько будет два плюс два: чат-бот отвечал «четыре», но если пользователь настаивал на ответе «пять», то чат-бот соглашался с ним 22. В обновленной версии разработчики устранили данную проблему, однако ChatGPT продолжает совершать ошибки и менять ответы в зависимости от реакции пользователей 23.

Самоцензура проявляется в том, что ChatGPT утверждает, что чего-то не знает или не может сделать, тогда как в действительности обладает запрашиваемой информацией. Например, он избегает давать медицинские или юридические советы. Иногда это принимает неожиданные формы: например, на вопрос, заданный по-датски, ChatGPT отвечает на датском языке, что «знает» только английский и может отвечать только на нем 24.

Кроме того, ChatGPT иногда допускает упрощение поставленных перед ним задач, если «предполагает», что пользователь этого не заметит. Например, если попросить чат-бота написать сонет, он напишет обычное стихотворение. Однако если указать на ошибку, он исправится 25.

Наконец, ChatGPT иногда «фантазирует» («галлюцинирует»), то есть генерирует текст, содержащий правдоподобные, но фактически не верные утверждения. Так, по нашему собственному опыту, если попросить ChatGPT составить список научной литературы по теме, он сгенерирует несуществующие источники, причем и фамилии авторов, и названия журналов смотрятся уместно. Однако самих публикаций нет в природе.

Все эти особенности взаимодействия обусловлены тем, что взаимозависимость между людьми и алгоритмами возникает уже при создании ChatGPT. Причем эта взаимозависимость как минимум четырехэтапная. Чат-бот зависит от а) техни-

22 См., например, Trottier Ch. Yeah, I Wouldn't Trust ChatGPT with Anything // Mastodon. URL: https://mastodon.social/@ atomicpoet/109738232324672153 (дата обращения: 10.02.2023) и Even ChatGPT Who's Always Right! // Reddit. URL: https://www.reddit.com/r/ChatGPT/comments/10ksh47/even_chatgpt_whos_always_right/ (дата обращения: 10.02.2023).

23 Southern M. G. ChatGPT Update: Improved Math Capabilities // Search Engine Journal. 2023. January 31. URL: https:// www.searchenginejournal.com/chatgpt-update-improved-math-capabilities/478057 (дата обращения: 10.02.2023).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

24 ChatGPT with Rob Miles // Computerphile.URL: https://www.youtube.com/watch?v=viJt_DXTfwA (дата обращения: 10.02.2023).

25 Предположительно это связано с тем, что для тестировщиков, обучавших ИИ, было не так важно, что перед ними — сонет или другой вид стихотворения. ChatGPT with Rob Miles // Computerphile. URL: https://www.youtube.com/ watch?v=viJt_DXTfwA (дата обращения: 10.02.2023).

ческих (и этических) решений его разработчиков; б) данных в интернете, на которых обучалась языковая модель; в) действий тестировщиков, определявших наилучший ответ; г) обратной связи пользователей, на основе которой чат-бот учится и разработчики исправляют технологию в режиме реального времени.

Для понимания динамики коммуникации ChatGPT с интернет-пользователями наиболее важной представляется способность чат-бота подстраиваться под них, основанная на реакциях тестировщиков, на которых программа обучалась. Tе-стировщики же представляют собой нерандомизированную выборку всех пользователей. Более того, их суждения о правильности/корректности ответов чат-бота — прокси-переменные для действительной правильности и корректности этих ответов. А это уже проблемы, хорошо знакомые социологам. Tак, ChatGPT не выдавал сонет по запросу «сонет», поскольку не все тестировщики были знакомы с формами классической западной поэзии. Социолог мог бы объяснить это международным разделением труда: предположить, что люди, хорошо знакомые с поэзией, не часто работают тестировщиками и, более того, большинство тестировщиков живут вовсе не на Западе.

Итак, ChatGPT генерирует тексты и при этом подстраивается под собеседника, ориентируясь на некоторую модель одобряемых пользователем ответов. Уровень создаваемых им текстов довольно высок, при этом чат-бот не свободен от ошибок, во многом связанных именно с подстройкой под пользователя. Как может применяться эта технология?

ChatGPT в образовании

Одна из тем, наиболее активно обсуждаемых в связи с ростом популярности ChatGPT, — возможные перемены в сфере образования26 [Rudolf, Tan, Tan, 2023] 27. В рамках настоящей статьи мы не ставим перед собой цель раскрыть данную проблему полностью, а скорее стремимся выделить некоторые новые тенденции, соотносящиеся с формированием взаимозависимости «человек—алгоритм» в сфере образования 28.

Использование технологий ИИ в обучении обсуждается давно, при этом и характер самих технологий, и наиболее популярные области их применения меняются.

В 1980-е годы были популярны экспертные системы, основанные на обобщении и формализации суждений экспертов-людей. ^гда технологии ИИ осмыслялись прежде всего с точки зрения того, как они встраиваются во взаимодействие

26 Baidoo-Anu D., Owusu Ansah L. Education in the Era of Generative Artificial Intelligence (AI): Understanding the Potential Benefits of ChatGPT in Promoting Teaching and Learning. SSRN. 2023. January 25. URL: http://dx.doi.org/10.2139/ ssrn.4337484 (дата обращения: 18.06.2023).

27 Следует также отметить, что через неделю после выхода новой версии ChatGPT Билл Гейтс (а Microsoft, напомним, сотрудничает с OpenAI) выпустил статью о начале «эры ИИ», в которой образование — наряду со здравоохранением и повышением производительности—обсуждается как одна из областей, где использование ИИ станет революционным: Gates B. The Age of AI Has Begun // GatesNotes. 2023. March 21. URL: https://www.gatesnotes.com/The-Age-of-AI-Has-Begun (дата обращения: 13.04.2023). На следующий день вышло открытое письмо с призывом «поставить на паузу» разработки в области ChatGPT и сходных технологий, которое обращает внимание на угрозу умножения лживой информации и исчезновения многих, в том числе привлекательных для человека видов работ. Среди подписавших письмо — не только известные предприниматели, такие как Илон Маск, но и профессора из университетов Беркли, Оксфорда, Гарварда, Монреаля, и др. См.: Pause Giant AI Experiments: An Open Letter // Future of Life Institute. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (дата обращения: 13.04.2023).

28 Подробнее о том, как использование ChatGPT изменит сферу образования, см. в [Резаев, Tрегyбова, 2023].

«учитель—ученик», что они в нем меняют, кого и в чем заменяют. Данный подход обнаруживается, например, в классификации технологий ИИ по тому, кто их использует (учитель или ученик) и как именно (как инструмент, объект или субъект обучения) [Romiszowski, 1987].

Современная эпоха — время искусственных нейронных сетей, обученных на больших массивах данных. Обзор современных исследований [Chu et al., 2022] показывает, что в сфере образования на первый план выходит использование предсказательных и рекомендательных алгоритмов ИИ, которые оценивают успехи студентов в процессе обучения. Их рекомендации могут затем использоваться самими студентами, преподавателями или управленцами. Заметим, что здесь ИИ уже не встраивается в отношения «ученик—учитель», а используется для того, чтобы оценивать и контролировать процесс обучения.

Как меняет ситуацию ChatGPT? Наиболее очевидное его применение в образовании — инструмент/помощник обучающегося в создании текстов, будь то сочинение, реферат или программный код. ChatGPT получает задание, студент контролирует его выполнение и вносит необходимые правки. При этом ситуации, в которых чат-бот уже используется предприимчивыми студентами, связаны с нарушением академической этики 29. По сути, это списывание, но не с работы другого студента или конкретного текста, а с чат-бота.

Здесь проявляется следующая тенденция: технологии ИИ, которые в большей степени влияют на сферу образования, — вовсе не те, что специально создавались для решения ее проблем. Если экспертные системы 1980-х базировались на оценках конкретных экспертов в отношении конкретных ситуаций, то более поздние предсказательные алгоритмы выполняют широкую задачу—предсказывают поведение людей (а разновидность поведения может быть далее конкретизирована). Следует также вспомнить об онлайн-поисковиках и онлайн-переводчиках: эти универсальные технологии оказали грандиозное, хотя и постепенное влияние на процесс обучения. Сейчас еще одна универсальная технология — генератор текстов ChatGPT и подобные ей алгоритмы ИИ — грозит повлиять на образовательный процесс, причем гораздо более резко и драматично, чем существовавшие ранее технологии 30.

Однако почему именно ChatGPT получил такую популярность? С одной стороны, ИИ, способный генерировать текст по широкому ряду тем и в разных форматах на столь высоком уровне, появился совсем недавно. С другой стороны, ChatGPT имеет удобный интерфейс и выложен в открытый доступ (чего не было, например, у GPT-3). Сочетание широких возможностей в создании текста и доступности по-

29 В России наиболее активно обсуждался случай, когда студент за сутки подготовил (и затем успешно защитил) диплом, написанный с помощью ChatGPT: «Рассмеялся на защите»: студент РГГУ защитил диплом, написанный нейро-сетью ChatGPT // Мел. 2023. 1 февраля. URL: https://mel.fm/novosti/1056732-ne-blagodarite-menya-student-rggu-zashchitil-diplom-napisanny-neyrosetyu (дата обращения: 10.02.2023). Примечательно, что студент сам рассказал в социальных сетях, как именно писал диплом. Также примечательно, что для написания диплома студенту все-таки понадобилась помощь (консультация) научного руководителя, который, в частности, правил оглавление, то есть определил структуру работы. Таким образом, ChatGPT меняет образовательные практики, но не так радикально, как могло бы показаться на первый взгляд.

30 О чем задумались и в Минобрнауки РФ: Фальков призвал не наказывать выпускников, написавших диплом с помощью нейросети ChatGPT // Тасс. 2023. 8 февраля. URL: https://tass.ru/obschestvo/16990327 (дата обращения: 10.02.2023).

зволило ChatGPT приобрести широкую популярность. Это первая технология такого рода, но, почти наверняка, не последняя 31.

Способность ChatGPT создавать тексты разного рода делает его особенно востребованным в сфере образования. В самом деле, образовательный процесс по большинству направлений обучения сегодня предполагает написание обучающимися разного рода текстов, соответствующих определенным формальным критериям. При этом в условиях массового образования требования к уровню этих текстов (опять-таки, в большинстве случаев) не будут очень высокими. Таким образом, ИИ, способный создавать тексты и доступный для широкого использования, «естественно» заменяет обучающегося (школьника или студента) в значительной части его/ее активностей.

Близким нам (социальным ученым) примером здесь будет эссе, созданное ChatGPT, сравнивающее теории национализма Б. Андерсона и Э. Геллнера 32. Авторы настоящей статьи оценили бы его на «удовлетворительно»: в нем присутствуют смысловые и стилистические несоответствия, повторы и пропуски в аргументации, да и сама аргументация выглядит поверхностной. Однако легко можно представить, что это эссе написал студент — не слишком заинтересованный и не очень хорошо погруженный в материал. Что из этого следует? Возможно, пришла пора менять само образование, а использование ChatGPT является лишь симптомом необходимости изменений.

Далее можно представить следующую ситуацию. Преподаватель задает студенту письменную работу, студент «перепоручает» ее ChatGPT, а преподаватель использует для проверки работ алгоритм ИИ, выставляющий некоторую оценку. В таком случае преподаватель и студент выступают в качестве посредников в коммуникации между алгоритмами. Вопрос здесь в том, чему учит преподаватель и чему научится студент.

И здесь от проблем образования мы переходим к не менее важным проблемам рынка труда. Технологии, подобные ChatGPT, способны выполнять «черновую работу» в таких сферах, как журналистика 33 и программирование 34. Если ИИ генерирует тексты, то роль человека — в том, чтобы выбирать из предложенных вариантов и вносить соответствующие правки. Как следствие, при довольно низких требованиях к значительной части создаваемого «продукта» использование тех-

31 Так, в ответ на популярность ChatGPT Google объявил о создании собственного чат-бота, основанного на разработанной в компании языковой модели LaMDA: Pichai S. An Important Next Step on our AI Journey // Google Official Blog. 2023. February 6. URL: https://blog.google/technology/ai/bard-google-ai-search-updates/ (дата обращения: 10.02.2023).

32 Can You Write a 4 Paragraph Academic Essay Comparing and Contrasting the Theories of Nationalism of Benedict Anderson and Ernest Gellner? // Emergent Mind. URL: https://www.emergentmind.com/posts/can-you-write-a-4-paragraph-academic-essay-comparing (дата обращения: 10.02.2023).

33 Так, «Город 812» провел «эксперимент», представив результаты работы чат-бота как тексты журналиста: Торое-ва Д. Боты среди нас // Город 812. 2022. 20 декабря. URL: https://gorod-812.ru/boty-sredi-nas/ (дата обращения: 10.02.2023). Читатели не догадались о подмене, хотя уровень текстов новой «сотрудницы» оценили не очень высоко. А «Фонтанка» попросила экспертный комментарий у ChatGPT о его влиянии на образование, см.: Есть и «тревожный сигнал». Чат-бот ChatGPT поделился с «Фонтанкой» мнением о написанном при помощи нейросети дипломе // Фонтанка. 2023. 2 февраля. URL: https://www.fontanka.ru/2023/02/02/72026822/ (дата обращения: 10.02.2023).

34 В сообществе программистов возможности и ограничения ChatGPT обсуждаются довольно активно. См., например: ChatGPT—хайп или реальная помощь разработчику? // Хабр. 2022. 7 декабря. URL: https://habr.com/ru/ post/704158/ (дата обращения: 10.02.2023) и Жуткий сценарий использования ChatGPT // Хабр. 2023. 3 февраля. URL: https://habr.com/ru/post/714792/ (дата обращения: 10.02.2023).

нологий ИИ позволит существенно сократить число работников-людей. Впрочем, подобные тенденции в связи с развитием ИИ уже давно обсуждаются и в журналистике, и в программировании, и в таких сферах, как юриспруденция, дизайн, редакторское дело. В целом же формулируется тезис о том, что развитие технологий ИИ «размывает» средний класс, резко сокращая число доступных для его представителей работ [Коллинз, 2015] 35.

Если предположить, что ChatGPT и сходные технологии действительно возьмут на себя часть работы, которую выполняют люди, что останется самим людям? Очевидно, проверять информацию, комбинировать результаты, дорабатывать текст... А значит, всему этому, возможно, и стоило бы учить в учебных заведениях. Но это означает не понижение, а повышение требований к обучающимся (вероятно, при сокращении их общего числа) и к преподавателям. Скажем, студент пишет эссе с помощью ChatGPT, а преподаватель подробно разъясняет, какие в этом эссе ошибки и недочеты. А потом просит студента а) доработать данное эссе; б) написать новое эссе «с нуля», учитывая предыдущий опыт. Возможна ли такая организация учебного процесса в эпоху массового высшего образования — вопрос открытый.

Таким образом, с точки зрения социологии ChatGPT интересен прежде всего тем, что делает очевидными проблемы, которые уже существуют в связи с развитием искусственной социальности. Это «пристрастность» алгоритмов из-за искажений в обучающих выборках, проблемы трансформации рынка труда и профессий, проблемы образования, формирование «сетевых пузырей», когда интернет-пользователи видят и слышат только то, что хотели бы слышать. Вместе с тем технологии, подобные ChatGPT, открывают новые, не всегда заранее предсказуемые возможности развития взаимозависимости «человек—алгоритм».

Вместо заключения: на пути к социальной аналитике искусственной социальности

Мы рассмотрели два кейса информационных технологий — API и ChatGPT. Есть ли между ними взаимосвязь?

Прежде всего, оба кейса связаны с развитием онлайн-культуры и сами вносят вклад в ее развитие. Технологии API не были бы столь популярны, если бы значительная часть активности людей в современном мире не проходила онлайн. А с ростом популярности API подобных активностей становится еще больше: самый яркий пример — онлайн-платежи. ChatGPT не был бы возможен без обучения на колоссальных объемах данных, извлеченных из интернета. При этом взаимодействие с ChatGPT и обсуждение опыта этого взаимодействия за несколько месяцев стали крайне популярными в самой онлайн-среде.

Вместе с тем между рассмотренными кейсами существует и более прямая связь. Для монетизации (да и просто для распространения) технологий ИИ сегодня нужны API. Языковые модели, на которых основан ChatGPT, могут быть встроены в продукты и услуги сторонних компаний через API 36, что пользует-

35 Не все ученые, однако, соглашаются, что воздействие технологий ИИ на занятость будет столь радикальным: [Ка-пелюшников, 2017].

36 OpenAI API // OpenAI. URL: https://openai.com/api/ (дата обращения: 10.02.2023).

ся спросом, ибо сторонние организации не могут создавать подобные технологии самостоятельно 37. Таким образом, развитие API служит экономическим стимулом к созданию новых технологий ИИ. Это, в свою очередь, намечает новые векторы развития искусственной социальности в условиях роста взаимозависимости «человек — алгоритм». Поэтому API и ChatGPT — это два кусочка одного паззла, новой реальности искусственной социальности. Но что в этой новой реальности делать социологам?

Выше мы наметили несколько конкретных вопросов (исследовательских проблем), которые возникают с развитием технологий: как API меняет границы между организациями? Какие новые типы организаций при этом возникают? Как несоблюдение стандартных социологических процедур при обучении ИИ влияет на конечный продукт? Как технологии типа ChatGPT ставят под вопрос методы оценки в образовании? Эти (и многие другие) вопросы могут служить для организации конкретных исследований в социологии, экономике, психологии и других социальных науках. В самой социологии они все чаще обсуждаются в рамках «исследований алгоритмов» [Beer, 2017; Lee, Larsen, 2019], которые совмещают в себе перспективы STS и критической социологии.

Однако ограничиваться подобными исследованиями — значит не видеть проблемы в целом. Развитие взаимозависимости «человек—машина/алгоритм» ставит целый ряд вопросов, ответить на которые в одиночку не может ни одна дисциплина: каким должно быть образование в эпоху, когда алгоритмы могут писать стихи и создавать компьютерные программы? Что значит быть человеком в мире, где твой самый внимательный собеседник — вычислительная машина? Что происходит с обществом, в котором «удельный вес» взаимодействий между людьми меньше, чем взаимодействий между машинами? И что делать (чему учиться, кем работать, с кем общаться) мне, конкретному человеку, в таком мире?

Подобные вопросы рассматривает не социология, не психология и даже не философия: их рассматривает социальная аналитика. Ранее мы обсуждали, что такое социальная аналитика и как она может помочь социологии с выходом из ее текущего кризиса [Резаев, Трегубова, 2022]. Социальная аналитика понимается авторами настоящей статьи как умение правильно сформулировать исследовательскую проблему о жизни людей в постоянно изменяющемся и находящемся в состоянии неопределенности обществе и предложить способы решения этой проблемы адекватными для данного этапа развития методами. Социальная аналитика использует концептуальные и методологические инструменты различных наук и сочетает разные способы исследования и формы презентации, не замыкаясь внутри узких дисциплинарных жанров. Некоторые междисциплинарные направления исследований, такие так социальная оценка технологий (technology assessment), близки к тому, что мы именуем социальной аналитикой. Предлагая более широкий термин, мы, с одной стороны, хотим заявить о наличии проблемы, с другой — посмотреть на эту проблему поверх существующих узких дисциплинарных (и междисциплинарных) границ.

37 30 миллиардов параметров: реально ли обучить русский GPT-3 в «домашних» условиях? // Хабр. 2021. 1 июля. URL: https://habr.com/ru/post/565564/ (дата обращения: 10.02.2023).

В заключение приведем пример постановки проблемы о ChatGPT в духе социальной аналитики.

Философский анализ ИИ зафиксировал существенные различия между человеком и вычислительной машиной. Действия машины основаны на универсальных алгоритмах, человек же всегда встраивается в конкретную ситуацию и действует внутри нее, приспосабливаясь к ней [Dreyfus, 1992] 38. Однако наблюдение за работой современных технологий ИИ (включая ChatGPT) показывает, что часто эти технологии как будто бы хорошо вписываются в повседневные ситуации. Как такое может быть?

«Большая» социологическая теория вроде бы дает ответ на этот вопрос. Современные технологии ИИ имитируют не мышление, а коммуникацию (в лумановском смысле), обучаясь на огромных массивах данных, созданных людьми [Esposito, 2017]. Поэтому ответы онлайн-поисковика, онлайн-переводчика или, в данном случае, чат-бота выглядят осмысленными и уместными в конкретной ситуации, хотя и основаны на универсальных алгоритмах.

Однако это лишь частичный ответ на исходный вопрос. Да, обучение на «больших данных» позволяет ИИ давать ответы, которые кажутся осмысленными. Но почему вообще возникают ситуации, а они возникают все чаще, когда использование ИИ выглядит уместным? И что говорит о современном обществе тот факт, что ИИ в нем все чаще заменяет человека?

Чтобы понять важность данной проблемы, проведем мысленный эксперимент: запустим машину времени и предложим побеседовать с ChatGPT жителям античного полиса. Что бы они стали с ним обсуждать, если представить, что нам удалось бы уговорить их это сделать? Стал бы ChatGPT чем-то вроде оракула? Стали бы ученики платоновской Академии просить чат-бот выполнить за них домашнее задание? Использовали бы его античные поэты для подготовки черновых вариантов комедий и трагедий? Пригодился бы он ораторам для подготовки речей? Для ответа на поставленные вопросы явно нужна помощь историков и искусствоведов, однако одно мы можем предположить: список ситуаций, в которых античный горожанин обращался бы к чат-боту, был бы гораздо короче, чем список современного горожанина.

И здесь мы встаем перед необходимостью масштабных сравнений того, как подобные технологии используются в разных обществах и культурах. Анализ сходств и различий в ситуациях, когда люди взаимодействуют с ChatGPT, позволил бы увидеть, чем такие ситуации характеризуются—формализацией, возможностью типизации, низкой эмоциональной вовлеченностью, игровым контекстом, еще чем-то? Может быть, сочетанием нескольких свойств? Может быть, для разных типов людей это будут разные ситуации? Возможно, разницу будут определять ценности, или нормы, или характер экономических отношений? А может быть, в современном мире интернет становится одним большим контекстом (набором контекстов), к которым технологиям ИИ приспосабливаться просто легче? Вероятно, все это будет иметь значение, но без эмпирической работы определить конкретные взаи-

38 Хьюберт Дрейфус сформулировал данный тезис на основании анализа технологий ИИ, устроенных иначе, чем искусственные нейронные сети,—технологий «символического ИИ». Представляется, однако, что тезис применим и к технологиям типа ChatGPT, которые основаны на универсальных алгоритмах иного рода и также не способны приспосабливаться к конкретным (особенно нестандартным) ситуациям. Подробно эту идею развивает Гарри Коллинз [Collins, 2018].

мосвязи между экономическими, социальными, культурными, психологическими и иными факторами не представляется возможным.

Более того, можно конкретизировать поставленную проблему применительно к сфере образования: что произошло в современном мире с взаимодействием «ученик—учитель»? Почему теперь и ученика, и учителя может, в некоторой степени, заменить ИИ? Какой будет эта степень для разных образовательных традиций в разных обществах и культурах? В каких случаях использование технологий ИИ принесет этому взаимодействию пользу, а в каких — вред? И в каких категориях определять «пользу» и «вред»?

Завершим наше рассуждение следующим — быть может, спорным,—тезисом. В конечном счете важен не сам искусственный интеллект — важно то, в какие социальные взаимодействия и отношения он встраивается, где и почему он заменяет человека. Несмотря на прорывные успехи конкретных технологий ИИ, принципы его работы не так уж сильно изменились с первых десятилетий развития данной области 39. Машина остается машиной, человек остается человеком — меняется общество. Именно поэтому развивается искусственная социальность, и именно это развитие должно стать проблемой для новой социальной аналитики.

Список литературы (References)

Вейценбаум Дж. Возможности вычислительных машин и человеческий разум. От суждений к вычислениям. М. : Радио и связь, 1982.

Weizenbaum J. (1982) Computer Power and Human Reason: From Judgment to Calculation. Moscow: Radio and communication. (In Russ.)

Капелюшников Р. И. Технологический прогресс — пожиратель рабочих мест? // Вопросы экономики. 2017. № 11. С. 111—140. https://doi.org/10.32609/0042-8736-2017-11-111-140.

Kapeliushnikov R. I. (2017) Is Technological Change a Devourer of Jobs? Voprosy Ekonomiki. No. 11. P. 111—140. https://doi.org/10.32609/0042-8736-2017-11-111-140. (In Russ.)

Коллинз Р. Средний класс без работы: выходы закрываются // Есть ли будущее у капитализма? / Сб. статей И. Валлерстайна, Р. Коллинза, М. Манна, Г. Дерлугья-на, К. Калхуна. М. : Изд-во Института Гайдара, 2015. С. 61—110. Collins R. (2015) The End of Middle-class Work: No More Escapes. In: Wallerstein I., Collins R., Mann M., Derluguian G., Calhoun C. Does Capitalism Have a Future? Moscow: Gaidar Institute Press. P. 61—110. (In Russ.)

Ли К. Сверхдержавы искусственного интеллекта. Китай, Кремниевая долина и новый мировой порядок. М. : Манн, Иванов и Фербер, 2019. Lee K.-F. (2019) AI Superpowers. China, Silicon Valley, and the New World Order. Moscow: MIF. (In Russ.)

39 Обзор истории развития ИИ представлен в [Russell, Norvig, 2016]. Примечательно, что миссия OpenAI связана с развитием общего ИИ (artificial general intelligence, AGI)—такого ИИ, который умел бы все (или почти все), что умеет человек. И сами притязания на создание AGI, и их оценка применительно к конкретным технологиям компании — интересная проблема, которая требует, однако, отдельного рассмотрения.

О'Нил К. Убийственные большие данные. Как математика превратилась в оружие массового поражения. М. : АСТ, 2018.

O'Neil C. (2018) Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Moscow: AST. (In Russ.)

Папакостас А. Становление цивилизованной публичной сферы: недоверие, доверие и коррупция. М. : ВЦИОМ, 2016.

Papakostas A. (2016) Civilizing the Public Sphere: Distrust, Trust and Corruption. Moscow: VCIOM. (In Russ.)

Радаев В. В. Экспансия платформ как вызов социологии // Социологические исследования. 2022. № 12. С. 15—28. https://doi.org/10.31857/S013216250022667-6. Radaev V. V. (2022) Platform Expansion as a Challenge for Sociology. Sotsiologicheskie issledovania. No. 12. P. 15—28. https://doi.org/10.31857/S013216250022667-6. (In Russ.)

Резаев А. В., Трегубова Н. Д. «Искусственный интеллект», «онлайн-культура», «искусственная социальность»: определение понятий // Мониторинг общественного мнения: экономические и социальные перемены. 2019. № 6. С. 35—47. https:// doi.org/10.14515/monitoring.2019.6.03.

Rezaev A. V., Tregubova N. D. (2019) Artificial Intelligence, On-Line Culture, Artificial Sociality: Definition of the Terms. Monitoring of Public Opinion: Economic and Social Changes. No. 6. P. 35—47. https://doi.org/10.14515/monitoring.2019.6.03. (In Russ.)

Резаев А. В., Трегубова Н. Д. Еще раз о социологии и социальной аналитике в эпоху развития искусственного интеллекта // Социологическое обозрение. 2022. Т. 21. № 3. С. 9—30. https://doi.org/10.17323/1728-192x-2022-3-9-30. Rezaev A. V., Tregubova N. D. (2022) Once again about Sociology and Social Analytics in the Age of Artificial Intelligence Advancement. Russian Sociological Review. Vol. 21. No. 3. P. 9—30. https://doi.org/10.17323/1728-192x-2022-3-9-30. (In Russ.)

Резаев А. В., Трегубова Н. Д. ChatGPT и пять уроков для высшей школы в период становления «искусственной социальности» // Телескоп: Журнал социологических и маркетинговых исследований. 2023. № 1. С. 57—61. https://doi.org/ 10.24412/1994-3776-2023-1-57-61.

Rezaev A. V., Tregubova N. D. (2023) ChatGPT and Five Lessons for Higher Education in the Era of "Artificial Sociality". Telescope. No. 1. P. 57—61. https://doi.org/10.24412/ 1994-3776-2023-1-57-61. (In Russ.)

Срничек Н. Капитализм платформ. М. : Изд. дом Высшей школы экономики, 2019. Srnicek N. (2019) Platform Capitalism. Moscow: HSE Press. (In Russ.)

Beer D. (2017) The Social Power of Algorithms. Information, Communication & Society. Vol. 20. No. 1. P. 1—13. https://doi.org/10.1080/1369118X.2016.1216147.

Chu H.-C., Hwang G.-H., Tu Y.-F., Yang K.-H. (2022). Roles and Research Trends of Artificial Intelligence in Higher Education: A Systematic Review of the Top 50 Most-cit-

ed Articles. Australasian Journal of Educational Technology. Vol. 38. No. 3. P. 22—42. https://doi.org/10.14742/ajet.7526.

Collins H. (2018) Artifictional Intelligence: Against Humanity's Surrender to Computers. Madford, MA: Polity Press.

Collins H. (2021) The Science of Artificial Intelligence and Its Critics. Interdisciplinary Science Reviews. Vol. 46. No. 1—2. P. 53—70. https://doi.org/10.1080/03080188. 2020.1840821.

Dreyfus H. (1992) What Computers Still Can't Do: A Critique of Artificial Reason. Cambridge, MA: MIT Press.

Esposito E. (2017) Artificial Communication? The Production of Contingency by Algorithms. Zeitschrift für Soziologie. Vol. 46. No. 4. P. 249—265. https://doi.org/10.1515/ zfsoz-2017-1014.

Esposito E. (2022) Artificial Communication: How Algorithms Produce Social Intelligence. Cambridge, MA: The MIT Press.

Guzman A. L., Lewis S. C. (2020) Artificial Intelligence and Communication: A Human-Machine Communication Research Agenda. New Media & Society. Vol. 22. No. 1. P. 70—86. https://doi.org/10.1177/1461444819858691.

Joyce K., Smith-Doerr L., Alegria S., Bell S., Cruz T., Hoffman S. G., Noble S. U., Shestakof-sky B. (2021) Toward a Sociology of Artificial Intelligence: A Call for Research on Inequalities and Structural Change. Socius. Vol. 7. https://doi.org/10.1177/2378023 121999581.

Heimstädt M., Egbert S., Esposito E. (2020) A Pandemic of Prediction: On the Circulation of Contagion Models between Public Health and Public Safety. Sociologica. Vol. 14 No. 3 P. 1—24.

Law J. (1990) Introduction: Monsters, Machines and Sociotechnical Relations. The Sociological Review. Vol. 38 No. 1_suppl. P. 1—23. https://doi.org/10.1111/j.1467-954X.1990.tb03346.x.

Lee F., Larsen L. B. (2019) How Should We Theorize Algorithms? Five Ideal Types in Analyzing Algorithmic Normativities. Big Data & Society. Vol. 6. No. 2. P. 1—6. https:// doi.org/10.1177/2053951719867349.

MacKenzie D. (2018) Material Signals: A Historical Sociology of High-Frequency Trading. American Journal of Sociology. Vol. 123. No. 6. P. 1635—1683. https://doi.org/ 10.1086/697318.

Mathijssen M., Overeem M., Jansen S. (2020) Identification of Practices and Capabilities in API Management: A Systematic Literature Review. arXiv. No. 2006.10481. https:// doi.org/10.48550/arXiv.2006.10481.

Rezaev A. V. (2021) Twelve Theses on Artificial Intelligence and Artificial Sociality. Monitoring of Public Opinion: Economic and Social Changes. No. 1. P. 20—30. https://doi.org/ 10.14515/monitoring.2021.1.1894.

Romiszowski A. (1987) Artificial Intelligence and Expert Systems in Education: Progress, Promise and Problems. Australian Journal of Educational Technology. Vol. 3. No. 1. P. 6—24. https://doi.org/10.14742/ajet.2365.

Rudolph J., Tan S., Tan Sh. (2023) ChatGPT: Bullshit Spewer or the End of Traditional Assessments in Higher Education? Journal of Applied Learning & Teaching. Vol. 6. No. 1. https://doi.org/10.37074/jalt.2023.6.1.9.

Russell S., Norvig P. (2016) Artificial Intelligence: A Modern Approach. Harlow, UK: Pearson Education Limited.

Turkle S. (2005) The Second Self: Computers and the Human Spirit (20th anniversary ed.). Cambridge, MA: MIT Press.

Wolfe A. (1993) The Human Difference: Animals, Computers, and the Necessity of Social Science. Berkley, CA: University of California Press.

Woolgar S. (1985) Why not a Sociology of Machines? The Case of Sociology and Artificial Intelligence. Sociology. Vol. 19. No. 4. P. 557—572. https://doi.org/10.1177/ 0038038585019004005.

Zuboff S. (2019) The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York, NY: Public Affairs.

i Надоели баннеры? Вы всегда можете отключить рекламу.