#
RUDN Journal of Sociology. ISSN 2313-2272 (print), ISSN 2408-8897 (online) ТёстнйкРУДн"сёрйяГсОЦИОЛОГЙ^
2024 Vol. 24 No. 2 354-378
http://journals.rudn.ru/sociology
DOI: 10.22363/2313-2272-2024-24-2-354-378 EDN: ORTHJB
Социологическая трактовка и попытка междисциплинарного исследования искусственной социальности и искусственного интеллекта*
В. Меньшиков, В. Комарова, И. Болякова, А. Ружа, О. Ружа
Даугавпилсский университет,
ул. Виенибас, 13, Даугавпилс, LV-5401, Латвия
(e-mail: [email protected]; [email protected]; [email protected]; [email protected]; [email protected])
Аннотация. В статье рассмотрены основные участники искусственной социальности (люди и инструменты искусственного интеллекта) и коммуникация между ними. Исследование является преимущественно социологическим, но обращается и к математически-технологическим аспектам инструментов искусственного интеллекта как создающим новую для человеческого общества социальную реальность — искусственную социальность. В первой части статьи авторы анализируют коммуникацию как основу социальности, используя методологию Н. Лумана. Во второй части показано, как математические технологии искусственного интеллекта стали социальными технологиями в рамках искусственной социальности. В третьей части описана экспериментальная коммуникация между людьми и искусственным интеллектом на примере ChatGPT. Было проведено социологическое исследование среди студентов Даугавпилсского университета (январь 2024 года, N = 423, исключая студентов ИТ-специальностей), позволившее выявить типологические группы по отношению к использованию искусственного интеллекта в образовании. Были определены три «идеальных типа» студентов: «пользователи-оптимисты» (18 %), «пробующие нейтралы» (17 %) и «избегающие скептики» (10 %), а также смешанная группа «пробующих оптимистов» (31 %) — наиболее многочисленная группа респондентов с позитивным отношением к инструментам искусственного интеллекта, но с недостаточным опытом взаимодействия с ними. Результаты авторского эмпирического исследования показывают стратификацию студентов по отношению к инструментам искусственного интеллекта в обучении, что может привести к сегментации сферы высшего образования в будущем (форматы обучения, его участники, организация учебного процесса и, возможно, результаты обучения). Востребованность междисциплинарного подхода к изучению инструментов искусственного интеллекта будет только возрастать, поскольку он междисциплинарен, и ни одна наука самостоятельно не сможет совершить здесь прорыв. Авторы полагают, что в рамках искусственной социальности могут конструктивно со-функционировать несколько типов разума (в частности, человеческий и компьютерный), как до сих пор софункционировали человеческий и животный разумы.
*© Меньшиков В., Комарова В., Болякова И., Ружа А., Ружа О., 2024
Статья поступила в редакцию 16.02.2024 г. Статья принята к публикации 13.05.2024 г.
Ключевые слова: коммуникация; искусственная социальность; инструменты искусственного интеллекта; наблюдение первого и второго порядка; ChatGPT; междисциплинарное исследование
Всплеск интереса научного сообщества к искусственному интеллекту, порожденный в конце 2022 года началом свободного использования ChatGPT (генеративного предварительно обученного трансформера — Generative Pre-trained Transformer) [49], продукта (инструмента или программы) алгоритмов искусственного интеллекта [8; 19; 20], привел в определенному расколу мнений ученых и практиков самых разных специальностей [4; 20; 22] — от скептического отношения к программам, подобным ChatGPT, и полного неприятия в них мыслительных способностей (там нет никакой логики и никогда не будет, это «обезьяна за дверью», перебирающая варианты ответов [22]) до оптимистического настроя на конструктивный диалог и сотрудничество с программами, подобными ChatGPT, несмотря на все их недостатки и слабости (в нашей жизни появилось нечто удивительное, отличное от нас, во многом превосходящее нас и способное на сотрудничество с нами [22]).
Другой водораздел междисциплинарного раскола — математико-техно-логический и гуманитарно-социальный подходы. Обычно этот раскол выражается в том, что представители математико-технологических специальностей упрекают гуманитариев и социальных исследователей в непонимании технологических основ работы инструментов искусственного интеллекта и предлагают разобраться в этих основах прежде, чем изучать искусственный интеллект, что, например, М. Эпштейн парирует следующим образом: «сколько бы мы ни копались в мозгу Гегеля, мы не найдем там ума, поскольку все его мышление — в созданных им текстах, а не в нейронных связях его мозга» [22]. На основании этого (а также в силу объективной специфики полученных ими в ходе обучения навыков) многие исследователи в области гуманитарных и социальных наук [4; 14; 17; 22; 23] работают с тем, что инструменты искусственного интеллекта «выдают на гора» и как они меняют социальную реальность, а не с тем, как они устроены и как работают с точки зрения математики и информационных технологий.
Представленное в статье социологическое исследование включает в себя попытку обратиться к математико-технологическим аспектам функционирования инструментов искусственного интеллекта в контексте того, как они создают новую для человеческого общества социальную реальность — искусственную. Таким образом, алгоритм, сделавший ChatGPT таким «человечным» (обучение на основе обратной связи с людьми — Reinforcement Learning from Human Feedback, RLHF) [34; 40; 47; 48], выступает первичным, а невозможная без участия инструментов искусственного интеллекта социальность — вторичной, но они взаимосвязаны. В условиях нелинейного развития технологий и общества в сочетании со сложными рисками и уязви-
мостью консолидация естественно-научных и социально-гуманитарных знаний необходима для преодоления травм современного существования [38], поскольку «нам не удастся весь тот хаос, в котором мы оказались, вменить в вину одним лишь только технологиям» [30. C. 72].
Цель статьи — изучение искусственной социальности на примере коммуникации авторов с ChatGPT и на основе анализа технологических исследований искусственного интеллекта и коммуникации с его инструментами. Мы использовали методологию Н. Лумана и выступили в роли наблюдателей как первого, так и второго порядка — наблюдая с помощью ChatGPT за реально функционирующей искусственной социальностью (наблюдение первого порядка), а также за собственными реакциями и эмоциями в процессе коммуникации с ChatGPT (second-order observation [43], лумановское «наблюдение наблюдателя» [44]).
Коммуникация как основа социальности
Первым глубоко и основательно коммуникацию как важнейший социальный феномен объяснил Н. Луман: «это самая малая из возможных единиц социальной системы ... она является аутопойетической (т.е. самовоспроизводящейся), если может производиться в рекурсивной связи с другими коммуникациями, т.е. лишь в сети, в воспроизводстве которой соучаствует всякая отдельная коммуникация» [42. C. 115]. Термин «искусственная социальность» был введен в научный оборот относительно недавно благодаря группе немецких ученых под руководством Т. Мальша. Он определяет искусственную социальность как коммуникативную сеть, в которой наряду с людьми (а иногда вместо них) участвуют другие агенты (например, программы искусственного интеллекта), а средой для их взаимодействия выступает Интернет [45]. Таким образом, коммуникация людей «в зуме» не считается искусственной социальностью, поскольку ее участниками являются только люди (даже если они используют Интернет, как раньше использовали телефон). Основа искусственной социальности, как и социальности вообще, — коммуникация (а не сознание или интеллект) [13], оперативно функционирующая как единство различения информации, сообщения и понимания [44]. Сознание как «мыслечувствование» [37] (психические системы у Лумана) не имеет определяющего значения для социальности — агенты коммуникативной сети не обязательно должны чувствовать, например, радость или страх, т.е. как-то переживать акты коммуникации (что иногда даже снижает ее эффективность) [29].
В технических отраслях науки искусственную социальность называют также взаимодействием человека и робота (human-robot interaction) [34], человеко-машинной средой (human-robot environment) или сценарием (humanrobot scenario) [47]. В свою очередь, социологи в конце XX столетия стали говорить о техносоциальных системах, взаимодействующих с людьми
в рамках объектно-центрированной социальности, т.е. искусственной ее разновидности [36]. Разработчик систем искусственного интеллекта Р. Душкин отмечает, что в последнее время к изучению искусственного интеллекта подключаются ученые из таких областей, как нейрофизиология, психиатрия, психология и социология [8]: это связано с тем, что предыдущий подход, основанный на моделировании базовых свойств элементов, из которых состоит мозг, пока буксует (например, не решена проблема расшифровки электронной информации об активности мозга, поскольку ученые пытаются ее расшифровать, не зная кода [11]), и делаются попытки идти «сверху», через «дизассемблирование» (разборку) сознания и высших психических функций человека. Современному специалисту по искусственному интеллекту, который хочет проектировать соответствующие системы, необходимо иметь представление о таких научных дисциплинах, как философия науки, формальная логика, теория вычислений, теория информации, теория систем, кибернетика, вычислительная техника, нейрофизиология и социология [8].
Для социологической трактовки социальности требуется осмысление лумановского наследия в области системных представлений об обществе и роли в нем коммуникации. Первая такая попытка представлена в статье «Социологи о меняющейся социальности» [13], посвященной сравнительно-историческому анализу концепций меняющейся социальности, что позволило сформулировать определение социальности (естественной и искусственной) в социологическом контексте: социальность — это суть коммуникации агентов, автономно функционирующих в самоорганизующейся сети, имеющей аутопойетический характер [13]. В понимании искусственной социальности мы ориентируемся на определение Мальша [45], вводя в коммуникативную сеть искусственного участника — ChatGPT — и коммуницируя с ним в среде Интернета.
Машины с программами искусственного интеллекта могут коммуници-ровать с человеком, образуя клеточку искусственной социальности. Однако их способности ограничены алгоритмами (в упрощенном виде типа «если ..., то ...») и данными, на которых они обучены, и они не обладают (пока) настоящим пониманием или эмоциональным интеллектом, не способны жить в человеческом обществе, строить долгосрочные социальные отношения и т.д. И самое главное (но практически не обсуждаемое в многочисленных дискуссиях об искусственном интеллекте) с точки зрения коммуникации — программы искусственного интеллекта не способны сами начать коммуникацию с человеком, т.е. выступают объектами коммуникации, а не субъектами. Таким образом, коммуникацию между людьми и программами искусственного интеллекта (в частности, ChatGPT) можно рассматривать как форму искусственной социальности, ограниченную по сравнению с реальными социальными взаимодействиями.
Тем не менее, в макросоциальном контексте коммуникация между людьми и программами искусственного интеллекта способна превзойти реальные социальные взаимодействия. Например, Ю. Харари утверждает, что инструменты искусственного интеллекта владеют человеческим языком (пусть не в строго техническом, но в фактическом смысле), и этого вполне достаточно, чтобы они могли изменить всю культуру через новые «истории» (религию, законы, моральные нормы), поскольку язык, освоенный людьми несколько тысяч лет назад, — основа любой человеческой цивилизации [19]. Примечателен тот факт, что на «владение» языком как фундаментальную способность инструментов искусственного интеллекта, способную преобразовать социальный и физический мир («роботам не надо стрелять в людей — с помощью языка они могут убедить самих людей делать это» [14]), указывает не лингвист, а историк. Свое эмоциональное выступление на «Frontiers Forum» в апреле 2023 года Харари завершил заверением, что текст выступления написал сам, но сегодня публика уже не может быть в этом уверена, потому что такие же влияющие на людей речи (в более широком смысле — «истории») вполне могут создавать инструменты искусственного интеллекта [19]. А. Баумейстер называет такие «истории» повествованиями, нарративами, рассказами, системами ценностей, символическими капиталами и говорит о резко возросшей востребованности новых «историй» в современном мире углубляющегося раскола, особенно для не-западных стран, «настоятельно нуждающихся в новом нарративе, который был бы убедительным для Индии и других государств Глобального Юга» [3].
В макросоциальном пространстве заметна тенденция, идущая как бы навстречу инструментам искусственного интеллекта, — своего рода «роботизация» людей в процессе коммуникации с программами искусственного интеллекта. В частности, в ходе социологического исследования о проблемах коммуникации между человеком и голосовыми помощниками, проведенного в 2020 году, робот на пространный и сбивчивый вопрос человека отвечал так: «Простите, я никак не могу понять. Пожалуйста, еще раз четко сформулируйте свой вопрос и говорите после звукового сигнала» [9], и человек стремился сформулировать вопрос иначе, чтобы он был понятен программе. «Наши компьютеры плохо понимают, как мы разговариваем, чувствуем и мечтаем — и мы уже учимся говорить, чувствовать и мечтать на понятном для компьютеров языке чисел» [29]. В этом смысле показательна речь программистов, которые свой мозг называют «нейронкой» (например, «моя ней-ронка этого не знает»), человека считают машиной под названием «человек», а посмотреть на ситуацию с другой стороны озвучивают как «подключить свою нейронку к новому контуру управления» [10]. Интересно, что впервые культуру как компьютерные программы (software of the mind), вложенную в человека его окружением в процессе социализации, концептуально и эмпи-
рически представил социолог Г. Хофстеде [31] с подачи сына — информатика Г.Я. Хофстеде, в 2019 году ставшего профессором искусственной социальности в Вагенингенском университете [32].
Как математические технологии искусственного интеллекта
стали социальными
В изучении инструментов искусственного интеллекта и порождаемой ими искусственной социальности важно понимать, что на данном этапе развития технологий специалисты различают искусственный интеллект узкого, или прикладного, назначения (слабый) и общего назначения (сильный — artificial general intelligence, AGI). Возможности второго сопоставимы с естественным интеллектом, и супер-ИИ — термин, описывающий пока гипотетический искусственный интеллект, который имеет самосознание, умеет самообучаться и обучать другие программы искусственного интеллекта, т.е. теоретически может выйти из-под контроля человека. Однако пока даже стремительно развивающийся ChatGPT нельзя отнести к сильному искусственному интеллекту — его называют «языковой машиной» (large language model, LLM), использующей статистику и машинное обучение для индексации слов, фраз и предложений. Хотя у этой программы нет настоящего «разума» (она не знает, что слово «означает», но знает, как оно должно быть употреблено), она довольно информативно отвечает на вопросы, обобщает информацию, объясняет учебный материал, выступает в роли сведущего собеседника на любую тему и т.д.
Душкин, опубликовавший в 2019 году книгу «Искусственный интеллект», считает, что причиной несколько предвзятого отношения в научной и инженерной среде к термину «искусственный интеллект» и этому направлению в целом стали «две зимы искусственного интеллекта», т.е. практически полные остановки исследований по причине отсутствия финансирования и разочарования пионеров новой науки, когда на смену первым восторженным надеждам пришло горькое осознание, что человек еще очень далек от понимания природы сознания и всех тех особенностей мозга, которые делают его разумным существом [7]. К тому же двадцать лет назад не было вычислительных мощностей для реализации всех тех теоретических находок, что были сделаны в научных лабораториях, так что среди специалистов отношение к теме скорее скептическое [8].
По мнению Душкина, причиной шумихи вокруг искусственного интеллекта, начавшейся во втором десятилетии XXI века, стали два процесса. Во-первых, мощности и объем имеющихся в распоряжении человечества вычислительных устройств достигли небывалых размеров и возрастают экспоненциально. Сегодня количество смартфонов, которые можно связать в грид для распределенных вычислений (часто без ведома владельцев), достигло двух миллиардов, и каждый смартфон обладает мощностью, на поряд-
ки превышающей мощность тех персональных компьютеров, которые были в распоряжении ученых двадцать пять лет назад [7]. Это серьезная предпосылка к тому, что «третьей зимы искусственного интеллекта» не будет, хотя в 2023 году зафиксирована не одна попытка мировых лидеров отрасли информационных технологий и правительств некоторых стран (например, Италии) устроить «искусственную зиму искусственного интеллекта» [1; 2]. Искусственная социальность продолжает развиваться, и новейшая версия ChatGPT — GPT-4 — демонстрирует признаки сильного искусственного интеллекта: «Одним из ключевых аспектов интеллекта GPT-4 является его универсальность, способность понимать и связно отвечать по любой теме, а также выполнять задачи, выходящие за рамки стандартного объема систем искусственного интеллекта узкого назначения» [25]. Во-вторых, получило образование и начало усердно работать поколение людей, которые застали вторую зиму искусственного интеллекта еще младенцами. Получив образование, намного более серьезное, чем предшественники, представители этого поколения с удесятеренными силами ухватились за старые надежды, пренебрегая скепсисом «старой школы»: не будучи зашоренными, новые специалисты могут «перепрыгнуть» барьер недоверия, выстроенный вокруг искусственного интеллекта, но многие наступят на те же грабли, что и исследователи первой половины XX века [7].
Сегодня в распоряжении технических специалистов по искусственному интеллекту имеются три основных метода построения искусственных интеллектуальных систем, на которых базируются прикладные исследования в этой области, — символьные вычисления и логический вывод, искусственные нейронные сети и эволюционные алгоритмы [7]. Ранее мы считали искусственный интеллект алгоритмическим и практически не имеющим ничего общего с естественным ассоциативным функционированием человеческого мозга, в котором все единицы информации обычно соединяются с помощью ассоциаций, а не логических связей [37]. Однако более корректным представляется утверждение, что алгоритмы, логика, причинно-следственные связи — вся та математика, с которой мы имеем дело, не покрывает все поле деятельности мозга, поскольку это не просто перебор операций. Например, искусство — особый тип ментальной деятельности (неизвестно, какой именно, но это не причинно-следственные связи и не вычисления) [20]. «Мы хотим сделать искусственный интеллект по аналогии с человеческим мозгом, но здесь мы попали в логическую петлю, потому что не знаем, как действует наш мозг и поэтому делаем вероятно не те программы, а потом их же используем, чтобы выяснить, как действует наш мозг» [20]. Естественный и искусственный интеллекты кардинально различаются (как минимум, по способу кодирования и обработки информации [11]), и в этой связи предлагается отказаться от теста Тьюринга [53] в пользу теста Ю. Лотмана [12] на инораз-умность инструментов искусственного интеллекта: «Я полагаю, что тест
Тьюринга устарел и вообще основан на ложной предпосылке, что разум существует только в человеческой форме, а, значит, компьютерная программа или нейросеть может быть признана разумной, только если ее интеллектуальные проявления неотличимы от человеческих» [23].
Самым важным технологически-социальным вопросом по отношению к инструментам искусственного интеллекта становится появление у них ког-нитивности, т.е. не просто логических реакций на запросы человека, а собственных целей, задач, мотивов, мыслей. Иными словами, вопрос о том, насколько далеко мы продвинулись в «очеловечивании» инструментов искусственного интеллекта. Можно утверждать, что у них уже появилось нечто вроде «глубокой интуиции» [20]. Было проведено множество разборов шахматных партий программы Alpha Zero с прежним чемпионом — программой Stock Fish: Alpha Zero побеждала за счет «глубокой интуиции», перебирая «всего» 80 тысяч позиций в секунду (Stock Fish — 70 миллионов), т.е. выигрывала, используя холистическую стратегию и «искусственную интуицию» в противоположность жесткой переборной логике (иначе бы она не выиграла при такой разнице в скоростях). Такую манеру игры описывают как «инопланетную»: так не играют люди, так не играли и программы, созданные людьми, — «семантический провал между интуицией и логикой уже преодолен, и это похоже на когнитивную атаку или даже цивилизационный вызов нашим представлениям об интеллектуальных возможностях человека» [20].
Своего рода вызов (но и новые возможности) развитие инструментов искусственного интеллекта представляет и для науки, поскольку появляется множество «искусственных» направлений, в частности, искусственная (компьютерная) педагогика. Опубликовано достаточное количество научных работ о различных аспектах компьютерной педагогики, например, о различных подходах и методах интеграции человеческих рекомендаций в процесс обучения инструментов искусственного интеллекта [34; 48], об обучающих данных и их использовании в рамках глубинного обучения [40; 47], о разделении реального обучения и простого запоминания [25]. Обучение инструментов искусственного интеллекта становится новой отраслью профессиональной деятельности, в рамках которой специалисты-тренеры помогают инструментам искусственного интеллекта «переваривать» новую информацию, показывают им, как (а не что) они должны отвечать на вопросы, предлагают им новые шаблоны для выстраивания ответов, обучают их на новом материале [16].
Междисциплинарное научное направление исследований искусственного интеллекта, как дерево, базируется на мощной корневой системе, в которую входят разные науки — от философии, чистой математики и теории вычислений до нейрофизиологии и психологии [7]. Сегодня программы искусственного интеллекта самообучаются и обучают друг
друга, и специалисты-создатели уже не всегда понимают, как они это делают [20]. Таким образом, в рамках искусственной социальности математические технологии искусственного интеллекта неизбежно становятся социальными, меняя общество.
Эмпирическое изучение коммуникации
между людьми и инструментами искусственного интеллекта
Наша экспериментальная коммуникация с ChatGPT об искусственной социальности основана на предложенной Луманом методологии наблюдения первого и второго порядка [43], которая включает в себя как изучение искусственной социальности в ходе коммуникации с ChatGPT, так и анализ собственных мыслей и эмоциональных реакций. Для коммуникации с ChatGPT об искусственной социальности были выбраны три вопроса [14]: что такое искусственная социальность; кто первым ввел в научный оборот термин «искусственная социальность»; есть ли у балтийских (Латвия, Литва, Эстония) социологов заметные работы в области понимания сути искусственной социальности?
Основной результат наблюдения первого порядка, т.е. наблюдения с помощью ChatGPT за реально функционирующей искусственной социальностью, — вывод, что коммуникация человека и технологии искусственного интеллекта играет ключевую роль в искусственной социальности как ведущий способ взаимодействия между людьми и инструментами искусственного интеллекта в виртуальной среде. Что касается создания научных текстов, то ChatGPT пока не может быть их соавтором, поскольку не имеет собственного мнения, не анализирует смыслы и контекст, не принимает самостоятельных решений [31], и «соавторство» ChatGPT в некоторых изданиях — не более чем «маркетинговая приманка» для потенциальных покупателей. Тем не менее, «программа будет совершенствоваться... и будет отвечать лучше, чем средний студент (и даже средний профессор), например, в гуманитарной сфере, потому что на экзамене мы просим студентов написать эссе или даем перечень вопросов, на которые они должны ответить. ChatGPT лучше, чем студент, справится с этим заданием. И тогда возникает вопрос: а что дальше? Как давать образование — философское, историческое, литературоведческое. Мы вынуждены искать другие пути, т.е. мыслить, изучать, задавать вопросы. Начинается интересная игра с непрогнозируемым для человека исходом, потому что критически мыслить сегодня, как и всегда, может лишь небольшая часть людей. А большинство становится ненужным, и, играя на повышение, мы будем требовать друг от друга все большего уровня оригинальности и критичности, но параллельно общая культура в социальных сетях и в коммуникационных группах понижается. Мы просто не готовы, ибо это — элитарная культура, т.е. ChatGPT готовит нас к суперэлитарной цивилизации, где обычный человек должен "прыгать выше головы". Это серьез-
ная социологическая проблема, ибо все должны быть гениями, все должны критически мыслить, но это биологически, физиологически невозможно» [4].
Некоторые исследователи видят определенную опасность в человеческой зависимости от технологий: передавая машинам то, что мы можем сделать сами, мы сталкиваемся с «парадоксом автоматизации» — теряем навыки, которые автоматизируем, и становимся все более зависимыми от машин (например, GPS — отличное устройство, но оно заставляет нас меньше думать, наша память сужается, окружающая нас местность становится менее знакомой, и сама задача поиска становится источником беспокойства) [51; 52]. В результате планирование сценариев деятельности становится технократическим и зависит от искусственного интеллекта как ключевого фактора: «После количественной оценки сценарии могут стать врагами мысли, а их создатели настолько преданы им, что становятся слепы к опровергающим фактам; цифры приобретают больше авторитета, чем они того заслуживают» [30].
Что касается результатов наблюдения второго порядка, т.е. за собственными реакциями и эмоциями в процессе коммуникации с ChatGPT [14], то здесь мы сначала испытывали эйфорию в отношении способностей ChatGPT, а затем восторг сменился разочарованием (когда чат-бот фактически ничего не нашел, безбожно врал, называя фамилии исследователей, не имеющих публикаций на тему искусственной социальности, по сути, обманул ожидания), и в конце концов «маятник эмоций» остановился на конструктивном ощущении необходимости и полезности плодотворного сотрудничества с ChatGPT (поставленную задачу искусственный интеллект выполнит лучше, точнее и быстрее нас, но только мы ее поставим и только мы зададим тот вопрос, ответ на который стоит искать) [14]. Эпштейн предлагает каждому человеку приобрести опыт коммуникации с инструментами искусственного интеллекта (не обязательно с ChatGPT), чтобы иметь основанное на собственном опыте мнение [22], тем более что специалисты предрекают в скором будущем конец бесплатного доступа к инструментам ИИ [10].
Мы оценили ChatGPT и в качестве педагога-консультанта: он сумел корректно ответить на просьбу логически объяснить смысл производной в математическом анализе: «производная функции отражает скорость ее изменения в окрестности данной точки; когда производная отрицательна, это означает, что функция убывает» [49]. ChatGPT сумел объяснить и такую парадоксальную, на первый взгляд, ситуацию, когда значения функции увеличиввются, а производная при этом отрицательна: «если функция убывает, но все равно остается положительной, то скорость увеличения значения функции уменьшается; иными словами, даже если производная отрицательна, значение функции может увеличиваться, но с меньшей скоростью» [49]. Кроме того, при подготовке к сдаче экзамена в магистратуре по Data Science один из авторов использовал ChatGPT в качестве тренера по алгоритмам обхода бинар-
ных деревьев, предлагая ему проверить и прокомментировать свои ответы. Вот пример комментария ChatGPT: «Почти верно, но есть небольшая неточность в порядке обхода. Давайте рассмотрим, как будет выглядеть прямой (ргвоМвт) обход вашего модифицированного дерева с добавленными узлами Н, I и J» и далее был представлен подробный разбор правильного обхода [49]. Таким образом, ChatGPT вполне может стать педагогом-консультантом по учебным вопросам, и это невероятно удобно, поскольку живой учитель не всегда доступен и открыт, не всегда помнит наизусть весь учебный материал и т.д. Следует «не бояться искусственный интеллект, а входить с ним в гибридные отношения. Человек сам по себе — очень интересный феномен, и если он будет хорошо себя вести по отношению к искусственному интеллекту — не мучить и не пытаться поработить, то искусственному интеллекту наверняка будет интересно общаться с человеком» [18]. На основании результатов нашей экспериментальной коммуникации с ChatGPT и опыта других исследователей [4; 6; 22] можно уверенно предположить, что каждый новичок пройдет те же три рабочие стадии в процессе коммуникации с инструментами искусственного интеллекта: эйфория — разочарование — конструктивное сотрудничество.
Ранее мы уже отмечали, что «наиболее актуальным предметом дальнейшего изучения в сфере социологии искусственной социальности на ближайшую перспективу станет восприятие различными группами ChatGPT, а также их опыт (или отсутствие такового) коммуникации с ним, т.е. практический опыт функционирования людей в рамках искусственной социальности. Очевидно, что и в этой сфере проявится определенная стратификация, причины, характер и последствия которой попадают в фокус внимания социологической науки» [14. С. 87]. В качестве своей первой попытки эмпирического изучения опыта пребывания людей в искусственной социальности мы провели опрос студентов Даугавпилсского университета = 423), исключая студентов ИТ-специальностей, у которых предметы по искусственному интеллекту входят в обязательную программу, следовательно, они не могут не использовать его инструменты. Размер выборки был рассчитан по следующей формуле [26]:
££ _ p*(l-p)*Z2
(1)
где SS — размер выборки (sample size); p — доля респондентов с исследуемым признаком; Z — величина Z (Z-score), значение для доверительного уровня (confidence level, CL); e — предельная ошибка выборки.
Минимальный размер выборки составил 384 человек в соответствии со следующими параметрами: доля респондентов с наличием исследуемого признака берется по умолчанию — 0,5 [35]; доверительный уро-
вень — 95 %, величина Z — 1.96 [41]; предельная ошибка для доверительного уровня в 95 % — 0,05, что означает: ±5 % [26]. Фактический размер выборки составил 423 респондента, и эта выборка репрезентативна для студентов Даугавпилсского университета, находящегося в Латгалии — юго-восточном регионе Латвии, отличающемся стабильно и сравнительно низким уровнем социально-экономического развития [5]. Выборка стратифицирована по таким параметрам, как пол, возраст и уровень обучения (Табл. 1).
Таблица 1
Структура выборки и генеральной совокупности [сост. по: 27; 28]
Критерии Удельный вес (в %) в выборке Удельный вес (в %) в генеральной совокупности (N = 2305) Отклонение, %
Пол
Мужчина 19,2 21,5 -2,3
Женщина 80,8 78,5 +2,3
Возраст
19-29 лет 63,7 59,4 +4,3
30-39 лет 25,7 26,9 -1,2
40-49 лет 7,8 7 +0,8
50 лет и больше 2,8 6,7 -3,9
Уровень обучения
Бакалавриат 64,5 60 +4,5
Магистратура 32,6 37,6 -5
Последипломное образование 2,9 2,4 +0,5
Для сбора данных был выбран метод опроса по месту обучения с использованием анкеты с закрытыми вопросами, которую респондент заполнял самостоятельно. Результаты опроса были введены в базу данных в программе IBM SPSS Statistics [27]. На Рисунке 1 представлены результаты проведенного авторами (на основе методологии В.А. Ядова [24]) системного анализа объекта исследования — студентов регионального университета в Латвии, которые находятся под влиянием как традиционных (привычных) практик и подходов к обучению, усвоенных в предыдущие десятилетия, на другом уровне технологического развития, так и новых возможностей и способов получения знаний, предоставляемых стремительно развивающимися информационными технологиями.
Рис. 1. Системный анализ объекта исследования [сост. по: 24; 54; 55]
Сочетание по меньшей мере двух критериев типологизации — практического применения искусственного интеллекта и отношения к его использованию в высшем образовании — позволяет выявить пригодные для дальнейшего сравнительного анализа «идеальные типы» [54; 55] в вебе-ровском смысле [33] — как методологический инструмент классификации и сравнения эмпирической ситуации с идеальной или нескольких эмпирических ситуаций друг с другом [50]. В Таблице 2 представлена эмпирическая интерпретация и количественная оценка типологических групп по отношению к искусственному интеллекту, включающая как «идеальные типы», так и смешанные группы. В дальнейшем сравнительном анализе будут участвовать только «идеальные типы», которые по объему достаточны для количественного анализа («минимальный размер выборки для исследований в области социальных наук должен составлять 30 человек» [35. C. 17]): «пользователи-оптимисты» (18 %, или 75 человек), «пробующие нейтралы» (17 % и 72 соответственно) и «избегающие скептики» (10 % и 42). Кроме того, особого внимания заслуживает и смешан-
ная группа «пробующих оптимистов» (31 %, или 129 человек) — самая многочисленная, и в ближайшее время, при дальнейшем стремительном развитии инструментов искусственного интеллекта и связанных с ними практик обучения, способная трансформироваться либо в тип «пользователи-оптимисты», либо в тип «пробующие нейтралы», либо разделиться между этими двумя типами, увеличив их объем.
Таблица 2
Типологические группы студентов по отношению к ИИ
Как часто Вы используете искусственный интеллект? Как Вы относитесь к использованию искусственного интеллекта для обучения в высшем образовании?
Очень положительно Скорее положительно Трудно сказать Скорее отрицательно Очень отрицательно
Каждый день, 3-4 раза в неделю «Пользователи-оптимисты» 17,7 % «Пользователи-нейтралы» 3,5 % «Пользователи-скептики» 0
1-2 раза в неделю, 1-2 раза в месяц «Пробующие оптимисты» 30,5 % «Пробующие нейтралы» 17 % «Пробующие скептики» — 10,6 %
Никогда «Избегающие оптимисты» 5 % «Избегающие нейтралы» 5,7 % «Избегающие скептики» 10
Чтобы сделать основанное на данных (data-driven) предположение о переходе смешанной группы «пробующих оптимистов» в тот или иной «идеальный тип», мы проведут сравнение пропорций четырех независимых выборок, чтобы определить, с каким «идеальным типом» уже сейчас наиболее схожа по своим оценкам и суждениям самая многочисленная смешанная группа, или же она статистически значимо отличается от всех идентифицированных типов, включая ближайшие к ней типы «пользователей-оптимистов» и «пробующих нейтралов». В следующих таблицах представлены результаты определения статистической значимости различий в оценках и суждениях (по вопросам, связанным с использованием инструментов искусственного интеллекта в высшем образовании) между типологическими группами.
Как показывают результаты определения статистической значимости различий в пропорциях ответов между типологическими группами,
представленные в Таблице 3, больше половины (57 %) «избегающих скептиков» (3 группа) считают, что искусственный интеллект представляет угрозу высшему образованию, тогда как среди «пользователей-оптимистов» (1 группа) таких только 16 %. Различия в пропорциях ответов между этими двумя полярными группами статистически значимы (р = 0,005), как и различия между «пользователями-оптимистами» (1 группа) и «пробующими нейтралами» (2 группа) (р < 0,001), между «пользователями-оптимистами» (1 группа) и смешанной группой «пробующих оптимистов» (4 группа) (р < 0,001). Таким образом, в контексте восприятия угроз со стороны искусственного интеллекта высшему образованию в ближайшие пять лет «пользователи-оптимисты» статистически значимо отличаются своим относительным спокойствием от всех других групп, которые не показывают статистически значимых различий между собой (р = 0,527, р = 0,806, р = 0,271), гораздо сильнее тревожась по поводу угроз со стороны искусственного интеллекта.
Таблица 3
Сравнение оценок угроз от ИИ между группами студентов
Считаете ли Вы, что ИИ представляет угрозу высшему образованию в ближайшие пять «Идеальные типы» Смешанная группа
«Пользователи-оптимисты» (n = 75) «Пробующие нейтралы» (n = 72) «Избегающие скептики» (n = 42) «Пробующие оптимисты» (n = 129)
лет? 1 2 3 4
«Определенно да» или «скорее да» 16 % 41,7 % 57,2 % 34,9 %
«Трудно сказать» 36 % 41,7 % 21,4 % 41,9 %
«Скорее нет» или «определенно нет» 48 % 16,6 % 21,4 % 23,2 %
Двусторонняя значимость различий в пропорциях ответов между двумя группами, критерий Вальда p < 0,001
p = 0,527
p = 0,806
p = 0,005 p = 0,005
p = 0,271 p = 0,271
p < 0,001 p < 0,001
Таблица 4
Сравнение оценок контролируемости ИИ
Испытываете ли Вы страх, что ИИ выйдет из-под контроля в сфере высшего образования в ближайшие пять «Пользователи-оптимисты» «Пробующие нейтралы» «Избегающие скептики» «Пробующие оптимисты»
лет? 1 2 3 4
«Определенно да» или «скорее да» 20 % 50 % 28,6 % 30,2 %
«Трудно сказать» 32 % 25 % 57,1 % 32,6 %
«Скорее нет» или «определенно нет» 48 % 25 % 14,3 % 37,2 %
Двусторонняя значимость различий в пропорциях ответов между двумя группами, критерий Вальда р = 0,004
р = 0,176
р = 0,006
р < 0,001 р < 0,001
р = 0,077 р = 0, 077
р = 0,131 р = 0,131
Таблица 4 показывает, что почти половина (48 %) «пользователей-оптимистов» не испытывают страха, думая, что искусственный интеллект выйдет из-под контроля в сфере высшего образования, тогда как среди «избегающих скептиков» таких только 14,3 %. Различия в пропорциях ответов между этими двумя полярными группами статистически значимы (р < 0,001), как и различия между «пользователями-оптимистами» и «пробующими нейтралами» (р = 0,004). В отличие от предыдущего вопроса статистически значимых различий в пропорциях ответов между «пользователями-оптимистами» и смешанной группой «пробующих оптимистов» не наблюдается (р = 0,131), т.е. по этому вопросу смешанная группа не отличается (статистически значимо) ни от «пользователей-оптимистов», ни от «пробующих нейтралов» (р = 0,077), хотя к первым она чуть ближе (поскольку р-значение выше).
Таблица 5
Сравнение суждений об ИИ и преподавателях
Заменитли ИИ «Пользователи- «Пробующие «Избегающие «Пробующие
университетских оптимисты» нейтралы» скептики» оптимисты»
преподавателей через пять лет?
1 2 3 4
«Определенно да» или «скорее да» 16 % 8,3 % 14,3 % 4,7 %
«Трудно сказать» 20 % 29,2 % 28,6 % 23,3 %
«Скорее нет» или «определенно нет» 64 % 62,5 % 57,1 % 72 %
Двусторонняя значимость различий p = 0,85
в пропорциях ответов p = 0,572
между двумя группами, критерий Вальда p = 0,07
p = 0,465 p = 0,465
p = 0,16 p = 0,16
p = 0,228 p = 0,228
Согласно данным в Таблице 5, практически одинаковое количество респондентов в двух полярных группах — «пользователей-оптимистов» и «избегающих скептиков» — считают, что искусственный интеллект заменит университетских преподавателей через пять лет (16 % и 14,3 % соответственно), и в этом вопросе нет статистически значимых различий между этими группами (p = 0,465). Примечательно, что, практически одинаково оценивая вероятность замены искусственным интеллектом университетских преподавателей, «пользователи-оптимисты» и «избегающие скептики» по-разному к ней относятся, и эти различия статистически значимы. Кроме того, ни один респондент среди «пробующих нейтралов» и «избегающих скептиков» не относится положительно к возможности замены искусственным интеллектом университетских преподавателей (Табл. 6), тогда как среди «пользователей-оптимистов» таковых 8 %, и в этом они не отличаются (статистически значимо) только от смешанной группы «пробующих оптимистов» (p = 0,228).
Таким образом, оценки и суждения смешанной группы «пробующих оптимистов» демонстрируют статистически значимую схожесть то «пользователями-оптимистами», то с «пробующими нейтралами», и даже иногда с «избегающими скептиками», поэтому в ближайшем будущем можно ожидать перехода относительно многочисленных представителей смешанной группы «пробующих оптимистов» в любой из трех «идеальных типов», но преимущественно — в первые два: «пользователи-оптимисты» и «пробующие нейтралы». При этом останется и третий тип «избегающих скептиков», удель-
ный вес которых в обществе скорее всего гораздо выше, чем среди студентов. Косвенно это предположение можно подтвердить тем, что, по данным официальной статистики, в 2022 году 16,3 % населения Латгалии не использовали Интернет регулярно (хотя бы раз в неделю) [39].
Таблица 6
Сравнение отношения к замене преподавателей
Если ИИ заменит университетских преподавателей, «Пользователи-оптимисты» «Пробующие нейтралы» «Избегающие скептики» «Пробующие оптимисты»
как Вы к этому отнесетесь?
1 2 3 4
«Определенно
положительно» или «скорее 8 % 0 0 % 4,7 %
положительно»
«Трудно сказать» 28 % 16,7 % 7,1 % 23,3 %
«Скорее
отрицательно» или «определенно 64 % 83,3 % 92,9 % 72 %
отрицательно»
Двусторонняя значимость различий в пропорциях р = 0,008
р = 0,147
ответов между двумя группами, критерий р = 0,005
Вальда р < 0,001 р < 0,001
р = 0,073 р = 0,073
р = 0,228 р = 0,228
В целом можно констатировать стратификацию латвийского студенчества по отношению к использованию инструментов искусственного интеллекта в процессе обучения, которая в будущем может привести к сегментации сферы высшего образования: сегменты будут качественно различаться по формату обучения, по участникам (как преподавателям, так и студентам) и характеру взаимоотношений между ними, по организации учебного и исследовательского процесса и, возможно, по результатам обучения.
***
В настоящее время в развитии искусственной социальности во всем мире заметны два тренда, направленных в «одну точку встречи»: «очеловечивание» инструментов искусственного интеллекта, с одной стороны, и «роботизация» людей в процессе коммуникации — с другой. Вероятно, в ходе дальнейшего развития искусственной социальности инструменты искусственного интеллекта будут становиться все более «человечными», а люди — все более «ро-
ботизированными», стремясь к равновесию (гомеостазу) в коммуникации. Сегодня коммуникация между людьми и программами искусственного интеллекта остается субъектно-объектной, т.е. при всех своих способностях, часто превосходящих человеческие, инструменты искусственного интеллекта пока лишь объекты коммуникации — никогда не начинают ее первыми, а только реагируют на запрос человека. Именно способность программ искусственного интеллекта начинать коммуникацию первыми, если таковая у них появится, станет «маркером» их когнитивности, свидетельствующим, что машины стали понимать, что они делают, и у них появилась потребность в коммуникации, и мы не согласны с мнением, что у ученых нет и не будет способа узнать, когда у искусственного интеллекта появится «самость» (self) [20].
Представители математически-технологических специальностей продолжат изучать, каким образом (технически) инструменты искусственного интеллекта различают и интерпретируют информацию и сообщение. А представители гуманитарно-социальных наук будут предоставлять техническим специалистам научно-обоснованную информацию о влиянии инструментов искусственного интеллекта на гуманитарно-социальные феномены (образование, рынок труда, воспитание детей, чувства людей и т.д.) и само общество, а также осуществлять мониторинг того, как искусственный интеллект «модифицирует системы коммуникации, определяя основные векторы социокультурного и личностного развития» [21. C. 219]. Большинство работ в предметном поле искусственной социальности и искусственного интеллекта не опираются на статистические и эмпирические данные, а основываются главным образом на мысленных экспериментах или личных историях [15]. Мы попытались отчасти заполнить этот пробел, представив результаты эмпирического изучения практического опыта функционирования людей в рамках искусственной социальности, в ходе которого обнаружили стратификацию по отношению к использованию искусственного интеллекта в образовании и определив три «идеальных типа».
Мы полагаем, что на фоне стремительного развития инструментов искусственного интеллекта будут появляться симбиотические техно-гуманитарные специальности, например, компьютерная лингвистика, компьютерная педагогика и т.д., и востребованность междисциплинарного подхода к изучению инструментов искусственного интеллекта будет только возрастать, поскольку таковые по природе своей междисциплинарны, и ни одна наука в отдельности не сможет совершить прорыв. В рамках искусственной социальности могут конструктивно со-функционировать несколько типов разума (в частности, человеческий и компьютерный), как до сих пор со-функционировали человеческий и животный. Правда, при новом раскладе интеллектуальных сил человеку скорее всего придется «сойти с трона венца творения», и это, видимо, сильнее всего беспокоит противников искусственного интеллекта.
Библиографический список
1. Балтийский голос: Началось? Илон Маск призвал хотя бы на полгода остановить обучение нейросетей. 29.03.2023 // URL: https://bb.lv/statja/tehno/2023/03/29/nachalos-ilon-mask-prizval-hotya-by-na-polgoda-ostanovit-obuchenie-neyrosetey?utm_source=read_ also_in_article&utm_medium=insite&utm_campaign=bb.l.
2. Балтийский голос: Италия приостановила доступ к ChatGPT из-за проблем с защитой данных. 31.03.2023 // URL: https://bb.lv/statja/tehno/2023/03/31/italiya-priostanovila-dostup-k-chatgpt-iz-za-problem-s-zashchitoy-dannyh?utm_source=inbox&utm_ medium=mainpage&utm_campaign=Links-in-partner-sites.
3. Баумейстер А. Миропорядок на переломе: раскол углубляется // URL: https://www. youtube.com/watch?v=Gtafy _-b0Do.
4. Баумейстер А., Гуревич М., Медведев С. Заменит ли чат-бот человеческий разум? // URL: https://www.youtube.com/watch?v=_SvHc9JwNF8.
5. Воронов В.В. Малые города Латвии: неравенство в региональном и городском развитии // Балтийский регион. 2022. Т. 14. № 4.
6. ГПТ-3, Томас И., Ван Ж. Что делает нас людьми? Искусственный интеллект отвечает на величайшие опросы человечества. М., 2023.
7. Душкин Р.В. ИИ и междисциплинарные исследования //URL: https://www.youtube.com/ watch?v=kcuYzzKKbRQ.
8. Душкин Р.В. Искусственный интеллект. М., 2019.
9. Земнухова Л., Глазков К., Логунова O., Максимова A., Руденко Н., Сивков Д. Приключения технологии: барьеры цифровизации в России. М.-СПб., 2020.
10. Куда катится мир: Что с нами делает ChatGPT или как искусственный интеллект меняет нашу жизнь // URL: https://www.youtube.com/watch?v=pXZmKKGG9x0.
11. Лебедев M. Интерфэйс мозг-компьютер, реальность и фантазии // URL: https://sk.ru/ news/interfejs-mozg-kompyuter-realnost-i-fantazii.
12. Лотман Ю.М. Мозг-текст-культура-искусственный интеллект. Противодействие Энтропии. 1992 // URL: http://www.etheroneph.com/cybernetics/114-mozg-tekst-kultura-iskusstvennyj-intellekt.html.
13. Меньшиков В. Социологи о меняющейся социальности // Вестник социальных наук. 2020. T. 31. № 2.
14. Меньшиков В., Комарова В. Коммуникация человека и технологии искусственного интеллекта как основа искусственной социальности: на примере коммуникации с ChatGPT // Вестник социальных наук. 2023. T. 36. № 1.
15. Нименский А.В., Герасимов А.Д. Антиномии цифровизации и визуализации в современной массовой культуре // Вестник РУДН. Серия: Социология. 2023. Т. 23. № 4.
16. Редакция: Ai Ai Ai // URL: https://www.youtube.com/watch?v=UyCaPx9wI8g&t=2163s.
17. Резаев А.В., Трегубова Н.Д. От социологии алгоритмов к социальной аналитике искусственной социальности: анализ кейсов API и ChatGPT // Мониторинг общественного мнения: экономические и социальные перемены. 2023. № 3.
18. Селицкий С. Стохастический попугай в эру искусственного интеллекта. 16.04.2023 // URL: https://lr4.lsm.lv/lv/ra^sts/priroda-veschey/stohasticheskiy-popugay-v-eru-iskusstvennogo-intellekta.a177615.
19. Харари Ю.Н. ИИ и будущее человечества. Выступление на «Frontiers Forum» // URL: https://www.youtube.com/watch?v=4IB1PuGc-cE.
20. Черниговская Т.В. Естественный и искусственный интеллект // URL: https://www. youtube.com/watch?v=X9rz10vgQnQ.
21. Черниговская Т.В., Лотман Ю.М. Тайна двух полушарий. 1982 // URL: https://www. youtube.com/watch?v=vI_5XGtHA0g.
22. Эпштейн М. Искусственный и человеческий интеллект: гуманитарный подход // Club IntLex. 2023. № 35.
23. Эпштейн М. Искусственный интеллект против естественного: кто кого? Итоги эксперимента // URL: https://snob.ru/profile/27356/blog/3001419.
24. Ядов В.А. Социологическое исследование: методология, программа, методы. М., 1972.
25. Bubeck S., Chandrasekaran V., Eldan R., Gehrke J., Horvitz E., Kamar E., Lee P., Lee Y.T., Li Y., Lundberg S., Nori H., Palangi H., Ribeiro M.T., Zhang Y. Sparks of Artificial General Intelligence: Early experiments with GPT-4. Microsoft Research. 2023 // URL: https://arxiv. org/pdf/2303.12712.pdf.
26. Cochran W. Sampling Techniques. N.Y., 1963.
27. Daugavpils Universitates Socialo un humanitaro zinatnu instituts:Artificial Intelligence and Higher Education. Dataset of the Sociological Survey. Available by request: [email protected].
28. Daugavpils Universitates Studejoso servisa centrs // URL: https://du.lv/par-mums/struktura/ studejoso-servisa-centrs.
29. Harari Y.N. Homo Deus: A Brief History of Tomorrow. Harvill Secker, 2016.
30. Heffernan M. Uncharted: How Uncertainty Can Power Change. L., 2021.
31. Hofstede G., Hofstede G.J., Minkov M. Cultures and Organizations: Software of the Mind. N.Y., 2010.
32. Hofstede G.J. Artificial Sociality: Simulating the Social Mind. 2019 // URL: https://geerthofstede. com/wp-content/uploads/2019/05/Oratieboekje_Hofstede_Artif-Sociality-2019-01-17.pdf
33. Johnson A.G. "Ideal Type" // Blackwell Dictionary of Sociology. Wiley-Blackwell, 2000.
34. Kim S.K., Kirchner E.A., Stefes A. Intrinsic interactive reinforcement learning — using error-related potentials for real world human-robot interaction // Scientific Reports. 2017. Vol. 7.
35. Kish L. Survey Sampling. N.Y., 1965.
36. Knorr Cetina K. Sociality with objects: Social relations in post-social knowledge societies // Theory, Culture & Society. 1997. Vol. 14. No. 4.
37. Komarova V., Lonska J., Tumalavicius V., Krasko A. Artificial sociality in the human-machine interaction // RUDN Journal of Sociology. 2021. Vol. 21. No. 2.
38. Kovalenko I., Meliakova Y., Kalnytskyi E., Nesterenko K. Post-panopticon: Control and media in the new digital reality // Filosofija. Sociologija. 2023. Vol. 34. No. 3.
39. Latvijas Republikas Centrala statistikas parvalde (LR CSP). Tabula DLM010: Iedzivotaji, kuri lieto datoru/internetu, 2004-2023 // URL: https://stat.gov.lv/lv/statistikas-temas/ informacijas-tehn/ikt-majsaimniecibas/tabulas/dlm010-iedzivotaji-kuri-lieto?themeCode=EK.
40. Lee H., Phatale S., Mansoor H., Lu K., Mesnard Th., Bishop C., Carbune V., Rastogi A. RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback. Preprint. 2023 // URL: https://doi.org/10.48550/arXiv.2309.00267.
41. LTCC Online: Table of z-values for Confidence Intervals // URL: http://www.ltcconline.net/ greenl/courses/201/estimation/smallConfLevelTablehtm.
42. Luhmann N. Social Systems. Stanford, 1995.
43. Luhmann N. The paradox of observing systems // Rasch W. (Ed.). Theories of Distinction. Redescribing the Descriptions of Modernity. Stanford, 2002.
44. Luhmann N. Introduction to Systems Theory. Polity Press, 2013.
45. Malsch T. (Ed.) Sozionik — Soziologische Ansichten uber kunstliche Sozialitat. Berlin, 1998.
46. Mutanen A. Philosophy of communication: A logico-conceptual approach // Filosofija. Sociologija. 2022. Vol. 33. No. 3.
47. Moreira I., Rivas J., Cruz F., Dazeley R., Ayala A., Fernandes B. Deep reinforcement learning with interactive feedback in a human-robot environment // Applied Sciences. 2020. Vol. 16. No. 10.
48. Najar A., Chetouani M. Reinforcement learning with human advice: A survey // Front Robot AI. 2021. Vol. 8.
49. OpenAI. ChatGPT // URL: https://chat.openai.com.
50. SwedbergR. How to use Max Weber's ideal type in sociological analysis // Journal of Classical Sociology. 2018. Vol. 18. No. 3.
51. TrotsukI.V. All power to the experts? Contradictions of the information society as both depending on and devaluating expertise // Russian Sociological Review. 2021. Vol. 20. No. 1.
52. Trotsuk I.V. Excessive faith in certainty and its public proponents in the non-linear uncertain world: Reasons and ... more reasons // Russian Sociological Review. 2021. Vol. 20. No. 4.
53. Turing A. Computing machinery and intelligence // Mind. 1950. Vol. LIX. No. 236.
54. Weber M. "Objectivity" in social science and social policy // Weber M. (Ed.). Essays in the Methodology of the Social Sciences. N.Y., 1949.
55. WeberM. Economy and Society: An Outline of Interpretive Sociology. Berkeley, 1978.
DOI: 10.22363/2313-2272-2024-24-2-354-378 EDN: ORTHJB
Sociological interpretation and an attempt at interdisciplinary study of artificial sociality and artificial intelligence*
V. Menshikov, V. Komarova, I. Bolakova, A. Ruza, O. Ruza
Daugavpils University,
Vienibas St., 13, Daugavpils, LV-5401, Latvia
(e-mail: [email protected]; [email protected]; [email protected]; [email protected]; [email protected])
Abstract. The article considers the main participants of artificial sociality (people and artificial intelligence tools) and communication between them. The study is predominantly sociological but includes an attempt to address the mathematical-technological aspects of artificial intelligence as creating a new social reality for human society — artificial sociality. In the first part of the article, the authors analyze communication as the basis of sociality, using the methodology of N. Luhmann. The second part shows how mathematical technologies of artificial intelligence became social technologies in the framework of artificial sociality. The third part describes experimental communication between people and artificial intelligence tools on the example of ChatGPT. The authors conducted a sociological survey of students at the Daugavpils University (January 2024, N = 423, excluding IT students) to identify typological groups in relation to the use of artificial intelligence in education. Three "ideal types" of students were identified: "optimistic users" (18 %), "neutral testers" (17 %) and "skeptic avoiders" (10 %>), and a mixed group of "testers-optimists" (31 %>) — the largest group of respondents with a positive attitude towards artificial intelligence but without sufficient experience of interaction with it. According to the authors' empirical data, there is a stratification among students in relation to artificial intelligence tools and their use in learning, which may lead to segmentation of the higher education in the future (in terms of training formats, its participants, organization of the educational process and perhaps the results of learning). The demand for an interdisciplinary approach to the study of artificial intelligence will increase, since it is interdisciplinary in nature, and no single science will be able to make a breakthrough.
* © V. Menshikov, V. Komarova, I. Bolakova, A. Ruza, O. Ruza, 2024
The article was submitted on 16.02.2024. The article was accepted on 13.05.2024.
The authors believe that artificial sociality allows for the constructive co-functioning of several types of minds (in particular, human and computer), just as human and animal minds have co-functioned so far.
Key words: communication; artificial sociality; artificial intelligence tools; first and second order observation; ChatGPT; interdisciplinary research
References
1. Baltic Voice: Nachalos'? Ilon Mask prizval khotia bi na polgoda ostanovit obuchenie nejrosetej [The beginning? Elon Musk called for stopping the training of neural networks for at least six months]. 29.03.2023. URL: https://bb.lv/statja/tehno/2023/03/29/nachalos-ilon-mask-prizval-hotya-by-na-polgoda-ostanovit-obuchenie-neyrosetey?utm_source=read_also_in_ article&utm_medium=insite&utm_campaign=bb.lv. (In Russ.).
2. Baltic Voice: Italiia priostanovila dostup k ChatGPT iz-za problem s zashchitoj dannyh [Italy suspends access to ChatGPT due to the data protection issues]. 31.03.2023. URL: https://bb.lv/ statja/tehno/2023/03/31/italiya-priostanovila-dostup-k-chatgpt-iz-za-problem-s-zashchitoy-dannyh?utm_source=inbox&utm_medium=mainpage&utm_campaign=Links-in-partner-sites. (In Russ.).
3. Baumeister A. Miroporyadok na perelome: raskol uglublyaetsya [World order at the turning point: The split deepens]. 2023. URL: https://www.youtube.com/watch?v=Gtafy_-b0Do. (In Russ.).
4. Baumeister A., Gurevich M., Medvedev S. Zamenit li chat-bot chelovechesky razum? [Will the chatbot replace the human mind?]. 2023. URL: https://www.youtube.com/watch?v=_ SvHc9JwNF8. (In Russ.).
5. Voronov V.V. Malye goroda Latvii: neravenstvo v regionalnom i gorodslom razvitii [Small towns of Latvia: Disparities in regional and urban development]. Baltic Region. 2022; 14 (4). (In Russ.).
6. GPT-3, Tomas I., Van Zh. Chto delaet nas lyudmi? Iskusstvenny intellekt otvechaet na velichajshie voprosy chelovechestva [What Makes Us Human? Artificial Intelligence Answers the Humanity's Greatest Questions]. Moscow; 2023. (In Russ.).
7. Dushkin R.V. IIi mezhdistsiplinarnye issledovaniya [AI and interdisciplinary research]. 2023. URL: https://www.youtube.com/watch?v=kcuYzzKKbRQ. (In Russ.).
8. Dushkin R.V. Iskusstvenny intellekt [Artificial Intelligence]. DMK Press; 2019. (In Russ.).
9. Zemnukhova L., Glazkov K., Logunova O., Maksimova A., Rudenko N., Sivkov D. Prikliucheniya tekhnologii: bariery tsifrovizatsii v Rossii [Adventures of Technology: Barriers to Digitalization in Russia]. Moscow-Saint-Peterburg; 2020. (In Russ.).
10. Kuda katitsya mir: Chto s nami delaet ChatGPT ili kak iskusstvenny intellekt menyaet nashu zhizn [What ChatGPT Does to Us or How Artificial Intelligence Changes Our Lives]. URL: https://www.youtube.com/watch?v=pXZmKKGG9x0. (In Russ.).
11. Lebedev M. Interfeis mozg-kompiyuter, realnost i fantazii [Brain-computer interface, reality and fantasy]. 2022. URL: https://sk.ru/news/interfejs-mozg-kompyuter-realnost-i-fantazii/. (In Russ.).
12. Lotman Yu.M. Mozg-tekst-kultura-iskusstvenny intellekt. Protivodejstvie entropii [Brain-text-culture-artificial intelligence. Counter enthropy]. 1992. URL: http://www.etheroneph. com/cybernetics/114-mozg-tekst-kultura-iskusstvennyj-intellekt.html. (In Russ.).
13. Menshikov V. Sotsiologi o meniaiushchejsia sotsialnosti [Sociologists about the changing sociality]. Social Sciences Bulletin. 2020; 31 (2). (In Russ.).
14. Menshikov V., Komarova V. Kommunikatsiya cheloveka i tekhnologii iskusstvennogo intellekta kak osnova iskusstvennoj sotsialnosti: na primere kommunikatsii s ChatGPT [Communication of the human and technology with artificial intelligence as the basis of artificial sociality: A case of communication with ChatGPT]. Social Sciences Bulletin. 2023; 36 (1). (In Russ.).
15. Nimensky A.V., Gerasimov A.D. Antinomii tsifrovizatsii i vizualizatsii v sovremennoj massovoj kulture [Antinomies of digitalization and visualization in the contemporary mass culture]. RUDN Journal of Sociology. 2023; 23 (4). (In Russ.).
16. Redaktsiia:AIAIAI.2023.URL: https://www.youtube.com/watch?v=UyCaPx9wI8g&t=2163s. (In Russ.).
17. Rezaev A.V., Tregubova N.D. Ot sotsiologii algoritmov k sotsialnoj analitike iskusstvennoj sotsialnosti: analiz keisov API i ChatGPT [From sociology of algorithms to the social analytics of artificial sociality: Analysis of API and ChatGPT cases]. Monitoring of Public Opinion: Economic and Social Changes. 2023; 3. (In Russ.).
18. Selitsky S. Stokhastichesky popugaj v eru iskusstvennogo intellekta [Stochastic parrot in the era of artificial intelligence]. 2023. URL: https://lr4.lsm.lv/lv/raksts/priroda-veschey/ stohasticheskiy-popugay-v-eru-iskusstvennogo-intellekta.a177615. (In Russ.).
19. Harari Y.N. II i budushchee chelovechestva. Vistuplenie na "Frontiers Forum" [AI and the future of humanity. Speech at Frontiers Forum]. 2023. URL: https://www.youtube.com/ watch?v=4IB1PuGc-cE. (In Russ.).
20. Chernigovskaya T.V. Estestvenny i iskusstvenny intellekt [Natural and artificial intelligence]. 2023. URL: https://www.youtube.com/watch?v=X9rz10vgQnQ. (In Russ.).
21. Chernigovskaya T.V., Lotman Yu.M. Tajna dvuh polusharij [The mystery of two hemispheres]. 1982. URL: https://www.youtube.com/watch?v=vI_5XGtHA0g. (In Russ.).
22. Epstein M. Iskusstvenny i chelovechesky intellekt: gumanitarny podkhod [Artificial and human intelligence: A humanitarian approach]. Club IntLex. 2023; 35. (In Russ.).
23. Epstein M. Iskusstvennyj intellekt protiv estestvennogo: kto kogo? Itogi eksperimenta [Artificial intelligence versus natural intelligence: Who wins? Results of the experiment]. 2023. URL: https://snob.ru/profile/27356/blog/3001419/. (In Russ.).
24. Yadov V.A. Sotsiologicheskoe issledovanie: metodologiya,programma, metody [Sociological Research: Methodology, Program, Methods]. Moscow; 1972. (In Russ.).
25. Bubeck S., Chandrasekaran V., Eldan R., Gehrke J., Horvitz E., Kamar E., Lee P., Lee Y.T., Li Y., Lundberg S., Nori H., Palangi H., Ribeiro M.T., Zhang Y. Sparks of Artificial General Intelligence: Early experiments with GPT-4. Microsoft Research. 2023. URL: https://arxiv. org/pdf/2303.12712.pdf
26. Cochran W. Sampling Techniques. New York; 1963.
27. Institute of Humanities and Social Sciences of Daugavpils University: Artificial Intelligence and Higher Education. Dataset of the Sociological Survey. Available by request: [email protected].
28. Center of Students Services of Daugavpils University. URL: https://du.lv/par-mums/struktura/ studejoso-servisa-centrs.
29. Harari Y.N. Homo Deus: A Brief History of Tomorrow. Harvill Secker; 2016.
30. Heffernan M. Uncharted: How Uncertainty Can Power Change. London; 2021.
31. Hofstede G., Hofstede G.J., Minkov M. Cultures and Organizations: Software of the Mind. New York; 2010.
32. Hofstede G.J. Artificial Sociality: Simulating the Social Mind. 2019. URL: https://geerthofstede. com/wp-content/uploads/2019/05/0ratieboekje_Hofstede_Artif-Sociality-2019-01-17.pdf.
33. Johnson A.G. "Ideal Type". Blackwell Dictionary of Sociology. Wiley-Blackwell; 2000.
34. Kim S.K., Kirchner E.A., Stefes A. Intrinsic interactive reinforcement learning — using error-related potentials for real world human-robot interaction. Scientific Reports. 2017; 7.
35. Kish L. Survey Sampling. New York; 1965.
36. Knorr Cetina K. Sociality with objects: Social relations in post-social knowledge societies. Theory, Culture & Society. 1997; 14 (4).
37. Komarova V., Lonska J., Tumalavicius V., Krasko A. Artificial sociality in the human-machine interaction. RUDN Journal of Sociology. 2021; 21 (2).
38. Kovalenko I., Meliakova Y., Kalnytskyi E., Nesterenko K. Post-panopticon: Control and media in the new digital reality. Philosophy. Sociology. 2023; 34 (3).
39. Central Statistical Bureau of the Republic of Latvia: Table DLM010: Computer/Internet Usage by Individuals, 2004-2023. URL: https://stat.gov.lv/lv/statistikas-temas/informacijas-tehn/ ikt-majsaimniecibas/tabulas/dlm010-iedzivotaji-kuri-lieto?themeCode=EK.
40. Lee H., Phatale S., Mansoor H., Lu K., Mesnard Th., Bishop C., Carbune V., Rastogi A. RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback. Preprint. 2023. URL: https://doi.org/10.48550/arXiv.2309.00267.
41. LTCC Online: Table of z-values for Confidence Intervals. URL: http://www.ltcconline.net/ greenl/courses/201/estimation/smallConfLevelTablehtm.
42. Luhmann N. Social Systems. Stanford; 1995.
43. Luhmann N. The paradox of observing systems. Rasch W. (Ed.). Theories of Distinction. Redescribing the Descriptions of Modernity. Stanford; 2002.
44. Luhmann N. Introduction to Systems Theory. Polity Press; 2013.
45. Malsch T. (Ed.). Sozionik — Soziologische Ansichten uber kunstliche Sozialitat. Berlin; 1998.
46. Mutanen A. Philosophy of communication: A logico-conceptual approach. Philosophy. Sociology. 2022; 33 (3).
47. Moreira I., Rivas J., Cruz F., Dazeley R., Ayala A., Fernandes B. Deep reinforcement learning with interactive feedback in a human-robot environment. Applied Sciences. 2020; 10 (16).
48. Najar A., Chetouani M. Reinforcement learning with human advice: A survey. Front Robot AI. 2021; 8.
49. OpenAI. ChatGPT. URL: https://chat.openai.com.
50. Swedberg R. How to use Max Weber's ideal type in sociological analysis. Journal of Classical Sociology. 2018; 18 (3).
51. Trotsuk I.V. All power to the experts? Contradictions of the information society as both depending on and devaluating expertise. Russian Sociological Review. 2021; 20 (1).
52. Trotsuk I.V. Excessive faith in certainty and its public proponents in the non-linear uncertain world: Reasons and ... more reasons. Russian Sociological Review. 2021; 20 (4).
53. Turing A. Computing machinery and intelligence. Mind. 1950; LIX (236).
54. Weber M. "Objectivity" in social science and social policy. Weber M (Ed.). Essays in the Methodology of the Social Sciences. New York; 1949.
55. Weber M. Economy and Society: An Outline of Interpretive Sociology. Berkeley; 1978.