СОЦИОЛОГИЯ. ПОЛИТОЛОГИЯ. МЕЖДУНАРОДНЫЕ ОТНОШЕНИЯ
УДК 316.354:378:004.8(045) Н.С. Ладыжец
ГИБРИДНАЯ СОЦИАЛЬНОСТЬ: СОЦИОГУМАНИТАРНЫЕ АСПЕКТЫ ВОЗДЕЙСТВИЯ РАЗРАБОТОК В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА НА РАЗВИТИЕ ВЫСШЕГО ОБРАЗОВАНИЯ
В тексте статьи рассматривается проблема социогуманитарных аспектов воздействия разработок в области искусственного интеллекта на развитие высшего образования в условиях возрастающе рискогенного общества. Утверждается, что социальные и технологические процессы приобретают тенденцию ко все большему ускорению, оказывая существенное взаимное влияние, не всегда равнозначное и прогнозируемое, способствующие привлечению внимания к необходимости разрешения возникающих проблем. Эти процессы не могут быть оставлены без постоянства согласования управленческих решений на различных уровнях. Теоретические рамки определены анализом социогуманитарных аспектов ускоренного продвижения в развитии нейронных сетей с «глубоким обучением» на больших объемах данных, а также формирующихся новых трендов в организации и развитии высшего образования. Метод исследования - теоретический социокультурный анализ актуальных изменений возможностей и управленческих практик в образовательном процессе и университетском администрировании. Новизна статьи представлена обоснованием появления аспектов новой социальности в результате развития современных технологий генеративного искусственного интеллекта.
Ключевые слова: искусственный интеллект, генеративный ИИ, гибридная социальность, высшее образование, университетское управление, социально-гуманитарные науки, социальные риски, ChatGPT.
DOI: 10.35634/2587-9030-2024-8-1-42-48
Ссылка на статью:
Ладыжец Н.С. Гибридная социальность: социогуманитарные аспекты воздействия разработок в области искусственного интеллекта на развитие высшего образования // Вестн. Удм. ун-та. Социология. Политология. Международные отношения. 2024. Т. 8, вып. 1. С. 42-48. https://doi.org/10.35634/2587-9030-2024-8-1-42-48
Введение
Социальные и технологические процессы приобретают тенденцию ко все большему ускорению, оказывая существенное взаимное влияние, не всегда равнозначное, прогнозируемое и способствующее разрешению возникающих проблем. Эти процессы не могут быть оставлены без постоянства согласования управленческих решений на различных уровнях. Но в некоторых аспектах и сферах такого рода согласованность остается еще более проблематичной.
Заявка на финансирование области, названной разработкой искусственного интеллекта (ИИ), была подана для проведения семинара в штате Нью-Гэмпшир в августе 1955 г. [1]. Первый курс «Ведение в искусственный интеллект» был предложен в Стэнфорде в 2011 г. [2]. В конце ноября 2022 г. ChatGPT-3.5, - чат-бот, выпущенный ОрепА1 на основе последней для того времени версии языковой модели GPT и сразу завирусившийся в Сети, через неделю собрал уже 1 миллион пользователей [3]. Огромную популярность нейросети, обозначенной как «генеративный ИИ», обеспечили возможности самообучения на основе предоставленных данных, «запоминания» деталей в процессе поддержания диалога, написания разножанровых текстов, несложного консультирования и ряда других. В марте 2023 г. была создана GPT-4 - «последняя веха в усилиях ОрепА1 по расширению масштабов глубокого обучения, ... большая мультимодальная модель (принимающая входные данные изображения и текста, выдающая текстовые выходные данные), которая, хотя и обладает меньшими возможностями, чем люди, во многих реальных сценариях демонстрирует производительность на уровне человека по различным профессиональным и академическим показателям» [4].
Теоретическая рамка и методы
Разработчики считают, что GPT-4 как более креативная, надежная модель, также как, вероятно, и последующие в будущем, располагает существенным потенциалом расширения конструктивных возможностей развития, но одновременно - и рисков, создающих реальные угрозы существованию
СОЦИОЛОГИЯ. ПОЛИТОЛОГИЯ. МЕЖДУНАРОДНЫЕ ОТНОШЕНИЯ
общества и человека. Улучшение понимания этого стратегического диапазона возможных следствий остается одной из ключевых исследовательских задач, формулируемых, в частности, и для необходимых комплексных оценок с экспертным участием представителей социогуматинарной сферы.
«Большая часть того, что мы сегодня знаем как искусственный интеллект, обладает узким кругозором - там, где конкретная система решает конкретную проблему. В отличие от человеческого интеллекта, такой узкий интеллект искусственного интеллекта эффективен только в той области, в которой он был обучен» [1]. В отличие от узкого ИИ (ANI), предполагаемый, но еще не созданный общий ОИИ (AGI), должен быть уподоблен мышлению человека, располагающего всесторонними знаниями. Такого рода робкой попыткой приближения к ОИИ и является разработка нейронных сетей с «глубоким обучением» на больших объемах данных.
Шоковая терапия управленческих решений. Оценка возможностей и рисков
Как показала недавняя практика, ажиотаж и шок почти планетарного масштаба после выпуска в пользовательский доступ чат-бота ChatGPT, позволили не только заглянуть в перспективу будущего преподавания на фоне возможностей и рисков искусственного интеллекта, но также привели в конце 2022 - начале 2023 гг. к строгим ограничениям и даже полным запретам его использования в образовательном процессе в целом ряде стран, таких, как США, Франция, Индия и ряде других [5]. Основаниями для такого рода лавинообразных запретов стали опасения в том, что генерация широко разрекламированным приложением адекватного запросам контента создаст угрозу не выявления плагиата и нецелесообразности усилий предъявления собственных образовательных и исследовательских результатов.
Некоторые студенты отечественных вузов, через VPN получившие доступ к возможностям чат-бота и представившие в январе 2023 г. сессионные работы компилятивно-«инновационного» происхождения, также оказались на грани отчисления. Однако стратегически ситуацию спас «успешно защитивший выпускную квалификационную работу, написанную с помощью нейросети ChatGPT, выпускник Российского государственного гуманитарного университета» [6], впоследствии приглашенный для участия в «круглом столе» Комитета Государственной Думы по информационной политике, информационным технологиям и связи на тему «Перспективы и риски применения современных технологий с искусственным интеллектом в системе образования».
Проблема, действительно, оказалась многоаспектной, поскольку, наряду со стремительным увеличением численности текстовых генеративных нейросетей, становящихся все более открытыми для пользователей и быстро совершенствующихся, не менее востребованными стали достаточно многочисленные варианты программного обеспечения, на безоплатной основе позволяющие «в один клик» перефразировать роботизированный текст. У технологий, целенаправленно развиваемых в противоположных направлениях, есть свои разработчики и свои потребители. Эта высококонкурентная среда с векторами развития на опережение пока не обнаруживает результативного разрешения для образовательной системы. Предпринимаемые попытки управленческого администрирования ряда университетов справиться с этой проблемой выглядят нередко одиозными, порождая волну эмоционального дискурса в отношении предполагаемых рисков и негативных следствий, как это, произошло, например, в Северном (Арктическом) федеральном университете Архангельска, утвердившем в январе 2024 г. допустимую норму 40 % сгенерированного текста для выпускных квалификационных работ [7].
Такого рода динамические изменения практики в принятии управленческих решений объясняются целым рядом социальных и технологических оснований. Говоря о социогуманитарных аспектах развития современных технологий, включая и IT, следует помнить о том, что они являются техноло-гиями-трансформерами, зависящими от разработчиков и реализаторов-практиков с различными созидательными, либо разрушительными целями. Страх неосвоенного нового, нарушения привычных академических регламентов и статусов также является знакомым для истории техники даже последних десятилетий. Здесь основная дилемма состоит в опасениях утраты нормативно устоявшегося и в сопротивлении новшествам, с одной стороны; и в развитии критического, поискового мышления, постоянстве обучения и саморазвития, - с другой.
В настоящее время ChatGPT, действительно, представляется более сложным и совершенным, по сравнению с существующими приложениями для написания текстов и получения информации от поддерживающих диалоговый режим ботов. Вторгаясь в повседневную жизнь, он создает реальные
социокультурные, образовательные, исследовательские, юридические, политические, и ряд других рисков. Практически ни одна сфера жизнедеятельности человека не может избежать этого реального или вероятностного воздействия, поскольку становится очевидной возможная утрата целого ряда профессий, включая и креативные, возникает угроза получения недостоверных результатов исследований, экспертных данных и фальсификации их предъявления.
Предложения вернуться в вузовских практиках к аудиторному бумажному контролю и устным экзаменационным испытаниям с использованием камер слежения не являются даже консервативным вариантом разрешения проблемы адекватности проверки получаемых знаний. Изоляционистские настроения не могут отменить реалий сегодняшнего и завтрашнего дня, когда студенты и сертифицированные выпускники университетов окажутся в профессиональной и повседневной среде с интенсивным использованием искусственного интеллекта, с которым нужно научиться жить, выстраивая новые отношения между людьми и машинами.
Вместо прямого и поспешного запрещения использования возможностей генеративного ИИ, полезно подумать о пересмотре контента, структурирования и форм реализации самого образовательного процесса, радикально меняющего традиционные ролевые модели, также, как и о средствах адекватной защиты от возможных уже перечисленных угроз. Здесь непременным условием оказывается освоение грамотности в области искусственного интеллекта не только студентов, но и обучающих их университетских преподавателей - в той мере, в которой это необходимо для совмещения живого и машинного подходов. Достижение этой цели потребует времени, однако, уже сегодня в ряде учебных заведений практикуются предложения подготовки двухчастных работ, с самостоятельным, машинным исполнением и последующим сравнительным анализом выявления преимуществ и недостатков полученных результатов.
Фальсификационные риски также не уходят из поля зрения программистов, в частности, предлагающих разработки приложений с вотермарками, способными обнаружить и обозначить тексты с использованием инструментов ИИ [8]. Способы распознавания сгенерированных текстов появляются и в отечественных программах текстового контроля по обнаружению плагиата, включая академические версии с расширенной базой поиска. И если для устранения неполноты, недостоверности и не достаточной актуальности итоговой информации, получаемой в результате обработки больших массивов данных интернета, ограниченных 2021 годом, еще предстоит найти адекватные решения, то в ChatGPT уже оказались встроены фильтры и модерация оскорбительных высказываний и запросов на создание противоправных текстов.
На пути продвижения к гибридной социальности
Лавинообразное появление технологических нововведений, связанных с расширением возможностей применения искусственного интеллекта, требует повышения внимания к необходимости обращения к комплексному анализу социоинформационной среды, формируемой новыми видами взаимодействия человека и генеративных нейросетевых технологий. Сегодня уже вполне очевидна основная специфика такого рода взаимодействия, состоящая в том, что человек как актор все в большей степени оказывается в зависимости от информационных полей и больших данных, доступ к которым также обеспечивается технологиями; в то время как генеративные нейросетевые технологии, обученные на информационных массивах, созданных человеком, обнаруживают способности к самообучению и саморазвитию, технологически не всегда ему подконтрольные. Результатом оказывается появление и возрастание уровня субъектности генеративного ИИ. Фактически в процессе такого рода взаимодействия человек делегирует компьютерным программам все больший функционал не только обыденных повседневных действий, но и принятие решений, развитие инноваций, включая и возможности применения высоких технологий в изменении собственного физического тела.
Осознание возникающих рисков привело к формированию и усилению человеко-центрированного подхода в развитии ИИ, представляемого многопрофильными коллективами американских и западноевропейских исследователей, дискуссии, проекты и результаты деятельности которых представлены, например, на профильном интернет-ресурсе Стэнфордского университета и на платформе европейской сети HumanE AI Net. Социальный сектор и сектор образования становятся активными игроками экосистемы ИИ, рассчитывая на финансовую поддержку целенаправленных коллективных действий [9].
СОЦИОЛОГИЯ. ПОЛИТОЛОГИЯ. МЕЖДУНАРОДНЫЕ ОТНОШЕНИЯ
Отечественные исследователи А. В. Резаев и Н. Д. Трегубова рассматривают искусственный интеллект как созданный человеком ансамбль инструментально закодированных правил для организации целенаправленной деятельности, имитирующий интеллектуальные системы человека и способный к самообучению. Соответственно, искусственная социальность определяется как «эмпирический факт участия агентов ИИ в социальных взаимодействиях в качестве активных посредников или участников этих взаимодействий. При этом под «агентом ИИ» мы имеем в виду устройство, деятельность которого опосредует и фиксирует проявления искусственного интеллекта. Если для ИИ атрибутом выступает процессуальность, то для агента ИИ ключевой характеристикой является наличное бытие в качестве продукта» [10, с. 43].
Наряду с этим, авторы отмечают тенденции сокращения дистанции между исследованиями искусственного интеллекта и искусственной социальности, а также появления их «взаимных обязательств» [11, с. 6]. В этой связи представляется логичным сделать следующий шаг и сформулировать предположение о формировании отдельных аспектов новой гибридной формы социальности во взаимодействии человека и генеративных нейросетевых технологий. Последние обнаруживают возрастающую субъектность, ускоренно самообучаясь в процессе диалогового взаимодействия в ответах на поступающие запросы. В результате формируется совокупность приобретенных «навыков» и «качеств», обеспечивающих возможности реализации делегированного человеком социально значимого функционала, «принятия» некоторых решений и предъявления управленческих рекомендаций.
Человек, инициировавший эти тектонические технологические изменения ухода от отношения к ИИ как программам «действия по запросу», продвинулся навстречу все возрастающему взаимодействию с нейросетевыми технологиями. Взаимные полезность и усиление привели к развитию этой специфической гибридной формы социальности, когда общность достижения ряда поставленных целей оказалась целесообразна и конструктивна.
Возможны ли проявления гибридной социальности в университетских аудиториях?
Вероятно, следует сделать предположение о том, что в ряде ведущих университетов основы для взаимодействия с генеративным ИИ сегодня уже сформированы. Проблема, в целом, заключалась в том, что исследовательские коммерческие разработки в области ИИ существенно опережали уровень владения наукоемкими информационными технологиями университетских преподавателей, отстававших даже на пользовательском уровне от собственных студентов. Случившаяся пандемия СОУГО-19, нарушившая все форматы публичного непосредственного человеческого взаимодействия, включая и образовательное, неожиданно раскрыла возможности многоаспектных интернет-коммуникаций и развития нейросетевых технологий. Применение дистантных ИКТ, появление в открытом доступе, либо за символическую плату, всевозможных зарубежных и отечественных чат-ботов постепенно меняет представление о коммуникативных ресурсах образовательного и исследовательского процессов.
Развитие гибридной социальности в университетских аудиториях оказывается реальностью, в первую очередь, там, где происходит целенаправленное взаимодействие фирм-разработчиков инновационных программ на основе генеративного ИИ с университетами, в ряде случаев и на контрактной основе. Что же касается университетов в целом, то закрепившийся формат гибридного очно-дистантного преподавания и управления привел к формированию гибридной социальности и в университетской среде, с такого же рода встречным взаимообменом ролевого делегирования, постановки и поиска разрешения задач, для результативности которого оказалось значимым освоение правильности коммуникаций и структурирования текстов для восприятия генеративным ИИ [12].
Методологические маршрутизации
Специалисты утверждают, что для успешного и благоприятного развития человека и общества искусственного интеллекта необходимо выполнение трех ключевых условий. Во-первых, нужен большой массив высококачественных актуальных и объективных оцифрованных данных. Во-вторых, необходима мощная вычислительная облачная инфраструктура, в ближайшем будущем с использованием также и локальных компьютеров. В-третьих, системы ИИ нуждаются в новых моделях и алгоритмах, в постоянстве переобучения с использованием новых данных, нейронных сетей и симво-
лического ИИ, «опирающегося на правила и знания, аналогичные человеческому процессу формирования внутренних символических представлений о конкретных явлениях» [1].
И, тем не менее, этих трех ключевых условий окажется недостаточно, если университеты и научные лаборатории не сумеют обеспечить постоянство экспертного социогуманитарного сопровождения разрешения этических проблем, стоящих за новыми технологиями, развитием критического, поискового и комплексного мышления в студенческих аудиториях, а также - адаптацию к новым видам взаимодействия и вызовам. Будущее уже рядом. Согласованное управление процессами создания дружественного искусственного интеллекта и обеспечение сотрудничества снимет многие риски и переформатирует все сферы человеческой деятельности, включая и развитие университетов с новыми траекториями инновационных изменений.
Еще несколько лет назад странно выглядели гуманитарии, претендующие на анализ проблем, связанных с развитием искусственного интеллекта, с учетом также и того, что современные программисты практически не обращаются к термину «ИИ», предпочитая иные наименования, несмотря на широкую освоенность в обиходном, популяризаторском и даже научном дискурсах. Тем не менее, чем сложнее становятся разрабатываемые технологии, тем потребность привлечения социогумани-тариев к аналитико-экспертному взаимодействию оказывается более очевидной. На повестке дня оказываются задачи формирования национальной политики социогуманитарного включения в развитие программ искусственного интеллекта и сквозных технологий, с участием ведущих университетов [9; 10], так же, как и задачи обоснования и реализации ряда стыковочных исследовательских направлений.
Заключение
Сегодня задачей университетов оказывается освоение и стимулирование такого рода новой гибридной образовательно-исследовательской социальности. Здесь предстоит разрешение многих социально значимых проблем - от обеспечения качества и достоверности предоставления информации до включения в собственные платформы сервисных инструментов на основе моделей генеративного ИИ. Ни одна инновация в современной истории не является идеальной - везде возможно обнаружение рисков и преимуществ. Тем не менее, объединение знаниевого потенциала университетов с разработкой проектов на основе технологий генеративного ИИ продвигает идею гибридной социальности, предполагая и междисциплинарную концептуализацию.
СПИСОК ЛИТЕРАТУРЫ
1. Siemens G. Not everything we call AI is actually 'artificial intelligence'. Here's what you need to know // The Conversation, 2022, December 22. URL: https://theconversation.com/not-everything-we-call-ai-is-actually-artificial-intelligence-heres-what-you-need-to-know-196732. (Accessed: 15.01.2023).
2. Vanderbilt T. How Artificial Intelligence Can Change Higher Education // Smithsonian Magazine, 2011. URL: https://www.smithsonianmag.com/innovation/how-artificial-intelligence-can-change-higher-education-136983766/. (Accessed: 20.06.2020).
3. Раскина А. Все говорят про чат-бот ChatGPT, а Microsoft вкладывает миллиарды долларов. Почему? // ТАСС, 2023, 1 февраля. URL: https://tass.ru/tehnologii/16927187 (дата обращения: 12.02.2023).
4. GPT-4 // OpenAI, 2023, March 14. URL: https://openai.com/research/gpt-4. (Accessed: 17.03.2023).
5. Sanders S. (2023). Rather than ban generative AI, universities must learn from the past // University World News, 2023, February 24. [Online]. URL: https://www.universityworldnews.com/post.php?story=20230221075136410. (Accessed: 17.03.2023).
6. Выпускника РГГУ, защитившего диплом с помощью ChatGPT, пригласили в Госдуму (2023) // Мел, Новости, 2023, 15 марта. URL: https://mel.fm/novosti/5634029-vypusknika-rggu-zashchitivshego-diplom-s-pomoshchyu-chatgpt-priglasili-v-gosdumu (дата обращения: 17.03.2023).
7. Федеральный вуз в Поморье разрешил до 40 % диплома писать при помощи ИИ // ТАСС. Наука, 2024, 24 января. URL: https://nauka.tass.ru/nauka/19806407?ysclid=lti03lrovd597833281 (дата обращения: 26.01.2024).
8. Byrnes G. (2023). Learning to live with ChatGPT // University World News, 2023, February 24. URL: https://www.universityworldnews.com/post.php?story=20230222112438466. (Accessed: 17.03.2023).
9. Troia Di. S., Parli V., Pava J.N., Zaman, H.B. Uz, Fitzsimmons K. Inspiring Action: Identifying the Social Sector AI Opportunity Gap // Stanford University Human-Centered Artificial Intelligence. Working Paper/ February, 2024. URL: https://hai.stanford.edu/sites/default/files/2024-02/Working-Paper-Inspiring-Action.pdf.
СОЦИОЛОГИЯ. ПОЛИТОЛОГИЯ. МЕЖДУНАРОДНЫЕ ОТНОШЕНИЯ
10. Резаев А. В., Трегубова Н. Д. «Искусственный интеллект», «онлайн-культура», «искусственная социальность»: определение понятий // Мониторинг общественного мнения: экономические и социальные перемены. 2019. № 6. С. 35-47. URL: https:// doi.org/10.14515/monitoring.2019.6.03. (дата обращения: 12.02.2023).
11. Резаев, А. В., Трегубова, Н. Д. Искусственный интеллект и искусственная социальность: новые явления, проблемы и задачи для социальных наук // Мониторинг общественного мнения: экономические и социальные перемены. 2021. №1. С. 4-19. URL: https:// doi.org/10.14515/monitoring.2021.1.1905. (дата обращения: 12.02.2023).
12. MacGregor K. Generative AI action hints at core future roles in universities // University world news, 28 January 2024. URL: https://www.universityworldnews.com/post.php?story=2024012705101220&utm_source=newsletter& utm_medium=email&utm_campaign=GLNL0770 (дата обращения: 29.01.2024).
13. Галкин Д. В. Методология искусственного интеллекта в контексте гуманитарной информатики // Гуманитарная информатика, 2011, вып.6. С. 65-75.
14. Орлов В. Социо-гуманитарные аспекты искусственного интеллекта. // Партия дела. 16.09.2021. URL: https://partyadela.ru/blogs/vladimir-orlov/14087/?ysclid=lfk506c54g659431057 (дата обращения: 7.02.2023).
Поступила в редакцию 28.02.2024 Передана на рецензирование 29.02 2024 Рекомендована к печати 11.03.2024
Ладыжец Наталья Сергеевна, доктор философских наук, профессор, зав. кафедрой социологии ФГБОУ ВО «Удмуртский государственный университет» 426034, Россия, г. Ижевск, ул. Университетская, 1 E-mail: [email protected]
N.S. Ladyzhets
HYBRID SOCIALITY: SOCIO-HUMANITARIAN ASPECTS OF THE IMPACT OF ARTIFICIAL INTELLIGENCE ACHIEVEMENTS ON THE DEVELOPMENT OF HIGHER EDUCATION
DOI: 10.35634/2587-9030-2024-8-1-42-48
The article deals with the problem of socio-humanitarian aspects of the impact of achievements in the field of artificial intelligence on the development of higher education in an increasingly risky society. It is argued that social and technological processes tend to accelerate more and more, exerting significant mutual influence, not always equivalent and predictable, contributing to drawing attention to the need to resolve emerging problems. These processes cannot be left without constant coordination of management decisions at various levels. The theoretical framework is determined by the analysis of socio-humanitarian aspects of accelerated progress in the development of neural networks with "deep learning" on large amounts of data, as well as emerging new trends in the organization and development of higher education. The research method is a theoretical socio-cultural analysis of current changes in opportunities and management practices in the educational process and university administration. The novelty of the article is represented by substantiating the emergence of aspects of a new sociality as a result of the development of modern technologies of generative artificial intelligence.
Keywords: artificial intelligence, generative AI, higher education, university administration, social sciences and humanities, social risks, ChatGPT.
REFERENCES
1. Siemens, G. Not everything we call AI is actually 'artificial intelligence'. Here's what you need to know // The Conversation, 2022, December 22. URL: https://theconversation.com/not-everything-we-call-ai-is-actually-artificial-intelligence-heres-what-you-need-to-know-196732. (Accessed: 15.01.2023).
2. Vanderbilt, T. How Artificial Intelligence Can Change Higher Education // Smithsonian Magazine, 2011. URL: https://www.smithsonianmag.com/innovation/how-artificial-intelligence-can-change-higher-education-136983766/. (Accessed: 20.06.2020).
3. Raskina, A. Vse govoryat pro chat-bot ChatGPT, a Microsoft vklady'vaet milliardy' dollarov. Pochemu? // TASS, 2023, 1 fevralya. URL: https://tass.ru/tehnologii/16927187 (время доступа: 12.02.2023). (In Russ.).
4. GPT-4 // OpenAI, 2023, March 14. URL: https://openai.com/research/gpt-4. (Accessed: 17.03.2023).
5. Sanders, S. (2023). Rather than ban generative AI, universities must learn from the past // University World News, 2023, February 24. [Online]. URL: https://www.universityworldnews.com/post.php?story=20230221075136410. (Accessed: 17.03.2023).
6. Vy'pusknika RGGU, zashhitivshego diplom s pomoshh'yu ChatGPT, priglasili v Gosdumu (2023) // Mel, Novosti,
2023, 15 marta. URL: https://mel.fm/novosti/5634029-vypusknika-rggu-zashchitivshego-diplom-s-pomoshchyu-chatgpt-priglasili-v-gosdumu (Accessed: 17.03.2023). (In Russ.).
7. Federal'ny'j vuz v Pomor'e razreshil do 40% diploma pisat' pri pomoshhi II // TASS. Nauka, 2024, 24 yanvarya. URL: https://nauka.tass.ru/nauka/19806407?ysclid=lti03lrovd597833281 (время доступа: 26.01.2024). (In Russ.).
8. Byrnes, G. (2023). Learning to live with ChatGPT // University World News, 2023, February 24. URL: https://www.universityworldnews.com/post.php?story=20230222112438466. (Accessed: 17.03.2023).
9. Troia, Di, S., Parli, V., Pava, J.N., Zaman, H.B.Uz, Fitzsimmons K. Inspiring Action: Identifying the Social Sector AI Opportunity Gap // Stanford University Human-Centered Artificial Intelligence. Working Paper / February, 2024. URL: https://hai.stanford.edu/sites/default/files/2024-02/Working-Paper-Inspiring-Action.pdf.
10. Rezaev, A.V., Tregubova, N.D. «Iskusstvenny'j intellekt», «onlajn-kuFtura», «iskusstvennaya sociaFnosf»: opre-delenie ponyatij // Monitoring obshhestvennogo mneniya: e'konomicheskie i social'ny'e peremeny'. 2019. № 6. P. 35-47. URL: https:// doi.org/10.14515/monitoring.2019.6.03. (Accessed: 12.02.2023). (In Russ.).
11. Rezaev, A.V., Tregubova, N.D. Iskusstvenny'j intellekt i iskusstvennaya sociaFnosf: novy'e yavleniya, problemy' i zadachi dlya social'ny'x nauk // Monitoring obshhestvennogo mneniya: e'konomicheskie i social'ny'e peremeny'. 2021. №1. S. 4-19. URL: https:// doi.org/10.14515/monitoring.2021.1.1905. (Accessed: 12.02.2023). (In Russ.).
12. MacGregor, K. Generative AI action hints at core future roles in universities // University world news, 28 January
2024. URL: https://www.universityworldnews.com/post.php?story=2024012705101220&utm_source=newsletter& utm_medium=email&utm_campaign=GLNL0770 (Accessed: 29.01.2024).
13. Galkin, D.V. Metodologiya iskusstvennogo intellekta v kontekste gumanitarnoj informatiki // Gumanitarnaya in-formatika, 2011, vy'p.6. S. 65-75. (In Russ.).
14. Orlov, V Socio-gumanitarny'e aspekty' iskusstvennogo intellekta. // Partiya dela. // Партия дела. 16.09.2021. URL: https://partyadela.ru/blogs/vladimir-orlov/14087/?ysclid=lfk506c54g659431057 (Accessed: 7.02.2023). (In Russ.).
For citation:
Ladyzhets N.S. Hybrid sociality: socio-humanitarian aspects of the impact of artificial intelligence achievements on the development of higher education // Bulletin of Udmurt University. Sociology. Political Science. International Relations. 2024. Vol. 8, iss. 1. P. 42-48. https://doi.org/10.35634/2587-9030-2024-8-1-42-48 (In Russ.).
Received February 28, 2024 Submitted for review on February 29, 2024 Recommended for publication March 12, 2024
Ladyzhets N.S., Doctor of Philosophy, Professor, Head of Department of Sociology
Udmurt State University
Universitetskaya st., 1, Izhevsk, Russia, 426034
E-mail: [email protected]