Сибирские исторические исследования. 2024. № 1. С. 112-124 Siberian Historical Research. 2024. 1. рр. 112-124
Научная статья УДК 001
doi: 10.17223/2312461X43/8
Что бы сделал Роберт Мёртон, если бы у него был ChatGPT?
Анастасия Валерьевна Голубинская
Нижегородский государственный университет им. Н.И. Лобачевского,
Нижний Новгород, Россия, [email protected]
Аннотация. В 2023 г. ChatGPT стал предметом множества дискуссий, в частности о возможном негативном влиянии практик использования генеративной модели на научное творчество. Рассматривается предположение, что подобные тревожные опасения связаны не с самой технологией, а с тем, как она раскрывает, делает заметными неявные культурные и ценностные аспекты культуры. В качестве теоретической основы изучения скрытых ценностных механизмов науки предлагается концепция научного этоса Р. Мёртона. Однако, в отличие от оригинальной концепции, автор предполагает, что ценностные установки варьируются в зависимости от того, проявляются ли они в формальных дискуссиях или неформальных, исходят ли они от самих ученых в процессе их профессиональной практики или от других участников, влияющих на их практику.
Исследование построено на сравнении двух наборов информации о том, как использование ChatGPT отражает ценности современной науки: формальные и официальные источники, описывающие деятельность ученых от «третьего лица» (они-ученые), и неформальные сообщения, обсуждаемые и комментируемые в онлайн-сообществах академических работников (я-ученый / мы-ученые). Обнаружено, что описание проблемной ситуации меняется в зависимости от выбранной перспективы. Пессимистичные и тревожные прогнозы об «утрате человеческого вклада» не характерны для перспективы «от первого лица», где через ChatGPT выражается потребность в дискуссии по узкоспециализированной теме и желание сосредоточиться на содержании научной деятельности, сэкономив время на формальных задачах (грамматика, пунктуация, перевод на иностранный язык). Это подводит к заключению, что этос научного сообщества не единичен, поскольку само научное сообщество не состоит из одних ученых, и тревожные опасения возникают как реакция на изменение механизмов доверия между такими под-этосами.
Ключевые слова: ChatGPT, научный этос, нормы этоса, научное творчество, научная идентичность, научные ценности
Благодарности: работа выполнена в рамках НИР Н-490-99_2021-2023 «Образы будущего и креативные практики: антропологический анализ социального проектирования и научного творчества в условиях неопределенности» на базе Нижегородского государственного университета им. Н.И. Лобачевского по заказу Министерства образования и науки Российской Федерации (Программа стратегического академического лидерства «Приоритет 2030»).
Для цитирования: Голубинская А.В. Что бы сделал Роберт Мёртон, если бы у него был ChatGPT? // Сибирские исторические исследования. 2024. № 1. С. 112124. doi: 10.17223/2312461X43/8
© Голубинская А.В., 2024
Original article
doi: 10.17223/2312461X/43/8
What Would Robert Merton Do if He Had ChatGPT?
Anastasia V. Golubinskaya
Lobachevsky State University of Nizhny Novgorod, Nizhny Novgorod, Russian Federation, [email protected]
Abstract. In 2023, ChatGPT became the subject of many discussions, particularly about the potential negative impact of generative model usage practices on scientific creativity. This article explores the assumption that such alarming concerns are not related to the technology itself, but to how it reveals and makes noticeable the implicit cultural and value aspects of culture. The concept of R. Merton's scientific ethos is proposed as a theoretical basis for studying hidden value mechanisms in science. However, unlike the original concept, the author assumes that value orientations vary depending on whether they manifest in formal or informal discussions, whether they come from the scientists themselves during their professional practice or from other participants influencing their practice.
The study is based on comparing two sets of information about how the use of ChatGPT reflects the values of modern science: formal and official sources describing the activities of scientists from a third-person perspective ("they, scientists"), and informal messages discussed and commented on in online communities of academic workers ("I, scientist / we, scientists"). It was found that the description of the problem situation changes depending on the chosen perspective. Pessimistic and anxious forecasts about the "loss of human contribution" are not characteristic of the "firstperson" perspective, where through ChatGPT there is a need for discussion on a specialized topic and a desire to focus on the content of scientific activity, saving time on formal tasks (grammar, punctuation, translation into a foreign language). This leads to the conclusion that the ethos of the scientific community is not singular, as the scientific community itself does not consist solely of scientists, and alarming fears arise as a reaction to changes in trust mechanisms between such sub-ethoses.
Keywords: ChatGPT, scientific ethos, ethos norms, scientific creativity, scientific identity, scientific values
Acknowledgements: The work was funded by the Ministry of Education and Science of the Russian Federation (Strategic Academic Leadership Program "Priority 2030") within the framework of the research 490-99_2021-2023 "Images of the Future and creative practices: an anthropological analysis of social design and scientific creativity in conditions of uncertainty" on the basis of Lobachevsky Nizhny Novgorod State University.
For citation: Golubinskaya, A.V. (2024) What Would Robert Merton Do if He Had ChatGPT? Sibirskie Istoricheskie Issledovaniia - Siberian Historical Research. 1. pp. 112-124. (In Russian). doi: 10.17223/2312461X/43/8
Введение
Далеко не каждое технологическое новшество влечет за собой серьезные изменения в культуре, мышлении и организации общественной
жизни. В 2023 г. одной из самых обсуждаемых тем стала модель ChatGPT, которая запрограммирована на понимание смысла запроса пользователя и генерирование ответов в виде текста, изображений, музыки, видео. Данная модель может поддерживать беседу, генерировать рассказы и эссе по указанным параметрам, решать задания по математике, создавать описания товаров, стихи и тексты песен, составлять юридические документы, сайты, код и многое другое. Но если в начале года инновация стала предметом обширных дебатов о возможном влиянии искусственного интеллекта на культуру, то к концу лета энтузиазм заметно утих. Те из нас, кто имел возможность поработать с ChatGPT, получили возможность убедиться, что мы готовились к чему-то большему, что об искусственном интеллекте говорить пока преждевременно, а инструментальная эффективность модели сильно преувеличена в СМИ. Тем не менее тревожная реакция разных сообществ в сфере образования, науки, искусства все же просигнализировала о чем-то, что, вероятно, связано не с технологией как таковой, а с тем, как она раскрывает неявные детали механизма организации нашей культуры. В каждой сфере такие детали и механизмы будут разными. В данной статье речь пойдет только об одной из таких сфер - о научном творчестве.
Этос как «культурный компонент» науки
Какие механизмы являются скрытыми, но принципиально важными для науки? Ответ на этот вопрос в ХХ в. дал американский социолог Роберт Мёртон: дело не только в том, как организован институт науки, но еще и в системе ценностей и установок, которым негласно следует каждый ученый. Эти установки составляют этос науки. Термин «этос» с античных времен служил для обозначения нематериального, культурного капитала группы людей и включал нравы, характеры, темперамент, традиции. Мёртон дает ему более точное описание: этос - «это эмоционально окрашенный комплекс правил, предписаний, нравов, представлений, ценностей и допущений, которые считаются обязательными для ученого» (Мёртон 2006: 755). Этос - это «культурный компонент» науки, «правила игры», а также готовность человека вносить интеллектуальные и эмоциональные инвестиции в установленный этими правилами образ жизни (755-757). Поскольку это довольно известная концепция, ограничимся кратким описанием. Согласно Мёртону, содержание научного этоса сводится к четырем принципам: коллективизм, универсализм, бескорыстность и организованный скептицизм (сокращенно в англоязычной литературе - CUDOS).
Мёртоновский образ науки был скопирован в главных чертах с немецких университетов второй половины XIX в., и вопрос о том, явля-
ется ли он фиксацией реальных свойств научного сообщества или идеализацией, остается открытым. Датский историк Л. Кох и вовсе отмечает, что «ни немецкие, ни западные ученые не соответствовали чрезмерно идеалистическим нормам CUDOS в том виде, в каком их сформулировал Мёртон» (Koch 2002: 173). Сегодня же существует огромное количество литературы, посвященной фактам разрушения норм и установлению новой структуры научного этоса (Radder 2010; Bray 2017; Kim 2018). Одно из последних решений - концепция новых академических норм, которую ее автор, Б. Макфарлэйн, сокращенно (и иронично) назвал DECAY (от англ. decay - распад) (Macfarlane 2023). Буквы аббревиатуры указывают на:
- дифференциализм (отказ от универсальных ценностей и признание зависимости научного знания от культурных контекстов);
- эгоизм (обязанность повышать свою цитируемость, наукометрические индексы);
- академический капитализм (следствие превращения независимых исследований в нефинансируемые, а результатов исследования - в публикации; общая коммерциализация научного любопытства);
- адвокацию, лоббирование, пропаганду (обязательство ученого решать острые социальные и экономические проблемы мира, встраивать результаты своего труда в некую общую программу экономического или политического развития).
Б. Макфарлэйн показывает, что на каждую мёртоновскую норму существует контр-норма, например, бескорыстности противостоят спонсорские исследования, предвзятые источники финансирования со стороны частных и государственных фондов и т.д. Но дело не в том, какие именно принципы сформулировал Мёртон и какие из них важны для современной культуры, а в том, что он указал на существование этих самых норм, что позволяет нам пересматривать содержание концепции, при этом оставаясь в рамках этой самой концепции.
Мы разделяем позицию Д. Келогга, который хоть и провозглашает «крах мёртоновских норм» в научной практике, все же отводит им принципиально важное место в системе коллективных представлений. Он пишет: «... мы все еще склонны предполагать, что наука следует мёртонов-ским принципам - или следовала бы, если бы социальные факторы не продолжали мешать» (Kellogg 2006: 6). То, что результаты научного творчества должны быть открытыми, непредвзятыми, проверенными, вряд ли можно назвать спорными утверждениями, это общепринятая точка зрения о том, какой мы надеемся видеть науку. Любой ученый и по сей день разделяет эти нормы в том смысле, что на вопрос «должны ли ученые придерживаться коллективизма, универсализма, бескорыстности и организованного скептицизма?» ответит положительно. Другое
дело - получить ответ на вопрос «придерживается ли наука этих установок фактически?». Таким образом, Д. Келогг разделяет нормы, описывающие практику науки, и нормы, описывающие ее идеалы. Из научного этоса нельзя исключить ни первое, ни второе, хотя в оригинальной концепции Мёртона эти две системы не разделены.
Другое важное замечание касается структуры науки как социального института. Мёртон описал коллективизм как установку на циркуляцию научной информации внутри сообщества. Однако нормы и ценности, которые регулируют эту циркуляцию, отнюдь не нормы и ценности одних только ученых, но также и других акторов, например, административных, редакционных, спонсорских. Результаты научного творчества, конечно, исходят только от ученых, но, учитывая сетевой характер института науки, нормы и ценностные установки могут отличаться в зависимости от того, артикулируются ли они от первого лица (мы-ученые) или от третьего (они-ученые).
Два рассмотренных замечания ведут к общему предположению: то, как артикулируются ценности и установки науки, зависит от того, проявляются ли они в формальных дискуссиях или неформальных, исходят ли они от самих ученых в процессе их профессиональной практики или от других участников, влияющих на их практику. С такой точки зрения тревожные реакции научного (здесь - в широком смысле, включающем разных акторов) сообщества на изменения в организации собственной деятельности, в том числе на новые инструменты и технологии, можно представить как конфликт практики и ценностей, определяющих эту практику.
ChatGPT и научное творчество: перспектива от третьего лица
Как было сказано ранее, опасения относительно использования ChatGPT в науке породили множество новых дискуссий о неопределенностях, связанных с невозможностью предсказать последствия от изменения элементов привычного нам механизма научного творчества. Если говорить о том, как они отражены в академических публикациях, то основная часть обсуждаемых рисков связана с трансформацией культуры научной публикации. К примеру: «... использование ChatGPT влечет распространение низкокачественных работ и разрушение доверия в академическом сообществе, ведет к обесцениванию навыков экспертизы, необходимых для производства качественных публикаций» (Curtis 2023: 275); «ChatGPT наводит панику в таких процессах, как выдача исследовательских грантов, обсуждение новых направлений исследований и написание исследовательских рукописей» (Yatoo, Habib 2023: 310).
В самых крайних формах эти опасения звучат так: развитие искусственного интеллекта приведет к тому, что потребность в человеческих
ученых попросту отпадет. Подобная риторика характерна не только для науки, опасения об изменениях на рынке труда из-за развития технологий машинного обучения в целом широко известны. Однако в этой точке зрения скрывается одна довольно интересная черта современного понимания науки вообще. Если мы согласны, что ChatGPT влечет риски «утраты человеческого» в научном творчестве, то мы соглашаемся с тем, что ChatGPT способен выполнять все процедуры, составляющие суть научного творчества (т.е. способен заменить человека полностью). Если же мы соглашаемся, что такие риски исходят от программ для анализа данных и установления корреляций, не означает ли это, что мы сводим деятельность ученого исключительно к анализу данных и установления корреляций? Это провокационное заключение, но оно позволяет сформулировать важный вопрос о том, из чего состоит современное научное знание и какую роль в современном научном этосе играют данные.
Наука как форма знания всегда отдавала предпочтение рациональности и построению теории. В отличие от научного мышления, ChatGPT и аналогичные продукты, а точнее мышление, стоящее за ними, приравнивают знание не к пониманию, а к корреляциям и укрепляют веру в то, что если мы соберем достаточно данных и обладаем достаточной вычислительной мощностью, то мы можем «создать» авторитетное знание. Знание через корреляцию - это главное обещание больших данных и технологий искусственного интеллекта: при наличии достаточного количества данных и вычислительной мощности компьютер может определить корреляции, которые будут говорить сами за себя, никакой теории не требуется.
Все это характеризует науку с позиций датизма. Датизм - это установка, основанная на утверждении, что корреляция данных может отражать общество через нейтральные и объективные факты, а задача ученых здесь состоит, по существу, в том, чтобы «выявить» эти факты и описать их нейтральным языком, без нормативных оценок. Большие данные меняют определение научного знания, и с позиций датизма ученого действительно можно заменить программой наподобие ChatGPT, поскольку машина может сопоставлять данные и описывать результаты быстрее и эффективнее, чем ученый-человек. Но позиция датизма вряд ли найдет поддержку среди самиъ ученых, поскольку никакое (тем более общественно-научное) знание не является абсолютно объективным, нейтральным и деконтекстуализируемым. Ю. Харари отмечает, что современная вера в данные обретает религиозный характер (Harari 2016, 2017), и хочется согласиться с тем, что датизм - не характеристика научного творчества, а выражение обывательской веры в науку.
Наиболее реалистичным сценарием, рассмотренным в вышеприведенных отрывках, будет такой: в процессе подготовки статьи ученый не занимается сравнением литературы, а получает готовый обзор, перечень
тем дебатов, поиск становится одноэтапным и подменяется получением готового ответа. Обязательно ли это должно быть проблемой? На сегодняшний день ChatGPT печально известен способностью «выдумывать» фальшивые журнальные статьи и библиографические ссылки, которые состоят из визуально правдоподобных компонентов. Д. Мишра отмечает, что у наивного (малокомпетентного) автора может возникнуть соблазн использовать ChatGPT для написания обзорных статей (Misra, Chandwar 2023), но такие статьи будут иметь высокий риск плагиата и низкий уровень достоверности. Предположим, что эти недостатки будут исправлены по мере совершенствования технологии и ChatGPT научится не имитировать, а составлять корректные библиографические описания. Что тогда? С одной стороны, глобальные традиции производства научных публикаций заключаются в том, что подготовка обзора истории проблемы и современного состояния исследований - это такие же результаты, как описание экспериментальных методов и выводов. Хорошее исследование - одновременно и разработанное, и оригинальное. С другой стороны, известное понятие научного метода не говорит многого о культуре поиска информации. Это связано не столько с качеством исследования, сколько с его социальной легитимацией (актуальность, новизна, состояние проблемы - все то, что призвано ускорить экспертную оценку и выразить то, что Макфарлэйн назвал адвокацией). Научная статья в силу своего жанра добавляет в науку немногое новое, но это немногое требует упаковки в размер оригинального труда.
Приведенные рассуждения можно сформулировать в виде вопросов, о необходимости ответа на которые указывают тревожные высказывания о ChatGPT. Вопросы о роли данных в структуре современного научного знания, об ожиданиях общественности от науки можно назвать философскими и глобальными. Они характеризуют не столько этос, сколько среду, внутри которой этот этос формируется. Вопросы о распределении ответственности в гибридных эпистемических системах, об особенностях научного текста (публикации) как артефакте научного этоса, напротив, напрямую связаны с этосом. Какие функции мы привыкли накладывать на публикации, отражающие научные исследования, помимо презентации самих результатов? Читаем ли мы тексты, которые создаем? Всегда ли мы создаем тексты для того, чтобы их читали? О том, что без надлежащего контроля ученые, применяющие ChatGPT, оказываются в зоне риска, высказались многие авторы. Одни считают, что исследователям следует с осторожностью использовать ChatGPT в академических исследования, поэтому необходимо установить правила и рекомендации для надлежащего использования (Rahman 2023). Другие отмечают, что во время тщательного процесса проверки эксперты пропускают около 30% некорректных тезисов, сфабрикованных ChatGPT, сгенерированный текст является серьезной проблемой для рецензентов и
редакторов, а потому запрет на такой контент должен стать стандартом политики научных публикаций (Zheng, Zhan 2023). При этом упускается из виду очевидный вопрос - заметили бы эксперты эти неточности, будь они созданы человеком? Как именно источник утверждения влияет на правдоподобность факта и работу эксперта? Такие комментарии, во-первых, указывают на возможность исследования этоса рецензентов и редакторов отдельно от общего этоса мира науки, что выходит за рамки данной статьи. Во-вторых, что более важно для наших целей, подобные высказывания «пересобирают» образ ученого, и этот образ нельзя назвать образцовым: он обращается к ChatGPT, чтобы избавиться от части своей работы, не способен или не желает отследить ошибки, что затрудняет работу экспертов, оценивающих публикацию или принимающих решение о выдаче исследовательских грантов.
ChatGPT и научное творчество: перспектива от первого лица
Насколько точно обнаруженные представления описывают практики использования ChatGPT учеными? Чтобы уточнить этот вопрос, мы проанализировали сообщения в профессиональных онлайн-сообществах научных и академических работников и сообществе, посвященном обсуждению ChatGPT, в социальной сети Reddit.
В первую очередь, то, что интересует научных работников в применении технологии, - это возможность качественной (т.е. неколичественной) оценки текста. Например:
Это только я, или все мы используем ChatGPT как мотивационный стимул? Должен признаться, что иногда я немного сомневаюсь в себе и своей работе. В настоящее время я пишу исследовательскую работу, и когда я чувствую себя неуверенно, я загружаю в ChatGPT абзац, который я только что написал, и спрашиваю его мнение о научных стандартах и т.д., и программа обычно очень воодушевляет и мотивирует, а иногда говорит мне, как именно улучшить текст
Matt_tokyo, 15.06. r/ChatGPT
https://www.reddit.eom/r/ChatGPT/comments/14acrdl/chatgpt_really_helps_if_yo u_have_self_doubt_while
Если я пишу текст на тему вроде «Анализ маркетингового комплекса любого продукта по вашему выбору», я планирую потратить час или два на ChatGPT, задавая различные вопросы. Часто программа говорит что-то, что заставляет меня подумать: «О, это хорошая идея. Я должен рассмотреть и этот момент». Я не копирую и вставляю, я просто записываю пункты и создаю структуру своего эссе. Это академический проступок или можно продолжать это делать?
Snoo32297, май 2023, r/UniUK
https://www.reddit.com/r/UniUK/comments/127wk0d/can_i_use_chatgpt_to_get_ ideas_and_inspiration
Второе обращение оставлено в сообществе академиков Соединенного Королевства. Пользователь спрашивает коллег, считают ли они беседу с
ChatGPT академическим проступком, и комментаторы склонны отвечать отрицательно (не является проступком). Однако дискуссионность задачи говорит о растерянности даже опытных академиков перед этическими аспектами проблемы.
Наиболее иллюстративной можно назвать серию из двух сообщений от одного и того же пользователя (упомянутый во втором отрывке ScholarAI - это надстройка для ChatGPT, для обучения которой используются преимущественно академические публикации).
Я начал разговор с СhatGPT о своем диссертационном исследовании и был действительно впечатлен его способностью обобщать исследования и литературу в моей области, а также устанавливать связи и понимать, в чем заключается мой собственный вклад. Я был особенно впечатлен тем, как в нашем коротком разговоре программа начала узнавать о моих научных интересах и видах эмпирических работ, которые я просматривал в поддержку своей точки зрения, и начала адаптировать свои ответы к моим конкретным потребностям havenyahon, май 2023, r/ChatGPT
https://www.reddit.eom/r/ChatGPT/comments/13rzy8b/best_solution_for_academ ic_researcher
На данный момент как аспирант я считаю ScholarAI скорее помехой, чем полезным инструментом. Проблема в том, что во многих случаях это не будет очень глубоким или интересным ответом. Поэтому иногда ответ, который я получаю, лишен какой-либо глубины или технической информации havenyahon, июнь 2023, r/ChatGPT
https://www.reddit.eom/r/ChatGPT/eomments/13yat4o/eomment/jmlyrj2/?utm_so uree=share&utm_medium=web2x&eontext=3
Представленные сообщения довольно много говорят об ожиданиях научных сотрудников, связанных с возможностью обсуждения результатов своих исследований, но последние два говорят и о динамике этих ожиданий: ChatGPT не оправдал надежд, которые автор сформировал на ранних стадиях использования программы. Если на основании этих и аналогичных сообщений в социальных сетях высказать предположения о научном этосе ученых «от первого лица», то они никак не связаны с опасениями, озвученными перспективой «от третьего лица». Первое, что бросается в глаза, - это нехватка экспертной коммуникации. Трудности организации экспертного диалога являются закономерным продолжением разделения и специализации научных исследований. Уникальный набор знаний и навыков, которые определяются узкой областью научных интересов, создает определенные препятствия для взаимодействия между учеными даже в пределах одной дисциплины, каждый из них имеет свой собственный «язык», методологию и подход к описанию, обсуждению и решению проблем. На практике ChatGPT стал не инструментом реализации научных исследований, чего опасаются рецензенты и редакторы, а инструментом для рефлексии ученого над исследуемой проблемой.
Обзор различных отчетов о применении ChatGPT в профессиональной деятельности ученых приводит к заключению, что наибольшую инструментальную ценность программа несет для выполнения не содержательных, а формальных задач. В первую очередь это касается возможности отредактировать, отшлифовать уже написанный текст.
Я обычно использую программу, чтобы переписать то, что написал, особенно когда чувствую, что звучу недостаточно умно.
Nejimakidori48, март 2023,
https://www.reddit. com/r/PhD/comments/127©%'у/соттеп1У) een5j 3
Как исследователь, не являющийся носителем английского языка, я использую программу во всех текстах, которые пишу. Либо просто прошу его перевести с моего языка на английский (программа делает это намного лучше, чем Google-переводчик), либо прошу улучшить англоязычный текст, который я написал. Я понял, что буду гораздо более продуктивным, если просто пропущу попытки сделать язык лучше и сосредоточусь на содержании.
Бгу-А^ог1-369, февраль 2023, r/AskAcademia
https://www.reddit.eom/r/AskAcademia/comments/11n0rhz/comment/jbqrhsi
Из авторов двух представленных комментариев один пишет диссертацию в Японии, другой является носителем шведского языка. Прочие комментаторы приводят другие примеры того, в чем ChatGPT оказывает им поддержку: составление биографий, формальных электронных писем, англоязычных аннотаций (для иноязычных авторов). Таким образом, к желанию получить непредвзятые мнения и участвовать в дискуссии узко по своей теме можно добавить желание сосредоточиться на содержании научной деятельности, сэкономив время на выполнении формальных, не связанных непосредственно с наукой задач.
ChatGPT показывает, что нарратив о науке, развивающийся за пределами научного сообщества, действительно отличается от нарративов, складывающихся внутри этого сообщества. Институты, административные работники, организаторы научных конференций, издатели видят в ChatGPT источник важных изменений, которые разрушают доверие. Обратим внимание на то, что в таких рассуждениях разрушение доверия сверху вниз - как доверие редакции, принимающей решение о публикации, к авторам публикаций. Сообщения, взятые из социальной сети, показывают, что этот процесс может двигаться и снизу вверх: вместо того чтобы заботиться о содержании научных дискуссий, авторы чувствуют себя загруженными вторичными задачами, в результате чего доверие к издательствам, вера в их приверженность общим ценностям ослабевает.
Заключение
В 2013 г. Аннет Маркхэм спросила: «Что бы сделал Малиновский, если бы у него был интернет?» Такие вопросы, несомненно, способствуют раскрытию некоторых скрытых рамок, которые формируют наш
взгляд (Markham 2013). Если мы верим, что ChatGPT имеет инструментальную ценность для анализа современного научного этоса, то можно предложить похожий вопрос: что бы сделал Роберт Мёртон, если бы у него был ChatGPT? Как бы изменилась его концепция, если бы он имел доступ к процессам, которые мы наблюдаем сегодня в рамках дискуссий о влиянии ChatGPT на научное творчество? Возможно, он бы учел эти наблюдения и сделал совсем другие выводы. Например, что научное сообщество на самом деле состоит не только из ученых, но и из огромного числа людей разных профессий, разного вида деятельности. Обладают ли они идентичными ценностными установками? Вероятно, что нет. Мертон говорил о представителях научного сообщества как носителях особой социальный идентичности, а идентичность всегда формируется через дихотомию «мы-они». Пример с ChatGPT показывает, что научное сообщество имеет не один этос, а этосы во множественном числе, или под-этосы, суб-этосы.
Разные перспективы приводят к совершенно разным заключениям. Позиция, представленная в официальных академических изданиях, и пессимизм, характерный для перспективы от «третьего лица», совершенно не отражены в том, что работники научной сферы обсуждают в неформальных беседах и в их практически экзистенциальных поисках собеседника. Оптимистическая позиция исходит из того, что в конечном итоге опасения приведут к созданию более сильного теста на компетентность. Таким образом, опасения, предостережения, а также надежды, высказываемые относительно влияния ChatGPT на культуру, в частности на науку, - повод для обсуждения не самой технологии, а наших ожиданий от нее.
Список источников
Мёртон Р. Социальная теория и социальная структура. М.: АСТ, 2006.
Bray D., von Storch H. The normative orientations of climate scientists // Science and
Engineering Ethics. 2017. No. 23 (5). P. 1351-1367. doi: 10.1007/s11948-014-9605-1 Curtis N. To ChatGPT or not to ChatGPT? The impact of artificial intelligence on academic publishing // The Pediatric Infectious Disease Journal. 2023. No. 42 (4) P. 275. doi: 10.1097/INF.0000000000003852 Harari Y.N. Homo Deus: A brief history of tomorrow. London: Penguin Random House, 2016. Harari Y.N. Dataism is our new god // New Perspectives Quarterly. 2017. No. 34 (2). P. 36-43. KelloggD. Towards a post-academic science policy: Scientific communication and the collapse of the Mertonian norms // International Journal of Communications Law and Policy. Special Issue: Access to Knowledge. 2006. No. 6. P. 1-29. Kim S.Y., Kim Y. The ethos of science and its correlates: An empirical analysis of scientists' endorsement of Mertonian norms // Science, Technology and Society. 2018. No. 23(1). P. 1-24.
Koch L. The ethos of science // Scandinavian Journal of History. 2002. No. 27(3). P. 167-173.
doi: 10.1080/03468750260258536 Macfarlane B. The DECAY of Merton's scientific norms and the new academic ethos // Oxford Review of Education. 2023. P. 1-16. doi: 10.1080/03054985.2023.2243814
Markham A. Fieldwork in social media: What would Malinowski do? // Journal of Qualitative
Communication Research. 2013. No. 2 (4). P. 434-446. doi: 10.1525/qcr.2013.2.4.434 Misra D.P., Chandwar K. ChatGPT, artificial intelligence and scientific writing: What authors, peer reviewers and editors should know? // Journal of the Royal College of Physicians of Edinburgh. 2023. No. 53 (2). P. 14782715231181023. doi: 10.1177/14782715231181023 Radder H. Mertonian values, scientific norms, and the commodification of academic research // The commodification of academic research. Science and the modern university. University of Pittsburgh Press, 2010. P. 231-258. '
Rahman M., Terano H.J.R., Rahman N., Salamzadeh A., Rahaman S. ChatGPT and Academic Research: A Review and Recommendations Based on Practical Examples // Journal of Education, Management and Development Studies. 2023. No. 3 (1). P. 1-12. doi: 10.52631/jemds.v3i1.175 YatooM.A., Habib F. ChatGPT, a friend or a foe? // MRS Bulletin. 2023. No. 48. P. 310-313.
doi: .1557/s43577-023-00520-9 Zheng H., Zhan H. ChatGPT in scientific writing: a cautionary tale // The American Journal of Medicine. 2023. No. 136(8). P. 725-726. doi: 10.1016/j.amjmed.2023.02.011
References
Bray D., von Storch H. (2017). The normative orientations of climate scientists. Science and Engineering Ethics, no. 23(5), pp. 1351-1367. https://doi.org/10.1007/s11948-014-9605-1 Curtis N. (2023) To ChatGPT or not to ChatGPT? The impact of artificial intelligence on academic publishing. The Pediatric Infectious Disease Journal, no. 42(4), pp. 275. https://doi.org/10.1097/INF.0000000000003852 Harari Y.N. (2016) Homo Deus: A brief history of tomorrow. London: Penguin Random House. Harari Y.N. (2017) Dataism is our new god. New Perspectives Quarterly, no. 34 (2), pp. 3643.
Kellogg D. (2006) Towards a post-academic science policy: Scientific communication and the collapse of the Mertonian norms. International Journal of Communications Law and Policy. Special Issue: Access to Knowledge, no. 6, pp. 1-29. Kim S.Y., Kim Y. (2018) The ethos of science and its correlates: An empirical analysis of scientists' endorsement of Mertonian norms. Science, Technology and Society, no. 23(1), pp. 1-24.
Koch L. (2002) The ethos of science. Scandinavian Journal of History, no. 27(3), pp. 167-173.
https://doi.org/10.1080/03468750260258536 Macfarlane B. (2023) The DECAY of Merton's scientific norms and the new academic ethos.
Oxford Review of Education, pp. 1-16. https://doi.org/10.1080/03054985.2023.2243814 Markham A. (2013) Fieldwork in social media: What would Malinowski do? Journal of Qualitative Communication Research, no. 2(4), pp. 434-446. https://doi.org/10.1525/ qcr.2013.2.4.434
Merton R. (2006) Social'naja teorija i social'naja struktura [Social theory and Social structure].
Moscow: AST. (In Russian) Misra D.P., Chandwar K. (2023) ChatGPT, artificial intelligence and scientific writing: What authors, peer reviewers and editors should know? Journal of the Royal College of Physicians of Edinburgh, no. 53(2), pp. 14782715231181023. https://doi.org/10.1177/ 14782715231181023
Radder H. (2010) Mertonian values, scientific norms, and the commodification of academic research. The commodification of academic research. Science and the modern university. University of Pittsburgh Press, pp. 231-258. Rahman M., Terano H.J.R., Rahman N., Salamzadeh A., Rahaman S. (2023) ChatGPT and Academic Research: A Review and Recommendations Based on Practical Examples. Journal of Education, Management and Development Studies, no. 3(1), pp. 1-12. https://doi.org/10.52631/jemds.v3i1.175
Yatoo M.A., Habib F. (2023) ChatGPT, a friend or a foe? MRS Bulletin, no. 48, pp. 310-313.
https://doi.org/10.1557/s43577-023-00520-9 Zheng H., Zhan H. (2023) ChatGPT in scientific writing: a cautionary tale. The American Journal of Medicine, no. 136(8), pp. 725-726. https://doi.org/10.1016/ j.amjmed.2023.02.011
Сведения об авторе:
ГОЛУБИНСКАЯ Анастасия Валерьевна - кандидат философских наук, научный сотрудник лаборатории социальной антропологии, доцент кафедры социальной безопасности и гуманитарных технологий Нижегородского государственного университета им. Н.И. Лобачевского (Нижний Новгород, Россия). E-mail: [email protected]
Автор заявляет об отсутствии конфликта интересов.
Information about the author:
Anastasia V. Golubinskaya, Lobachevsky State University of Nizhny Novgorod (Nizhny Novgorod, Russian Federation). E-mail: [email protected]
The author declares no conflict of interests.
Статья поступила в редакцию 14 ноября 2023 г.;
принята к публикации 20 января 2024 г.
The article was submitted 14.11.2023; accepted for publication 20.01.2024.