ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: МЕЖДИСЦИПЛИНАРНЫЙ АНАЛИЗ
УДК: 316.74
DOI: 10.24412/2414-9241-2024-10-75-86
ГЕНЕРАТИВНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НА СЛУЖБЕ У УЧЕНЫХ: ПРАКТИКИ И ОГРАНИЧЕНИЯ
Владислава Юрьевна Боброва
студент Новосибирского государственного университета, Новосибирск, Россия; e-mail: [email protected]
Общество переживает активную цифровую трансформацию. Технологии искусственного интеллекта находятся в фазе бурного развития и интегрируются на разных уровнях общественной жизни. Наука — это одна из сфер, которая также подверглась «вторжению» новых цифровых агентов и начала вырабатывать новые сценарии взаимодействия с ними. В работе рассмотрены возможности генеративного искусственного интеллекта (на примере ChatGPT) в науке. Для этого были выявлены практики применения этих технологий учеными в процессе производства научного знания, составлена их типология по объекту взаимодействия. Большая часть практик носят инструментальный характер и ориентированы на написание текстов научных публикаций. Описаны риски и ограничения, связанные с применением технологий генеративного искусственного интеллекта, а именно: галлюцинации ИИ, глубина и оригинальность ответов, недобросовестное использование, перформативность высказываний, а также этические риски. Делается вывод о важности формирования у ученых навыков общения с генеративным искусственным интеллектом и рефлексивного отношения к этим технологиям.
Ключевые слова: искусственный интеллект, генеративный искусственный интеллект, производство научного знания, практики, ChatGP T.
Общество переживает активную цифровую трансформацию. Технологии искусственного интеллекта бурно развиваются и постепенно интегрируются в повседневную жизнь людей. Человечество, по некоторым прогнозам, движется к точке технологической сингулярности — моменту радикального усложнения технологий и их взрывному росту и, как следствие, необратимому отставанию человеческого интеллекта и даже потере контроля над «техносубъектами» будущего (Игнатьев, 2019: 65).
Наука — это одна из сфер, которая также подверглась «вторжению» новых цифровых агентов и начала вырабатывать новые сценарии взаимодействия с ними. По данным исследования, проведенного научным изданием Nature (Noorden, Perkel, 2023: 672-675), у ученых вызывает беспокойство надежность данных, полученных либо же обработанных с помощью технологий ИИ. Говоря более конкретно о больших лингвистических моделях, к которым относится ChatGPT, по данным того же исследования, ученые обеспокоены распространением дезинформации, упрощением плагиата и неточностью предоставляемых данных, или даже их фальсификацией. С другой стороны, согласно данным того же исследования, ИИ способствует ускорению процесса обработки данных, расчетов, экономии времени и человеческих ресурсов. Также отмечается эвристический потенциал ИИ, возможность использовать новые типы данных. Таким образом, этот цифровой агент может выступать как союзником ученого, так и оперировать непроверенной информацией, ставя под угрозу его научную репутацию.
В данной статье предлагается рассмотреть возможности генеративного искусственного интеллекта в науке. Для этого нами были выявлены практики применения этих технологий учеными в процессе производства научного знания. Данные были получены в ходе проведения интервью с сотрудниками научно-исследовательского института биологического профиля
в феврале — апреле 2024. Сужение фокуса исследования до одной из естественных наук — биологии — обусловлено тем, что внутри этой науки существует запрос на применении ИИ-агентом, так как получение «нового знания (knowledge discovery) объективно затруднено отсутствием развитого формального аппарата и ясно определяемой структуры познавательного процесса в сочетании с обширным эмпирическим материалом, допускающим возможность структурирования» (Финн, Михеенкова, 2020: 219).
В основном речь пойдет о конкретном инструменте — ChatGPT, продукте компании OpenA I. У ChatGPT есть несколько версий. Последняя версия — ChatGPT-4o — вышла 13 мая 2024 г., после завершения формирования информационной базы исследования. В приведенной ниже типологии практик не делается разделения по версиям, но преимущественно имеется в виду платная версия ChatGPT-4.
Важно отметить, что на территории РФ данная технология имеет ограниченный доступ. И к бесплатной, и к платной версиям пользователь из России может подключиться только через VPN. Более того, при попытке оформить платную версию нужно совершать дополнительные действия, «обходные маневры», чтобы оплатить подписку. Затрудненный доступ к технологии объясняется тем, что технологии в принципе не свободны от ценностей, закладываемых их создателями.
Один из широко известных кейсов из STS описывает строительство моста над дорогой на пляж: под этим мостом могли проехать только легковые автомобили, соответственно, люди, пользующиеся общественным транспортом — автобусом, не могли попасть на пляж (Winner, 1980: 123-124). Таким образом, в конструкцию моста была заложена идея дискриминации более бедного населения Америки. В ситуации с ChatGPT также наблюдается технологическое ограничение в отношении определенной группы людей. Несмотря на то что сейчас есть возможности обойти названные ограничения, это требует дополнительных усилий, что создает инерцию в применении подобных инструментов.
Кроме того, более 40% ученых в исследовании Nature отметили, что есть риск возникновения дисбаланса сил, потому что наибольших успехов на новом передовом поприще достигнут ученые, работающие в наиболее обеспеченных университетах, институтах, фирмах. В данном случае начинает действовать эффект Матфея — неравенство в научной деятельности, основанное на том условии, что накопленный авторитет способствует еще большему накоплению авторитета (признания разного рода) (Мертон, 1993: 256-258). Соответственно, научные организации, уже обладающие большими ресурсами в отношении передовых цифровых технологий, имеют бойльшие шансы на успех в области искусственного интеллекта.
Практики применения генеративного искусственного
интеллекта
ChatGPT не является специализированным продуктом, он ориентирован на широкую публику. Главным принципом во взаимодействии с ChatGPT выступила фантазия пользователя-ученого. Именно ею ограничивается вариация практик, случаев обращения к генеративному ИИ. На конкретных примерах рассмотрим, какие возможности он дает ученому и какие ограничения и риски несет в себе.
Все практики были разделены по принципу объекта взаимодействия ученого и цифрового агента. Под объектом понимается основное содержание взаимодействия, по поводу чего оно начинается. Таким образом, было выделено две большие группы, где объектом выступает программный код либо текст.
Объект взаимодействия — программный код. Использование генеративного ИИ облегчает взаимодействие ученого со средой программирования, т.е. ИИ как цифровой агент выступает посредником во взаимодействии с другим цифровым агентом в нижеследующих формах.
Во-первых, это генерация кода по запросу. Так, можно использовать ИИ для написания кода по какой-то задаче в случае,
когда ученому не хватает информации, например, о том, как посчитать длину массива. Также через написание программного кода ученые получают возможность создания визуальных репрезентаций их данных, когда ChatGPT пишет программный код, запустив который ученый преобразует свои данные в нужного вида рисунки, диаграммы.
Во-вторых, ИИ помогает оптимизировать уже написанный код. Так, к ИИ ученые обращаются за помощью в оценке уже написанного кода — проводят так называемый «дебаж» (от англ. debug — поиск и устранение ошибок). Помимо исправления ошибок, чат может также отредактировать, улучшить код.
За счет доступа к «мануалам» — открытым инструкциям по пользованию языками программирования, пособиям и пр. — ИИ выступает как экспертная система. Это облегчает процесс обучения программированию: вместо необходимости учиться по бумажным учебникам по каждому языку есть возможность задать интересующий вопрос «цифровому союзнику». Все это расширяет возможности ученого в области анализа данных, выступает альтернативой стандартных офисных пакетов для расчета статистик, построения графиков.
Объект взаимодействия — текст. Гораздо больше информации было получено о практиках, где объектом взаимодействия является текст. Группировка практик производилась по цели обращения к генеративному ИИ. Первые две группы включают в себя практики по трансформации текста: языковая и стилистическая трансформация.
Во-первых, через ChatGPT переводят тексты с русского на английский. Как отмечают информанты, такой перевод получается более качественным. Если раньше в таких случаях привлекались эксперты из области лингвистики, перевода, то теперь это не требуется, соответственно, экономятся денежные и временные ресурсы: Там он убирает этот рунглиш, русский, английский. Раньше ...
можно было читать статью, скинуть людям, редакторам отдельно.
Они за какие-то деньги убирали ошибки, больше лексикологического характера. И сидят филологи, лингвисты, все меняют. И они за деньги это делают. А сейчас можно вообще не тратить на это деньги (младший научный сотрудник).
Более того, с помощью ChatGPT корректируется стилистика текста. Например, он применяется для стилизации перевода под стиль выбранного научного издания. Эта практика характерна для написания текстов на английском языке, так как нейросеть имеет доступ к достаточному количеству статей именно из высокорейтинговых англоязычных журналов, чтобы правдоподобно повторить их стиль.
Как отмечают информанты, за счет привлечения генеративного ИИ в науку общее качество (языковое) текстов улучшается, что делает их более понятными, доступными для чтения. Однако необходимо совершать дополнительные проверки переведенного текста, нельзя «доверять» ИИ работу полностью. Интересно, что агентность ИИ находит отражение в указании авторства статьи. Становится более распространенной практика, когда авторы статьи открыто указывают, что в написании текста участвовал ИИ, но они берут на себя всю ответственность за содержание работы.
Кроме работы с полнотекстовыми статьями, генеративный ИИ привлекается для написания тезисов на конференцию, написания отчетов или деловой корреспонденции. Особый интерес представляет практика написания поста для социальных сетей. В естественно-научном сообществе имеет место активная коммуникация в Twitter (в настоящее время Х)5. В ходе такой неформальной коммуникации можно ознакомиться со свежими результатами исследований еще до выхода публикаций. Так называемые «твитториалы» представляют собой отдельный жанр, в котором ChatGPT также может сгенерировать текст.
Социальная сеть X, ранее Twitter, заблокирована на территории Российской Федерации.
Практика оптимизации текста аналогична оптимизации в случае программного кода. ChatGPT может быть эффективным помощником в улучшении уже имеющейся идеи, однако он предлагает нечто стандартизованное, не «сногсшибательное». К генеративному ИИ также обращаются за помощью в оформлении текста: например, для удаления ссылок из текста, поиска и оформления ISSN по образцу, оформления библиографии и др.
Принципиально, что эти тексты пишутся на основе уже существующего, т.е. ИИ предварительно «ознакомлен» с полным текстом статьи или имеет информацию об основных идеях, которые пользователь хочет сформулировать иначе. Таким образом, подчеркивается ограниченная оригинальность генеративного ИИ, инструментальность его использования в написании текстов.
Литературный обзор как отдельная практика помогает исследователю преодолеть последствия информационного бума в науках о жизни — относительно быстро получить представление о какой-то области без глубокого погружения в публикации. Однако в этом контексте возникает риск «галлюцинаций» ИИ — грамматически корректного ответа, который тем не менее не дает содержательный ответ на поставленный вопрос. Более того, он может дать ложный ответ. Именно из-за галлюцинаций практика подбора литературы с помощью ChatGPT не имеет большого распространения: он иногда генерирует несуществующие публикации. Поэтому, как и в ситуации перевода, пользователь должен отдавать себе отчет в том, что ИИ не является абсолютно объективным, его результаты требуют дополнительной оценки.
Брейнсторминг (от англ. brainstorming). Последняя из практик уникальна для данной подборки, так как носит коллективный характер. В одном научном коллективе ChatGPT буквально принимал участие в общем обсуждении, выступал зеркалом, через которое ученые могли яснее увидеть собственный замысел:
А в итоге это как вести собеседование с самим собой. Не собеседование, как это сказать, вести диалог с самим собой и такой... просто еще один собеседник, грубо говоря, и в итоге, пытаясь сформулировать вопрос, prompt, в итоге ты сформулируешь свою идею. Вот это так работает, почти случайно (младший научный сотрудник).
Подводя итог описанию практик, отметим, что в настоящее время генеративный ИИ преимущественно используется на «текстовом» этапе — написания научных публикаций и ведения корреспонденции. В этот обзор вошли практики, которые гарантированно применяются отдельными учеными, но скорость их распространения на все естественно-научное и в целом научное сообщество — вопрос другого исследования.
Ограничения и риски в применении генеративного ИИ
Вопрос делегирования ИИ написания текста научной статьи целиком имеет довольно четкий отрицательный ответ. Этому есть несколько причин. С одной стороны, искусственному интеллекту по типу ChatGPT редко делегируются содержательные задачи:
ChatGPT в плане «что-то придумай», мне кажется, не работает. В плане переформулировать что-то это работает (младший научный сотрудник).
Некоторые задачи ИИ выполняет некорректно, и ученый выбирает самостоятельно решить вопрос, чем бесконечно объяснять задачи и перепроверять за ИИ.
С другой стороны, даже в написании текстов генеративный ИИ ограничен. Как указывал Б. Латур, производство научного знания — это процесс литературной записи, где утверждения тщательно собираются, подтверждаются, между ними аккуратно выстраиваются связи. Большую роль в этом играют модальности высказываний — обозначение степени признанности данного утверждения (Латур, 2013: 47-53). Ссылаясь на какое-либо
исследование в своей работе, ученый неизбежно присваивает ему модальность: например, опирается на какой-то результат или спорит с ним, считает его само собой разумеющимся или пока не установившимся научным фактом. Это особенно важно в областях, где ведется живая дискуссия, ставится под вопрос действующая парадигма. На наш взгляд, ИИ пока не способен уловить и передать оттенки модальностей в тексте, так как для него истинность научных утверждений не является ценностью (и целью).
Одним из главных рисков применения генеративного ИИ в науке, по данным исследований, ученые видят недобросовестное использование таких инструментов. Информанты отмечают возможность фальсификации результатов исследования, создания ложных визуальных репрезентаций данных. Однако здесь, на наш взгляд, источником риска является не цифровой агент, а ученый, использующий его в своих корыстных целях. Как иронично отметил один из информантов:
Риск применения ручки в науке — то, что ей можно писать какую-то неправду (ведущий научный сотрудник).
Еще один из рисков связан с условиями создания больших языковых моделей — перформативность высказываний больших языковых моделей. Перформативность, по М. Каллону, заключается в возможности изменения действительности в соответствии с высказываниями о ней (цит. по: Юдин, 2008: 50). СЬа1вРТ производит высказывания обо всем на свете. Нейронные сети генерируют информацию, обучаются на выборках, в которых доля сгенерированного контента неуклонно растет. Одно из опасений, связанных с развитием ИИ, — это потеря связи с реальным миром, т.е. количество сгенерированного контента будет настолько велико, что будто только он и есть. Таким образом, посредством совершения высказываний нейронные сети на самом деле совершают действия по изменению нашей реальности, запускают процесс самоисполняющегося пророчества для мира, где реальностью станет сгенерированное все.
Кроме того, идеологическая нагруженность современных нейронных сетей негативно сказывается на доверии к ним. В этом также проявляется перформативность высказываний, так как, помимо прямого ответа на запрос пользователя, нейросеть отражает заложенные в нее повестки:
Ну, не знаю, там внедрить могут все что угодно в эту нейросеть, а что она идеологически может воспроизводить — да любую идеологию может продвигать, не глядя как бы ни на что, и вроде как никто не виноват — это нейронная сеть выдала. Она так обучилась (старший научный сотрудник).
В завершение нельзя не упомянуть этические риски, связанные с привлечением ИИ. С одной стороны, нами уже обсуждалась возможность недобросовестного использования таких цифровых агентов. С другой стороны, возникает более фундаментальная неопределенность, связанная со степенью участия ИИ в научной деятельности и его регламентацией. Возникают вопросы авторства. Уже сейчас некоторые научные коллективы указывают, что текст публикации был переведен или обработан с помощью ИИ, некоторые даже включают ChatGPT в соавторы (напр., King, ChatGPT, 2023; Benichou, ChatGPT, 2024). В целом на сегодня ИИ не способен заменить ученого, провести исследование — он скорее воспринимается как еще один из инструментов.
Заключение
Применение генеративного искусственного интеллекта в науке имеет место и помогает ученым решать их повседневные задачи, связанные с написанием кода и текста. В отношении ИИ ученые стараются занимать высокорефлексивную позицию, относиться к нему не как к панацее, а как к очередному инструменту, обладающему своими сильными и слабыми сторонами.
Преимущества, которые ИИ дает при умелом использовании, создают потребность в определенном навыке обращения к таким цифровым агентам. Необходимо, во-первых, уметь получить
доступ к интересующему агенту. Во-вторых, диалоговая форма взаимодействия с чатом задает ключевой сценарий взаимодействия, где большую роль играет правильно сформулированный запрос. То есть взаимодействие с этим цифровым агентом предполагает способность пользователя донести свою мысль, чтобы получить ответ. На наш взгляд, базовый набор цифровых навыков, необходимых ученому в современном мире, продолжает расширяться, и в него попадают формы взаимодействия с генеративным ИИ.
Список литературы
Игнатьев В. И. И грядет «другой» актор... Становление техносубъекта в контексте движения к технологической сингулярности // Социология науки и технологий. 2019. № 1. C. 64-78.
Латур Б. Наука в действии: следуя за учеными и инженерами внутри общества / Пер. с англ. К. Федоровой, науч. ред. С. Миляева. СПб.: Изд-во Европейского ун-та в Санкт-Петербурге, 2013. 414 с.
Мертон Р. К. Эффект Матфея в науке: накопление преимуществ и символизм интеллектуальной собственности // Thesis. 1993. № 3. С. 256-276.
Финн В. К., Михеенкова М. А. Точная эпистемология, искусственный интеллект и интеллектуальный анализ данных в науках о жизни и социальном поведении // Проектирование будущего. Проблемы цифровой реальности: труды 3-й Международной конференции (6-7 февраля 2020 г., Москва). М.: ИПМ им. М. В. Келдыша, 2020. С. 218-226.
Юдин Г. Б. Перформативность в действии: экономика качеств М. Каллона как парадигма социологического анализа рынков // ЖССА. 2008. № 4. С. 47-58.
Benichou L., ChatGP T. The role of using ChatGPT AI in writing medical scientific articles // // Journal of Stomatology, Oral and Maxillofacial Surgery. 2023. Vol. 124, no. 5. [Электронный ресурс]. URL: https://www.sciencedirect. com/science/article/pii/S2468785523000782?via%3Dihub (дата обращения: 31.05.2024).
King M. R., ChatGP T. A Conversation on Artificial Intelligence, Chatbots, and Plagiarism in Higher Education // Cellular and Molecular Bioengineering. 2023. Vol. 16, no. 1. P. 1-2.
Noorden R. V., Perkel J. M. AI and science: what 1,600 researchers think // Nature. 2023. Vol. 621. P. 672-675.
Winner L. Do Artifacts Have Politics? // Daedalus. 1980. Vol. 109, no. 1. P. 121-136.
ARTIFICIAL INTELLIGENCE IN THE SERVICE OF SCIENTISTS: PRACTICES AND LIMITATIONS
Vladislava U. Bobrova
student of Novosibirsk State University,
Novosibirsk, Russia;
e-mail: [email protected]
Society is undergoing active digital transformation. Artificial intelligence (AI) technologies are rapidly evolving and being integrated into various aspects of public life at different levels. Science, in particular, has been subjected to the "invasion" of these new digital agents and has begun to develop new scenarios for interaction with them. This paper explores the potential of generative AI (using ChatGPT as an example) within the context of science. To this end, the paper identifies the ways in which scientists utilize these technologies in their research processes and created a typology based on the object of their interactions. Most of these practices are instrumental in nature, centered around the creation of scientific publications.
The risks and limitations of using generative AI technologies are discussed, including: AI hallucinations, the depth and originality of responses, misuse, the performativity of statements, and ethical concerns. The paper concludes that it is important for scientists to develop effective communication skills when interacting with generative AI and adopt a reflexive approach to these technologies.
Keywords: artificial intelligence, generative artificial intelligence, production of scientific knowledge, practice, ChatGP T.