Научная статья на тему 'CHATGPT КАК ОДИН ИЗ ЭЛЕМЕНТОВ ЦИФРОВОЙ МЕДИЦИНСКОЙ ГРАМОТНОСТИ: ТРАНСФОРМАЦИЯ ЗДРАВООХРАНЕНИЯ И ПЕРВИЧНОЙ МЕДИКО-САНИТАРНОЙ ПОМОЩИ'

CHATGPT КАК ОДИН ИЗ ЭЛЕМЕНТОВ ЦИФРОВОЙ МЕДИЦИНСКОЙ ГРАМОТНОСТИ: ТРАНСФОРМАЦИЯ ЗДРАВООХРАНЕНИЯ И ПЕРВИЧНОЙ МЕДИКО-САНИТАРНОЙ ПОМОЩИ Текст научной статьи по специальности «Науки о здоровье»

CC BY
108
30
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
искусственный интеллект / ChatGPT / большие языковые модели / цифровое здравоохранение / цифровая медицинская грамотность / первичная медико-санитарная помощь / artificial intelligence / ChatGPT / big language models / digital healthcare / digital health literacy / primary health care

Аннотация научной статьи по наукам о здоровье, автор научной работы — Вошев Дмитрий Васильевич, Вошева Надежда Александровна

Искусственный интеллект (ИИ) играет важную роль в цифровом здравоохранении, включая первичную медико-санитарную помощь, и значительный вклад в этот прогресс вносят большие языковые модели. ChatGPT – новейшая языковая модель – вызвал интерес в мировом сообществе, в том числе в сфере здравоохранения, и привлек внимание к исследованию больших языковых моделей с точки зрения их полезности и безопасности практического использования. Эта статья исследует роль ChatGPT как инструмента повышения цифровой медицинской грамотности, оценивая его преимущества и потенциальные риски в контексте современного здравоохранения и первичной медико-санитарной помощи. Цель исследования: оценить потенциальные преимущества и вызовы интеграции ChatGPT в систему здравоохранения, в том числе первичную медико-санитарную помощь, как элемента цифровой медицинской грамотности. Материалы и методы. Проведен систематический поиск в PubMed/MEDLINE и Google Scholar. Результаты. В ходе данного исследования обнаружены опасения относительно использования ChatGPT. Эти опасения включают этические вопросы, прозрачность и юридические аспекты, риск предвзятости, неправильных цитат, безопасности информации. Выводы. ChatGPT представляет собой ценный инструмент для повышения цифровой медицинской грамотности и внедрение может привести к кардинальным изменениям в медицинском образовании, научных исследованиях и практическом здравоохранении, однако его использование должно осуществляться с осторожностью: требуется сотрудничество регулирующих органов государственной власти всех стран мира. Такой подход позволит разработать правовые нормы, регламентирующие этический кодекс, которые станут основой «ответственного» использования ChatGPT и других моделей на основе ИИ в сфере медицинского образования, научных исследований и практического здравоохранения.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по наукам о здоровье , автор научной работы — Вошев Дмитрий Васильевич, Вошева Надежда Александровна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CHATGPT AS ONE OF THE ELEMENTS OF DIGITAL HEALTH LITERACY: THE TRANSFORMATION OF HEALTHCARE AND PRIMARY HEALTH CARE

Artificial intelligence (AI) plays an important role in digital healthcare, including primary health care, and large language models make a significant contribution to this progress. ChatGPT, the newest language model, has aroused interest in the global community, including in the healthcare sector, and attracted attention to the study of large language models in terms of their usefulness and safety of practical use. This article explores the role of ChatGPT as a tool for improving digital health literacy, assessing its benefits and potential risks in the context of modern healthcare and primary health care. Purpose of the study is to еvaluate the potential benefits and challenges of integrating ChatGPT into the healthcare system, including primary health care, as an element of digital health literacy. Materials and methods. A systematic search was conducted in PubMed/MEDLINE and Google Scholar. Results. In the course of this study, concerns were found about the use of ChatGPT. These concerns include ethical issues, transparency and legal aspects, the risk of bias, misquotes, and information security. Findings. ChatGPT is a valuable tool for improving digital health literacy and its implementation can lead to drastic changes in medical education, research and practical healthcare, but its use should be carried out with caution: the cooperation of regulatory authorities of all countries of the world is required. This approach will make it possible to develop legal norms regulating the code of ethics, which will become the basis for the «responsible» use of ChatGPT and other AI-based models in the field of medical education, scientific research and practical healthcare.

Текст научной работы на тему «CHATGPT КАК ОДИН ИЗ ЭЛЕМЕНТОВ ЦИФРОВОЙ МЕДИЦИНСКОЙ ГРАМОТНОСТИ: ТРАНСФОРМАЦИЯ ЗДРАВООХРАНЕНИЯ И ПЕРВИЧНОЙ МЕДИКО-САНИТАРНОЙ ПОМОЩИ»

ОРИГИНАЛЬНАЯ СТАТЬЯ

DOI: 10.21045/1811-0185-2023-10-58-64 УДК: 614.2

СНАТВРТ КАК ОДИН ИЗ ЭЛЕМЕНТОВ ЦИФРОВОЙ МЕДИЦИНСКОЙ ГРАМОТНОСТИ: ТРАНСФОРМАЦИЯ ЗДРАВООХРАНЕНИЯ И ПЕРВИЧНОЙ МЕДИКО-САНИТАРНОЙ ПОМОЩИ

Д.В. Вошев a Н.А. Вошева b

a ФГБУ «Национальный медицинский исследовательский центр терапии и профилактической медицины» Министерства здравоохранения Российской Федерации, г. Москва, Россия; b ООО «Центр хранения данных», г. Москва, Россия.

a https://orcid.org/0000-0001-9216-6873; b https://orcid.org/0000-0001-6546-3530.

И Автор для корреспонденции: Вошев Д.В.

АННОТАЦИЯ

Искусственный интеллект (ИИ) играет важную роль в цифровом здравоохранении, включая первичную медико-санитарную помощь, и значительный вклад в этот прогресс вносят большие языковые модели. ChatGPT - новейшая языковая модель - вызвал интерес в мировом сообществе, в том числе в сфере здравоохранения, и привлек внимание к исследованию больших языковых моделей с точки зрения их полезности и безопасности практического использования. Эта статья исследует роль ChatGPT как инструмента повышения цифровой медицинской грамотности, оценивая его преимущества и потенциальные риски в контексте современного здравоохранения и первичной медико-санитарной помощи.

Цель исследования: оценить потенциальные преимущества и вызовы интеграции ChatGPT в систему здравоохранения, в том числе первичную медико-санитарную помощь, как элемента цифровой медицинской грамотности. Материалы и методы. Проведен систематический поиск в PubMed/MEDLINE и Google Scholar.

Результаты. В ходе данного исследования обнаружены опасения относительно использования ChatGPT. Эти опасения включают этические вопросы, прозрачность и юридические аспекты, риск предвзятости, неправильных цитат, безопасности информации. Выводы. ChatGPT представляет собой ценный инструмент для повышения цифровой медицинской грамотности и внедрение может привести к кардинальным изменениям в медицинском образовании, научных исследованиях и практическом здравоохранении, однако его использование должно осуществляться с осторожностью: требуется сотрудничество регулирующих органов государственной власти всех стран мира. Такой подход позволит разработать правовые нормы, регламентирующие этический кодекс, которые станут основой «ответственного» использования ChatGPT и других моделей на основе ИИ в сфере медицинского образования, научных исследований и практического здравоохранения.

Ключевые слова: искусственный интеллект, ChatGPT, большие языковые модели, цифровое здравоохранение, цифровая медицинская грамотность, первичная медико-санитарная помощь.

Для цитирования: Вошев Д.В., Вошева Н.А. Chatgpt как один из элементов цифровой медицинской грамотности: трансформация здравоохранения и первичной медико-санитарной помощи. Менеджер здравоохранения. 2023; 10:58-64. DOI: 10.21045/1811-0185-2023-10-58-64

Введение

Искусственный интеллект (ИИ) - это широко описываемая концепция, имеющая множество различных определений. В одном контексте он рассматривается как созданная человеком технология, позволяющая компьютерам и механизмам функционировать разумно. Это означает, что ИИ может выполнять задачи и принимать решения, которые ранее требовали человеческого интеллекта. В другом контексте ИИ воспринимается как средство замены

человеческого труда, обеспечивая более эффективные и быстрые результаты. Таким образом, ИИ может автоматизировать рутинные задачи и обрабатывать большие объемы данных с высокой скоростью и точностью.

Еще одна интерпретация ИИ связана с его ролью в качестве «системы», способной анализировать внешние данные, извлекать уроки из них и применять полученные знания для достижения конкретных целей и задач с помощью гибкой адаптации [1]. Такой подход позволяет ИИ принимать

© Вошев Д.В, Вошева H.A., 2023 г.

—1 58

Менеджер / Manager №10

здравоохранения / Zdrevoochrenenie 2023 .

решения на основе данных и опыта, улучшая свою производительность с течением времени.

Несмотря на различные определения, общее понимание ИИ заключается в его использовании машинами и компьютерами для решения проблем и упрощения рабочих процессов. Он представляет собой интеллект, созданный людьми и реализованный в машинах. Термин ИИ используется для описания возможностей созданных человеком инструментов, которые имитируют «когнитивные» способности человеческого разума.

История развития научной дисциплины искусственного интеллекта уходит корнями в середину 20 века. Летом в 1956 году была организована встреча ученных, которые интересовались моделированием человеческого разума [2]. С тех пор началась эволюция алгоритмов машинного обучения. Этот прогресс стал ключевым для реализации возможности принимать решения и делать прогнозы на основе шаблонов, обнаруженных в больших объемах данных [3]. Впоследствии были разработаны нейронные сети (модели, имитирующие работу мозга) и другие прогрессивные методы [4].

В ноябре 2022 года на искусственный интеллект обратили особое внимание, благодаря публичному представлению ChatGPT (Generative Pretrained Transformer). Этот момент вызвал большой интерес всех сфер общества к большой языковой модели (LLM), основанной на ИИ. ChatGPT содержит рекордное количество параметров - 175 миллиардов, где логика «большие данные + большая вычислительная мощность + алгоритм = интеллектуальная модель», которая может извлекать ценную информацию из массивных текстовых данных и посредством обучения генерировать более сложные работы для вывода ответов и обратной связи в виде текста, чтобы реализовать многоуровневый диалог человека и компьютера с помощью естественного языка. Большая языковая модель, обученная на обширных текстовых данных, а также и на различных языках, способная генерировать ответы, приближенные к человеческим, на основе введенного текста. Архитектура ChatGPT использует нейронные сети для обработки естественного языка, позволяя генерировать ответы на основе контекста входного текста [5].

Появление ChatGPT вызвало неоднозначную реакцию у мирового научного и бизнес-сообществ. Он может быть помощником при решении коммуникационных и письменных задач. Однако, с другой стороны, возникают опасения по предвзятости использованных при обучении ChatGPT, что может

снизить его способности и привести к неточностям или преднамеренным искажениям информации (например, посредством кибератак) [6].

ChatGPT несет прикладное значение для множества отраслей: образования, медиа, промышленности и пр. Учитывая отраслевую направленность данного исследования, в дальнейшем предлагаем фокусироваться на роли ChatGPT в области здравоохранения, в том числе в первичной медико-санитарной помощи.

Безусловно, ChatGPT обладает значительным потенциалом в области здравоохранения, предоставляя возможности для анализа больших объемов данных, персонализации медицинского ухода, просветительской деятельности, разработки новых лекарств, а также улучшения процесса диагностики и клинических решений [7, 8]. Кроме того, интересным направлением для исследования являются чат-боты с искусственным интеллектом в медицинском образовании, учитывая огромный объем информации, который должны усвоить студенты-медики [9].

При этом использование ChatGPT в здравоохранении сопряжено с рядом рисков, например, создание неточного контента, риск предвзятости и дискриминации, отсутствие прозрачности и надежности, проблемы кибербезопасности, этические и социальные последствия [10].

Цель исследования: оценить потенциальные преимущества и вызовы интеграции ChatGPT в систему здравоохранения, в том числе первичную медико-санитарную помощь, как элемента цифровой медицинской грамотности.

Материалы и методы

Поиск литературы проведен в базах данных PubMed/MEDLINE и Google Scholar. Затем проведен отбор наименований и аннотаций для каждой записи с исключением дублирующихся записей. Кроме того, исключены записи, выходящие за рамки данного обзора (например, записи, в которых ChatGPT рассматривался в контексте, не связанном с медицинским образованием, практикой здравоохранения или научными исследованиями/ написанием текстов). Критерии отбора, которые входят в рамки данного обзора: текстовый набор (различного формата статьи, комментарии и другие), анализ выявленных рисков, связанных с использованием ChatGPT в научном и практическом здравоохранении, а также полученные выводы и подготовленные рекомендации по применению ChatGPT в сфере здравоохранения.

С

#хс

№ 10 Manager /Менеджер

2023 Zdravoochranenia / здравоохранения

Результаты

В результате анализа включенных записей были выявлены следующие преимущества и недостатки ChаtGPT. ИИ может улучшить диагностику, обнаруживать врачебные ошибки и сократить бумажную работу, в том числе способствует повышению цифровой грамотности специалистов [11, 12]. Однако не следует ожидать, что ИИ полностью заменит врачей. Алгоритмы показывают хорошие результаты в тестах, основанных на знаниях, даже без специфического обучения [13]. ChatGPT продемонстрировал результаты около 72% в базовых тестах сердечно-сосудистой системы жизнеобеспечения [13]. Хотя ChatGPT имеет свои ограничения: он плохо разбирается в контексте и нюансах [14], что является критически важным для безопасного и эффективного ухода за пациентами, требующего применения медицинских знаний. Эксперты после проведенного анализа считают, что автоматизация административных рабочих мест в здравоохранении возможна в высокой степени, но вероятность автоматизации рабочих мест врачей-хирургов составляет всего лишь 0,42% [15]. И хотя некоторые свидетельства указывают на то, что полностью автономные роботизированные системы могут стать реальностью [16], работа врача заключается не только в выполнении хирургических процедур. Врачи имеют уникальные навыки и способность оказывать не только лечение, но и эмоциональную поддержку. ИИ пока не может заменить клинический навык. Таким образом, главное преимущество ИИ в здравоохранении заключается не в замене врачей, а в повышении их эффективности путем оптимизации рабочей нагрузки и производительности.

Кроме того, ChatGPT показал свою способность создавать разнообразные тексты, включая рефераты, научные статьи, в том числе проводить обобщение научной литературы и статистический анализ [17]. В некоторых случаях ChatGPT демонстрировал впечатляющие результаты. Недавнее исследование использовало существующие публикации для создания 50 исследовательских рефератов, которые успешно прошли проверку на плагиат с помощью искусственного интеллекта и рецензентов [18]. Это свидетельствует о том, что подобные инструменты в будущем могут помочь ученым сосредоточиться на экспериментах, вместо того чтобы тратить время на написание рукописей. Это может повысить качество научных исследований, сделав упор на экспериментальные результаты. Однако чат-боты, такие как ChatGPT, являются

лишь языковыми моделями, которые не имеют способности интерпретировать и понимать содержание текста, поэтому рукописи, созданные ChatGPT, могут содержать ненадежную или выдуманную информацию. Одновременно ChatGPT может проявлять тревожную тенденцию использовать выдуманные источники ссылок для создания убедительности [19]. Неспособность признать ограничения разговорных ИИ может создать дополнительные проблемы с качеством и надежностью исследований.

Еще одна сложность использования ChatGPT заключается в ряде этических проблем, связанных с использованием больших языковых моделей в медицинской практике. Для обучения ИИ требуется огромное количество высококачественных данных, и современные алгоритмы могут быть предвзяты из-за использования неправильных или нерепрезентативных наборов данных [20]. Эти проблемы должны быть решены, прежде чем подобные ИИ-системы смогут быть успешно и безопасно применены в клинической практике [21-22]. Еще одним этическим вопросом является вопрос ответственности и правовой базы. Например, в случае ошибки, совершенной медицинским работником с использованием искусственного интеллекта, необходимо определить, кто несет ответственность, потому что на данный момент ни в одной стране мира не закреплено на законодательном уровне использование больших языковых моделей в системе практической медицины, включая первичную медико-санитарную помощь, а также в образовании и научных исследованиях в области здравоохранения. Пока указанные этические дилеммы и нормативно-правовая база не будут урегулированы, большие языковые модели с использованием ИИ, включая ChatGPT, нельзя внедрять в область здравоохранения.

Обсуждение

Технологии больших языковых моделей на основе ИИ продолжают развиваться, и мы можем ожидать их дальнейшего улучшения путем обучения и оптимизации. Исключать или игнорировать использование таких систем бессмысленно, поскольку они имеют потенциал значительно улучшить различные аспекты нашей жизни, освободив нас от тяжести сложных и повторяющихся задач. В области медицины, например, искусственный интеллект может повысить эффективность, снизив объем бумажной работы [23], а оптимизированные чат-боты могут улучшить процесс поиска научной литературы. Однако, мы не должны позволять ИИ доминировать

—1 ВО

Менеджер / Мапедег №10

здравоохранения / 2с1гв\/оосЬгвпвп'1в 2023 .

над человеческим интеллектом. Остается открытым вопрос о том, предпочли бы авторы использование ИИ-редактора и ИИ-рецензента, учитывая предыдущие недостатки процессов редактирования и рецензирования [24, 25]. Вопросы, связанные с предпочтениями личной эмоциональной поддержки со стороны медицинских работников, а не только потенциальной эффективности систем на основе искусственного интеллекта, могут возникнуть и в медицинских учреждениях.

Необходимость расширения обучения языковых больших моделей и уменьшение зависимости от ручной разработки функциональности имеет важное значение, но требуется осознать этические, юридические и социальные вопросы, связанные с развитием и использованием медицинского ИИ. Кто несет ответственность за сбои в работе ИИ? Разработчики, производители, обслуживающий персонал, больницы или врачи? Как говорить об информированном согласии, когда никто полностью не понимает работу самообучающихся алгоритмов из-за их сложности или неизвестной частоты ошибок? Также важно рассмотреть вопросы предвзятости и дискриминации, которые могут содержаться или развиваться в алгоритмах ИИ, и как это может повлиять на различные категории пациентов (например, по возрасту, благосостоянию, расовой принадлежности, полу и т.д.).

Основными критериями современной медицины остаются прозрачность, доверие и равноправие. Эти аспекты являются необходимыми условиями для успешной интеграции искусственного интеллекта в систему практической медицины, включая первичную медико-санитарную помощь, а также в образование и научные исследования в области здравоохранения, потому что степень использования медицинского ИИ будет продолжать расти в ближайшие годы.

Внедрение ИИ в медицинскую сферу - это не только вопрос технологического прогресса, но и этики,

безопасности и прозрачности. Следующим шагом по перспективному направлению являются дополнительные исследования, целью которых будет анализ реакции пациентов на использование языковых моделей в системе здравоохранения. Это поможет лучше понять, как ИИ может влиять на пациентов, как с физиологической, так и с психологической точек зрения.

Также важно подчеркнуть необходимость междисциплинарного подхода в данном вопросе. Не только медицинское сообщество, но и юристы, социологи и другие эксперты должны быть вовлечены в процесс создания правил и рекомендаций по использованию ИИ в здравоохранении.

Выводы

Правильное внедрение ChаtGPT, вместе с другими большими языковыми моделями, обладает потенциалом для ускорения инноваций в практическом здравоохранении, повышения цифровой медицинской грамотности, а также в научных исследованиях и медицинском образовании. Однако настоятельно рекомендуется тщательное изучение влияния и результатов использования ChatGPT до его широкого внедрения [26]. Для этого можно использовать подходы, основанные на оценке рисков [27]. Следует изучить реальное влияние ИИ, чтобы предотвратить любые негативные последствия, связанные с его возможным неправильным использованием.

С учетом обоснованных опасений мы должны прекратить повсеместное «безответственное» внедрение в наше общество продуктов, созданных на основе ИИ, например ChatGPT, и начать регулировать ИИ, пока он не начал регулировать нас. Требуются соответствующие руководящие принципы и нормативные акты, особенно в медицинском правовом поле, для обеспечения безопасного и ответственного использования возможностей ChatGPT.

С

«КС

1. Kaplan A., Haenlein M. Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence // Business horizons. -2019. - Vol. 62. - № 1. - P. 15-25.

2. McCarthy J, Minsky L.M., Rochester N, Shannon C.E. A proposal for the dartmouth summer research project on artificial intelligence, august 31, 1955 // AI magazine. - 2006. - Vol. 27. -№ 4. - P. 12-12.

3. Jordan M.I, Mitchell T.M. Machine learning: Trends, perspectives, and prospects // Science. -2015. - Vol. 349. - № 6245. - P. 255-260.

№ 10

2023

Manager

Zdravoochranenia

/Менеджер

здравоохранения

4. Domingos P. The master algorithm: How the quest for the ultimate learning machine will remake our world // Basic Books, 2015.

5. Brown T, Mann B, Ryder N, Subbiah M, Kaplan ID, Dhariwal P. et al. Language models are few-shot learners // Advances in neural information processing systems. - 2020. - Vol. 33. - P. 1877-1901.

6. Deng J, Lin Y. The benefits and challenges of ChatGPT: An overview // Frontiers in Computing and Intelligent Systems. - 2022. - Vol. 2. - № 2. - P. 81-83.

7. Johnson K.B., Wei W.Q., Weeraratne D, Frisse M.E, Misulis K, Rhee K. et al. Precision medicine, AI, and the future of personalized health care // Clinical and translational science. - 2021. - Vol. 14. -№ 1. - P. 86-93.

8. Rajpurkar P., Chen E, Banerjee O, Topol E.J. AI in health and medicine // Nature medicine. -

2022. - Vol. 28. - № 1. - P. 31-38.

9. Paranjape K, Schinkel M, Panday R.N, Car J, Nanayakkara P. Introducing artificial intelligence training in medical education // JMIR medical education. - 2019. - Vol. 5. - № 2. - P. e16048.

10. Borji A. A categorical archive of chatgpt failures // arXiv preprint arXiv:2302.03494. 2023.

11. Ahn J.S., Ebrahimian S, McDermott S, Lee S, Naccarato L, Di Capua J.F. et al. Association of Artificial Intelligence-Aided Chest Radiograph Interpretation With Reader Performance and Efficiency. // JAMA Netw Open. 2022;5(8): e2229289. Published 2022 Aug 1. DOI: 10.1001/jamanetworko-pen.2022.29289.

12. Patel S.B., Lam K. ChatGPT: the future of discharge summaries? // The Lancet Digital Health. -

2023. - Vol. 5. - № 3. - P. e107-e108.

13. Fijacko N, Gosak L, Stiglic G, Picard C.T., Douma M.J. Can ChatGPT pass the life support exams without entering the American heart association course? // Resuscitation. - 2023. - Vol. 185.

14. Mbakwe A.B., Lourentzou I., Celi L.A., Mechanic O.J, Dagan A. ChatGPT passing USMLE shines a spotlight on the flaws of medical education. // PLOS Digit Health. 2023. Feb 9;2(2): e0000205. DOI: 10.1371/journal.pdig.0000205.

15. Frey C, Osborne M. The Future of Employment: How Susceptible Are Jobs to Computerisation? Oxford Martin. Soc. - 2017. - Vol. 114. - P. 254-280. DOI: 10.1016/j.techfore.2016.08.019.

16. Han J, Davids J, Ashrafian H, Darzi A, Elson D.S., Sodergren M. A systematic review of robotic surgery: From supervised paradigms to fully autonomous robotic approaches. // Int J Med Robot. 2022;18(2): e2358. DOI: 10.1002/rcs.2358.

17. Liebrenz M, Schleifer R, Buadze A., Bhugra D, Smith A. Generating scholarly content with ChatGPT: ethical challenges for medical publishing. // Lancet Digit Health. 2023. Mar;5(3): e105-e106. DOI: 10.1016/S2589-7500 (23) 00019-5.

18. Else H. Abstracts written by ChatGPT fool scientists. // Nature. 2023. Jan;613(7944):423. DOI: 10.1038/d41586-023-00056-7.

19. van Dis E.A.M., Bollen J, Zuidema W, van Rooij R, Bockting C.L. ChatGPT: five priorities for research. // Nature. 2023. Feb;614(7947):224-226. DOI: 10.1038/d41586-023-00288-7.

20. Rich A.S., Gureckis T.M. Lessons for artificial intelligence from the study of natural stupidity // Nature Machine Intelligence. - 2019. - Vol. 1. - № 4. - P. 174-180.

21. DeCamp M, Lindvall C. Latent bias and the implementation of artificial intelligence in medicine. // J Am Med Inform Assoc. 2020. Dec 9;27(12):2020-2023. DOI: 10.1093/jamia/ocaa094.

22. Straw I. The automation of bias in medical Artificial Intelligence (AI): Decoding the past to create a better future. // Artif Intell Med. 2020. Nov;110:101965. DOI: 10.1016/j.artmed.2020.101965.

23. Siegler JE, Patel N.N., Dine C.J. Prioritizing Paperwork Over Patient Care: Why Can't We Do Both? // J Grad Med Educ. 2015. Mar;7(1):16-8. DOI: 10.4300/JGME-D-14-00494.1.

24. Mavrogenis A.F., Quaile A., Scarlat M.M. The good, the bad and the rude peer-review // International Orthopaedics. - 2020. - Vol. 44. - P. 413-415.

25. Margalida A, Colomer M.A. Improving the peer-review process and editorial quality: key errors escaping the review and editorial process in top scientific journals // PeerJ. - 2016. - Vol. 4. -P. e1670.

26. Ollivier M., Pareek A., Dahmen J., Kayaalp M.E. A deeper dive into ChatGPT: history, use and future perspectives for orthopaedic research. // Knee Surg Sports Traumatol Arthrosc. 2023. Apr; 31(4):1190—1192. DOI: 10.1007/s00167-023-07372-5.

27. Kostick-Quenet K.M., Gerke S. AI in the hands of imperfect users // npj Digital Medicine. -2022. - Vol. 5. - № 1. - P. 197.

Менеджер / Maneger № 10

здравоохранения / ZdrevoochrBnenie 2023 .

ORIGINAL PAPER

CHATGPT AS ONE OF THE ELEMENTS OF DIGITAL HEALTH LITERACY: THE TRANSFORMATION OF HEALTHCARE AND PRIMARY HEALTH CARE

D.V. Voshev" N.A. Vosheva b

a FSBI National Medical Research Centre for Therapy and Preventive Medicine of the Ministry of Health of the Russian Federation, Moscow, Russia; b LLC «Data storage center», Moscow, Russia. a https://orcid.org/0000-0001 -9216-6873; b https://orcid.org/0000-0001-6546-3530.

H Corresponding author: Voshev D. V.

nd

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ABSTRACT

Artificial intelligence (AI) plays an important role in digital healthcare, including primary health care, and large language models make a significant contribution to this progress. ChatGPT, the newest language model, has aroused interest in the global community, including in the healthcare sector, and attracted attention to the study of large language models in terms of their usefulness and safety of practical use. This article explores the role of ChatGPT as a tool for improving digital health literacy, assessing its benefits and potential risks in the context of modern healthcare and primary health care.

Purpose of the study is to evaluate the potential benefits and challenges of integrating ChatGPT into the healthcare system, including primary health care, as an element of digital health literacy.

Materials and methods. A systematic search was conducted in PubMed/MEDLINE and Google Scholar.

Results. In the course of this study, concerns were found about the use of ChatGPT. These concerns include ethical issues, transparency and legal aspects, the risk of bias, misquotes, and information security.

Findings. ChatGPT is a valuable tool for improving digital health literacy and its implementation can lead to drastic changes in medical education, research and practical healthcare, but its use should be carried out with caution: the cooperation of regulatory authorities of all countries of the world is required. This approach will make it possible to develop legal norms regulating the code of ethics, which will become the basis for the «responsible» use of ChatGPT and other Al-based models in the field of medical education, scientific research and practical healthcare.

Keywords: artificial intelligence, ChatGPT, big language models, digital healthcare, digital health literacy, primary health care.

For citation: Voshev D. V, Vosheva N.A. Chatgpt as one of the elements of digital health literacy: the transformation of healthcare and primary health care. Manager Zdravoohranenia. 2023; 10:58-64. DOI: 10.21045/1811-0185-2023-10-58-64

REFERENCES

1. Kaplan A., Haenlein M. Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence // Business horizons. - 2019. - Vol. 62. - № 1. -P. 15-25.

2. McCarthy J, Minsky L.M., Rochester N, Shannon C.E. A proposal for the dartmouth summer research project on artificial intelligence, august 31, 1955 // AI magazine. - 2006. - Vol. 27. - № 4. -P. 12-12.

3. Jordan M.I, Mitchell T.M. Machine learning: Trends, perspectives, and prospects // Science. -2015. - Vol. 349. - № 6245. - P. 255-260.

4. Domingos P. The master algorithm: How the quest for the ultimate learning machine will remake our world // Basic Books, 2015.

5. Brown T, Mann B, Ryder N, Subbiah M, Kaplan J.D., Dhariwal P. et al. Language models are few-shot learners // Advances in neural information processing systems. - 2020. - Vol. 33. - P. 18771901.

6. Deng J, Lin Y. The benefits and challenges of ChatGPT: An overview // Frontiers in Computing and Intelligent Systems. - 2022. - Vol. 2. - № 2. - P. 81-83.

7. Johnson K.B., Wei W.Q., Weeraratne D, Frisse M.E, Misulis K, Rhee K. et al. Precision medicine, AI, and the future of personalized health care // Clinical and translational science. - 2021. - Vol. 14. -№ 1. - P. 86-93.

8. Rajpurkar P., Chen E, Banerjee O, Topol E.J. Al in health and medicine // Nature medicine. -2022. - Vol. 28. - № 1. - P. 31-38.

9. Paranjape K, Schinkel M, Panday R.N., Car J, Nanayakkara P. Introducing artificial intelligence training in medical education // JMIR medical education. - 2019. - Vol. 5. - № 2. - P. e16048.

8l

OMC CKC

№ 10

2023

Manager

Zdravoochranenia

/Менеджер

здравоохранения

зЯо

10. Borji A. A categorical archive of chatgpt failures // arXiv preprint arXiv:2302.03494. 2023.

11. Ahn J.S., Ebrahimian S, McDermottS, LeeS, Naccarato L, Di Capua J.F. et al. Association of Artificial Intelligence-Aided Chest Radiograph Interpretation With Reader Performance and Efficiency. // JAMA Netw Open. 2022;5(8): e2229289. Published 2022 Aug 1. DOI: 10.1001/jamanetworkopen.2022.29289.

12. Patel S.B., Lam K. ChatGPT: the future of discharge summaries? // The Lancet Digital Health. -2023. - Vol. 5. - № 3. - P. e107-e108.

13. Fijacko N, Gosak L, Stiglic G, Picard C.T., Douma M.J. Can ChatGPT pass the life support exams without entering the American heart association course? // Resuscitation. - 2023. - Vol. 185.

14. Mbakwe A.B., Lourentzou I., Celi L.A., Mechanic O.J., Dagan A. ChatGPT passing USMLE shines a spotlight on the flaws of medical education. // PLOS Digit Health. 2023. Feb 9;2(2): e0000205. DOI: 10.1371/journal.pdig.0000205.

15. Frey C, Osborne M. The Future of Employment: How Susceptible Are Jobs to Computerisation? // Oxford Martin. Soc. - 2017. - Vol. 114. - P. 254-280. DOI: 10.1016/j.techfore.2016.08.019.

16. Han J, Davids J, Ashrafian H, Darzi A., Elson D.S., Sodergren M. A systematic review of robotic surgery: From supervised paradigms to fully autonomous robotic approaches. // Int J Med Robot. 2022;18(2): e2358. DOI: 10.1002/rcs.2358.

17. Liebrenz M, Schleifer R, Buadze A, Bhugra D, Smith A. Generating scholarly content with ChatGPT: ethical challenges for medical publishing. // Lancet Digit Health. 2023. Mar;5(3): e105-e106. DOI: 10.1016/S2589-7500 (23) 00019-5.

18. Else H. Abstracts written by ChatGPT fool scientists. // Nature. 2023. Jan; 613(7944):423. DOI: 10.1038/d41586-023-00056-7.

19. Van Dis E.A.M., Bollen J, Zuidema W, van Rooij R, Bockting C.L. ChatGPT: five priorities for research. // Nature. 2023. Feb;614(7947):224-226. DOI: 10.1038/d41586-023-00288-7.

20. Rich A.S., Gureckis T.M. Lessons for artificial intelligence from the study of natural stupidity // Nature Machine Intelligence. - 2019. - Vol. 1. - № 4. - P. 174-180.

21. DeCamp M, Lindvall C. Latent bias and the implementation of artificial intelligence in medicine. // J Am Med Inform Assoc. 2020. Dec 9;27(12):2020-2023. DOI: 10.1093/jamia/ocaa094.

22. Straw I. The automation of bias in medical Artificial Intelligence (AI): Decoding the past to create a better future. // Artif Intell Med. 2020. Nov;110:101965. DOI: 10.1016/j.artmed.2020.101965.

23. Siegler J.E., Patel N.N., Dine C.J. Prioritizing Paperwork Over Patient Care: Why Can't We Do Both? // J Grad Med Educ. 2015. Mar;7(1):16-8. DOI: 10.4300/JGME-D-14-00494.1.

24. Mavrogenis A.F., Quaile A., Scarlat M.M. The good, the bad and the rude peer-review // International Orthopaedics. - 2020. - Vol. 44. - P. 413-415.

25. Margalida A, Colomer M.A. Improving the peer-review process and editorial quality: key errors escaping the review and editorial process in top scientific journals // PeerJ. - 2016. -Vol. 4. - P. e1670.

26. Ollivier M., Pareek A., Dahmen J., Kayaalp M.E. A deeper dive into ChatGPT: history, use and future perspectives for orthopaedic research. // Knee Surg Sports Traumatol Arthrosc. 2023. Apr;31(4):1190-1192. DOI: 10.1007/s00167-023-07372-5.

27. Kostick-Quenet K.M., Gerke S. AI in the hands of imperfect users // npj Digital Medicine. -2022. - Vol. 5. - № 1. P. 197.

ИНФОРМАЦИЯ ОБ АВТОРАХ / ABOUT THE AUTHORS

Вошев Дмитрий Васильевич - канд. мед. наук, научный сотрудник отдела научно-стратегического развития первичной медико-санитарной помощи ФГБУ «НМИЦ ТПМ» Минздрава России, г. Москва, Россия.

Dmitriy V. Voshev - Candidate of Medical Sciences, Researcher of the Department of Scientific and Strategic Development of Primary Health Care Federal State Budgetary Institution «NMIC TPM» of the Ministry of Health of Russia, Moscow, Russia. E-mail: [email protected].

Вошева Надежда Александровна - менеджер проектов Департамента корпоративного развития, ООО «Центр хранения данных», г. Москва, Россия.

Nadezhda A. Vosheva - Project Manager of the Corporate Development Department, LLC «Data Storage Center», Moscow, Russia.

Менеджер / Maneger № 10

здравоохранения / Zdrevoochrenenie 2023 .

i Надоели баннеры? Вы всегда можете отключить рекламу.