2024
ВЕСТНИК ПЕРМСКОГО УНИВЕРСИТЕТА. ФИЛОСОФИЯ. ПСИХОЛОГИЯ. СОЦИОЛОГИЯ
PERM UNIVERSITY HERALD. PHILOSOPHY. PSYCHOLOGY. SOCIOLOGY
Выпуск 2
ПСИХОЛОГИЯ
УДК 159.9.07
https://doi.org/10.17072/2078-7898/2024-2-250-259 EDN: OKMZWX
Поступила: 01.05.2024 Принята: 28.05.2024 Опубликована: 04.07.2024
ЧАТ-БОТ, КАК ИНСТРУМЕНТ ПСИХОЛОГИЧЕСКОЙ ПОДДЕРЖКИ: ОБЗОР ИССЛЕДОВАНИЙ
Фрейманис Инга Федоровна
Пермский государственный национальный исследовательский университет (Пермь)
Статья представляет собой обзор теоретических исследований, посвященных использованию чат-ботов в прикладной психологии. Раскрывается понятие чат-бот, описываются разновидности структуры чат-ботов, перечисляются функции данной технологии, рассматриваются преимущества и недостатки. Сформулированы некоторые рекомендации, которые можно использовать разработчикам в дизайне чат-ботов, направленных на психологическую поддержку. Результаты нашего исследования показывают, что чат-боты обладают значительными возможностями для психологической поддержки пользователей. Технология может выступать в качестве виртуальных друзей и помощников, помогает практиковать осознанность, формировать полезные привычки, контролировать и регулировать эмоциональное состояние, осуществлять психообразование, оказывать постреабилитационную психологическую поддержку, а также заниматься диагностикой психологических проблем. Однако на столь раннем этапе технологию не следует рассматривать как альтернативу профессиональной помощи. Психотерапию посредством чат-бота важно сочетать с профессиональной терапией, общением с психологом-человеком. При разработке чат-ботов важно установить границы возможностей технологии. Создателям чат-ботов необходимо четко указывать цели и предполагаемые ограничения чат-бота. Кроме того, технология должна иметь функции, которые планируют профессиональную поддержку и рекомендуют пользователям обращаться за помощью к профессионалам, когда это необходимо. Ключевые слова: чат-бот, искусственный интеллект, диалоговый агент, прикладная психология, психологическая помощь, психологическое здоровье, психологический чат-бот, цифровая технология, программы, имитирующие работу психотерапевта, ChatGPT, мобильные приложения.
Для цитирования:
Фрейманис И. Ф. Чат-бот, как инструмент психологической поддержки: обзор исследований // Вестник Пермского университета. Философия. Психология. Социология. 2024. Вып. 2. С. 250-259. https://doi.org/10.17072/2078-7898/2024-2-250-259. EDN: OKMZWX
© Фрейманис И.Ф., 2024
Received: .01.05.2024
https://doi.org/10.17072/2078-7898/2024-2-250-259 Accepted: 28.05.2024
Published: 04.07.2024
CHATBOT AS A PSYCHOLOGICAL SUPPORT TOOL: RESEARCH REVIEW
Inga F. Freimanis
Perm State University (Perm)
This article is a review of theoretical research on the use of chatbots in applied psychology. It articulates the concept of a chatbot, describes the types of chatbot structure, lists the functions of this technology, and discusses its advantages and disadvantages. The paper provides some recommendations for developers concerning the design of chatbots intended for psychological support. The results of the study show that chatbots have significant possibilities for psychological support of users. Technology can act as virtual friends and assistants, help practice mindfulness, form useful habits, control and regulate emotional state, provide psychoeducation and post-rehabilitation psychological support, diagnose psychological problems. However, at this early stage, technology should not be regarded as an alternative to professional help. It is important to combine psychotherapy through chatbots with professional therapy, communication with a «real» therapist. In developing chatbots, it is important to establish the limits of the technology's capabilities. Creators of chatbots should clearly indicate the purpose and expected limitations. In addition, technology should have features that schedule professional support and encourage users to seek professional help when needed.
Keywords: chatbots, artificial intelligence, dialog agent, applied psychology, psychological aid, psychological health, psychological chatbot, digital technology, programs simulating the work of a psychotherapist, ChatGPT, mobile applications.
To cite:
Freimanis I.F. [Chatbot as a psychological support tool: research review]. VestnikPermskogo universiteta. Filosofía. Psihologia. Sociología [Perm University Herald. Philosophy. Psychology. Sociology], 2024, issue 2, pp. 250-259 (in Russian), https://doi.org/10.17072/2078-7898/2024-2-250-259, EDN: OKMZWX
Введение
Обеспокоенность по поводу психологического здоровья общества широко распространена в современном мире в связи с ростом уровня напряжения. Так, например, во время пандемии COVID-19 значительно возросло число случаев депрессии, тревоги и других проблем психологического здоровья. В условиях высокой динамики жизнедеятельности общества, неопределенности, социальных противоречий и конфликтов человек неизбежно сталкивается со многими проблемами, оказывающими существенное влияние на его психологическое здоровье и благополучие. Сопутствующими симптомами растущих проблем личности являются: синдром хронической усталости, неврозы, постоянный стресс, отклонения в поведении и др. Одним из
возможных способов преодоления личностно значимых трудностей может быть обращение за психологической помощью. Причем, чаще всего, речь идет не о серьезных нарушениях психики (на которых специализируются психиатрия), а о временных психологических дисбалансах, тех, которые корректируются с помощью психологического вмешательства.
Такая ситуация отражается на потребности населения в получении квалифицированной психологической помощи. Одним из способов решения данной проблемы является внедрение технологий искусственного интеллекта (ИИ) в сферу прикладной психологии.
Искусственный интеллект (ИИ) — это общий термин для компьютерного программного обеспечения, состоящего из сложного математического алгоритма, который обрабатывает
входную информацию, а затем использует ее для получения конкретного заранее определенного результата.
ИИ представляет собой систему, способную анализировать большие наборы данных, делать выводы и принимать решения, имитируя когнитивную деятельность человека [Adamopou-lou E., Moussiades L., 2020]. В последние десятилетия ИИ внедряется во все сферы жизни: экономическую, политическую, социальную и духовную. Но наибольший интерес к искусственному интеллекту возник в 2022 г. после выхода бота ChatGPT. После этого IT-индустрия начала активно внедрять ИИ в свои проекты. Достижения в этой области открывают новые возможности для улучшения качества жизни людей. Одним из перспективных направлений применения ИИ является психологическая поддержка, например, посредством чат-ботов.
Технология чат-бот
Чат-бот — это система, которая может общаться и взаимодействовать с пользователями-людьми с помощью устного, письменного или визуального языков. Она может имитировать поведение человека и выполнять конкретные задачи [Adamopoulou E., Moussiades L., 2020]. В зарубежных источниках такую программу называют диалоговым агентом, виртуальными собеседниками или программами-собеседниками, диалоговыми AI-ботами (Artificial Intelligence), AI-помощниками, интеллектуальными виртуальными помощниками, виртуальными клиентскими помощниками, цифровыми помощниками, диалоговыми агентами, виртуальными агентами, диалоговыми интерфейсами и т.д. [Adamopoulou E., Moussiades L., 2020].
Программа распознает тексты, речь пользователей и на основе этого происходит взаимодействие. Чат-боты обычно используются в различных веб- и мобильных приложениях. Самые известные из них в настоящее время уже прочно вошли в нашу жизнь, например, Google Assistant, разработанный Google, Siri от Apple, Cortana от Microsoft, Watson от IBM, Алиса от Яндекс, Маруся от VK, робот Макс от Госуслуг и т.д. Боты способны взаимодействовать с пользователем на основе текстового и голосового ввода и призваны помогать выполнять множество действий, таких как включение му-
зыки, организация посещений врача, решение всевозможных вопросов.
Наиболее полезные чат-боты разрабатываются на основе технологий машинного обучения и отличаются тем, что их обучает человек, и такие чат-боты предназначены для использования людьми. Таким образом, человек принимает активное участие на всех стадиях разработки программы-собеседника. Чат-бот — это технология, с которой может взаимодействовать не только один пользователь в один момент времени, а гораздо больше, что позволяет охватывать большие аудитории. При этом чат-бот доступен круглосуточно, без перерывов, в отличие от человека-оператора.
Стоит так же учитывать, что чат-боты обладают различной степенью «интеллекта»: от наиболее простых чат-ботов, которые могут быть чуть более чем интерфейсным решением для ответов на стандартные, часто задаваемые вопросы, до продвинутых диалоговых чат-ботов, обладающих интеллектуальными возможностями и способностью понимать то, что пишет им пользователь, а также самообучаться и подстраиваться под особенности конкретного пользователя, например, под его поведение или манеру вести общение [Adamopoulou E., Мош-siades L., 2020].
Использование чат-ботов в прикладной психологии
В последнее время наблюдается активное внедрение чат-ботов в область прикладной психологии. Их использование имеет определенные преимущества по сравнению с работой психолога-человека. Прежде всего, это значительное снижение затрат, финансовых и временнь1х. Также их отличает быстрая реакция: чат-боты созданы, чтобы распознавать, понимать, отвечать на конкретные запросы за считанные секунды. Охват большой аудитории, масштабируемость, в отличии от специалиста-человека. Чат-бот может одновременно общаться с несколькими собеседниками и быть круглосуточно на связи. К преимуществам относится и то, что чат-боты разрабатываются для того, чтобы выполнять определенные задачи снова и снова, при исполнении таких задач человек более склонен совершать ошибки, в то время как бот обеспечивает почти 100 %-ную точность и решает их намного быстрее [Вайтеш G. et а!., 2020].
Чат-боты действуют как персональные помощники, благодаря которым у пользователя появляется возможность получить помощь. Их функции достаточно разнообразны: выявление психологических проблем, отслеживание настроения, проведение когнитивно-поведенческой терапии, пропаганда позитивной психологии, помощь в формировании новых привычек и т.д. Рынок чат-ботов в сфере психологических услуг активно развивается, одни из самых известных: «Wysa», «Woebot», «Replika», «Youper», «Tess» и др.
Например, чат-бот «Woebot» был запущен в 2017 г. Открыв данное приложение, люди, страдающие от одиночества, страха, тревоги или стресса, могут начать диалог с виртуальным собеседником. Эта программа со встроенным ИИ основана на техниках когнитивно-поведенческой терапии [Fitzpatrick K.K. et al., 2017]. Было проведено исследование с целью оценки эффективности диалогового агента «Woebot» на выборке студентов колледжей с тревогой и депрессией, в ходе которого обнаружено заметное уменьшение негативных симптомов.
В 2018 г. исследователи подтвердили эффективность «Wysa» [Inkster B. et al., 2018].
В 2023 г. исследовалась эффективность психологической поддержки, получаемой в повседневном контексте при взаимодействии с чат-ботом «Replika». Результаты исследования также оказались положительными [Pentina I. et al., 2023].
Использование чат-ботов, направленных на улучшение эмоционального состояния, особенно результативно для решения следующих проблем: тревоги, депрессии и стресса [Ahmed A. et al., 2021]. Коррекция происходит за счет мгновенного предоставления пользователю предложений по инструментам самопомощи, таких как когнитивно-поведенческие техники, дыхательные упражнения, медитативные практики и т.д.
Существуют также чат-боты для отслеживания настроения и выявления психологических проблем [You Y., Gui X., 2021].
Некоторые программы могут собирать данные, анализируя текстовые сообщения пользователей, а затем доставлять их выбранным специалистам в формате, который можно использовать в диагностических целях [Garg Sh. et al., 2018].
Вмешательства чат-ботов эффективны для формирования новых привычек, увеличения физической активности [Asensio-Cuesta S. et al., 2021; Zhang J. et al., 2020]. Путем отправки ежедневных напоминаний происходит ежедневный мониторинг, пользователи могут отследить свой прогресс в достижении целей, используя аналитику и графики [Fadhil A., 2018; Huang Ch.-Y. et al., 2018].
В последнее время исследовательские сообщества активно занимаются разработкой чат-ботов, направленных на достижение конкретных целей. Например, поддержка жертв школьной травли [Роговец А.Ю. и др., 2023.], обучение самосостраданию [Lee M. et al., 2019], улучшение качества жизни пожилых людей и повышение их активности в борьбе с чувством одиночества [Valtolina S., Hu L., 2021], развитие навыка межличностного общения [Elmasri D., Maeder A., 2016] и т.д.
Таким образом, становится понятным, чат-боты активно применяются в сфере цифровой прикладной психологии отчасти потому, что они, предлагают определенные преимущества, и их функции достаточно разнообразны. Чат-боты могут предоставлять информацию по стратегиям преодоления трудностей, упражнениям на осознанность, методам коррекции психологических проблем, связывать пользователей с профессионалами в области прикладной психологии для получения кризисной помощи [Abd-Alrazaq A.A. et al., 2019; Ahmed A. et al., 2021], предлагать доступ к информации о системах кризисной поддержки и контактах экстренной помощи. Использование чат-ботов в рамках предоставления психологической помощи представляет собой инновационный потенциал, ставший результатом научного прогресса и цифровизации.
Возможность обращаться к чат-ботам в любое время, круглосуточно и без выходных, не встречаясь с осуждением, позволяет пользователям чувствовать себя комфортно, что является очевидным преимуществом, делая услуги в сфере психологического здоровья более доступными.
Проблемы использования чат-ботов
Но, поскольку чат-боты являются все же новой технологией, разработка и их применение в прикладной психологии связанно также со значительными проблемами. Согласно недавним
обзорам, безопасность пользователей чат-ботов проверяется крайне редко, последствия взаимодействия с пользователями оценивались только в пилотажных исследованиях [Ahmed A. et al., 2021]. Постепенно накапливается информация, указывающая на риски использования чат-ботов в сфере прикладной психологии. Выявление и анализ таких рисков поможет сформулировать рекомендации по дизайну будущих чат-ботов для их создателей.
Существует две категории чат-ботов: те, которые работают на основе заранее определенных алгоритмов, и те, которые используют ИИ для генерации текстов. Чат-боты, работающие на основе заданных алгоритмов, считаются более простыми и поддающимися контролю создателей. При общении данная технология позволяет отвечать только на конкретно поставленные вопросы, выбирая вариант ответа. Это наиболее распространенный метод, используемый в интерфейсе чат-ботов. Пользователи могут выбирать из предопределенных параметров и даже вводить свой текст. Например, по такому принципу работают все дневниковые чат-боты (Feelings, Mind tracker, Psy и т.д.). Это ограничивает возможность настоящего диалога, но позволяет легко определить ответственность.
Чат-боты, основанные на ИИ, могут имитировать живую речь, генерировать алгоритмы помощи самостоятельно. Такие программы способны поддерживать разговор, основываясь на своем понимании мыслей пользователя, что делает контакт более разнообразным, общение более «человечным». Например, по такому принципу работает программа «Tess», число пользователей которой достигло почти 30 млн чел. И здесь возникает серьезная проблема, связанная с юридической ответственностью, вопрос о том, кто будет нести персональную ответственность, если бот поставит неправильный диагноз, выдаст ошибочные рекомендации.
В функции чат-бота часто входит автоматический сбор и анализ информации о пользователях. Чат-бот может хранить историю разговоров, чтобы показать прогресс в достижении поставленных целей, фиксировать изменения, связанные с симптомами психологической проблемы. В некоторых исследовательских обзорах выражается обеспокоенность пользователей по поводу того, как эта информация защищается [Martinengo L. et al., 2022]. В традиционной психотерапии на эффективность лечения
влияет доверие клиента к своему психологу. Доверие во взаимодействии с чат-ботом также необходимо. Исследования показывают важность установления доверия в общении с чат-ботом для создания безопасной среды и дальнейшего самораскрытия пользователя. Поэтому разработчики должны уделять особое внимание конфиденциальности и безопасности пользователей, т.к. существует высокий риск потери данных в случае плохой защиты. Важно повышать доверие к приложению, например, путем предоставления информации о разработчиках или экспертах, стоящих за системой.
Кроме этого, описание приложения может включать объяснение терапевтических методов и инструментов, используемых для разработки приложения, их предполагаемую эффективность и доказанность. В качестве дополнения нужно изучить «восприятие» людьми дизайна чат-ботов, для решения таких проблем, как доверие к чат-ботам, пользовательские ценности и требования. Анализ, ориентированный на пользователя, поможет исследователям получить научнообоснованные данные для улучшения работы чат-ботов и минимизировать отрицательные психологические эффекты.
В интерфейсе чат-ботов используются различные типы медиа для общения, например, GIF, смайлы, аббревиатура для изображения юмора и эмоций, используется аудио и видео, цифровые изображения («аватары»). Общение чаще всего происходит посредством текстовых сообщений. Но чат-боты, использующие GIF-изображения, смайлы или веселые ответы как средство демонстрации чуткого поведения и поддержания более человечного разговора, воспринимаются пользователями не всегда хорошо [Fadhil A. et al., 2018]. Создатели чат-бота должны учитывать целевую возрастную группу пользователей при внедрении смайлов или других графических элементов. Взаимодействие по-человечески приятно, но его необходимо тщательно проектировать. Чат-боты в мобильных приложениях представлены таким образом, что они обладают ярко выраженной индивидуальностью. Это помогает пользователям чувствовать, что они взаимодействуют с кем-то эмоциональным и сопереживающим, помогает устанавливать доверие, что, в свою очередь, может быть опасным для некоторых восприимчивых людей. Недоступность или поломка при-
ложения может привести к тревоге и обострению психологических проблем.
Используя психотехнологии, рекомендованные чат-ботом, пользователи отмечают, что не все терапевтические средства работают одинаково результативно. Причинами этого могут быть различные ограничения самих пользователей. Для решения этой проблемы предлагается персонализация чат-ботов с помощью создания модели пользователя. Например, перед началом взаимодействия с чат-ботом пользователи могут заполнять личностные опросники, которые помогут адаптировать взаимодействие чат-бота в соответствии с типом пользователя.
Анализ исследований показывает, что ежедневные проверки, геймификация, напоминания и контроль со стороны чат-бота воспринимаются пользователями как полезные функции, хотя и носят предписывающий характер. Чем тяжелее симптомы психологической проблемы, тем больше пользователи хотят напоминаний и предложений от чат-бота [Martinengo L. et al., 2022]. Людям с тяжелыми симптомами депрессии помогают многочисленные ежедневные мотивационные сообщения. Однако частый контроль со стороны чат-бота также может вызвать у пользователя чувство вины [Huang Ch.-Y. et al., 2018]. Поэтому разработчики должны учитывать диапазон и тяжесть психологической проблемы, используя методы убеждения в работе чат-бота таким образом, чтобы это не приводило к отстранению пользователей из-за чувства вины.
Согласно исследованиям, ИИ иногда удается создавать более тесные связи с пользователями, чем «живым» терапевтам. Благодаря использованию данной технологии, люди попадают в пространство, свободное от осуждения, где можно самовыражаться, не опасаясь последствий. В некоторых случаях обращение за психологической помощью по-прежнему считается стигмой, и люди чувствуют себя более комфортно, используя анонимные технологии, а не личное общение с психотерапевтом [Bates M., 2019; Denecke K. et al., 2021]. Регулярное, комфортное взаимодействие позволяет пользователям слишком привязываться к чат-ботам. Такая привязанность несет за собой определенную угрозу. Поэтому следует подумать, когда и как ограничить взаимодействие пользователей с чат-ботами, чтобы исключить возможность нездоровой привязанности к технологии.
Как показывает накопленная информация, большинство приложений не способны поддержать пользователя в момент сильного кризиса, чат-боты не всегда способны идентифицировать кризисные ситуации, поскольку не понимают контекст разговоров [Garg Sh. et я!., 2018]. Вместо кризисной поддержки предоставляется информация о внешних ресурсах (линии помощи, контактная информация службы экстренной помощи).
«Человекоподобные» чат-боты могут обеспечить социальную поддержку во многих случаях, быть «друзьями», но и здесь могут возникнуть проблемы. Пользователи должны обладать информацией об ограничениях технологии, осознавать четкие различия между людьми и «человекоподобными» ботами. В тех случаях, когда пользователь начинает общаться с приложением слишком часто в течение длительного времени, бот может предлагать рекомендации по социальному взаимодействию, например, выдавать список ближайших социальных мероприятий и т.д.
Заключение
Таким образом, технология «чат-бот» обладает большим потенциалом для оказания социальной и психологической поддержки в ситуациях, когда реальное взаимодействие с друзьями, членами семьи или профессионалами затруднительно или невозможно. Чат-боты помогают повысить доступность психологической поддержки, одновременно снижая финансовые и временные затраты. Психологическая поддержка посредством чат-ботов осуществляется путем психологического информирования, знакомства пользователей с технологиями самопомощи, для снятия психологического напряжения. Через диалог с чат-ботом пользователи могут выражать свои эмоциональные переживания и находить способы их регуляции.
Однако существуют ограничения. Чрезмерная зависимость от технологий может создавать риски для пользователей, такие как изоляция и недостаточная помощь во время кризисных ситуаций. Вместо предоставления общих предложений, чат-боты могут индивидуализировать свой подход, основываясь на потребности и требованиях пользователей [1пк^ег В. et а1., 2018]. При дизайнерской разработке чат-ботов должны учитываться диапазон и тяжесть психологической проблемы. Чат-боты не способны к под-
линному сочувствию или адаптации реакций, отражающих человеческие эмоции, это сравнительное отсутствие аффективных навыков должно осознаваться пользователями.
В сравнительном пилотажном исследовании результативности сеансов терапии с людьми-терапевтами и чат-ботом было выявлено, что по сравнению с взаимодействием с человеком-терапевтом, участники находили терапию, предоставляемую чат-ботом, менее полезной и менее приятной [Бепеске К. et а1., 2021].
Однако, согласно статистическим данным, из-за удобства и легкого доступа пользователи часто выражают намерение заменить профессиональную психологическую поддержку виртуальной.
Преимущественно чат-боты реализуют научно обоснованные терапевтические инструменты, но исследования по определению их эффективности все еще ограничены.
Согласно многочисленным оценкам пользователей, профессиональные терапевты помогали своим пациентам подобрать подходящие приложения для психологической помощи, поэтому психотерапия становилась результативнее. Психологи могут корректировать любую систему поддержки, если она не подходит, опираясь на информацию, собранную чат-ботом в процессе общения с пользователем.
Результаты нашего исследования показывают, что психологические чат-боты действительно помогают пользователям. Однако на столь раннем этапе их не следует рассматривать как альтернативу профессиональной помощи. При разработке чат-ботов важно установить границы и ограничения этих чат-ботов разработчиками, а цели и предполагаемое использование чат-ботов должны быть четко указаны, чтобы пользователи не обманывались завышенными ожиданиями. Кроме того, чат-боты должны иметь функции, которые планируют профессиональную поддержку и рекомендуют пользователям обращаться за помощью к «живым» профессионалам, когда это необходимо.
Список литературы
Роговец А.Ю., Мазуркевич А., Суворова И.Ю., ВинникМ., Приходько А.А. Чат-бот как способ поддержки жертв школьной травли // Современная зарубежная психология. 2023. Т. 12, № 3. С. 103-114. Б01: https://doi.org/10.17759/ ,Мр.2023120310
Abd-Alrazaq A.A., AlajlaniM, Alalwan A.A., Bewick B.M., Gardner P., HousehM. An overview of the features of chatbots in mental health: a scoping review // International Journal of Medical Informatics. 2019. Vol. 132. URL: https://pubmed.ncbi.nlm.nih.gov/ 31622850/ (accessed: 24.04.2024). DOI: https://doi.org/10.1016/j.ijmedinf.2019.103978
Adamopoulou E., Moussiades L. An overview of chatbot technology // Proceedings of the 16th International Conference on Artificial Intelligence Applications and Innovations, AIAI '20 (Neos Marmaras, Greece, June 5-7, 2020). Cham, CH: Springer, 2020. P. 373-383. URL: https://link.springer.com/chapter/ 10.1007/978-3-030-49186-4_31 (accessed: 26.04.2024).
Ahmed A., Ali N., Aziz S., Abd-Alrazaq A.A. et al. A review of mobile chatbot apps for anxiety and depression and their self-care features // Computer Methods and Programs in Biomedicine Update. 2021. Vol. 1. URL: https://www.sciencedirect.com/science/ article/pii/S2666990021000112?via%3Dihub (accessed: 23.04.2024). DOI: https://doi.org/10.1016/ j.cmpbup.2021.100012
Asensio-Cuesta S., Blanes-Selva V., Conejero J.A., Frigola A. et al. A user-centered chatbot (Wakamola) to collect linked data in population networks to support studies of overweight and obesity causes: design and pilot study // JMIR Medical Informatics. 2021. Vol. 9, iss. 4. URL: https://medinform.jmir. org/2021/4/e17503/PDF (accessed: 23.04.2024). DOI: https://doi.org/ 10.2196/17503
Bates M. Health care chatbots are here to help // IEEE Pulse. 2019. Vol. 10, iss. 3. P. 12-14. DOI: https://doi.org/10.1109/mpuls.2019.2911816
Battineni G., Chintalapudi N., Amenta F. AI chatbot design during an epidemic like the novel corona-virus // Healthcare (Basel). 2020. Vol. 8, iss. 2. URL: https://www.mdpi.com/2227-9032/8/2/154/ pdf?version= 1591947503 (accessed: 26.04.2024). DOI: https://doi.org/10.3390/healthcare8020154
Denecke K., Vaaheesan S., Arulnathan A. A mental health chatbot for regulating emotions (SERMO) — concept and usability test // IEEE Transactions on Emerging Topics in Computing. 2021. Vol. 9, iss. 3. P. 1170-1182. DOI: https://doi.org/10.1109/tetc.2020.2974478
Elmasri D., Maeder A. A conversational agent for an online mental health intervention // Proceedings of the International Conference on Brain Informatics and Health, BIH '16 (Omaha, NE, USA, October 1316, 2016). Cham, CH: Springer, 2016. P. 243-251. DOI: https://doi.org/10.1007/978-3-319-47103-7_24
FadhilA. Can a chatbot determine my diet?: Addressing challenges of chatbot application for meal recommendation. 2018. Feb. 25, URL: https://www.researchgate.net/publication/323410718 _Can_a_Chatbot_Determine_My_Diet_Addressing_ Challenges_of_Chatbot_Application_for_Meal_ Recommendation (accessed: 26.04.2024).
Fadhil A., Schiavo G., Wang Y., Yilma B.A. The effect of emojis when interacting with conversational interface assisted health coaching system // Proceedings of the 12th EAI International Conference on Pervasive Computing Technologies for Healthcare, PervasiveHealth '18 (New York, USA, May 21-24, 2018). N.Y.: Association for Computing Machinery, 2018. P. 378-383. DOI: https://doi.org/10.1145/ 3240925.3240965
FitzpatrickK.K., Darcy A., VierhileM. Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial // JMIR Mental Health. 2017. Vol. 4, iss. 2. URL: https://mental.jmir.org/2017/ 2/e19/PDF (accessed: 26.04.2024). DOI: https://doi.org/10.2196/mental.7785
Garg Sh., Williams N.L., Ip A., Dicker A.P. Clinical integration of digital solutions in health care: an overview of the current landscape of digital technologies in cancer care // JCO Clinical Cancer Informatics. 2018. Vol. 2. URL: https://ascopubs.org/doi/ pdfdirect/10.1200/CCI.17.00159 (accessed: 28.04.2024). DOI: https://doi.org/10.1200/ cci.17.00159
Huang Ch.-Y., YangM.-Ch., Huang Ch.-Y., Chen Y.J, Wu M.-L., Chen K.-W. A chatbot-supported smart wireless interactive healthcare system for weight control and health promotion // Proceedings of the 2018 IEEE International Conference on Industrial Engineering and Engineering Management, IEEM '18 (Bangkok, Thailand, December 1619, 2018). Bangkok, TH: IEEE, 2018. P. 1791-1795. DOI: https://doi.org/10.1109/ieem.2018.8607399
Inkster B., Sarda Sh., Subramanian V. An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being: real-world data evaluation mixed-methods study // JMIR mHealth and uHealth. 2018. Vol. 6, iss. 11. URL: https://mhealth.jmir.org/2018/11/e12106/PDF (accessed: 25.04.2024). DOI: https://doi.org/10.2196/12106
Lee M., Ackermans S., As N. van, Chang H., Lucas E., IJsselsteijn W. Caring for Vincent: a chatbot for self-compassion // Proceedings of the 2019 CHI Conference on Human Factors in Computing Sys-
tems, CHI '19 (Glasgow, Scotland, UK, May 4-9, 2019). URL: https://minha-lee.github.io/files/ lee_vincent_chatbot_CHI2019.pdf (accessed: 23.04.2024). DOI: https://doi.org/10.1145/ 3290605.3300932
Martinengo L., Lum E., Car J. Evaluation of chatbot-delivered interventions for self-management of depression: content analysis // Journal of Affective Disorders. 2022. Vol. 319. P. 598-607. DOI: https://doi.org/10.1016/jjad.2022.09.028
Pentina I., Hancock T., Xie T. Exploring relationship development with social chatbots: A mixed-method study of replica // Computers in Human Behavior. 2023. Vol. 140. URL: https://www.sciencedirect.com/science/article/abs/pi i/S0747563222004204 (accessed: 24.04.2024). DOI: https://doi.org/10.1016Zj.chb.2022.107600
Valtolina S., Hu L. Charlie: a chatbot to improve the elderly quality of life and to make them more active to fight their sense of loneliness // Proceedings of the 14th Biannual Conference of the Italian SIGCHI Chapter, CHItaly '21 (Bolzano, Italy, July 11-13, 2021). N.Y.: Association for Computing Machinery, 2021. URL: https://dl.acm.org/doi/abs/ 10.1145/3464385.3464726 (accessed: 23.04.2024). DOI: https://doi.org/10.1145/3464385.3464726
You Y., Gui X. Self-diagnosis through AI-enabled chatbot-based symptom checkers: user experiences and design considerations // AMIA Annual Symposium Proceedings. 2021. Vol. 2021. URL: https://arxiv.org/abs/2101.04796 (accessed: 28.04.2024).
Zhang J., Oh Y.J., Lange P., Yu Zh., Fukuoka Y. Artificial intelligence chatbot behavior change model for designing artificial intelligence chatbots to promote physical activity and a healthy diet: viewpoint // Journal of Medical Internet Research. 2020. Vol. 22, iss. 9. URL: https://www.jmir.org/2020/9/e22845/ PDF (accessed: 28.04.2024). DOI: https://doi.org/ 10.2196/22845
References
Abd-Alrazaq, A.A., Alajlani, M., Alalwan, A.A., Bewick, B.M., Gardner, P. and Househ, M. (2010). An overview of the features of chatbots in mental health: a scoping review. International Journal of Medical Informatics. Vol. 132. Available at: https://pubmed.ncbi.nlm.nih.gov/31622850/ (accessed 24.04.2024). DOI: https://doi.org/10.1016/ j.ijmedinf.2019.103978
Adamopoulou, E. and Moussiades, L. (2020). An overview of chatbot technology. Proceedings of the
16th International Conference on Artificial Intelligence Applications and Innovations, AIAI '20 (Neos Marmaras, Greece, June 5-7, 2020). Cham, CH: Springer Publ., pp. 373-383. Available at: https://link.springer.com/chapter/10.1007/978-3-030-49186-4_31 (accessed 26.04.2024).
Ahmed, A., Ali, N., Aziz, S., Abd-Alrazaq, A.A. et al. (2021). A review of mobile chatbot apps for anxiety and depression and their self-care features. Computer Methods and Programs in Biomedicine Update. Vol. 1. Available at:
https://www.sciencedirect.com/science/article/pii/S26 66990021000112?via%3Dihub (accessed 23.04.2024). DOI: https://doi.org/10.1016/ j.cmpbup.2021.100012
Asensio-Cuesta, S., Blanes-Selva, V., Conejero, J.A., Frigola, A. et al. (2021). A user-centered chatbot (Wakamola) to collect linked data in population networks to support studies of overweight and obesity causes: design and pilot study. JMIR Medical Informatics. Vol. 9, iss. 4. Available at: https://medinform.jmir.org/2021/4/e17503/PDF (accessed 23.04.2024). DOI: https://doi.org/ 10.2196/17503
Bates, M. (2019). Health care chatbots are here to help. IEEE Pulse. Vol. 10, iss. 3, pp. 12-14. DOI: https://doi.org/10.1109/mpuls.2019.2911816
Battineni, G., Chintalapudi, N. and Amenta, F.
(2020). AI chatbot design during an epidemic like the novel coronavirus. Healthcare (Basel). Vol. 8, iss. 2. Available at: https://www.mdpi.com/2227-9032/8/2/154/pdf?version=1591947503 (accessed 26.04.2024). DOI: https://doi.org/10.3390/ healthcare8020154
Denecke, K., Vaaheesan, S. and Arulnathan, A.
(2021). A mental health chatbot for regulating emotions (SERMO) — concept and usability test. IEEE Transactions on Emerging Topics in Computing. Vol. 9, iss. 3, pp. 1170-1182. DOI: https://doi.org/10.1109/tetc.2020.2974478
Elmasri, D. and Maeder, A. (2016). A conversational agent for an online mental health intervention. Proceedings of the International Conference on Brain Informatics and Health, BIH '16 (Omaha, NE, USA, October 13-16, 2016). Cham, CH: Springer Publ., pp. 243-251. DOI: https://doi.org/10.1007/978-3-319-47103-7_24
Fadhil, A. (2018). Can a chatbot determine my diet? Proceedings of the Addressing Challenges of Chatbot Application for Meal Recommendation. Feb. 25. Available at: https://www.researchgate.net/ publication/323410718_Can_a_Chatbot_Determine_ My_Diet_Addressing_Challenges_of_Chatbot_Appli
cation_for_Meal_Recommendation (accessed 26.04.2024).
Fadhil, A., Schiavo, G., Wang, Y. and Yil-ma, B.A. (2018). The effect of emojis when interacting with conversational interface assisted health coaching system. Proceedings of the 12th EAI International Conference on Pervasive Computing Technologies for Healthcare, PervasiveHealth '18 (New York, USA, May 21-24, 2018). New York, Association for Computing Machinery Publ., pp. 378-83. DOI: https://doi.org/10.1145/3240925.3240965
Fitzpatrick, K.K., Darcy, A. and Vierhile, M.
(2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health. Vol. 4, iss. 2. Available at: https://mental.jmir.org/2017/2/e19/PDF (accessed 26.04.2024). DOI: https://doi.org/10.2196/ mental.7785
Garg, S., Williams, N.L., Ip, A. and Dicker, A.P.
(2018). Clinical integration of digital solutions in health care: an overview of the current landscape of digital technologies in cancer care. JCO Clinical Cancer Informatics. Vol. 2. Available at: https://ascopubs.org/doi/pdfdirect/10.1200/CCI.17.00 159 (accessed 28.04.2024). DOI: https://doi.org/10.1200/cci.17.00159
Huang, Ch.-Y., Yang, M.-Ch., Huang, Ch.-Y., Chen, Y.-J., Wu, M.-L. and Chen, K.-W. (2018). A chatbot-supported smart wireless interactive healthcare system for weight control and health promotion. Proceedings of the 2018 IEEE International Conference on Industrial Engineering and Engineering Management, IEEM '18 (Bangkok, Thailand, December 16-19, 2018). Bangkok, TH: IEEE Publ., pp. 1791-1795. DOI: https://doi.org/10.1109/ ieem.2018.8607399
Inkster, B., Sarda, S. and Subramanian, V. (2018). An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being: real-world data evaluation mixed-methods study. JMIR mHealth and uHealth. Vol. 6, iss. 11. Available at: https://mhealth.jmir.org/2018/11/e12106/PDF (accessed 25.04.2024). DOI: https://doi.org/10.2196/ 12106
Lee, M., Ackermans, S., As, N. van, Chang, H., Lucas, E. and IJsselsteijn, W. (2019). Caring for Vincent: a chatbot for self-compassion. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, CHI '19 (Glasgow, Scotland, UK, May 4-9, 2019). Available at: https://minha-lee.github.io/files/lee_vincent_chatbot_CHI2019.pdf
(accessed 23.04.2024). DOI: https://doi.org/10.1145/3290605.3300932
Martinengo, L., Lum, E. and Car, J. (2022). Evaluation of chatbot-delivered interventions for self-management of depression: content analysis. Journal of Affective Disorders. Vol. 319, pp. 598-607. DOI: https://doi.org/10.1016/jjad.2022.09.028
Pentina, I., Hancock, T. and Xie, T. (2023). Exploring relationship development with social chatbots: A mixed-method study of replica. Computers in Human Behavior. Vol. 140. Available at: https://www.sciencedirect.com/science/article/abs/pii/ S0747563222004204 (accessed 24.04.2024). DOI: https://doi.org/10.1016Zj.chb.2022.107600
Rogovets, A.Yu., Mazurkevitch, A., Suvorova, I.Yu., Vinnik, M. and Prikhodko, A.A. (2023). [Chat-bot as a way to support victims of school bullying]. Sovremennaya zarubezhnaya psikhologiya [Journal of Modern Foreign Psychology]. Vol. 12, no. 3, pp. 103-114. DOI: https://doi.org/10.17759/ jmfp.2023120310
Valtolina, S. and Hu, L. (2021). Charlie: a chatbot to improve the elderly quality of life and to make them
more active to fight their sense of loneliness. Proceedings of the 14th Biannual Conference of the Italian SIGCHI Chapter, CHItaly '21 (Bolzano, Italy, July 11 -13, 2021). New York: Association for Computing Machinery Publ. Available at: https://dl.acm.org/ doi/abs/10.1145/3464385.3464726 (accessed 23.04.2024). DOI: https://doi.org/10.1145/ 3464385.3464726
You, Y. and Gui, X. (2021). Self-diagnosis through AI-enabled chatbot-based symptom checkers: user experiences and design considerations. AMIA Annual Symposium Proceedings. Vol. 2021. Available at: https://arxiv.org/abs/2101.04796 (accessed 28.04.2024).
Zhang, J., Oh, Y.J., Lange, P., Yu, Zh. and Fukuo-ka, Y. (2020). Artificial intelligence chatbot behavior change model for designing artificial intelligence chat-bots to promote physical activity and a healthy diet: viewpoint. Journal of Medical Internet Research. Vol. 22, iss. 9. Available at: https://www.jmir.org/ 2020/9/e22845/PDF (accessed 28.04.2024). DOI: https://doi.org/10.2196/22845
Об авторе
Фрейманис Инга Федоровна
аспирант, старший преподаватель кафедры общей и клинической психологии
Пермский государственный национальный исследовательский университет, 614990, Пермь, ул. Букирева, 15; e-mail: inga73-08@mail.ru ResearcherlD: KSL-6854-2024
About the author Inga F. Freimanis
Postgraduate Student, Senior Lecturer
of the Department of General and Clinical Psychology
Perm State University, 15, Bukirev st., Perm, 614990, Russia; e-mail: inga73-08@mail.ru ResearcherID: KSL-6854-2024