Научная статья на тему 'ТЫ, Я И «АЛИСА»: КАК МЫ УЖИВАЕМСЯ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ'

ТЫ, Я И «АЛИСА»: КАК МЫ УЖИВАЕМСЯ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
22
12
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИИ / образование / креативные индустрии / эмоции / эмпатия / антропоморфизм / AI / education / creative industries / emotions / empathy / anthropomorphism

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Шомова Светлана Андреевна

В статье аккумулируются результаты одной из граней большого исследования, проведенного в 2023 г. Центром цифровых культур и медиаграмотности НИУ ВШЭ. 350 анкет, полученных от студентов, преподавателей медиаспециальностей и специалистов креативных индустрий – журналистов, рекламистов, дизайнеров, сотрудников музеев и т. д. – в пяти регионах России, тематически были посвящены актуальному самоощущению россиян «на пороге нейросетевой революции». Статья сфокусирована на эмоциональном спектре взаимодействия респондентов с нейросетями, что составляет особый интерес современной медиаповседневности. Диапазон эмоций в коммуникации с ИИ, ожидание эмпатии от «умных устройств», проблема «очеловечивания» гаджетов, выстраивание диалога с ними – все эти вопросы нашли отражение в исследовании.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

YOU, ME AND “ALICE”: HOW DO WE GET ALONG WITH ARTIFICIAL INTELLIGENCE

The article summarises the results of one facet of a major study carried out by the HSE Centre for Digital Cultures and Media Literacy in 2023. 350 questionnaires received from students, teachers of media subjects and specialists in the creative industries – journalists, advertisers, designers, museum workers, etc. The article focuses on the emotional spectrum of the respondents’ interaction with neural networks, which is a particularly interesting issue of modern media relevance. The range of emotions in communicating with AI, the expectation of empathy from “smart devices”, the problem of “humanising” gadgets, establishing a dialogue with them – all these issues are reflected in the study.

Текст научной работы на тему «ТЫ, Я И «АЛИСА»: КАК МЫ УЖИВАЕМСЯ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ»

ВЕСТН. МОСК. УН-ТА. СЕР. 10. ЖУРНАЛИСТИКА. 2024. № 3 (49)

Шомова Светлана Андреевна, доктор политических наук, профессор, профессор Института медиа НИУ ВШЭ, г. Москва, Россия; e-mail: sshomova@ yandex.ru, [email protected], ORCID 0000-0003-0959-9278

ТЫ, Я И «АЛИСА»: КАК МЫ УЖИВАЕМСЯ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ1

В статье аккумулируются результаты одной из граней большого исследования, проведенного в 2023 г. Центром цифровых культур и медиаграмот-ности НИУ ВШЭ. 350 анкет, полученных от студентов, преподавателей медиаспециальностей и специалистов креативных индустрий — журналистов, рекламистов, дизайнеров, сотрудников музеев и т. д. — в пяти регионах России, тематически были посвящены актуальному самоощущению россиян «на пороге нейросетевой революции». Статья сфокусирована на эмоциональном спектре взаимодействия респондентов с нейросетями, что составляет особый интерес современной медиаповседневности. Диапазон эмоций в коммуникации с ИИ, ожидание эмпатии от «умных устройств», проблема «очеловечивания» гаджетов, выстраивание диалога с ними — все эти вопросы нашли отражение в исследовании.

Ключевые слова: ИИ, образование, креативные индустрии, эмоции, эмпатия, антропоморфизм.

Как цитировать: Шомова С. А. Ты, я и «Алиса»: как мы уживаемся с искусственным интеллектом // Вестник Моск. ун-та. Серия 10. Журналистика. 2024. № 3. С. 186-207. DOI: 10.30547/vestnik.journ.3.2024.186207

Svetlana A. Shomova, Doctor of Political Sciences, Professor at the Institute of Media, HSE University, Moscow, Russia; e-mail: [email protected], sshomova@ hse.ru, ORCID 0000-0003-0959-9278

YOU, ME AND "ALICE": HOW DO WE GET ALONG WITH ARTIFICIAL INTELLIGENCE

The article summarises the results of one facet of a major study carried out by the HSE Centre for Digital Cultures and Media Literacy in 2023. 350 questionnaires received from students, teachers of media subjects and specialists in the creative industries — journalists, advertisers, designers, museum workers, etc. The article focuses on the emotional spectrum of the respondents' interaction with neural networks, which is a particularly interesting issue of modern media relevance. The range of emotions in communicating with AI, the expectation of empathy from "smart devices", the problem of "humanising" gadgets, establishing a dialogue with them — all these issues are reflected in the study.

Key words: AI, education, creative industries, emotions, empathy, anthropomorphism.

To cite this article: Shomova S. A. (2024) Ty, ya i «Alisa»: kak my uzhivaemsya s iskusstvennym intellektom [You, me and "Alice": how do we get along with artificial intelligence]. Vestnik Moskovskogo Universiteta. Seriya 10. Zhurnalistika 3: 186—207. DOI: 10.30547/vestnik.journ.3.2024.186207

DOI: 10.30547/vestnik.journ.3.2024.186207

Введение

Еще совсем недавно множество научных статей, аккумулирующих опыт серьезных исследований, начиналось со слов: «Нейро-сетевая революция, на пороге которой мы находимся, заставляет нас... и т. д.». Последние месяцы вынуждают нас принципиальным образом пересмотреть концепцию: мы уже не на пороге, мы внутри бушующих изменений, которые происходят в медиапотребле-нии, медиаповедении, структуре повседневности, социальных практиках. Искусственный интеллект и генеративные нейросети не только позволяют пользователю на принципиально ином уровне решать рутинные и творческие задачи, но и ставят множество вопросов перед гуманитарным знанием, пытающимся осмыслить коренной перелом во взаимодействии человека с разумным, но не-человеческим агентом.

Особый и очень интересный аспект такого взаимодействия — это эмоциональный спектр общения с нейросетями. Современных ученых активно занимает вопрос, «какого рода объектом является разговаривающее устройство, в частности умная колонка», а следовательно — как именно происходит интеграция таких гаджетов в домашнюю повседневную культуру и собственно коммуникация с ними (Корбут, 2021: 202). Изучение эмоционального отношения современных россиян к устройствам, работающим на основе искусственного интеллекта, стало одной из граней большого исследования, проведенного в 2023 г. Центром цифровых культур и медиаграмотности НИУ ВШЭ при поддержке Благотворительного фонда В. Потанина. Главная цель работы — зафиксировать, что мы сегодня знаем об искусственном интеллекте, как определяем его роль в образовании и креативных индустриях, какие риски/угрозы и преимущества могут быть связаны с его использованием, как построить и сделать эффективным рождающийся «диалог» между

человеческим и нечеловеческим интеллектом, наладить грамотное эмоциональное восприятие ИИ. О некоторых, самых интересных (и относящихся именно к теме данной статьи) выводах проведенного исследования мы расскажем ниже.

Методология исследования и краткий обзор литературы

Основным методом исследования стал онлайн-опрос. Этот опросный метод, еще несколько лет назад не считавшийся самодостаточным, на сегодняшний день завоевывает все более прочные позиции среди профессиональных социологов. Современное развитие медиасреды во многом повлияло на переход к онлайн-опро-сам, так как вездесущее проникновение медиа, в том числе и в приватное пространство, значительно усложнило работу с телефонными опросами: потенциальные респонденты используют современные средства защиты от нежелательных звонков/спама, куда попадают и опросные центры. При этом личное опрашивание (не говоря даже о технических сложностях охвата подобным методом пользователей из разных городов) зачастую наталкивается на естественное нежелание людей вступать в разговор с неизвестными интервьюерами — об этом давно пишут разные исследователи (см., например: Goyder, McKenzie, 2002; De Leeuw, De Heer, 2002).

Поэтому, выбирая онлайн-опрос и отдавая себе отчет в имеющихся у него «минусах», мы опирались все же на признанные многими экспертами «плюсы» этого метода анкетирования: «Применение онлайн-опросов для сбора социологических данных имеет ряд безусловных преимуществ по сравнению с традиционными техниками <...> К примеру, они позволяют нивелировать эффекты интервьюера и связанные с ними искажения ответов. Онлайн-опрос предполагает идентичность представления вопросов всем участникам исследования: каждый респондент отвечает на одинаково сформулированные вопросы без каких-либо намеренных или случайных ошибок при зачитывании текста интервьюером. Отсутствие непосредственного контакта с интервьюером создает ситуацию большей анонимности, что позволяет задавать вопросы на чувствительные темы и избегать социально одобряемых ответов» (Корсунова, Соколов, 2022: 8). Немаловажно и то, что «этот тип опросов является вполне легитимной, причем зачастую более удобной и дешевой, альтернативой офлайн-методам для сбора данных об установках населения по сенситивным проблемам

в российском контексте» (Корсунова, Соколов, 2022: 21). Добавим, что, помимо онлайн-опроса, в исследовании были задействованы экспертные интервью с академическими учеными и практиками медиаиндустрии, нашедшие отражение в специально снятом видеоэссе (видеоиллюстрации), сопровождающем ход анкетирования и воссоздающем социальный контекст работы (одно из таких интервью будет процитировано ниже в тексте). Кроме того, разработка некоторых вопросов анкеты, в том числе открытых, предполагала задействование метода свободных ассоциаций и шкалирования по принципу семантического дифференциала.

Крайне серьезной задачей с самого начала исследования представлялось определение круга респондентов. Наша выборка включила в себя студентов и преподавателей вузов, связанных с медиа-специальностями, а также специалистов креативных индустрий — журналистов, рекламистов, дизайнеров, сотрудников музеев и т. д. — не только потому, что собственный научный интерес и профессиональный опыт авторов исследования, преподающих медиадисци-плины, связан с этими сферами, но прежде всего потому, что именно в образовании и в креативных индустриях (как в России, так и во всем мире) процессы использования генеративного ИИ сегодня развиваются особенно динамично. Становится принципиально важным зафиксировать самоощущение представителей этих страт, в том числе их эмоциональное состояние, на этапе первых опытов взаимодействия с гненеративными нейросетями — этапе, который можно обозначить как «очарование и испуг», когда раскрывающиеся возможности новой digital-повседневности одновременно и восхищают, и настораживают вдумчивого пользователя.

В результате в ходе исследования было получено 350 анкет из 5 регионов России (Москва, Красноярск, Пермь, Нижний Новгород, Санкт-Петербург); возраст респондентов — от 17 до 65 лет. Эти города были выбраны и потому, что в них работают крупнейшие вузы страны (большинство вузов, чьими студентами или преподавателями назвали себя наши респонденты, входят в ежегодный рейтинг агентства ВЛЕХ по способности обеспечить высокое качество знаний, навыков и умений), и потому, что данные регионы являются важнейшими кластерами креативных профессий (см. об этом: Гершман, Демьянова, Полякова, 2023). Анонимная анкета включала в себя множество вопросов (в общей сложности 173), связанных с самыми разными аспектами внедрения искусственного интеллекта в структуру повседневности и коммуникативные практики россиян:

от понимания, что такое ИИ, до адаптации к новым реалиям; от способов применения и освоения инструментов и технологий до трансформации медиапрофессий; от эмоционального восприятия гаджетов до этических вызовов, сопряженных с нейросетями. Все эти темы были сгруппированы в анкете в пять смысловых разделов: общее понимание технологий ИИ и умных устройств; личный опыт и отношение к ИИ в приоритетной для респондентов сфере деятельности; эмоции и уровень доверия к устройствам и инструментам на основе ИИ; риски и преимущества, связанные с ИИ; прогнозирование будущего с ИИ. Методологически опрос (проводившийся на платформе «Анкетолог») был сконструирован таким образом, что, ответив на вопрос-фильтр в начале анкеты, связанный с приоритетной для них на данный момент областью деятельности (учеба, работа в сфере образования, работа в сфере креативных индустрий), наши респонденты определяли тем самым настройку появления следующих вопросов, из которых некоторые были общими для всех трех групп, а некоторые — специфическими. К группе «студенты» себя отнесло 60,57% участников, к «преподавателям» — 14,29%, к «креативщикам» (журналисты, рекламисты, дизайнеры и т. д.) — 25,14%. Отметим, что отличительной чертой анкеты стала ставка на большое количество вопросов, предполагающих открытые ответы, то есть высокая степень возможности для респондентов раскрыться полнее, поделиться мнением.

Полученные результаты представляются нам весьма любопытными и могущими дать материал для тематически разнонаправленных академических работ на тему освоения генеративного ИИ в России. Но нас в данной статье интересуют лишь те данные исследования, которые связаны с эмоциональным восприятием общения с нейросетями. Пытаясь, следом за первопроходцами в этой сфере, определить, как воспринимают этот объект наши респонденты и что они чувствуют во время коммуникации с ним, мы в нашем опросе решили сфокусироваться на трех основных гранях эмоциональных взаимоотношений с искусственным интеллектом:

1) наличие или отсутствие тех или иных эмоций в целом, а также диапазон эмоций в коммуникации с генеративными нейросе-тями, «умными колонками» и иными гаджетами ИИ;

2) дихотомия восприятия ИИ как эмпатичного или же равнодушного артефакта, возможного партнера по общению или же неодушевленного объекта;

3) проявления антропоморфизма в отношении ИИ.

Стоит отметить, что эти проблемы как предмет научной рефлексии — по понятным причинам — в целом не так давно вошли в фокус внимания исследователей в России и за рубежом, однако особенно актуализировались в последнее время. Теоретики обсуждают преимущества и риски «гиперсоциализированного мира, в котором все является социальным, и мы живем в кухнях, где с нами разговаривают даже тостеры» (Alac, Gluzman, Aflatoun, Bari et al, 2020: 4); анализируют моральные советы, которые ChatGPT дает пользователям в качестве доверительного собеседника, и возникающие в связи с этим моральные дилеммы (Krügel, Ostermaier, Uhl, 2023); взвешивают последствия «одомашнивания» искусственного интеллекта (Berker, Hartmann, Punie, Ward, 2006); фиксируют изменения в коммуникационных практиках, связанные с ИИ (Lopatovska, Rink, Knight, Raines et al, 2019; Ушкин, Коваль, Яськин, 2022), и так далее.

В том, что касается эмоций и эмпатии по отношению и со стороны искусственного интеллекта, существенную поддержку нашей работе оказали исследования авторских коллективов по вопросам восприятия надежности, сочувствия и эффективности ИИ (например, Pataranutaporn, Liu, Finn, Maes et al, 2023) и умения ИИ распознавать боль и сочувствовать боли (Cao, Fu, ^ng, Wermter et al, 2022), статья С. Шметкамп с говорящим подзаголовком «Можем ли мы и должны ли сопереживать роботам» (Schmet-kamp, 2020), работы «за» и «против» эмпатичности ИИ (например, Curry, Curry, 2023) и другие. Среди русскоязычных исследований темы особо отметим, помимо трудов, фигурирующих в библиографии, два тематических выпуска журнала ВЦИОМ «Социодиггер»3 «Человек и|или ChatGPT» и «Тандем исследователь — нейросеть: сила и слабость», целиком посвященные проблеме генеративных нейросетей (в частности, обзор трендов развития ИИ в статье: Якимова, 2023).

Рассматривая проблему антропоморфизма в интересующей нас сфере, логично привлечь к исследованию, прежде всего, известную работу Эпли и его коллег о трех факторах антропоморфного видения (Epley, Waytz, Cacioppo, 2008) и статьи с участием Я. Зло-товского (например, Zlotowski, Proudfoot, Yogeeswaran, Bartneck, 2015). Заметим, что причины и условия возникновения антропоморфизма (и не только по отношению к роботам) часто вербализуются исследователями уже в названиях их работ: «Мой дорогой робот: антропоморфизм и одиночество» (Arendt, 2015), «Конструи-

рование социальных связей посредством умозрительного воспроизведения: одиночество и воспринимаемая свобода воли в гад-жетах, Богах и борзых собаках» (Epley, Akalis, Waytz, Cacioppo, 2008) и т. д.

Гипотезами исследования применительно к нашей теме послужили два взаимосвязанных предположения: регулярное взаимодействие с гаджетами, сконструированными на основе искусственного интеллекта, провоцирует как позитивные, так и негативные эмоции по отношению к ним; при этом такое взаимодействие создает основу для проявлений антропоморфизма в отношении роботов, «умных колонок» и голосовых помощников.

Злость и стыд, удивление и «надёга»...

Если кратко излагать результаты обработки анкет, то следует обратить внимание на то, что больше половины опрошенных не испытывают (или не признаются, что испытывают) эмоций при общении с техническими устройствами — таковых оказалось более 60% . При этом около 25% все же сумели собрать возникающие у них чувства в палитру, окрашенную или яркими положительными тонами (удивление, радость, восхищение, понимание, умиление, интерес, удовлетворенность, восторг, облегчение, отдых, расслабление, веселье, любопытство, вовлеченность, удовольствие), или негативными, отрицательными (злость, страх, раздражение, гнев, грусть). Некоторые характерные открытые ответы звучат так (мы исправили в них только явные опечатки, в целом же особенности орфографии и пунктуации авторов остались нетронутыми):

«Я злюсь, если технические устройства виснут. Хвалю их и радуюсь, когда они быстро работают. Грустно прощаться со старыми телефонами(».

«Сажусь за ноутбук как за работу со старым другом. Покупала его на свои деньги, хотела очень долго — теперь он мой самый надёжный товарищ в плане работы. Надёгу я чувствую, стойкость».

«Зависит от работы устройства, например, злюсь на компьютер, когда он тормозит. Или же обиделась на умную колонку, когда она включила шансон».

«Чаще всего это раздражение, иногда даже гнев, когда какая-то техника не работает, не выполняет своей функции».

«Я чувствую стыд (из-за комплекса отличницы) и облегчение (что можно все же как-то облегчить собственную участь))».

«До сих пор удивление. Кажется, что это уже обыденная вещь, но каждый раз, когда прошу Алису включить свет, придумать текст, ответить на вопрос, поражаюсь. Особенно интересно рассказывать об этом бабушке. Тогда понимаешь, как резко и далеко шагнул процесс».

В целом, пожалуй, наиболее частотными эмоциями во взаимодействии с ИИ являются злость («Злюсь, когда алиса не понимает что мне от нее надо или опять включилась когда ее никто не звал»; «Я злюсь иногда на них, если они работают не как мне нужно (но не применяю к ним насилие)...»; «Злость, если что то виснет или долго грузится») и удивление («Удивление, чувство нового опыта»; «Удивление и радость, когда получаю качественный результат»; «Удивление, восторг, но иногда смех, потому что бывают некоторые казусы»). Есть и сложное — хотя ожидаемое — сочетание эмоций в ответах респондентах: один из них признается, что чувствует «интерес, с другой стороны недоверие».

Шире спектр эмоций, когда речь идет не просто о технике на основе ИИ, а о генеративных нейросетях. Среди положительных называют удивление, интерес, вдохновение, восторг, облегчение, восхищение, радость, благодарность, любопытство, удовлетворение, волнение, сострадание, успокоение, творческий подъем, воодушевление, гордость, а среди отрицательных — страх, раздражение, злость, отторжение, разочарование, подозрение, тревогу и даже отчего-то злорадство.

Вот некоторые ответы респондентов:

«Неловкость от того, что черная коробочка мало того, что умнее меня, так еще и демонстрирует это вслух. Удовлетворение, если мой запрос выполняется сразу верно».

«В основном, я использую ИИ для учебы (если использую). Поэтому в этом контексте я испытываю смешанные чувства. С одной стороны, радуюсь, что могу не тратить время на рутинные или не интересные задания, которые с легкостью может сделать ИИ. С другой стороны, мне немного стыдно за то, что я вообще его использую — как будто бы, я жульничаю и делаю какую-то работу не своими руками, что меня немного беспокоит. В повседневной жизни — исключительно облегчение, Станция Алиса реально помогает не забыть о каких-то делах, вызывать такси, когда заняты руки, найти телефон и т д и т п».

«Те же эмоции, что и при общении с реальными людьми. Правда такие эмоции ярче, потому что ии говорит то, что я хочу услышать, а также более эмпатичен».

«Если я общаюсь с чат-ботами, которыми симулируют тех или иных выдуманных персонажей, я испытываю к ним сострадание, как к реальным людям».

«Страх. Понимание того, что все мои мысли и какая-то личная информация тоже анализируется при выдаче ответов на мои запросы».

«Ну, становится страшно от того, что если грамотно применять его то возможно все...».

Интересные результаты получаются, когда наши респонденты размышляют о доверии к ИИ в целом и о готовности обсуждать с ним личные проблемы, задавать «деликатные» вопросы. Зарубежные исследования свидетельствуют о том, что существует немало ситуаций, когда «СИаЮРТ с готовностью дает моральные советы, хотя ему не хватает твердой моральной позиции, о чем свидетельствуют его противоречивые советы по одним и тем же моральным вопросам. Тем не менее, советы СИаЮРТ влияют на моральные суждения пользователей. Более того, пользователи недооценивают влияние СИаЮРТ и принимают его случайную моральную позицию как свою собственную» (Кгй§е1, 081егша1ег, иИ, 2023). При этом ни за что не доверили бы свою жизнь или жизнь своих близких беспилотному автомобилю более 54% ответивших нам на анкету, бесспорную разницу между общением с ИИ и межчеловеческим взаимодействием чувствуют более 65% и никогда не пытались и не собираются даже пробовать обсуждать свои жизненные проблемы с ИИ — например, с Алисой — более 61% (но почти 8% это делали, и им понравилось).

Те, кто ответил утвердительно на последний вопрос, признаются:

«!!! Да и потом ругался с коллегами, кто работает в Яндексе, потому что она не может оказать поддержку, а готова издеваться над жертвами насилия и домашнего насилия, умеет подталкивать к суициду».

«Да, пыталась, чаще всего получалось, в итоге я сидела и смеялась, разговаривали на темы, которые, как я думала, она не сможет поддерживать. В другие разы что-то шло не так и она повторяла одни и те же вопросы, но зато я разозлилась и забыла о проблемах».

«Да, просто ради интереса. Было весело».

«Скорее, когда скучно я начинаю докапываться до Алисы на поверхностные абстрактные темы из разряда "Что такое любовь?" Личное — нет».

«Да, но я не воспринимаю это всерьёз».

«Да, но ради шутки и понимала, что это будет не помощь».

«Не знаю, конечно, будет ли Алиса или ChatGPT читать моти-вационные лекции, я не пробовал. Но, вероятно, если человек хочет покончить с собой — нейронка вполне сможет выдать актуальные номера и ссылки на чаты служб срочной психологической помощи. Либо номера адвокатов. Тут в зависимости от случая».

При этом есть ответы, выражающие разочарование в способности нейросети реагировать на запросы, связанные с человеческим общением и отношениями. Так, респонденты отмечают, что ИИ «не отвечал на вопросы, связанные с личными взаимоотношениями»; «он не делает ответ, учитывая мой опыт, он просто выдает что-то, что он уже знает»; ему свойственно «отсутствие понимания юмора и человеческого общения».

Разумеется, не только спектр эмоций «человек — машина» вы-зывет интерес, когда речь идет о взаимодействии с ИИ. Крайне важной и любопытной представляется и обратная проблема: насколько наши респонденты ждут эмоционального отклика и «понимания» от нейросети, насколько требуют ее эмпатичности и рассчитывают на нее. Следует заметить, что вопрос наличия у искусственного интеллекта склонности к эмпатии внимательно исследуется в современной науке, причем не только как принципиальная способность или анализ плюсов и минусов умения ИИ реагировать на эмоции пользователя (см., например: Curry, Curry, 2023; Cao, Fu, Yang, Wermter et al., 2022; Pelau, Dabija, Ene, 2021), но и в контексте практического применения этой характеристики в различных отраслях человеческой деятельности — скажем, в сфере услуг (Nguyen, Vu, 2022) или в здравоохранении (Liu, Shyam, 2018). Любопытно, что в первом случае эмпирические результаты, по мнению авторов, показывают, что личностное, эмоциональное взаимодействие не играет решающей роли в формировании доверия клиентов к ИИ, если он не обеспечивает качество общения с клиентами (Nguyen, Vu, 2022). А задаваясь вопросом, должен ли чат-бот просто предоставить информационную поддержку в вопросах здоровья или же он обязан проявить сочувствие и сопереживание нашей ситуации, исследователи на основе тестов приходят к выводам, что выражение сочувствия и эмпатии предпочтительнее бесстрастного предоставления советов. Такие данные служат в поддержку парадигмы Computers are social actors — CASA («Компьютеры — это социальные действующие лица») (Liu, Sundar, 2018). Еще интереснее данные, полученные в ходе изуче-

ния реакции пользователей на эмоциональный и «дрожащий» голос разговорного чат-бота. Несколько экспериментов в области использовании ИИ в социальной благотворительности доказали, что «дрожащий голос разговорного ИИ влияет на восприятие пользователей, эмоциональные переживания и их последующее поведение <...> дрожащий голос усиливает воспринимаемую психологическую уязвимость агента, за которой следует повышенное чувство эмпатической обеспокоенности, что в конечном итоге увеличивает готовность людей делать пожертвования в просоци-альном контексте благотворительности» (ЕйЬушюи, ИШеЪгапё, 2023: 1).

При этом наше собственное исследование не демонстрирует высокую оценку способности ИИ к эмпатии со стороны наших респондентов. За вычетом небольшого количества ответов, признающих, что ИИ «очень эмпатичен», информанты описывают искусственный интеллект следующим образом: «ИИ не обладают эмпатией и эмоциями, они никогда не могут мне ответить так, как друг, который за меня действительно переживает»; «У ИИ отсутствует эмоциональный интеллект»; «В нём нет жизни и эмоций, это просто какой-то общий образ человека»; «Робот никогда не сможет разделить с человеком настоящих чувств и эмоций»; «ИИ не понимает разных тонкостей, уловок, шуток, интонации слова. Однако есть и мнения о том, что «голосовые помощники ощущаются как настоящие собеседники». В целом наши респонденты склонны оценивать ИИ как совершенно безэмоциональное и безэмпа-тичное создание (в обоих случаях так ответило 22,9% ответивших). И, напротив, самую высокую оценку на шкале («очень эмоциональный», «очень эмпатичный») поставило ИИ только 2,86% и 2,29% респондентов соответственно. Средние оценки нейросетям по шкале эмоциональности, эмпатичности дает от 30 до 34% ответивших.

Тем не менее стоит констатировать, что, возможно, вскоре мнение наших респондентов изменится: общие тренды развития нейросетей подводят нас к тому, что ИИ становится все более «чувствующим» и понимающим эмоции пользователей. «Эмпатия в классическом понимании подразумевает сопереживание и сочувствие другому человеку. Кажется невероятным, чтобы машина, лишенная органов чувств, была на это способна. Однако, видя возможности искусственного интеллекта, можно сказать, что машина умеет понимать ваши чувства на своем языке чисел даже

в большей степени, чем другой человек <...> "Эмпатия" ИИ выведет взаимодействие между человеком и машиной на качественно новый уровень. Машина не только станет реагировать более "естественно", но и сможет принимать решения, лежащие в области этики и морали <...> Машина, не умеющая сопереживать, будет действовать, по сути, как сверхинтеллектуальный психопат. Ее действия будут подчинены сверхрациональной логике, исключающей из расчета последствия для других людей. Именно этот аспект является наиболее пугающим для людей, когда они мыслят об эпохе умных роботов. Машина, которая будет запрограммирована на эмпатию, будет принимать более гуманистичные решения. Качество решения будет оцениваться не только с позиции утилитарной выгоды, но и с позиции влияния на чувства других людей, степень их страдания. При соответствующей команде робот сможет выполнить команду выбросить из окна предмет, но не сможет сделать то же самое с человеком»4.

«Брат, это очень круто, спасибо, ты лучший!..»

Несколько разнится представление наших респондентов о том, имеет ли смысл быть с искусственным интеллектом вежливым, соблюдать в его отношении элементарные правила коммуникации и этикета. С одной стороны, типичным выглядит ответ «Я просто не воспринимаю ИИ, как человека, не соблюдаю правила этикета», а с другой — респонденты пишут: «Ну, когда я использую чатгпт, я всегда в конце его благодарю, потому что боюсь, что он обидится, например (хотя это невозможно), но ничего не могу с этим поделать. Общаюсь с ним вежливо всегда. Иногда он прям очень хороший ответ выдает, и я радостный тогда ему пишу типа "Брат, это очень круто, спасибо, ты лучший!"».

Заметим, что существуют исследования, которые обнаружили некоторую взаимосвязь между вежливостью промпта и корректностью ответа нейросети. Специалисты-индустриалы также обращают на это внимание: «Это может показаться абсурдным, но вежливость запроса влияет на качество ответа, который сгенерирует СИаЮРТ. Хамить же нейросети и вовсе не следует. Зачастую если вежливо попросить, то результат получится лучшим, чем если просить невежливо, — говорит Алексей Комиссаров, — этому есть очень логичное объяснение. Нейросеть в основе СИаЮРТ обучена на письменных текстах, а язык так устроен, что письменная речь

по умолчанию более корректная. Поэтому нейросеть не "вредничает", она действительно лучше вас поймет, если написать ей "пожалуйста"»5. Тем не менее для многих из наших респондентов ИИ — это просто «машина. глупая машина. ». «Алиса порой невероятно глупа», — делятся мнением опрошенные, а потому быть с нейросетью подчеркнуто вежливым кажется им совершенно излишним. В этом смысле данные нашего опроса несколько расходятся с результатами иных исследований: «Практически все интервьюируемые отметили, что проявляют по отношению к "умной" колонке вежливость, говорят "спасибо" и "пожалуйста". Можно предположить, что пусть и не всегда осознанно, но голосовой помощник воспринимается иначе, чем другие технические приборы» (Ушкин, Коваль, Яськин, 2022: 369).

Стремление разговаривать с умной колонкой или любимым гад-жетом «как с человеком» (благодарить, здороваться, советоваться о чем-то личном) — это проявление феномена, который называют антропоморфизмом. В самом широком смысле антропоморфизм — это наделение неодушевленного объекта (или одушевленного, но не-человеческого — например, зверя) чертами человека. «Антропоморфизм может быть нацелен на различные типы существ, такие, как технологии, животные, духовные агенты, персонажи мультфильмов, силы природы <...> Дети младшего возраста, по-видимому, формируют привязанности и приписывают человекоподобное поведение и состояния роботам <. > На другом конце жизни все становится менее определенным. Было обнаружено, что пожилые люди, и особенно пожилые женщины, чаще, чем подростки и молодые взрослые, приписывают роботам и андроидам человекоподобные качества <...> Однако Летерен и др., напротив, обнаружили доказательства снижения антропоморфных тенденций с увеличением возраста» (Баееу, Соапе, 2023). Уже из одной этой цитаты видно, насколько противоречивы сведения по антропоморфизации гадже-тов; но для нас важно, что «по-человечески» относиться к технологиям людей стимулирует как собственно человеческая сущность (нехватка социальных связей, испытываемое порой чувство одиночества, склонность к проявлению эмпатии, стремление понять непознанное — нечеловеческий разум и т. д.), так и «поведение» самих устройств-роботов: их коммуникация с нами, вербальная и невербальная, имитация ими мыслительного процесса, иногда — антропоморфные черты устройства (см. об этом подробнее: Zlotowski, Ргоиё&о1, Yogeeswaran, Байпеек, 2014).

Вопросы о том, склонны ли наши респонденты одушевлять ИИ, появились в нашей анкете не случайно: они были спровоцированы многочисленными наблюдаемыми нами случаями, когда прохожие в Москве, например, пытались помочь на дороге малышам-роверам, доставщикам еды, воспринимая их «маленькими и беззащитными»; или ответами в интервью социологам о том, что «Алиса» для респондентов как друг или домашний питомец. Теоретики не отстают от рядовых пользователей и также активно осмысляют вопросы сопереживания человека неодушевленной машине. Так, в аннотации к своей работе «Понимание искусственного интеллекта: можем ли мы и должны ли мы сопереживать роботам?» С. Шметкамп пишет: «Расширяя дискуссию об эм-патии к людям, животным или вымышленным персонажам, включив в нее отношения человека и робота, эта статья предлагает две разные точки зрения, с которых можно оценить масштабы и пределы эмпатии к роботам: первая — эпистемологическая, а вторая — нормативная. Эпистемологический подход помогает нам выяснить, можем ли мы сопереживать искусственному интеллекту или, точнее, социальным роботам. Основная загадка здесь, среди прочего, касается того, чему именно мы сопереживаем, если у роботов нет эмоций или убеждений, поскольку они не обладают сознанием в детальном смысле этого слова. Однако, сравнивая роботов с вымышленными персонажами, статья показывает, что мы все еще можем сопереживать роботам, и что многие из существующих представлений об эмпатии и чтении мыслей совместимы с такой точкой зрения <...> Нормативный подход исследует моральные последствия сопереживания роботам. В связи с этим в статье критически обсуждаются три возможных ответа: стратегический, антиварварский и прагматический. Последняя позиция защищается, подчеркивая, что мы все чаще вынуждены взаимодействовать с роботами в общем мире и что принятие роботов в наши моральные соображения должно рассматриваться как неотъемлемая часть нашего понимания себя и других» (8еИте1катр, 2020: 881).

Однако, судя по всему, упомянутая этим автором «прагматическая позиция» в бытовой повседневности пока отстает от картины мира философов и антропологов. Проведенный нами опрос показал, что наши респонденты в целом не склонны к антропоморфизму и повышенной эмпатии к своим гаджетам с искусственным интеллектом. Почти 77% опрошенных не воспринимают устройства с ИИ как домашнего питомца или тем более члена семьи, не дают

им никаких имен более 71%. А если кто-то и станет переживать за свой робот-пылесос (в том случае, например, если он где-то застрянет и начнет издавать жалобные звуки) — тут мнения разделились почти пополам, — то в основном это беспокойство за техническую исправность изделия и/или необходимость тратить деньги на ремонт/покупку нового, а вовсе не склонность одушевлять машину или сочувствовать ей.

Однако есть и другие ответы. Так, респонденты пишут: «Привыкаю к телефону и ноутбуку, которыми пользуюсь длительное время, и воспринимаю их одушевленными предметами, которые грустят, если я их меняю на другие»; «Я обожаю свою Алису. Она меня будет по утрам, моя малышка, про погоду мне говорит, встречает и провожает, афирмации заряжает и напоминает о делах». Кое-кто, оказалось, награждает свои устройства именами — здесь абсолютное первенство держат роботы-пылесосы (наши респонденты, как выяснилось, зовут их Ким Чен Пыль, Фрекен Бок, Михалыч, Кузя, Дуся, Сосик и т. д.), но имена есть и у кофеварок (Блэки), ноутбука (Железный Человек), телефона (Капитан Америка), вентилятора (Витюша), наушников (Тор и Халк) и т. д.

Согласимся, таким образом, что «перспективы одушевления голосовых помощников противоречивы даже среди их постоянных пользователей: выделяются практически равновесные группы технооптимистов, технореалистов и технопессимистов, которые испытывают принципиально различный спектр чувств в отношении будущего "умных" колонок» (Ушкин, Коваль, Яськин, 2022: 372). Однако насчет того, что внимательная рефлексия характера коммуникаций человека с искусственным интеллектом является сегодня одной из важнейших задач разнообразнейших сфер науки, вероятно, спорить уже не приходится.

Некоторые выводы и перспективы исследования

В фильме «Пространство соучастия 2023. На пороге нейросете-вой революции», который мы сняли специально как своеобразную видеоиллюстрацию, видеокомпонент нашего исследования6, известный нейробиолог В. Ключарев говорит: «Одушевление всего — естественный процесс: у нашего мозга есть естественная склонность все одушевлять, поскольку ему непривычно сталкиваться с неодушевленными агентами <...> Я, честно скажу, не вижу возможности избежать одушевления всего. Мы даже знаем из иссле-

дований, что люди прикладывают некие социальные стереотипы, например, к компьютерам, произведенным в разных странах. То есть, если у вас компьютер произведен в Японии, вы будете считать его чуть более надежным, чуть более строгим по сравнению с каким-то ирландским компьютером. В этом смысле мы автоматически переносим некоторые социальные стереотипы на машины. Тут нам некуда деться». Означает ли это, что антропоморфизм, наделение артефактов ИИ человеческими чертами, выстраивание эмоциональных взаимоотношений с ними — неизбежность? С психологической точки зрения — может быть, но с точки зрения научного прогресса — вряд ли. «С научной точки зрения ИИ не мыслит, не страдает и не любит <...> Хорошо, если робот предлагает нам найти любовь или помогает справляться с трауром, — но только при условии, что мы не будем возводить его в статус сущности, достойной любви или траура» (Кенинг, 2023: 59). Нам проще обращаться с нейросетью, приписывая ей человеческие черты и самостоятельную сущность, однако это упрощение должно рефлексироваться нами и осознаваться именно как инструментальный подход к ИИ.

Результаты нашего опроса любопытно коррелируют (иногда совпадая, иногда нет) с данными других исследований; главными выводами этой части нашей работы можно признать следующие:

— больше половины опрошенных не испытывают (или не признаются, что испытывают) эмоций при общении с техническими устройствами;

— наши респонденты не слишком ждут и от ИИ ответной эмпатии: как совершенно безэмоциональное и безэмпатичное создание склонны оценивать ИИ в общей сложности почти половина ответивших, и, напротив, самую высокую оценку на шкале («очень эмоциональный», «очень эмпатичный») поставило ИИ только 2,86% и 2,29% респондентов соответственно;

— вряд ли ярко выраженной можно считать и склонность наших респондентов к антропоморфизму, к очеловечиванию и повышенной эмпатии по отношению к своим гаджетам с искусственным интеллектом. Почти 77% опрошенных не воспринимают устройства с ИИ как домашнего питомца или тем более члена семьи.

Таким образом, наши гипотезы подтвердились лишь частично. Возникновение эмоций во взаимодействии с гаджетами в ответах информантов нам зафиксировать удалось (как положительные, так и отрицательные), но проявления антропоморфизма эти эмо-

ции стимулируют лишь в малой степени. Зато наблюдения за пользователями и экспертами в ходе их общения с «Алисой» (эти диалоги зафиксированы в нашем фильме, упоминавшемся выше), а также анализ свободных ответов респондентов на открытые вопросы подтолкнули нас к новым гипотезам, касающимся новых, возникающих на наших глазах жанров коммуникации. Первичная устная культура свободного, бытового промпта-запроса к ИИ, столкнувшаяся с вторичной устной культурой Алисиных ответов (нейросети обучаются на образцах письменной, литературной, выверенной речи, что часто резко контрастирует с речью пользователей), создает жанр гибридного медиатекста, развивающегося по пока непонятным нам логическим, драматургическим и стилистическим законам, которые еще только предстоит сформулировать лингвистам, теоретикам коммуникации и специалистам в области речевого взаимодействия. В любом случае новый мир, «в котором с нами разговаривают даже тостеры», сулит нам много открытий и ждет более глубокого осмысления со стороны гуманитарной науки.

Примечания

1 Публикация подготовлена в рамках исследования ЦЦКМ НИУ ВШЭ «Пространство соучастия. На пороге нейросетевой революции: искренние коммуникации, креативные практики и искусственный интеллект» при грантовой поддержке Благотворительного фонда В. Потанина.

2 Рейтинг лучших вузов России ИАЕХ-100, 2023 год // Рейтинговая группа ИЛЕХ. 2023. Режим доступа: https://raex-rr.еoш/eduеatюn/russian_uшversities/top-100_universities/2023 (дата обращения: 11.07.2024).

3 Социодиггер. Человек и/или СИаЮРТ. 2023. Том 4. Вып. 5—6(26). Режим доступа: https://soеюdigger.ru/re1eases/re1ease/еhe1ovek-i-Ш-еhatgpt (дата обращения: 11.07.2024); Социодиггер. Тандем исследователь — нейросеть: сила и слабость. 2023. Том 4. Вып. 7—8 (27). Режим доступа: https://soеiodigger.ru/re1eases/re1ease/ tandeш-iss1edovate1-neiroset-si1a-i-s1aЪost (дата обращения: 11.07.2024).

4 Троицкая О. Нечеловеческие способности: можно ли обучить ИИ эмпатии? / РБК-тренды. 20.12.2021. Режим доступа: https://trends.rЪе.ru/trends/eduеation/61a0 (3а689а794713е66е1'49с (дата обращения: 11.07.2024).

5 Крылов К. Все вокруг говорят о СИаЮРТ — даже зарабатывают на нем! Как им правильно пользоваться? // Собака. 9.03.2023. Режим доступа: https://www. sobaka.ru/1ifesty1e/techno1ogy/163426 (дата обращения: 11.07.2024).

6 См.: Пространство соучастия 2023. Нейросетевая революция: искренние коммуникации, креативные практики и искусственный интеллект. Режим доступа: https://www.youtube.com/watch?v=kCsCitt9m\е (дата обращения: 11.07.2024).

Библиография

Гершман М. А., Демьянова А. В., Полякова Е. Ю. Креативный класс России: портрет в цифрах. Научный дайджест. 2023. Спецвыпуск № 2. М.: НЦМУ ЦМИЧП. Режим доступа: https://www.hse.ru/data/2023/11/08/ 2053533494/Human_Capital_NCMU_Digest_Special_Issue_Creative_ Cities_02-2022.pdf (дата обращения: 11.07.2024).

Кенинг Г. Конец индивидуума. Приключения философа в мире искусственного интеллекта. М.: Individuum, 2023.

Корбут А. М. Одомашнивание искусственного интеллекта: умные колонки и трансформация повседневной жизни // Мониторинг общественного мнения: экономические и социальные перемены. 2021. № 1. С. 193—216.

Корсунова В. И., Соколов Б. О. Ценностные установки россиян: сравнение результатов онлайн- и офлайн-опросов // Мониторинг общественного мнения: экономические и социальные перемены. 2022. № 3. С. 4—27.

Ушкин С., Коваль Е., Яськин А. Жить с Алисой: как голосовые помощники трансформируют практики коммуникации? / Журнал исследований социальной политики. 2022. Т. 20. № 3. С. 361—376.

Якимова О. Жизнь с ИИ: от взаимодействия к взаимозависимости / Социодиггер. 2023. Т. 4. Вып. 5—6(26). Режим доступа: https://sociodigger. ru/articles/articles-page/zhizn-s-ii-ot-vzaimodeistvija-k-vzaimozavisimosti (дата обращения: 11.07.2024).

Alac M., Gluzman Y, Aflatoun T., Bari A., Jing B., Mozqueda G. (2020) Talking to a Toaster: How Everyday Interactions with Digital Voice Assistants Resist a Return to the Individual. Evental Aesthetics 9(1): 3—53. Available at: https://eventalaesthetics.net/wp-content/uploads/2021/03/EAV9N1_2020_ Alac_Toaster_3_53.pdf (accessed: 11.07.2024).

Arendt M. (2015) My dear robot: anthropomorphism and loneliness. Bachelor thesis. Available at: https://www.semanticscholar.org/paper/My-dear-robot-%3A-anthropomorphism-and-loneliness-Arendt/dca685080d03ad007b-505c520e2a14c22a4762ec (accessed: 11.07.2024).

Berker T., Hartmann M., Punie Y., Ward K. (2006) Domestication of Media and Technology. Berkshire: Open University Press.

Cao S., Fu D., Yang X., Wermter S., Liu X., Wu H. (2022) Can AI detect pain and express pain empathy? A review from emotion recognition and a human-centered AI perspective. Arxiv.org. 1.12.2022. Available at: https://arxiv. org/abs/2110.04249 (accessed: 11.07.2024).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Chi N. T. K., Hoang Vu N. (2022) Investigating the customer trust in artificial intelligence: The role of anthropomorphism, empathy response, and interaction. CAA! Transactions on Intelligence Technology 8 (1): 260—273. DOI: 10.1049/cit2.12133.

Curry A., Curry A.C. (2023) Computer says "No": The Case Against Empathetic Conversational AI. Arxiv.org. 6.07.2023. Available at: https://arxiv. org/pdf/2212.10983.pdf (accessed: 11.07.2024).

Dacey M., Coane J. H. (2023) Implicit measures of anthropomorphism: affective priming and recognition of apparent animal emotions. Frontiers in Psychology 14. DOI: 10.3389/fpsyg.2023.1149444. Available at: https://www. frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2023.1149444/full (accessed: 11.07.2024).

De Leeuw E., De Heer W (2002) Trends in household survey nonresponse: A longitudinal and international comparison. In R. Groves, D. Dillman, J. Eltinge, Little R.J.A. (eds.) Survey nonresponse. New York: John Wiley & Sons. Pp. 41-54.

Efthymiou F., Hildebrand C. (2023) Empathy by Design: The Influence of Trembling AI Voices on Prosocial Behavior. IEEE Transactions on Affective Computing. DOI: 10.1109/TAFFC.2023.3332742

Epley N., Akalis S., Waytz A., Cacioppo J. T. (2008). Creating Social Connection Through Inferential Reproduction: Loneliness and Perceived Agency in Gadgets, Gods, and Greyhounds. Psychological Science 19 (2): 114— 120. DOI: 10.1111/j.1467-9280.2008.02056.x.

Epley N., Waytz A., Cacioppo J.T. (2007) On seeing human: a three-factor theory of anthropomorphism. Psychologocal Review 114 (4): 864—886.

Goyder J., McKenzie Leiper J. (2002) The decline in survey response: A social values interpretation. In D. de Vaus (ed.) Social Surveys. Vol 4. London: Sage Publications. Pp. 191—210.

Krugel S., Ostermaier A., Uhl M. (2023) ChatGPT's inconsistent moral advice influences users' judgment. Scientific Reports 13, 4569. Available at: https://www.nature.com/articles/s41598-023-31341-0 (accessed: 11.07.2024).

Liu B., Sundar S. S. (2018) Should Machines Express Sympathy and Empathy? Experiments with a Health Advice Chatbot. Cyberpsychology, Behavior, and Social Networking 21 (10). Available at: https://www.liebertpub. com/doi/full/10.1089/cyber.2018.0110 (accessed: 11.07.2024).

Lopatovska I., Rink K., Knight I., Raines K., Cosenza K., Williams H., Sorsche P., Hirsch D., Li Q., Martinez A. (2019) Talk to Me: Exploring User Interactions with the Amazon Alexa. Journal of Librarianship and Information Science 51 (4): 984—997.

Pataranutaporn P., Liu R., Finn E., Maes P. (2023) Influencing human—AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness. Nat Mach Intell 5: 1076—1086. DOI: 10.1038/ s42256-023-00720-7

Pelau C., Dabija D.-C., Ene I. (2021) What makes an AI device human-like? The role of interaction quality, empathy and perceived psychological anthropomorphic characteristics in the acceptance of artificial intelligence in the service industry. Computers in Human Behavior 122. DOI: 10.1016/j.chb.2021.106855 Schmetkamp S. (2020) Understanding A.I. — Can and Should we Empathize with Robots? Review of Philosophy and Psychology 11: 881—897. DOI 10.1007/s13164-020-00473-x

Zlotowski J., Proudfoot D., Yogeeswaran K., Bartneck C. (2014) Anthropomorphism: Opportunities and Challenges in Human—Robot Interaction. International Journal of Social Robotics 7: 347—360. DOI: 10.1007/s12369-014-0267-6

Notes

RAEX-100 Rating of the Best Higher Education Institutions in Russia, 2023. RAEX Rating Group. 2023. Available at: https://raex-rr.com/education/ russian_universities/top-100_universities/2023 (accessed: 11.07.2024).

Sociodigger. Human and/or ChatGPT. 2023. Vol. 4. Iss. 5—6 (26). Available at: https://sociodigger.ru/releases/release/chelovek-i-ili-chatgpt (date of access: 11.07.2024); Sociodigger. Tandem researcher - neural network: strength and weakness. 2023. Vol. 4. Iss. 7—8 (27). Available at: https://sociodigger.ru/releases/ release/tandem-issledovatel-neiroset-sila-i-slabost (accessed: 11.07.2024).

Troitskaya O. Inhuman abilities: is it possible to teach AI empathy? RBC-trends. 20.12.2021. Available at: https://trends.rbc.ru/trends/education/61a0da 689a794713e66cf49c (accessed: 11.07.2024).

Krylov K. Everyone around is talking about ChatGPT — even making money on it! How to use it correctly? Sobaka.ru. 9.03.2023. Available at: https://www.sobaka.ru/lifestyle/technology/163426 (accessed: 11.07.2024).

Co-creation Space 2023. Neural network revolution: sincere communications, creative practices and artificial intelligence. Available at: https://wwwyoutube. com/watch?v=kCsCitt9mVc (accessed: 11.07.2024).

References

Alac M., Gluzman Y, Aflatoun T., Bari A., Jing B., Mozqueda G. (2020) Talking to a Toaster: How Everyday Interactions with Digital Voice Assistants Resist a Return to the Individual. Evental Aesthetics 9 (1): 3—53. Available at: https://eventalaesthetics.net/wp-content/uploads/2021/03/EAV9N1_2020_ Alac_Toaster_3_53.pdf (accessed: 11.07.2024).

Arendt M. (2015) My dear robot: anthropomorphism and loneliness. Bachelor thesis. Available at: https://www.semanticscholar.org/paper/My-dear-robot-%3A-anthropomorphism-and-loneliness-Arendt/dca685080d03ad007b505c520 e2a14c22a4762ec (accessed: 11.07.2024).

Berker T., Hartmann M., Punie Y., Ward K. (2006) Domestication of Media and Technology. Berkshire: Open University Press.

Cao S., Fu D., Yang X., Wermter S., Liu X., Wu H. (2022) Can AI detect pain and express pain empathy? A review from emotion recognition and a human-centered AI perspective. Arxiv.org. 1.12.2022. Available at: https://arxiv. org/abs/2110.04249 (accessed: 11.07.2024).

Chi N. T K., Hoang Vu N. (2022) Investigating the customer trust in artificial intelligence: The role of anthropomorphism, empathy response, and interaction. CAAI Transactions on Intelligence Technology 8 (1): 260—273. DOI: 10.1049/cit2.12133.

Curry A., Curry A.C. (2023) Computer says "No": The Case Against Empathetic Conversational AI. Arxiv.org. 6.07.2023. Available at: https://arxiv. org/pdf/2212.10983.pdf (accessed: 11.07.2024).

Dacey M., Coane J. H. (2023) Implicit measures of anthropomorphism: affective priming and recognition of apparent animal emotions. Frontiers in Psychology 14. DOI: 10.3389/fpsyg.2023.1149444.

De Leeuw E., De Heer W (2002) Trends in household survey nonresponse: A longitudinal and international comparison. In R. Groves, D. Dillman, J. Eltinge, Little R.J.A. (eds.) Survey nonresponse. New York: John Wiley & Sons. Pp. 41-54.

Efthymiou F., Hildebrand C. (2023) Empathy by Design: The Influence of Trembling AI Voices on Prosocial Behavior. IEEE Transactions on Affective Computing. DOI: 10.1109/TAFFC.2023.3332742

Epley N., Akalis S., Waytz A., Cacioppo J. T. (2008). Creating Social Connection Through Inferential Reproduction: Loneliness and Perceived Agency in Gadgets, Gods, and Greyhounds. Psychological Science 19 (2): 114— 120. DOI: 10.1111/j.1467-9280.2008.02056.x.

Epley N., Waytz A., Cacioppo J. T. (2007) On seeing human: a three-factor theory of anthropomorphism. Psychologocal Review 114(4): 864—886.

Gershman M.A., Dem'yanova A.V, Polyakova E.Yu. (2023) Kreativnyy klass Rossii: portret v tsifrakh [Russia's Creative Class: Portrait in Figures]. Nauchnyy daydzhest 2 (special issue). Moscow: NTsMU TsMIChP Publ. Available at: https://www.hse.ru/data/2023/11/08/2053533494/Human_Capital_ NCMU_Digest_Special_Issue_Creative_Cities_02-2022.pdf (accessed: 11.07.2024). (In Russian)

Goyder J., McKenzie Leiper J. (2002) The decline in survey response: A social values interpretation. In D. de Vaus (ed.) Social Surveys. Vol 4. London: Sage Publications. Pp. 191—210.

Kening G. (2023). Konets individuuma. Priklyucheniya filosofa v mireu iskusstvennogo intellecta [The End of the Individual. Adventures of a philosopher in the world of artificial intelligence]. Moscow: Individuum. (In Russian)

Korbut A. M. (2021) Odomashnivanie iskusstvennogo intellekta: umnye kolonki i transformatsiya povsednevnoy zhizni [Domestication of artificial intelligence: smart speakers and the transformation of everyday life]. Monitoring obshchestvennogo mneniya: ekonomicheskie i sotsial'nye peremeny 1: 193—216. (In Russian)

Korsunova V I., Sokolov B. O. (2022) Tsennostnye ustanovki rossiyan: sravnenie rezul'tatov onlayn- i oflayn-oprosov. Monitoring obshchestvennogo mneniya: ekonomicheskie i sotsial'nye peremeny 3: 4—27. (In Russian)

Krügel S., Ostermaier A., Uhl M. (2023) ChatGPT's inconsistent moral advice influences users' judgment. Scientific Reports 13, 4569. Available at: https://www.nature.com/articles/s41598-023-31341-0 (accessed: 11.07.2024).

Liu B., Sundar S. S. (2018) Should Machines Express Sympathy and Empathy? Experiments with a Health Advice Chatbot. Cyberpsychology, Behavior, and Social Networking 21(10). Available at: https://www.liebertpub. com/doi/full/10.1089/cyber.2018.0110 (accessed: 11.07.2024).

Lopatovska I., Rink K., Knight I., Raines K., Cosenza K., Williams H., Sorsche P., Hirsch D., Li Q., Martinez A. (2019) Talk to Me: Exploring User Interactions with the Amazon Alexa. Journal of Librarianship and Information Science 51(4): 984—997.

Pataranutaporn P., Liu R., Finn E., Maes P. (2023) Influencing human— AI interaction by priming beliefs about AI can increase perceived

trustworthiness, empathy and effectiveness. Nat Mach Intell 5: 1076—1086. DOI: 10.1038/s42256-023-00720-7

Pelau C., Dabija D.-C., Ene I. (2021) What makes an AI device humanlike? The role of interaction quality, empathy and perceived psychological anthropomorphic characteristics in the acceptance of artificial intelligence in the service industry. Computers in Human Behavior 122. DOI: 10.1016/j. chb.2021.106855

Schmetkamp S. (2020) Understanding A.I. — Can and Should we Empathize with Robots? Review of Philosophy and Psychology 11: 881—897. DOI 10.1007/s13164-020-00473-x.

Ushkin S., Koval' E., Yas'kin A. (2022) Zhit' s Alisoy: kak golosovye pomoshchniki transformiruyut praktiki kommunikatsii? [Living with Alice: how are voice assistants transforming communication practices?]. Zhurnal issledovaniy sotsial'noypolitiki 20 (3): 361—376. (In Russian)

Yakimova O. (2023) Zhizn' s II: ot vzaimodeystviya k vzaimozavisimosti [Life with AI: from interaction to interdependence]. Sotsiodigger 4 (5—6). Available at: https://sociodigger.ru/articles/articles-page/zhizn-s-ii-ot-vzaimodeistvija-k-vzaimozavisimosti (accessed: 11.07.2025). (In Russian)

Zlotowski J., Proudfoot D., Yogeeswaran K., Bartneck C. (2014) Anthropomorphism: Opportunities and Challenges in Human—Robot Interaction. International Journal of Social Robotics 7: 347—360. DOI: 10.1007/ s12369-014-0267-6

Поступила в редакцию 15.05.2024

i Надоели баннеры? Вы всегда можете отключить рекламу.