Научная статья на тему 'Социальные представления об искусственном интеллекте: полезный, эмоциональный и смешной'

Социальные представления об искусственном интеллекте: полезный, эмоциональный и смешной Текст научной статьи по специальности «Психологические науки»

CC BY-NC-ND
110
28
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
теория социальных представлений / искусственный интеллект / голосовой помощник / семантический дифференциал / theory of social representations / artificial intelligence / voice assistant / semantic differential

Аннотация научной статьи по психологическим наукам, автор научной работы — Екатерина Д. Садовская, Федор Н. Винокуров

В 2023 г. технологии на основе искусственного интеллекта (ИИ) стали доступны многим пользователям смартфонов и цифровых услуг. ИИ представлен в виде голосовых помощников (ГП), музыкальных рекомендаций, виртуальных ассистентов и даже в качестве психотерапевтической помощи. Такое распространение ИИ сказалось и на интересе психологов к теме взаимодействия человек–ИИ. В нашей работе, следуя традиции исследования социальных представлений Московиси [Moscovici 2015], мы рассматриваем ИИ как объект социального представления. На примере ГП мы проводим реконструкцию смыслового поля у пользователей данной технологии и предлагаем описание процесса его формирования. Исследование проходило в три этапа: свободные ассоциации, интервью и опрос. В интервью выборка составила 15 человек, в свободных ассоциациях – 168 человек (было проанализировано 3329 ассоциаций со словосочетанием «Голосовой помощник»), в опросе по методу семантического дифференциала – 800 человек. В результате анализа были получены следующие результаты: 1. Смысловое поле на данном этапе изучения представления о ГП позитивно-нейтральное; сами ассоциации делятся на две темы: об интеллектуальных способностях и эмоциональных качествах ГП. 2. В ходе анализа методом семантического дифференциала отдельно выделились три фактора: полезность, эмоциональность и юмор. Мы предполагаем, что именно в категории этих трех факторов происходит формирование представления о конкретном ГП. 3. Описание самого процесса формирования представления предлагается по результатам интервью. Были выделены два основных этапа в «общении» с ГП: формирование образа и взаимодействие с готовым образом. В продолжении текущей исследовательской работы планируется изучение влияния образа ГП в рамках текущей модели восприятия на различные особенности взаимодействия с ним (например, в рамках экономических решений).

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по психологическим наукам , автор научной работы — Екатерина Д. Садовская, Федор Н. Винокуров

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Social representations of AI. Useful, emotional, and funny

In 2023, technologies based on Artificial Intelligence (AI) became available to many users of smartphones and digital services all over the world. AI is accessible in the form of Voice Assistants (VAs), music recommendations, Virtual Assistants, and even psychotherapy-bots. Such spread of AI also influenced the interest of psychologists in the topic of human-AI Interaction (HAII). In our work, following the tradition of social representation research by Moscovici [Moscovici 2015], we consider AI as an object of social representation. Using the VA as a form of AI, we reconstruct the semantic field of VA in a group of its users and offer a description of the process of its formation. The study took place in three stages: free associations, interviews, and survey. In the interview, the sample consisted of 15 people, in free associations – 168 people (3,329 associations with the phrase “Voice assistant” were analyzed), in the survey using the semantic differential method – 800 people. As a result of the thematic and frequency analysis, the following results were obtained: • The semantic field at the present stage of the study of VA is positiveneutral; the associations are divided into two topics: about the intellectual abilities and emotional qualities of the VA. • With semantic differential analysis, three factors were separately obtained: usefulness, emotionality, and humor. It is assumed that it is in the category of those three factors that the perception of a particular VA is formed. • The process of forming social representations is outlined with the help of interviews. Two main stages in “communication” with the VA were identified: the image formation and interaction with the finished image. As future research it was proposed to continue studying the impact of the image of the VA within the current perception model on various features of interaction with it (e.g. within the framework of economic decisions).

Текст научной работы на тему «Социальные представления об искусственном интеллекте: полезный, эмоциональный и смешной»

Эмпирические исследования

УДК 004.8:316.75

Б01: 10.28995/2073-6398-2024-1-35-53

Социальные представления об искусственном интеллекте: полезный, эмоциональный и смешной

Екатерина Д. Садовская

Московский государственный университет имени М.В. Ломоносова, Москва, Россия, [email protected]

Федор Н. Винокуров

Московский государственный университет имени М.В. Ломоносова, Москва, Россия, [email protected]

Аннотация. В 2023 г. технологии на основе искусственного интеллекта (ИИ) стали доступны многим пользователям смартфонов и цифровых услуг. ИИ представлен в виде голосовых помощников (ГП), музыкальных рекомендаций, виртуальных ассистентов и даже в качестве психотерапевтической помощи.

Такое распространение ИИ сказалось и на интересе психологов к теме взаимодействия человек-ИИ. В нашей работе, следуя традиции исследования социальных представлений Московиси [М^соуш 2015], мы рассматриваем ИИ как объект социального представления. На примере ГП мы проводим реконструкцию смыслового поля у пользователей данной технологии и предлагаем описание процесса его формирования. Исследование проходило в три этапа: свободные ассоциации, интервью и опрос.

В интервью выборка составила 15 человек, в свободных ассоциациях - 168 человек (было проанализировано 3329 ассоциаций со словосочетанием «Голосовой помощник»), в опросе по методу семантического дифференциала - 800 человек. В результате анализа были получены следующие результаты:

1. Смысловое поле на данном этапе изучения представления о ГП позитивно-нейтральное; сами ассоциации делятся на две темы: об интеллектуальных способностях и эмоциональных качествах ГП.

2. В ходе анализа методом семантического дифференциала отдельно выделились три фактора: полезность, эмоциональность и юмор. Мы

© Садовская Е.Д., Винокуров Ф.Н., 2024 ISSN 2073-6398 • Серия «Психология. Педагогика. Образование». 2024. № 1

предполагаем, что именно в категории этих трех факторов происходит формирование представления о конкретном ГП.

3. Описание самого процесса формирования представления предлагается по результатам интервью. Были выделены два основных этапа в «общении» с ГП: формирование образа и взаимодействие с готовым образом.

В продолжении текущей исследовательской работы планируется изучение влияния образа ГП в рамках текущей модели восприятия на различные особенности взаимодействия с ним (например, в рамках экономических решений).

Ключевые слова: теория социальных представлений, искусственный интеллект, голосовой помощник, семантический дифференциал

Для цитирования: Садовская Е.Д., Винокуров Ф.Н. Социальные представления об искусственном интеллекте: полезный, эмоциональный и смешной // Вестник РГГУ. Серия «Психология. Педагогика. Образование». 2024. № 1. С. 35-53. БОТ: 10.28995/2073-6398-2024-1-35-53

Social representations of AI. Useful, emotional, and funny

Ekaterina D. Sadovskaia Lomonosov Moscow State University, Moscow, Russia, [email protected]

Fedor N. Vinokurov

Lomonosov Moscow State University, Moscow, Russia, [email protected]

Abstract. In 2023, technologies based on Artificial Intelligence (AI) became available to many users of smartphones and digital services all over the world. AI is accessible in the form of Voice Assistants (VAs), music recommendations, Virtual Assistants, and even psychotherapy-bots.

Such spread of AI also influenced the interest of psychologists in the topic of human-AI Interaction (HAII). In our work, following the tradition of social representation research by Moscovici [Moscovici 2015], we consider AI as an object of social representation. Using the VA as a form of AI, we reconstruct the semantic field of VA in a group of its users and offer a description of the process of its formation. The study took place in three stages: free associations, interviews, and survey.

In the interview, the sample consisted of 15 people, in free associations -168 people (3,329 associations with the phrase "Voice assistant" were analyzed),

in the survey using the semantic differential method - 800 people. As a result of the thematic and frequency analysis, the following results were obtained:

• The semantic field at the present stage of the study of VA is positiveneutral; the associations are divided into two topics: about the intellectual abilities and emotional qualities of the VA.

• With semantic differential analysis, three factors were separately obtained: usefulness, emotionality, and humor. It is assumed that it is in the category of those three factors that the perception of a particular VA is formed.

• The process of forming social representations is outlined with the help of interviews. Two main stages in "communication" with the VA were identified: the image formation and interaction with the finished image.

As future research it was proposed to continue studying the impact of the image of the VA within the current perception model on various features of interaction with it (e.g. within the framework of economic decisions).

Keywords: theory of social representations, artificial intelligence, voice assistant, semantic differential

For citation: Sadovskaya, E.D. and Vinokurov, F.N. (2024), "Social representations of AI. Useful, emotional, and funny", RSUH/RGGU Bulletin. "Psychology. Pedagogics. Education" Series, no. 1, pp. 35-53, DOI: 10.28995/2073-6398-2024-1-35-53

Введение

Для современного человека ИИ перестает быть технологией будущего и становится неотъемлемой частью повседневной жизни: предсказание времени в пробках, подбор музыки по настроению или получение рекомендаций по написанию текста статьи - уже реальность. Помимо бытовых задач, ИИ привлекается для решения задач в области медицины, экономического планирования и беспилотного транспорта. Плотный контакт человека с технологией ИИ в области решения профессиональных задач спровоцировал активное развитие такого научного направления, как Human-AI Interaction (HAII) [Barredo Arrieta et al. 2020]. HAII во многом продолжает традиции Human-Computer Interaction (HCI), изучая особенности работы человека с различным автоматизированными или интеллектуальными системами. Основной задачей этих направлений сейчас является создание человекоцентричных интеллектуальных систем, и одним из основных принципов становится «объясняемость ИИ» - explainable AI (XAI) [Adadi, Berrada 2018; Wang et al. 2019].

Данный принцип возникает как ответ на один из наиболее высоких рисков использования ИИ - непонятность принципов ра-

боты системы. Реакция пользователя на непонимание может быть разной: агрессия, отказ от использования или же достраивание собственного образа происходящего - атрибуция. То, как пользователь понимает для себя те или иные решения, предложенные ИИ, может оказывать большое влияние на результат совместной деятельности. Как показывают исследования, во многих задачах совместная работа с ИИ становится значительно продуктивнее, если пользователь системы ощущает экспертность в своей части задачи и может доверить ИИ знание о другой части. То есть когда задачи человека и ИИ оказываются комплементарны друг другу, а не идентичны [Hemmer et al. 2022; Zhang, Lee, Carter 2022]. Тогда возникает вопрос: что именно в человеческом восприятии ИИ оказывает влияние на подобную закономерность?

Прежде чем попытаться ответить на этот вопрос, обратимся к определению ИИ, которое позволит нам не упустить из виду отличительные черты именно этой технологии.

В определениях ИИ, как правило, акцент ставится на возможностях его работы с таким типом задач, решение которых ранее считалось возможным только с участием человека.

Например, Толковый словарь по Искусственному Интеллекту дает два определения ИИ:

Научное направление, в рамках которого ставятся и решаются задачи аппаратного или программного моделирования тех видов человеческой деятельности, которые традиционно считаются интеллектуальными;

Свойство интеллектуальных систем выполнять функции (творческие), которые традиционно считаются прерогативой человека [Аверкин и др. 1992, с. 256].

«Очеловечивание» происходит не только в определениях, но и в целой научно-философской дискуссии о возможности «сильного» ИИ. Наиболее ярким примером рассуждений на эту тему является мысленный эксперимент «Китайская комната», предложенный Джоном Серлом в 1980 г. [Searle 1982]. Современные исследования, связанные с бумом Больших Языковых Моделей (LLM), вновь ставят перед психологическим сообществом вопрос: «что такое сознание?» и «как мы можем провести границу его наличия или отсутствия у ИИ?». Например, одно из подобных исследований показывает, что LLM образуют те же пространственно-временные карты, близкие сознанию человека [Gurnee, Tegmark 2023] или чат, основанный на технологии ИИ, способен соответствовать по уровню рекомендаций коучу или психотерапевту [Blyler, Seligman

2023]. Все эти попытки сравнения говорят о возможности восприятия искусственного интеллекта как естественного интеллекта.

Безусловно, сам механизм технологии ИИ предполагает в своей основе данные, либо созданные человеком, либо структурированные им (как, например, LLM). Поэтому удивления такие параллели не вызывают, но требуют изучения, и наше исследование стремится раскрыть чуть больше механизм этих представлений о технологиях на основе ИИ.

Вернемся к вопросу о том, что именно в восприятии человека может влиять на готовность взаимодействовать с технологией на основе ИИ в целях решения какой-либо задачи. Восприятие роботов и технологий в виде антропоморфных существ не является новым эффектом, но что если воспринимаемая антропоморфность может быть дифференцирована и оказывать влияние на процесс взаимодействия с технологией?

Цель исследования

В нашем исследовании мы предлагаем проанализировать состав антропоморфного восприятия технологии на основе ИИ у пользователей данной технологии, попробовать зафиксировать, какими человекоподобными чертами пользователи могут наделять технологию и как происходит процесс формулирования этих черт.

Одним из направлений поисков становится исследование доверия к автоматизированным системам. Доверие как понятие, изначально возникающее в поле взаимодействия людей, становится предметом изучения в контексте отношений человек-автоматизи-рованная система. Сама тема исследования доверия к системе не нова, в 2012 г. Купрейченко предлагает шкалы и показатели для замера уровня доверия технике и социотехническим системам [Купрейченко 2012]: надежность, единство, предсказуемость, приязнь, расчет на определенный результат работы и опасность. Если обратиться к зарубежным работам, то предложенные шкалы по содержанию оказываются очень близки. Например, одна из наиболее популярных методик разработана Cahour-Forzy и точно так же содержит в себе вопросы о воспринимаемой предсказуемости, надежности и эффективности (по аналогии с расчетом на результат). Другие предложенные методики для замера уровня доверия технике также содержат близкие по значениям шкалы [Miller 2022].

Другим, более общим вектором исследований восприятия технологий становятся работы, посвященные отношению к ним. В этом вопросе активные разработки проводятся Т.А. Нестиком,

предлагаются социально-психологические предикторы технофобии и технофилии. Что любопытно, эти два термина предлагается рассматривать не как противоположные полюсы одной шкалы, а как разные шкалы. Концепция Доверия Купрейченко предлагает таким же образом рассматривать и феномен Доверия-Не Доверия [Нестик 2020].

Вывод

Рассматривая подходы к исследованию доверия или отношения к технологиям, можно заметить, что по сути своей они обобщают комплекс ощущений, чувств, восприятия, возникающего в отклике на некий технологический объект. Исходя из предпосылки об антропоморфном восприятии технологий на основе ИИ, мы хотели бы в своем исследовании предпринять попытку проанализировать воспринимаемые антропоморфные черты технологии на основе ИИ, влияющие на уровень доверия ей. И первым этапом в рамках данной статьи описать структуру антропоморфного представления о такой технологии у пользователей технологии.

Выбор объекта исследования и методики исследования

Объект

Технология ИИ используется во множестве форм: от рекомендаций в навигаторе до медицинского ПО для поиска раковых опухолей на снимках. Для выбора конкретной формы мы руководствовались двумя принципами.

Форма технологии должна быть достаточно распространенной и легкодоступной обычному пользователю. Этот критерий позволит собрать больше данных о ее восприятии.

Технология должна позволять решать множество разнообразных задач. Данный критерий позволит в дальнейшем исследовать эффект восприятия в разных сценариях взаимодействия.

Обоим критериям хорошо соответствует форма Голосового помощника (ГП), также иногда называется Виртуальным ассистентом (ВА) или Голосовым ассистентом (ГА) в зависимости от формы взаимодействия.

Таким образом, объектом нашего эмпирического исследования становится восприятие образа ГП пользователями Голосового помощника.

Метод

Для изучения воспринимаемого образа ГП пользователями данной технологии мы обратились к Теории Социальных представлений Московиси [Mosco vici 2015]. Данная теория является одной из самых разработанных и активно используемых в области социального познания. Поскольку мы заинтересованы в том, чтобы отразить в нашем исследовании «слепок восприятия» объекта определенной социальной группой, то социальные представления подходят здесь как нельзя лучше.

Практически все современные школы социальных представлений (Женевская, Парижская, Экс-ан-Прованс) подразумевают на первом этапе изучения реконструкцию общего смыслового поля представления [Бовина 2011]. На этом этапе изучения важно попытаться отразить все многообразие возможных представлений. Чтобы достичь этой цели, мы выбрали методы интервью и свободных ассоциаций. Также с помощью интервью мы попытаемся проследить механизмы во взаимодействии с технологией, которые описывают процесс формирования представления.

На третьем этапе, исходя из полученных данных, мы приступили к формированию семантического поля понятия Голосовой помощник. Семантический дифференциал - один из популярных методов исследования в области социальных представлений, который позволяет выйти за пределы отдельных ассоциаций и сформировать объединяющие факторы восприятия исследуемого понятия1.

Выборка

1. В сборе свободных ассоциаций приняли участие 168 человек.

Возраст - от 18 до 55 лет, соотношение мужчин и женщин 50/50.

Участники исследования являлись русскоговорящими жителями России, Беларуси, Украины и Казахстана. Для сбора свободных ассоциаций использовался сервис Яндекс.Толока, где пользователям за вознаграждение предлагалось написать по 20 ассоциаций к словосочетанию «Голосовой помощник». Целью данного этапа было собрать общее поле социальных представлений о ГП и тем самым подготовить материал для дальнейшей разработки частных шкал семантического дифференциала.

2. В интервью приняли участие 15 респондентов.

1 Фоломеева Т.В. Социальная психология: Практикум: Учеб. пособие для студентов вузов. М.: Аспект Пресс, 2009.

Три диады родитель-ребенок: 3 ребенка (2 девочки и 1 мальчик, возраст от 5 до 10 лет) и 3 родителя (женщины в возрасте от 30 до 45 лет). Все семьи, которые участвовали в исследовании, являлись пользователями хотя бы одного ГП; 6 женщин (возраст от 22 до 43 лет): 2 из них никогда не использовали ГП, остальные имели опыт использования; 3 мужчины (возраст от 30 до 35 лет): 1 из них никогда не использовал ГП, остальные имели опыт использования.

Диадический формат интервью с детьми был обусловлен двумя причинами: необходимостью учесть в интервью как индивидуальный опыт ребенка при взаимодействии с ГП, так и совместный опыт с родителем; комфорт ребенка на интервью. Участвовали жители крупных городов РФ: Москва, Санкт-Петербург. Основной целью на данном этапе было собрать данные о механизмах взаимодействия с ГП, сценариях использования и попытаться установить связь опыта взаимодействия с восприятием тех или иных антропоморфных черт.

3. В опросе приняли участие 800 человек.

Возраст участников - от 18 до 50 лет. Все участники являлись пользователями ГП (на смартфоне или через специальную умную колонку). Среди участников были пользователи Алисы (Яндекс), Маруси (ВК, Mail.ru), Салюта (Sber), Siri (Apple), Google ассистента (Google) и Олега (Tinkoff). Все участники оценивали по шкалам только тех помощников, с которыми имели опыт взаимодействия. Принимавшие участие в исследовании жители РФ без ограничения по размеру городов, получали вознаграждение. На этапе опроса целью было структурирование представления о ГП с помощью метода семантического дифференциала.

Обработка результатов

Обработка результатов свободных ассоциаций была выполнена частотным, а затем - тематическим анализом. Для работы с результатами интервью также использовался тематический анализ. Для анализа данных семантического дифференциала использовался факторный анализ с помощью программы SPSS.

Результаты интервью

В интервью были отражены следующие темы:

1) основные причины использования голосового помощника;

2) сравнение представленных на рынке моделей (Салют, Алиса, Маруся и др.);

3) описание опыта взаимодействия с ГП;

4) сценарии использования ГП в различных контекстах;

5) реакции и эмоции респондентов при разных сценариях взаимодействия с ГП.

В интервью с респондентами, у которых пока не было опыта взаимодействия с ГП, обсуждались представления о ГП, предположения о его функционале и возможностях использования.

Также в ходе интервью респонденты демонстрировали свое поведение при взаимодействии с помощником: строили маршрут, общались с ним, узнавали погоду в городе (респондентам без опыта взаимодействия предлагалось воспользоваться ГП впервые).

Результаты свободных ассоциаций

Всего было получено 3329 слов-ассоциаций, из них неповторяющихся - 1022. Все анкеты респондентов прошли проверку на повтор слов и наличие выдуманных слов (например, если респондент использовал буквы или слоги для формального заполнения поля).

Участников исследования просили написать 20 слов-прилагательных, которые им приходят в голову на словосочетание «Голосовой помощник».

Среди слов, попавших в топ-20, по частотности отсутствуют негативно окрашенные определения. Среди слов с меньшей частотностью встречаются слова: назойливый (4), резкий (3), раздражающий (4), надоедливый (4) и др., но по большей части слова в общем списке окрашены позитивно или нейтрально.

Два наиболее частотных слова-определения - умный и быстрый. Они идут с большим отрывом от следующих по рейтингу слов.

Таблица 1

Слова-ассоциации на словосочетание «Голосовой помощник» (топ-20).

Всего было собрано 3329 слов, из них неповторяющихся - 1022

№ п/п Слово Количество упоминаний

1 Умный 118

2 Быстрый 104

3 Интересный 49

4 Полезный 46

5 Помогающий 44

6 Хороший 41

7 Добрый 40

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

44 Е.Д. Садовская, Ф.Н. Винокуров Окончание табл. 1

№ п/п Слово Количество упоминаний

8 Удобный 40

9 Приятный 37

10 Веселый 35

11 Нужный 34

12 Всезнающий 33

13 Понимающий 30

14 Классный 30

15 Современный 28

16 Знающий 27

17 Общительный 27

18 Вежливый 27

19 Смешной 24

20 Внимательный 24

Результаты семантического дифференциала Для создания шкал были взяты наиболее частотные определения, среди них были отобраны определения, связанные больше с персональными характеристиками, нежели техническими (например, мы отказались от определения «быстрый»). Далее ко всем определениям были подобраны антонимы с помощью словаря антонимов.

Для оценки использовались следующие шкалы, представленные в табл. 2.

Таблица 2

Шкалы семантического дифференциала, используемые для оценки респондентами

№ п/п Определение Антоним

1 Всезнающий Ограниченный

2 Умный Глупый

3 Внимательный Рассеянный

4 Удобный Неудобный

Окончание табл. 2

№ п/п Определение Антоним

5 Помогающий Мешающий

6 Интересный Скучный

7 Понимающий Безразличный

8 Нужный Бесполезный

9 Полезный Вредный

10 Веселый Грустный

11 Общительный Замкнутый

12 Добрый Злой

13 Вежливый Грубый

14 Смешной Серьезный

В результате анализа данных с помощью факторного анализа были выявлены три фактора (см. табл. 3).

1. Полезный.

2. Эмоциональный.

3. Смешной.

Таблица 3

Факторные нагрузки для шкал-определений и процент объясняемой дисперсии для трех факторов: Полезный, Эмоциональный, Смешной (К = 800)

Полезный, знающий Эмоциональный, человечный Смешной

Процент объясняемой дисперсии 35,98 25,125 7,255

Всезнающий 0,826 0,160 0,058

Умный 0,734 0,371 -0,039

Внимательный 0,704 0,382 0,010

Удобный 0,684 0,445 -0,012

Помогающий 0,679 0,379 0,034

Интересный 0,656 0,472 0,066

Понимающий 0,646 0,453 0,012

Нужный 0,641 0,452 0,004

Е.Д. Садовская, Ф.Н. Винокуров Окончание табл. 3

Полезный, знающий Эмоциональный, человечный Смешной

Полезный 0,626 0,461 -0,037

Веселый 0,276 0,811 0,129

Общительный 0,394 0,741 0,017

Добрый 0,535 0,645 0,017

Вежливый 0,472 0,628 -0,034

Смешной 0,012 0,059 0,993

Список характеристик с распределением по трем факторам, полужирным отмечены показатели характеристик, вошедших в соответствующий фактор

Обсуждение результатов

На этапе свободных ассоциаций нам важно было собрать общее поле представлений о ГП, из чего оно строится в целом.

Темы свободных ассоциаций: интеллект и эмоции

Среди слов-ассоциаций выделяются две основные тематические группы:

- умственные характеристики: «умный», «всезнающий», «знающий»;

- характеристики ГП, проявляющиеся в «межличностном общении»: интересный, хороший, добрый, приятный, веселый, понимающий, внимательный, общительный.

Негативно окрашенные определения встречались у респондентов крайне редко. Такой феномен может говорить о нереалистично оптимистичных представлениях потребителя цифровых услуг. Такое нереалистичное восприятие созвучно понятию "AI winter", когда ожидания бизнеса намного более оптимистичные, чем реальные возможности технологии на данном этапе развития, что приводит в дальнейшем к разочарованию в технологии [Toosi et al. 2021].

Таким образом, мы описываем поле представления как позитивно-окрашенные характеристики, разделенные на эмоциональные компоненты образа и интеллектуальные.

Уже далее, в интервью нами была предпринята попытка отразить путь формирования этого образа ГП в процессе взаимодействия с ним.

Построение образа ГП

В ходе интервью все респонденты приглашались к рассуждению о том, как они воспринимают своих ГП, как взаимодействуют с ними. В ходе этих бесед удалось выявить два этапа во взаимодействии с ГП: Формирование образа. Первый этап взаимодействия с технологией включает «проверку» ее способностей и «прощупывание» типичных реакций. Респонденты предлагают целый спектр таких проверок: от нескольких итераций формулировок до «провокации» со стороны детей, чтобы проверить реакции Алисы:

Думаешь, на какой вопрос как она может ответить. Иногда на самый глупый вопрос. Муж специально задает вопрос, на который она не может ответить, а она всегда выкручивается. У нее очень большой словарный запас, фразы не повторяются. Прикольно (респондент 1, женщина 25лет).

Я делаю вывод, что я неправильно задала вопрос. Либо он глупый или действительно на него сложно ответить. Я бы попыталась перестроить и, если результат такой же, я бы сама залезла в интернет и сама бы посмотрела, что мне нужно (респондент 1, женщина 25 лет, продолжение).

Если дети с ней начинают разговаривать, пытаются ее на какие-то глупости навести, она внизу пишет плохое слово, давайте перейдем к другой теме. Она уводит от этой глупости на другой вопрос. Я слышала, они пытались ей какие-то глупости задавать, она сразу: «Давайте другой вопрос». Это мне нравится, такой безопасный режим есть в ней, что не дает возможности какие-то глупости говорить (респондент 2, женщина 41 год с ребенком 10 лет).

Отлавливая такие реакции, респонденты могли лучше сориентироваться - какой он, персонаж ГП, строгий, как учительница или шутливый, как одноклассники. Такое понимание уже позволяло вступать в контакт более уверенно, предполагая возможные реакции ГП.

Взаимодействие с «готовым» образом. На втором этапе происходит закрепление образа. Когда респонденты прошли процесс адаптации, они могут представлять себе одушевленного антропоморфного персонажа:

...какого человека я представляю... Молодая девушка, лет 30 с копейками, милая, отзывчивая, приветливая, дружелюбная. Положительный образ (респондент 1, женщина 25лет, продолжение).

Я всегда, когда захожу, представляю себе, что это даже живой человек... Я представляю ее взрослой женщиной. А ассоциации со взрослым человеком, уже каким-то более опытным, более зрелым, всезнающим, как ходячей энциклопедией. И если по цвету, там горит вот этот кружок фиолетовый и белый треугольник. Мне она представляется в сиреневом или фиолетовом платье, халате. Сразу такая картинка (респондент 4, женщина 30 лет с ребенком 5 лет).

И когда я говорю, а она отвечает, он всегда поворачивается на ее ответ - там же кто-то есть, он что-то отвечает, он же что-то говорит? Микроволновка, холодильник ничего не отвечают. Иногда кажется, что в этой коробке живет какой-то маленький человечек. Она же там (респондент 7, женщина).

Причем, если на первом этапе знакомства взаимодействие ощущается как более скованное: требует либо нападения (как в случае детей, накидывающих вопросы), либо осторожности (как в случае подбора правильной формулировки), впоследствии -более расслабленное, свободное, подобных ограничений в речи респонденты уже не упоминают.

То, что мы наблюдаем в процессе интервью, похоже на описание процесса формирования представления. Поскольку представления сами собой выполняют функцию снижения неопределенности и тревоги относительно неизвестного объекта, то переход к более свободному общению с ГП можно рассматривать как пример действия сформированного представления [Wagner 1993].

Следующим шагом с помощью результатов опроса мы пытаемся воссоздать семантическое пространство процесса восприятия образа ГП: в каких категориях происходит формирование этого представления.

Трехмерное пространство характеристик образа ГП: полезность, эмоции и юмор.

С помощью данных опроса, обработанных по методу семантического дифференциала, были сформированы три фактора:

1. Полезность, интеллектуальность:

Всезнающий Интересный

Умный Понимающий

Внимательный Нужный

Удобный Полезный

Помогающий

2. Эмоциональность, человечность:

Веселый Добрый

Общительный Вежливый

3. Способность к юмору: Смешной

Все оцененные ГП были распределены по семантическому пространству (см. рис.).

Рис. Распределение ГП по семантическому пространству на основе оценки семантического дифференциала (N = 800)

Отдельным фактором выступили утилитарные качества ГП: его способность выполнять задачи качественно и полезно для пользователя. В этом же факторе разместились интеллектуальные характеристики ГП.

На этом фоне произошло отделение фактора «эмоциональности». Мы можем видеть в примере распределения реальных ГП, что разброс значений по этому фактору больше, чем в других. На рынке представлены как ГП, создающие ощущение человечности, так и более «роботизированные» аналогии.

Важным представляется отделение фактора «юмора» от «эмоциональности». Возможно, умение «смешить» или «подшучивать» не всегда связано с воспринимаемой «эмоциональностью» ГП, как и его «способностями».

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Выводы

Целью данного исследования было отразить дискуссию о технологии на основе ИИ у группы пользователей данной технологии. В нашей работе технология на основе ИИ представлена в виде ГП

как одной из самых доступных вариаций технологии на основе ИИ. По результатам трех исследований мы предлагаем общие выводы.

1. Основное смысловое поле на данном этапе изучения представляется оптимистичным и позитивно-нейтральным. Мы предполагаем, что это может быть связано с нереалистично оптимистичными представлениями о ГП, его знаниях и личностных характеристиках.

2. Позитивно-нейтрально окрашенные ассоциации с ГП можно разделить на две основные темы: об интеллектуальных способностях ГП и его возможности к проявлению эмоций. Подобное разделение поддерживается и результатами семантического дифференциала, где основными факторами стали: полезность (включающая в себя интеллектуальные способности), эмоциональность и юмор.

3. Процесс формирования представления о ГП был отражен в ходе интервью. Пользователи ГП описывали начало взаимодействия как требующее некоторой осторожности в формулировках, а последующее «общение» - как более свободное. Таким образом, мы предполагаем наличие двух этапов во взаимодействии с ГП:

а) формирование образа. Предварительный этап важен для снятия неопределенности при взаимодействии, проверки, как реагирует ГП в различных ситуациях;

б) взаимодействие с готовым образом ГП. На данном этапе респонденты рассказывают о конкретном антропоморфном образе, который они представляют «за» голосом ГП. На этом уровне общение становится более свободным и раскрепощенным.

Безусловно, социальные представления формируются не только через непосредственное взаимодействие с объектом представления, но и в процессе коммуникации в широком смысле этого слова. В данном исследовании мы ограничиваемся знанием лишь о процессе непосредственного взаимодействия.

Заключение

Исследование социальных представлений об ИИ является актуальным направлением для современной социальной психологии. Популяризация технологии и развитие сообщества специалистов в этой области являются приоритетными задачами на уровне федерального проекта «Искусственный интеллект».

Следующими этапами нашего исследования мы видим изучение наличия и направленности влияния воспринимаемой «персоны» ГП на индивидуальное поведение пользователей при взаимодей-

ствии с ним (например, влияние на готовность доверять финансовые решения, управление умным домом и др.). Важным останется готовность продолжать исследования социальных представлений о других формах ИИ и у других групп, например не-пользователей технологии.

Полученные результаты могут быть использованы для составления программ повышения цифровой грамотности населения, а также для популяризации направления профессионального развития, связанного с ИИ.

Литература

Аверкин и др. 1992 - Аверкин А.Н., Гаазе-Рапопорт М.Г., Поспелов Д.А. Толковый словарь по искусственному интеллекту. М.: Радио и связь, 1992. С. 256.

Бовина 2011 - Бовина И.Б. Стратегии исследования социальных представлений // Социологический журнал. 2011. № 3. С. 5-23.

Купрейченко 2012 - Купрейченко А.Б. Доверие и недоверие технике и социотехни-ческим системам: обоснование методического подхода // Актуальные проблемы психологии труда, инженерной психологии и эргономики. 2012. № 4. Т. 4. С. 331-350.

Нестик 2020 - Нестик Т.А. Отношение к новым технологиям и ценностные ориентации россиян // Институт психологии Российской академии наук. Организационная психология и психология труда. 2020. Т. 5. № 4. С. 54-82.

Adadi, Berrada 2018 - Adadi A., Berrada M. Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI) // IEEE Access. 2018. Vol. 6. Peeking Inside the Black-Box. P. 52138-52160.

Barredo Arrieta et al. 2020 - Barredo Arrieta A., Diaz-Rodriguez N., Del SerJ., Bennetot A., Tabik S., Barbado A., Garcia S., Gil-Lopez S., Molina D., Benjamins R., Chatila R., Herrera F. Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities, and challenges toward responsible AI // Information Fusion. 2020. Vol. 58. P. 82-115.

Blyler, Seligman 2023 - Blyler A.P., Seligman M.E.P. AI assistance for coaches and therapists // The Journal of Positive Psychology. 2023. P. 1-13.

Gurnee, Tegmark 2023 - Gurnee W., Tegmark M. Language Models Represent Space and Time // arXiv preprint arXiv:2310.02207. 2023.

Hemmer et al. 2022 - Hemmer P., Schemmer M., Riefle L., Rosellen N., Vössing M., Kühl N. Factors that influence the adoption of human-AI collaboration in clinical decisionmaking // arXiv preprint arXiv:2204.09082. 2022.

Miller 2022 - Miller T. Are we measuring trust correctly in explainability, interpret-ability, and transparency research? // arXiv preprint arXiv:2209.00651. 2022.

Moscovici 2015 - Moscovici S. La psychanalyse, son image et son public. Presses Universitaires de France, Paris. 2015.

Searl 1982 - Searle J.R. The Chinese room revisited // Behavioral and Brain Sciences.

1982. Vol. 5. No. 2. P. 345-348. Toosi et al. 2021 - Toosi A., Bottino A.G., Saboury B., SiegelE, Rahmim A. A brief history of AI: how to prevent another winter (a critical review) // PET clinics. 2021. Vol. 4. No 16. P. 449-469.

Wagner 1993 - Wagner W. Can representations explain social behaviour? A discussion of social representations as rational systems // Papers on social representations. 1993. Vol. 2. P. 236-249. Wang et al. 2019 - Wang D., Yang Q, Abdul A, Lim B.Y. Designing Theory-Driven User-Centric Explainable AI // Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. Glasgow Scotland UK: ACM. 2019. P. 1-15. Zhang, Lee, Cartner 2022 - Zhang Q, Lee ML, Carter S. You Complete Me: Human-AI Teams and Complementary Expertise // CHI '22: Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems. April 2022. Article No. 114. P. 1-28. URL: https://doi.org/10.1145/3491102.3517791 (дата обращения 30 ноября 2023).

References

Adadi, A. and Berrada, M. (2018), "Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)", IEEE Access, Vol. 6. Peeking Inside the Black-Box., pp. 52138-52160.

Averkin, A.N., Gaaze-Rapoport, M.G. and Pospelov, D.A. (1992), Tolkovyi slovar' po iskusstvennomu intellektu [Explanatory dictionary of artificial intelligence], Radio i svyaz', Moscow, Russia.

Barredo Arrieta, A., Diaz-Rodriguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., Garcia, S., Gil-Lopez, S., Molina, D., Benjamins, R., Chatila, R. and Herrera, F. (2020), "Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities, and challenges toward responsible AI", Information Fusion, vol. 58. Explainable Artificial Intelligence (XAI), pp. 82-115.

Blyler, A.P. and Seligman, M.E.P. (2023), "AI assistance for coaches and therapists", The Journal of Positive Psychology, pp. 1-13.

Bovina, I.B. (2011), "Strategies for the study of social representations", Sociologicheskij zhurnal, no. 3, pp. 5-23.

Gurnee, W. and Tegmark, M. (2023), "Language Models Represent Space and Time", arXiv preprint arXiv: 2310.02207.

Hemmer, P., Schemmer, M., Riefle, L., Rosellen, N., Vössing, M. and Kühl, N. (2022), "Factors that influence the adoption of human-AI collaboration in clinical decisionmaking", arXiv preprint arXiv: 2204.09082.

Kuprejchenko, A.B. (2012), "Trust and distrust in technology and sociotechnical systems. Justification of the methodological approach", Aktual'nye problemy psihologii truda, inzhenernojpsihologii i ergonomiki, vol. 4, no. 4, pp. 331-350.

Nestik, T.A. (2020) "Attitude toward new technologies and individual values of Russians", Institutpsihologii Rossijskoi akademii nauk. Organizacionnayapsihologiya ipsihologiya truda, vol. 5, no. 4, pp. 54-82. Miller, T. (2022), "Are we measuring trust correctly in explainability, interpretability,

and transparency research?", arXiv preprint arXiv: 2209.00651. Moscovici, S. (2015), La psychanalyse, son image et son public, Presses universitaires de France, Paris, France.

Searle, J.R. (1982), "The Chinese room revisited", Behavioral and Brain Sciences, vol. 5, no. 2, pp. 345-348.

Toosi, A., Bottino, A.G., Saboury, B., Siegel, E. and Rahmim, A. (2021), "A brief history of AI: how to prevent another winter (a critical review)", PET clinics, vol. 4, no. 16, pp. 449-469.

Wagner, W. (1993), "Can representations explain social behaviour? A discussion of social representations as rational systems", Papers on social representations, vol. 2, pp. 236-249.

Wang, D., Yang, Q., Abdul, A. and Lim, B.Y. (2019), "Designing Theory-Driven User-Centric Explainable AI", Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, ACM, Glasgow, Scotland, UK, pp. 1-15. Zhang, Q., Lee, M.L. and Carter, S. (2022), "You Complete Me: Human-AI Teams and Complementary Expertise", April 2022. Article no. 114, pp. 1-28, available at: https://doi.org/10.1145/3491102.3517791 (Accessed 30 November 2023).

Информация об авторах

Екатерина Д. Садовская, Московский государственный университет имени М.В. Ломоносова, Москва, Россия; 119991, Россия, Москва, Ленинские горы, д. 1; [email protected]

Федор Н. Винокуров, кандидат психологических наук, старший научный сотрудник, Московский государственный университет имени М.В. Ломоносова, Москва, Россия; 119991, Россия, Москва, Ленинские горы, д. 1; [email protected]

Information about the authors

Ekaterina D. Sadovskaya, Lomonosov Moscow State University, Moscow, Russia; bld. 1, Leninskie Gory, Moscow, Russia, 119991; sadovskaiaed@ my.msu.ru

Fedor N. Vinokurov, Sc.D. (Psychology), Senior researcher, Lomonosov Moscow State University, Moscow, Russia; bld. 1, Leninskie Gory, Moscow, Russia, 119991; [email protected]

i Надоели баннеры? Вы всегда можете отключить рекламу.