Научная статья на тему 'РОЛЬ ЦИФРОВЫХ ТЕХНОЛОГИЙ В ЭКОНОМИЧЕСКИХ РЕШЕНИЯХ: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И СКЛОННОСТЬ К РИСКУ'

РОЛЬ ЦИФРОВЫХ ТЕХНОЛОГИЙ В ЭКОНОМИЧЕСКИХ РЕШЕНИЯХ: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И СКЛОННОСТЬ К РИСКУ Текст научной статьи по специальности «Психологические науки»

CC BY
145
45
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ЭКОНОМИЧЕСКИЕ РЕШЕНИЯ / ДОВЕРИЕ ТЕХНОЛОГИИ / ЭКОНОМИЧЕСКИЕ ПОВЕДЕНИЕ / ЭКСПЕРИМЕНТ / ВЗАИМОДЕЙСТВИЕ ЧЕЛОВЕКА И ИИ

Аннотация научной статьи по психологическим наукам, автор научной работы — Фоломеева Татьяна Владимировна, Садовская Екатерина Дмитриевна, Винокуров Федор Никитич, Федотова Светлана Владимировна

Искусственный интеллект активно внедряется в экономическую жизнь страны в контексте цифровой экономики. Особенности принятия экономических решений с опорой на программы, в основе которых лежит искусственный интеллект, становятся исключительно актуальным направлением исследований социальной психологии. исследования было выявление особенностей принятия экономических решений с опорой на рекомендации, полученные с использованием технологии искусственного интеллекта. Исследование проходило в два этапа: интервью и эксперимент. Выборка первого этапа составила 8 человек (4 мужчины и 4 женщины, возраст 18-45 лет). На втором этапе выборка составила 289 человек (48 мужчин и 241 женщина), возраст 18-25 лет. На первом этапе были сформулированы возможные факторы доверия и недоверия программам на основе искусственного интеллекта, в том числе в контексте экономических решений.На втором этапе был проведен эксперимент, где участникам предлагалось сыграть в симулятор фондовой биржи. В игре была опция обращения к экономическому советнику. У экспериментальной группы советником выступала программа на основе искусственного интеллекта, у контрольной - человек. Было проанализировано 5652 экономических решения участников с точки зрения степени риска этих решений. 1. Внесение рекомендации в процесс принятия экономического решения оказывает значимое влияние на готовность рисковать ресурсом. 2. В случае согласия с рекомендацией, если источником рекомендации выступала программа, основанная на технологии искусственного интеллекта, готовность рисковать была в среднем выше. 3. Подобный эффект может объясняться спецификой ситуации принятия экономического решения: задача является достаточно формальной, время на решение задачи ограничено и ситуация принятия решения сопровождается высокой долей неопределенности последствий этого решения.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE RO LE OF DIGITAL TECHNOLOGIES IN ECONOMIC DECISION MAKING: ARTIFICIAL INTELLIGENCE AND RISK TAKING

Background. Artificial Intelligence is being actively introduced into the economic life of the country in the context of the digital economy. Features of economic decisionmaking based on Artificial Intelligence are becoming an extremely relevant area of research in social psychology.Objective of the study was to identify the features of economic decision-making based on recommendations obtained using artificial intelligence.Methods. The study took place in two stages: an interview and an experiment.Sample. The sample of the first stage was 8 people (4 men and 4 women, age 18-45). At the second stage, the sample consisted of 289 people (48 men and 241 women), aged 18-25 years.Results. At the first stage, possible factors of trust and distrust in Artificial Intelligence-based programs were formulated, including the context of economic decisions.At the second stage, an experiment was conducted where participants were asked to play a stock exchange simulator. The game had the option of contacting an economic adviser. In the experimental group, the adviser was a program based on Artificial Intelligence, in the control group - a person. 5652 economic decisions of the participants were analyzed in terms of the degree of risk of these decisions.Conclusion1. Using a recommendation in the process of an economic decision making has a significant impact on the willingness to risk a resource. 2. In case of agreement with the recommendation, if the source of the recommendation was a program based on Artificial Intelligence technology, then the willingness to take risks was higher. 3. Such an effect can be explained by the specifics of the situation of an economic decision-making: the task is quite formal, the time to solve the problem is limited and the decision-making situation is accompanied by a high degree of uncertainty about the consequences of this decision.

Текст научной работы на тему «РОЛЬ ЦИФРОВЫХ ТЕХНОЛОГИЙ В ЭКОНОМИЧЕСКИХ РЕШЕНИЯХ: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И СКЛОННОСТЬ К РИСКУ»

УДК 159.9.072

ао1: 10.11621/4^.2022.03.04 Научная статья

РОЛЬ ЦИФРОВЫХ ТЕХНОЛОГИЙ В ЭКОНОМИЧЕСКИХ РЕШЕНИЯХ: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И СКЛОННОСТЬ К РИСКУ

Т.В. Фоломеева1, Е.Д. Садовская*2, Ф.Н. Винокуров3, С.В. Федотова4

1-4 Московский государственный университет имени М.В. Ломоносова, Москва, Россия

1 [email protected], https://orcid.org/0000-0002-9074-9327

2 [email protected], https://orcid.org/0000-0002-7530-0097

3 [email protected], https://orcid.org/0000-0001-8302-374X

4 [email protected], https://orcid.org/0000-0002-3324-8964

* Автор, ответственный за переписку: [email protected]

Актуальность. Искусственный интеллект активно внедряется в экономическую жизнь страны в контексте цифровой экономики. Особенности принятия экономических решений с опорой на программы, в основе которых лежит искусственный интеллект, становятся исключительно актуальным направлением исследований социальной психологии.

Целью исследования было выявление особенностей принятия экономических решений с опорой на рекомендации, полученные с использованием технологии искусственного интеллекта.

Методы. Исследование проходило в два этапа: интервью и эксперимент.

Выборка. Выборка первого этапа составила 8 человек (4 мужчины и 4 женщины, возраст 18-45 лет). На втором этапе выборка составила 289 человек (48 мужчин и 241 женщина), возраст 18-25 лет.

Результаты. На первом этапе были сформулированы возможные факторы доверия и недоверия программам на основе искусственного интеллекта, в том числе в контексте экономических решений.

На втором этапе был проведен эксперимент, где участникам предлагалось сыграть в симулятор фондовой биржи. В игре была опция обращения к экономическому советнику. У экспериментальной группы советником выступала программа на основе искусственного интеллекта, у контрольной — человек. Было проанализировано 5652 экономических решения участников с точки зрения степени риска этих решений.

© 2022 ФГБОУ ВО «Московский государственный университет имени М.В. Ломоносова» © 2022 Lomonosov Moscow State University

Выводы

1. Внесение рекомендации в процесс принятия экономического решения оказывает значимое влияние на готовность рисковать ресурсом.

2. В случае согласия с рекомендацией, если источником рекомендации выступала программа, основанная на технологии искусственного интеллекта, готовность рисковать была в среднем выше.

3. Подобный эффект может объясняться спецификой ситуации принятия экономического решения: задача является достаточно формальной, время на решение задачи ограничено и ситуация принятия решения сопровождается высокой долей неопределенности последствий этого решения.

Ключевые слова: искусственный интеллект, экономические решения, доверие технологии, экономические поведение, эксперимент, взаимодействие человека и ИИ.

Информация о финансировании. Работа выполнена при поддержке гранта Российского научного фонда (РНФ) № 22-18-00230 «Предикторы психологической адаптации личности в ситуации глобальных рисков цифрового мира: межпоколенный и гендерный анализ».

Для цитирования: Фоломеева Т.В., Винокуров Ф.Н., Федотова С.В., Садовская Е.Д. Роль цифровых технологий в экономических решениях: искусственный интеллект и склонность к риску // Вестник Московского университета. Серия 14. Психология. 2022. № 3. С. 40-64. doi: 10.11621/ vsp.2022.03.04

doi: 10.11621/vsp.2022.03.04 Scientific Article

THE ROLE OF DIGITAL TECHNOLOGIES IN ECONOMIC DECISION-MAKING: ARTIFICIAL INTELLIGENCE AND RISK-TAKING

Tatiana V. Folomeeva1, Ekaterina D. Sadovskaia*2,

Fedor N. Vinokurov3, Svetlana V. Fedotova4

1-4 Lomonosov Moscow State University, Department of social psychology, Moscow, Russia

1 [email protected], https://orcid.org/0000-0002-9074-9327

2 [email protected], https://orcid.org/0000-0002-7530-0097

3 [email protected], https://orcid.org/0000-0001-8302-374X

4 [email protected], https://orcid.org/0000-0002-3324-8964

* Corresponding author: [email protected]

Background. Artificial Intelligence is being actively introduced into the economic life of the country in the context of the digital economy. Features of economic decision-making based on Artificial Intelligence are becoming an extremely relevant area of research in social psychology.

Objective of the study was to identify the features of economic decision-making based on recommendations obtained using artificial intelligence.

Methods. The study took place in two stages: an interview and an experiment.

Sample. The sample of the first stage was 8 people (4 men and 4 women, age 18-45). At the second stage, the sample consisted of 289 people (48 men and 241 women), aged 18-25 years.

Results. At the first stage, possible factors of trust and distrust in Artificial Intelligence-based programs were formulated, including the context of economic decisions.

At the second stage, an experiment was conducted where participants were asked to play a stock exchange simulator. The game had the option of contacting an economic adviser. In the experimental group, the adviser was a program based on Artificial Intelligence, in the control group — a person. 5652 economic decisions of the participants were analyzed in terms of the degree of risk of these decisions.

Conclusion

1. Using a recommendation in the process of an economic decision making has a significant impact on the willingness to risk a resource.

2. In case of agreement with the recommendation, if the source of the recommendation was a program based on Artificial Intelligence technology, then the willingness to take risks was higher.

3. Such an effect can be explained by the specifics of the situation of an economic decision-making: the task is quite formal, the time to solve the problem is limited and the decision-making situation is accompanied by a high degree of uncertainty about the consequences of this decision.

Keywords: Artificial intelligence, economic decision making, trust in technology, economic behavior, experiment, human-AI interaction.

Funding. The study has been supported by Russian science foundation (RSF), project № 22-18-00230, a on the topic "Predictors of psychological adaptation in the situation of global risks of the digital world: intergenerational and gender analysis".

For citation: Folomeeva, T.V., Vinokurov, F.N., Fedotova, S.V., Sadovskaia,

E.D. (2022). The Role of Digital Technologies in Economic Decision-Making:

Artificial Intelligence and Risk-Taking. Vestnik Moskovskogo Universiteta.

Seriya 14. Psikhologiya (Moscow University Psychology Bulletin), 3, 40-64.

doi: 10.11621/vsp.2022.03.04

Введение

Искусственный интеллект (ИИ) в 2022 году — это уже не далекая технология, доступная узким специалистам и бизнесу. Сейчас ИИ используется в транспорте, медицине, экономике и др. Потребители цифровых услуг сталкиваются с ним практически ежедневно: в навигаторе, ленте социальных сетей, в различных медиасервисах. Такое сближение человека с ИИ спровоцировало рост интереса к этой технологии и со стороны психологии.

Активно развивается большое направление психологических исследований — взаимодействие человека и ИИ (Human-AI Interaction). Основной целью исследований в этом направлении является создание «дружелюбного» ИИ, учитывающего потребности человека и этический аспект технологии (Arrieta et al., 2020). Например, в рамках этических вопросов происходит поиск оптимального регулирования работы ИИ. Одним из ярких примеров является исследование, проведенное в Массачусетском технологическом институте (MIT) (Fridman et al., 2017): респондентов со всего мира привлекали к решению дилеммы вагонетки, где в роли вагонетки выступал беспилотный автомобиль. На первый план в таких исследованиях выходит отношение человека к ИИ. Интерес к взаимодействию человека с ИИ в прикладных направлениях психологии (клинической, патопсихологии, психофизиологии и других направлениях) выразился в изучении возможностей и ограничений применения ИИ в работе с пациентами (Dwyer, Falkai, Koutsouleris, 2018).

На факультете психологии МГУ также ведутся исследовательские проекты в этом направлении. Например, в социальной психологии внимание уделяется роли социального доверия как готовности к взаимодействию с ИИ (Нестик, 2019). Описываются и общие социально-психологические последствия внедрения технологии (Журавлев, Нестик, 2018, 2019). В русле психологии личности работы посвящены личностным предикторам готовности использовать ИИ — технофобии и технофилии (Солдатова, Нестик, 2016).

Даже при рассмотрении только перечисленных выше направлений исследований на тему ИИ в психологии можно отметить большое разнообразие возможностей применения ИИ. Важно отметить, чем отличается ИИ от других технологий, используемых в различных областях. В определениях ИИ обычно делается акцент на возможность с его помощью решать такие задачи, которые ранее считались

посильными только человеку. Например, толковый словарь по искусственному интеллекту дает следующие определения:

«Научное направление, в рамках которого ставятся и решаются задачи аппаратного или программного моделирования тех видов человеческой деятельности, которые традиционно считаются интеллектуальными.

Свойство интеллектуальных систем выполнять функции (творческие), которые традиционно считаются прерогативой человека» (Аверкин, Гаазе-Рапопорт, Поспелов, 1992, с. 256).

Джон Маккарти в 2004 году подготовил статью с ответами на часто задаваемые вопросы об ИИ. Там он описывает ИИ как науку и технику создания интеллектуальных машин и компьютерных программ. Он отмечает, что эту задачу часто связывают с использованием компьютерных систем для понимания работы человеческого интеллекта, но на самом деле методы ИИ не ограничиваются биологическими аналогами (McCarthy, 2007).

Сам по себе тезис о возможности решения машиной «человеческих» задач породил большую философскую дискуссию, наиболее ярким примером которой является мысленный эксперимент «китайская комната» (Searle, 1980). В результате возникло разделение ИИ на два типа: «сильный» и «слабый». Теории «сильного ИИ» подразумевают возможность развития технологии до умения мыслить и сознавать. Теории «слабого ИИ» отвергают такую точку зрения.

Отношение к технологии ИИ в обществе остается неоднозначным и во многом зависит от контекста использования. В отечественной психологии исследованию отношения к технологиям посвящены работы Купрейченко — через факторы, формирующие доверие и недоверие технологии (Купрейченко, 2012, 2021). Непосредственно на факультете психологии МГУ данному вопросу посвящены работы Нестика и Солдатовой — через личностные предикторы отношения к технологиям (Нестик, 2018; Солдатова, Нестик, 2016).

В нашем исследовании мы задаемся вопросом, как использование программ на основе ИИ влияет на процесс принятия экономического решения. Данный вопрос является исключительно актуальным в свете общей тенденции развития цифровой экономики, где отдельное внимание уделяется внедрению отечественных технологий ИИ в процесс экономического регулирования.

Принятие экономических решений также является активно развивающимся направлением в современной психологии. Наибольшую известность в последние годы приобрела теория поведенческой

экономики и конкретные наработки в рамках этого направления: теория перспектив Д. Канемана и А. Тверски и теория архитектуры выбора Р. Талера и К. Санстейна, которые экспериментальными исследованиями показывают вклад когнитивных искажений в процесс принятия экономических решений (Kahneman, Tversky, 2013; Thaler, Sunstein, 2009). В отличие от предыдущих поколений исследований поведенческая экономика акцентирует внимание на важности поведения и взаимодействия экономических агентов, а не на правилах этих взаимодействий (Неверов, 2015).

Обычно иррациональные составляющие экономического поведения объединяют названием «когнитивные искажения», которые сильнее всего проявляются в ситуациях ограниченного ресурса информации или времени, а также в ситуациях неопределенности (когда технически нет возможности просчитать наиболее оптимальный вариант решения экономической задачи). В таких ситуациях экономическая задача сопровождается риском, который и оказывает влияние на возникновение когнитивных искажений, ведущих к иррациональности принимаемого решения.

В данной работе мы стараемся также отразить актуальный контекст экономического поведения: доступность и популяризация торговли акциями для непрофессиональных трейдеров (WSJ, 2022) и использование виртуальных помощников на основе ИИ для принятия решений о купле/продаже акций (Day, Cheng, Li, 2018). Поскольку ситуация купли-продажи акций является в достаточной степени рискованной (обычно в ней есть ограничения по времени и высокая степень неопределенности последствий принятых решений), то часто трейдеры (особенно начинающие) могут вести себя иррационально на рынке. В нашей работе мы предполагаем, что появление такого инструмента, как программы на основе ИИ, которые предлагают рекомендации по экономическим решениям, могут оказывать влияние на степень рискованности этих решений.

Таким образом, в нашем исследовании мы подходим к формулировке целей исследования с двух сторон:

1. С точки зрения исследования взаимодействия человека с ИИ нам важно отразить, на основе каких суждений человек принимает итоговое решение при выполнении задач с помощью технологий ИИ.

2. С точки зрения исследования процесса принятия экономических решений в контексте развития цифровой экономики, доступности рынка акций для непрофессиональных трейдеров и развития систем виртуальных помощников для принятия решений о покупке

акций, основанных в том числе на технологиях ИИ, нам важно оценить влияние наличия рекомендаций на основе ИИ на процесс принятие экономического решения в ситуации риска.

Целью исследования стало выявление особенностей принятия экономических решений при наличии рекомендаций, основанных на работе искусственного интеллекта, а также определение факта влияния этих рекомендаций на готовность к риску большим ресурсом.

Задачи исследования

1. Описание убеждений относительно ИИ, оказывающих влияние на готовность использовать экономические рекомендации, основанные на данной технологии;

2. Поиск различий в готовности к риску для принятия экономических решений с использованием в качестве помощника программы на основе ИИ и человека.

Гипотеза 1

В случае принятия экономического решения наличие рекомендации от ИИ влияет на степень риска экономическим ресурсом.

Методы

Исследование было проведено в два этапа.

На первом этапе использовался метод интервью. Полученные в ходе интервью данные позволили рассуждать о гипотезе на качественном уровне.

На втором этапе был проведен эксперимент в формате компьютерной экономической игры, который позволил рассмотреть уже поведенческий аспект отношения к ИИ.

Выборка

Общим критерием для участников исследования на обоих этапах был отсутствующий или минимальный (непрофессиональный) опыт в трейдинге и поверхностное знакомство с технологией ИИ.

Данные критерии обоснованы пилотными интервью, в том числе с профессиональными трейдерами и техническими специалистами в области ИИ, в ходе которых обнаружился ряд дополнительных переменных, необходимых для учета в построении эксперимента, что делало участие в нем исключительно сложным для непрофессионалов в этих областях.

Таким образом, на данном этапе исследования было принято решение ограничить выборку участников. Тем не менее участники

исследования все же являются выборкой, близкой представителям непрофессиональных трейдеров-новичков (по критерию отсутствия профессиональной подготовки и возрасту), а критерий отсутствия глубоких знаний о том, как работает технология ИИ, исключает лишь небольшую долю высококвалифицированных 1Т-специалистов, являющихся при этом трейдерами.

Интервью

Основной целью на данном этапе был поиск особенностей в восприятии ИИ, выделение причин возможного доверия и недоверия технологии, поиск факторов, влияющих на готовность использовать технологию в разных областях ее применения для принятия различных типов решений (в том числе — экономических).

Качественные данные в виде убеждений и мнений респондентов об использовании ИИ, полученные в ходе интервью, использовались для уточнения основной гипотезы исследования и обогащения интерпретаций полученных данных об экономическом поведении участников эксперимента.

Был подготовлен сценарий полуструктурированного интервью. С респондентами обсуждались следующие темы:

— общее знакомство с технологиями, личный опыт использования ИИ;

— отношение к ИИ, сравнение отношения к ИИ с отношением к другим технологиям;

— возможности применения ИИ в различных сферах: медицина, транспорт, реклама, экономика и др.;

— субъективные представления о возможности применения ИИ в принятии экономических решений: потребительском поведении, банковском секторе, трейдинге и др.

Выборка

8 человек (4 мужчины и 4 женщины, возраст от 18 до 45 лет, жители Москвы, знают о ИИ, но не являются специалистами в областях, связанных с ИИ и куплей-продажей акций).

Эксперимент

В эксперименте проверялась гипотеза об изменении степени риска ресурсом в связи с тем, кто/что является источником экономического совета — человек или ИИ. Был выбран межгрупповой вариант эксперимента с двумя группами.

Выборка

289 человек (48 мужчин и 241 женщина), возраст 18-25 лет. Участниками исследования были студенты разных специализаций. Распределение в экспериментальную и контрольную группу происходило случайным образом: 150 человек оказались в контрольной группе и 139 — в экспериментальной. В исследовании не принимали участие специалисты в области ИИ и те, кто имел профессиональный опыт купли-продажи акций.

Описание экономической игры

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Экономическая игра заключалась в принятии решения о купле-продаже акций. Для принятия решения участникам был представлен график акции и текущая стоимость акции. Целью игры было увеличить свой изначальный бюджет за счет купли-продажи. В каждый ход игрок мог приобрести или продать акции, либо пропустить ход. В качестве денег выступали игровые условные единицы, обозначенные символом "$".

Помимо представленной информации о динамике цен на акции у игроков была возможность запрашивать подсказку от экономического советника. У экспериментальной группы таким советником выступала программа на основе ИИ, у контрольной — человек, эксперт-трейдер.

До начала сбора экспериментальных данных было проведено два пилотных исследования (по 6 участников в каждом), в которых игроки не только оценивали понятность инструкций, но и комментировали весь ход своей игры вслух. В результате серии пилотов были скорректированы условия игры, а также отмечены особенности восприятия текста инструкции:

— рекомендация советника воспринималась как индивидуальная, направленная только в адрес данного игрока в данный ход;

— ситуация экономической игры воспринималась как ограниченная по времени (хотя специально время выполнения не контролировалось).

Инструкция звучала следующим образом:

«Вы принимаете участие в тестировании интерфейса платформы для покупки и продажи акций. Это пилотный запуск платформы, мы будем проверять, понятен ли интерфейс и отрабатывают ли все функции верно.

Преимуществом этой платформы является наличие онлайн-по-мощника для принятия решений о покупке/продаже акций.

[в1: помощник показывает решения, которые принял искусственный интеллект. В основе этого искусственного интеллекта лежит модель, обучившаяся на истории этих акций.]

[в2: помощник показывает решения, которые принял эксперт-трейдер на основе анализа истории этих акций.]

Наш помощник подсказывает правильное решение в 80 % случаев.

/кнопка "Играть"/».

Для проведения эксперимента участников случайным образом разделили на две группы: одной группе была представлена версия игры с советником в виде человека-эксперта (трейдера) [инструкция в2], второй группе была представлена версия игры с советником в виде искусственного интеллекта (ИИ) [инструкция в1]. В остальном игры были абсолютно одинаковыми, в инструкции к игре содержалась следующая информация:

— одинаковый процент успеха предсказания советника (80 %);

— объяснение механизма, по которому советник предлагает решение (и в том и в другом случае — «советник изучил историю данной акции и предлагает решения, основанные на ней»).

Сама игра строилась на динамике одной и той же акции, а советники выдавали одинаковые рекомендации в обеих группах.

Таким образом, в нашем эксперименте независимая переменная — источник экономической рекомендации — представлена на двух уровнях:

1) Рекомендация представлена от имени человека (экспертом-трейдером);

2) Рекомендация представлена от имени программы, в основе которой лежит ИИ.

Зависимая переменная — степень риска. Данная переменная выражается в экономической активности (ЭА) участников за ход.

Под ЭА мы понимаем экономический ресурс, используемый участником в данный ход (в случае, если в данный ход участник продавал акции, то ресурс выражается в стоимости проданных акций в данный ход, если покупал — в сумме потраченных денег на покупку акций).

Результаты

Интервью

В работе над анализом интервью мы опирались на процедуру тематического анализа, описанную в статье Д.А. Хорошилова и О.Т. Мельниковой (Хорошилов, Мельникова, 2020).

В ходе анализа были выделены основные темы, которые поднимались респондентами в ходе интервью. Часть тем имеет непосредственное отношение к основной гипотезе нашего исследования, часть — являются скорее дополнительными, расширяющими понимание отношения респондентов к использованию ИИ в повседневной жизни.

В экономической сфере готовность применять ИИ, по мнению респондентов, может зависеть от:

I) индивидуальности экономического совета (то есть от понимания, что этот конкретный совет программа предлагает только этому конкретному человеку):

«Если все будут обращаться к ИИ, то это будет тоже влиять очень сильно, никто не будет получать профита... Акции не те будут расти, которые показывает ИИ» (женщина, 25 лет);

II) скорости, с которой требуется принять решение. Чем скорость выше, тем меньше вероятность, что человек сможет предусмотреть все возможности. Тогда лучше будет использовать подсказку ИИ:

«Вот когда нужно сделать что-то срочно быстро без разговоров, то тогда я готов обратиться к ИИ, а если это что-то долгосрочное... а если мне захочется еще об этом поговорить, то это — к человеку» [сфера принятия экономических решений] (мужчина, 28 лет);

«В моем представлении ИИ быстрее думает и дальше видит» (женщина, 40 лет).

Среди дополнительных (относительно основной гипотезы) тем можно выделить:

— Личные представления о технологии ИИ. Респонденты перечисляли примеры сфер, где может применяться ИИ и пытались объяснить, как он работает. Сферы использования перечислялись легко, но некоторые респонденты сталкивались с трудностями в объяснении механизмов использования:

«...если попытаться объяснить... я просто не представляю, какую диагностику может проводить ИИ» (женщина, 24 года).

— Страхи и опасения, связанные с ИИ. Были выделены две группы страхов:

1) Использование ИИ в корыстных интересах узкой группы лиц. В пример приводится кейс с Кэмбридж Аналитикой и компанией Facebook (Cadwalladr, Graham-Harrison, 2018):

«Есть опасения, что данные о моих ценностях, предпочтениях, которые можно как-то использовать в своих целях... как Кэмбридж Аналитика» (женщина, 27 лет);

2) Зависимость результатов работы ИИ от создателя. Здесь речь уже идет не об использовании результатов, а о субъективности исходных данных:

«Кто делает ИИ, тот и его создатель... Соответственно, ИИ становится заложником стереотипов своего создателя» (мужчина,

24 года).

Возможности и ограничения применения ИИ в различных сферах и конкретно в контексте экономических решений: среди сфер, в которых респонденты встречались с ИИ и не испытывают сильных переживаний на тему его применения: таргетинг (реклама, подбор музыки, подбор фильма), карты (пробки, построение оптимального маршрута), банки (анализ истории и расчет оптимального предложения), компьютерное зрение (замена фонов при видео-звонках, перемещение людей и контроль границ), беспилотные автомобили:

«Вот в "Яндекс.Музыке", например, очень классные рекомендации, они прямо предугадывают, что мне понравится» (женщина, 25 лет).

«Ну вот, в банках, например, они могут проанализировать там мои доходы/расходы и сразу как бы предодобрить кредит какой-нибудь хороший, мне это нравится» (мужчина, 36 лет).

«Данные по кредитам там многих людей переносятся, создаются как бы типы клиентов, им предлагается что-то актуальное и полезное» (мужчина, 36 лет).

«Беспилотные автомобили иногда лучше, чем водители» (мужчина, 28 лет).

«Мое отношение в целом положительное, нежели отрицательное... Мне лично нравятся всякие подходы: классификации и компьютерное зрение, то что называется» (мужчина, 28 лет).

«Хорошо будет ИИ применять в плане контроля перемещения людей, как вот сейчас показал опыт карантина у Китая» (женщина,

25 лет).

Использование ИИ в медицине. Почти все респонденты сомневались в собственной готовности доверить решения в медицине ИИ:

«Я бы не доверил принятие решений ИИ про медицину и здоровье, например, когда не хватает коек и лекарств, а ИИ будет определять,

кому дать лекарство, а кому — нет, тут мы станем заложниками стереотипов тех людей, которые его создали» (мужчина, 42 года).

Таким образом, результаты интервью позволили выделить определенные отличия в отношении к применению ИИ в различных сферах. В области медицины, например, присутствует большой уровень недоверия технологии, то же время в экономической сфере готовность использовать технологию зависит от скорости, с которой нужно принять решение, и индивидуальности экономического совета. То есть в случае необходимости анализировать неформальные индивидуальные признаки, не сведенные в модели, ИИ доверяют меньше. По мере большей формализации алгоритмов анализа и повышении скорости растет степень доверия ИИ. Подобное различие в зависимости от формализации задачи объясняет и настороженное отношение к ИИ в медицине. Похожие выводы сделаны по результатам исследования готовности обратиться за медицинской диагностикой к ИИ (Ьо^ош, Вопегг1, Morewedge, 2019).

В интервью также были обнаружены барьеры, страхи, связанные с использованием технологии: зависимость качества технологии от ее создателя и использование технологии в корыстных целях, например, для управления поведением людей в социальных сетях.

Эксперимент

В эксперименте приняли участие 289 человек: 150 человек в контрольной группе и 139 — в экспериментальной. Каждый участник в ходе игры принял 20 экономических решений о купле-продаже акций. Всего было проанализировано 5652 решений. 128 решений не попали в анализ по различным техническим причинам:

1) часть респондентов прошли игру не до конца;

2) участники подключались к игре через интернет и часть данных могла быть потеряна из-за нестабильности мобильного интернета.

Распределение данных во всех рассматриваемых ниже выборках является нормальным, поэтому мы использовали для анализа Т-критерий для независимых выборок.

По результатам анализа интервью основная гипотеза эксперимента была уточнена. Так как ситуация экспериментальной экономической игры на основе купли-продажи акций близка к ситуации ограничения по времени, а также совет, который получает трейдер, позиционируется не как массовый, а скорее индивидуальный (что соответствует большему уровню готовности опираться на рекомен-

дации от программ на основе ИИ в экономических решениях), то гипотеза эксперимента звучала следующим образом:

Гипотеза 1.1

При наличии экономической рекомендации от ИИ проявляется готовность рисковать большим ресурсом в принятии экономического решения, чем при наличии рекомендации от человека.

Данные были проанализированы с точки зрения сводных результатов по всем ходам в отдельности (Ы = 5652). Для проверки гипотезы были отобраны те ходы, в которых участники обращались к советнику и наверняка видели подсказку (Ы = 2231).

Таблица 1

Сравнение экономической активности в экспериментальной и контрольной группах (среди обратившихся за советом, N = 2231)

Уровень независимой Человек (среднее) ИИ (среднее) T-критерий

Экономическая активность (в единицах $) 192,4266 215,2984 -2,05*

N 1144 1087

Примечание. * — p < 0,05.

Table 1

Comparison of economic activity in experimental and control groups (among those who asked for advice, N = 2231)

The level of the independent variable Human (average) AI (average) T-test

Economic activity (in $) 192.4266 215.2984 -2.05*

N 1144 1087

Note. * — p < 0,05.

Наблюдаются значимые отличия в ЭА в экспериментальной и контрольной группах (табл. 1). Отмечается большая ЭА в решениях, где подсказку давал ИИ (t = -2,05; p < 0,05).

Исходя из результатов первой части исследования (интервью), можно предположить причины подобного эффекта. Одним из факторов, влияющих на готовность прислушаться к совету на основе ИИ в экономическом решении, являлась скорость, с которой нужно его принять.

Решение, которое принималось участниками игры, являлось относительно быстрым. Респонденты должны были принять одно решение, чтобы перейти к следующему ходу и так далее. Несмотря на то, что временных ограничений для участия в игре не было, респонденты довольно быстро проходили игру. Возможно, влияние оказывало количество ходов, и если бы респондентам было необходимо принять всего одно решение за всю игру, то результаты оказались бы иными.

Также возможной причиной подобных результатов может выступать и формат рекомендаций советника. Для контроля дополнительных переменных формат был унифицирован, совет выдавался в виде текстовой подсказки, содержащей конкретное действие. Рекомендации от человека в реальных условиях могут быть более общие и не ограничиваться одним ходом в игре. Как показал первый этап исследования, формализация задачи может выступать фактором повышения уровня доверия рекомендациям на основе ИИ.

Многие современные исследователи рассматривают готовность к риску как составляющую конструкта доверия (Colquitt, Scott, LePine, 2007), что позволяет рассуждать о возможной роли доверия рекомендациям от программы на основе ИИ в подобных экономических решениях.

Таким образом, с учетом формата экономических решений, представленных в игре, наблюдается различие в степени риска между группами, где советником выступал либо ИИ, либо человек, основная гипотеза исследования подтверждается.

Поскольку как в экспериментальной, так и в контрольной группах участники эксперимента самостоятельно принимали итоговое решение и могли либо следовать рекомендации, либо нет, то важно отметить, как отличались показатели зависимой переменной в этих случаях.

Как видно на рис. ЭА участников игры отличается не только в контрольной и экспериментальной группах, но и в группах по степени согласия с рекомендацией, которую дает советник в данный ход. Наименьшая средняя ЭА наблюдается в случае, когда участник не согласен с рекомендацией советника, выше — если не обращался к помощнику, самая высокая — когда участник выполняет действие, которое рекомендовал советник.

Данные различия подтверждаются и статистически (и в количестве акций, использованных за данный ход, и в денежном эквиваленте) (табл. 2 и 3). Наблюдаются значимые различия между средним показателем ЭА за ход, где участник либо обращался к рекомендации,

Сравнение средних значений ЭА в экспериментальной и контрольной группах

в зависимости от степени согласия с советом помощника 350 -

согласился с рекомендацией

не воспользовался подсказкой

не согласился с рекомендацией

Рис. Сравнение средних значений экономической активности в экспериментальной и контрольной группах в зависимости от степени согласия с советом помощника (Ы = 5652)

50

Comparison of average EA (economic activity) values in experimental and control groups depending on the level of agreement with the assistant's advice

•AI

■ human

agreed with the recommendation

didn't watch the recommendation

disagreed with the recommendation

50

Fig. Comparison of average economic activity values in experimental and control groups depending on the level of agreement with the assistant's advice (N = 5652)

Таблица 2

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Сравнение среднего показателя экономической активности за ход, где участник обращался к совету и не обращался к нему (N=5652)

Смотрели подсказку (среднее) Не смотрели подсказку (среднее) T-критерий

Экономическая активность (в единицах $) 203,5703 140,5888 -9,037***

N 2231 3421

Примечание. *** — p < 0,001. Table 2 Comparison of the average economic activity per turn, where the participant consulted with the advisor or not (N=5652)

Watched the recommendation (average) Didn't watch the recomendation (average) T-test

Economic activity (in $) 203.5703 140.5888 -9.037***

N 2231 3421

Note. *** — p < 0,001.

либо не обращался к ней (1 = -9,037; р < 0,001). Подобные различия видны при сравнении среднего показателя ЭА за ход, где участник был согласен с советом, и где участник был не согласен с советом (1 = 11,163; р < 0,001).

Данные наблюдения позволяют рассуждать о возможности проведения факторного эксперимента, где контролироваться будут оба фактора: тип советника и степень согласия с рекомендацией (например, анализировать группы участников по степени согласия). К сожалению, на данный момент набрано недостаточно данных, чтобы подобрать адекватный способ анализа данных о влиянии обоих факторов и их взаимодействия.

Тем не менее нам доступна проверка наличия эффекта влияния независимой переменной в двух группах действий, где участники следовали рекомендации и где они принимали решение, отличное от рекомендации советников. Таким образом, была сформулирована дополнительная гипотеза, уточняющая основную:

Таблица 3

Сравнение среднего показателя экономической активности за ход, где участник был согласен с советом (выполнял рекомендованное действие), и где участник был не согласен с советом (выполнял действие, отличное от рекомендованного) (N=2231)

Согласились с рекомендацией (среднее) Не согласились с рекомендацией (среднее) T-критерий

Экономическая активность (в единицах $) 232,5456 100,8883 11,163***

N 1740 491

Примечание. *** — p < 0,001.

Table 3

Comparison of the average economic activity per turn, where the participant agreed with the advisor (performed the recommended action), and where the participant disagreed with the advisor (performed an action opposite to the recommended one) (N=2231)

Agreed with the recommendation (average) Disagreed with the recommendation (average) T-test

Economic activity (in $) 232.5456 100.8883 11.163***

N 1740 491

Note. *** — p < 0,001.

Гипотеза 1.2

В случае согласия с экономической рекомендацией от ИИ проявляется готовность рисковать большим ресурсом в принятии экономического решения, чем при согласии с аналогичной рекомендацией от человека.

Как видно из данных в табл. 4 и табл. 5, описанный ранее эффект влияния НП обнаруживается в группе действий, где участники следовали рекомендации советника (1 = -2,605, р < 0,001) и не обнаруживается в группе действий, где участники выполняли действие, отличное от рекомендаций советника.

Таким образом, можно отметить, что наличие рекомендации от ИИ оказывает влияние на готовность рисковать большим ресурсом в случае согласия с рекомендацией, которую ИИ предоставляет. Такие результаты позволяют подтвердить Гипотезу 1.2.

Таблица 4

Сравнение среднего показателя экономической активности за ход в группе наблюдений, где участник был согласен с советом (выполнял рекомендованное действие) для контрольной и экспериментальной групп (N=1740)

Уровень независимой переменной Человек (среднее) ИИ (среднее) T-критерий

Экономическая активность (в единицах $) 216,35 249,94 -2,605***

N 901 839

Примечание. *** — p < 0,001.

Table 4

Comparison of the average economic activity per turn in the observation group, where the participant agreed with the advice (performed the recommended action) for the control and experimental groups (N=1740)

The level of the independent variable Human (average) AI(average) T-test

Economic activity (in $) 216.35 249.94 -2.605***

N 901 839

Note. *** — p < 0,001

Таблица 5

Сравнение среднего показателя экономической активности за ход в группе наблюдений, где участник был несогласен с советом (выполнял отличное от рекомендованного действие) для контрольной и экспериментальной групп

(N=491)

Уровень независимой переменной Человек (среднее) ИИ (среднее) T-критерий

Экономическая активность (среднее в единицах $) 103,72 98,12 0,283

N 243 248

Примечание. *** — p < 0,001

Table 5

Comparison of the average economic activity per turn, in the observation group, where the participant disagreed with the advice (performed an action different from the recommended one) for the control and experimental groups (N=491)

The level of the independent variable Human (average) AI (average) T-test

Economic activity (in $) 103.72 98.12 0.283

N 243 248

Note. *** — p < 0,001 58

В случае, если участник не согласен с рекомендацией советника, то не имеет значения, каков источник рекомендации. В таком случае готовность рисковать ресурсом значимо не различается для экспериментальной и контрольной групп.

Выводы

Мы можем наблюдать, как внесение рекомендации в процесс самостоятельного принятия экономического решения оказывает значимое влияние на готовность рисковать ресурсом, что наблюдается в значимых различиях в экономической активности между группами решений, где участники использовали или не использовали рекомендации от советников.

Также были отмечены значимые различия в готовности рисковать ресурсом в зависимости от источника рекомендации. В случае, если источником выступала программа, основанная на технологии искусственного интеллекта, то готовность рисковать была в среднем выше. Данный эффект наблюдается только в случае согласия с рекомендацией, в случае если рекомендация отличается от итогового решения игрока, то значимых различий между группами, где советником был ИИ и человек, не наблюдаются.

Результаты качественного этапа исследования позволяют предположить, что подобный эффект может объясняться спецификой ситуации принятия экономического решения: задача, которую решала программа на основе ИИ, является достаточно формальной, время на решение задачи ограничено и ситуация принятия решения сопровождается высокой долей неопределенности последствий этого решения. Подобный тип задач казался респондентам наиболее подходящим для применения ИИ.

Принятие экономических решений с опорой на рекомендации на основе программ с использованием ИИ уже является актуальной экономической реальностью. Их могут использовать как в контексте развития цифровой экономики в целом, так и в ситуации купли-продажи акций в частности. По результатам данного исследования можно отметить влияние следования рекомендациям программ на основе ИИ на степень рискованности экономических решений, которые принимает начинающий трейдер.

Среди основных ограничений данной работы можно отметить:

1) игровой формат эксперимента (в принятии решений использовались ненастоящие деньги);

2) формат анализа полученных результатов предполагал использование данных о всех ходах участников в отдельности (а не по участникам). На степень риска в конкретном экономическом решении могли оказать влияния многие факторы, в том числе опыт предыдущих шагов, накопленный баланс на текущий момент, ощущение, что советник дает как удачные, так и неудачные рекомендации;

3) ограничения в выборке, исключающие участие профессиональных трейдеров и 1Т-специалистов, обусловленное простым дизайном эксперимента;

4) в дизайне нашего исследования учитывался только один возможный способ принятия решения с участием советника — через добровольное обращение к совету, окончательное решение всегда принимал участник. В случае совместного принятия решения возможны и иные формы взаимодействия, например, полная передача контроля за конечным решением своему помощнику во всех решениях или в определенной группе решений.

Литература

Аверкин А.Н., Гаазе-Рапопорт М.Г., Поспелов Д.А. Толковый словарь по искусственному интеллекту. М.: Радио и связь, 1992.

Журавлев А.Л., Нестик Т.А. Социально-психологическая детерминация готовности личности к использованию новых технологий // Психологический журнал. 2018. Т. 39, № 5. С. 5-14.

Журавлев А.Л., Нестик Т.А. Социально-психологические последствия внедрения новых технологий: перспективные направления исследований // Психологический журнал. 2019. Т. 40, № 5. С. 35-47.

Купрейченко А.Б. Психология доверия и недоверия. М.: Институт психологии РАН, 2021.

Купрейченко А.Б. Доверие и недоверие к технике и социотехническим системам: постановка проблемы и обоснование подхода к исследованию // Ученые записки ИМЭИ. 2012. Т. 2, № 1. С. 126-137.

Неверов А.Н. Экономическая теория и психология: периоды конвергенции и зоны разрыва // Научные исследования экономического факультета. Электронный журнал. 2015. Т. 7, № 3. С. 26-38.

Нестик Т.А. Искусственный интеллект как когнитивный протез. Трансформация образов будущего // Образовательная политика. 2019. Т. 4, № 80. С. 104-117.

Солдатова Г.У., Нестик Т.А. Отношение к интернету среди интернет-пользователей: технофобы и технофилы // Вестник Московского государственного областного университета. Серия: Психологические науки. 2016. № 1. С. 54-61.

Хорошилов Д.А., Мельникова О.Т. Метод тематического анализа в изучении представлений о женском лидерстве // Организационная психология. 2020. Т. 10, № 3. С. 85-99.

Arrieta, A.B., Diaz-Rodriguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion, 58, 82-115.

Cadwalladr, C., Graham-Harrison, E. (2018). Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach. The guardian. (Retrieved from https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election) (review date: 01.02.2022).

Colquitt, J.A., Scott, B.A., LePine, J.A. (2007). Trust, trustworthiness, and trust propensity: a meta-analytic test of their unique relationships with risk taking and job performance. Journal of applied psychology, 92 (4), 909-927.

Day, M., Cheng, T., Li, J. (2018). AI Robo-Advisor with Big Data Analytics for Financial Services. IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM), (pp. 1027-1031).

Dwyer, D.B., Falkai, P., Koutsouleris, N. (2018). Machine learning approaches for clinical psychology and psychiatry. Annual review of clinical psychology, 14, 91-118.

Fridman, L., Mehler, B., Xia, L., Yang, Y., Facusse, L.Y., Reimer, B. (2017). To walk or not to walk: Crowdsourced assessment of external vehicle-to-pedestrian displays. (Retrieved from https://arxiv.org/pdf/1707.02698.pdf) (review date: 01.02.2022).

Kahneman, D., Tversky, A. (2013). Prospect theory: An analysis of decision under risk. In: Handbook of the fundamentals of financial decision making: Part I (pp. 99-127). New Jersey: WSPC.

Longoni, C., Bonezzi, A., Morewedge, C.K. (2019). Resistance to medical artificial intelligence. Journal of Consumer Research, 46 (4), 629-650.

McCabe, C. (2022). Day Traders as 'Dumb Money'? The Pros Are Now Paying Attention. WSJ. (Retrieved from https://www.wsj.com/articles/fund-managers-pay-attention-to-retail-day-traders-11642132135) (review date: 01.02.2022).

McCarthy, J. (2007). What is artificial intelligence? (Retrieved from http://www-formal.stanford.edu/jmc/whatisai/node1.html) (review date: 01.02.2022).

Searle, J.R. (1980). Minds, brains, and programs. Behavioral and brain sciences, 3 (3), 417-424.

Thaler, R.H., Sunstein, C.R. (2009). Nudge: Improving decisions about health, wealth, and happiness. Westminster: Penguin.

Van der Werff, L., Legood, A., Buckley, F., Weibel, A., de Cremer, D. (2019). Trust motivation: The self-regulatory processes underlying trust decisions. Organizational Psychology Review, 9 (2-3), 99-123.

References

Arrieta, A.B., Diaz-Rodriguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion, 58, 82-115.

Averkin, A.N., Gaaze-Rapoport, M.G., Pospelov, D.A. (1992). Explanatory dictionary on artificial intelligence. M.: Radio i svyaz'. (In Russ.).

Cadwalladr, C., Graham-Harrison, E. (2018). Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach. The guardian. (Retrieved from https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election) (review date: 01.02.2022).

Colquitt, J.A., Scott, B.A., LePine, J.A. (2007). Trust, trustworthiness, and trust propensity: a meta-analytic test of their unique relationships with risk taking and job performance. Journal of applied psychology, 92 (4), 909-927.

Day, M., Cheng, T., Li, J. (2018). AI Robo-Advisor with Big Data Analytics for Financial Services. IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM), (pp. 1027-1031).

Dwyer, D.B., Falkai, P., Koutsouleris, N. (2018). Machine learning approaches for clinical psychology and psychiatry. Annual review of clinical psychology, 14, 91-118.

Fridman, L., Mehler, B., Xia, L., Yang, Y., Facusse, L.Y., Reimer, B. (2017). To walk or not to walk: Crowdsourced assessment of external vehicle-to-pedestrian displays. (Retrieved from https://arxiv.org/pdf/1707.02698.pdf) (review date: 01.02.2022).

Kahneman, D., Tversky, A. (2013). Prospect theory: An analysis of decision under risk. In: Handbook of the fundamentals of financial decision making: Part I (pp. 99-127). New Jersey: WSPC.

Khoroshilov, D.A., Melnikova, O.T. (2020). Thematic analysis method in the study of ideas about women's leadership. Organizacionnaya psihologiya. (Organizational psychology), 10 (3), 85-99. (In Russ.).

Kupreychenko, A.B. (2012). Trust and distrust to the technique and socio-tech-nical systems: statement of the problem and the study approach justification. Uchenye zapiski IMEI. (Scientific notes of WEI), 2 (1), 126-137. (In Russ.).

Kupreychenko, A.B. (2021). Psychology of trust and distrust. Moscow: Institut psikhologii RAN. (In Russ.).

Longoni, C., Bonezzi, A., Morewedge, C.K. (2019). Resistance to medical artificial intelligence. Journal of Consumer Research, 46 (4), 629-650.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

McCabe, C. (2022). Day Traders as 'Dumb Money'? The Pros Are Now Paying Attention. WSJ. (Retrieved from https://www.wsj.com/articles/fund-managers-pay-attention-to-retail-day-traders-11642132135) (review date: 01.02.2022).

McCarthy, J. (2007). What is artificial intelligence? (Retrieved from http://www-formal.stanford.edu/jmc/whatisai/node1.html) (review date: 01.02.2022).

Nestik, T.A. (2019). Artificial intelligence as a cognitive prosthesis or mediator: transformation of imaginated futures. Obrazovatel'naya politika (Educational policy), 4 (80), 104-117. (In Russ.).

Neverov, A.N. (2015). Economic theory and psychology: periods of convergence and break zones. Nauchnye issledovaniya ekonomicheskogo fakul'teta. Elektronnyj zhurnal (Scientific researches of faculty of economics. Electronic journal), 7 (3), 26-38. (In Russ.).

Searle, J.R. (1980). Minds, brains, and programs. Behavioral and brain sciences, 3 (3), 417-424.

Soldatova, G.U., Nestik, T.A. (2016). Internet users' attitudes towards the internet: technophobes and technophiles. Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Seriya: Psihologicheskie nauki (Bulletin of Moscow State Regional University. Series: Psychological sciences), 1, 54-61. (In Russ.).

Thaler, R.H., Sunstein, C.R. (2009). Nudge: Improving decisions about health, wealth, and happiness. Westminster: Penguin.

Van der Werff, L., Legood, A., Buckley, F., Weibel, A., de Cremer, D. (2019). Trust motivation: The self-regulatory processes underlying trust decisions. Organizational Psychology Review, 9 (2-3), 99-123.

Zhuravlev, A.L., Nestik, T.A. (2018). Socio-psychological determination of the individual's readiness to use new technologies. Psihologicheskij zhurnal (Psychological Journal), 39 (5), 5-14. (In Russ.).

Zhuravlev, A.L., Nestik, T.A. (2019). Socio-psychological consequences of new technologies adoption: perspective directions of research. Psihologicheskij zhurnal (Psychological Journal), 40 (5), 35-47. (In Russ.).

Статья получена: 21.03.2022;

принята: 02.06.2022; отредактирована: 20.09.2022.

Received: 21.03.2022; аccepted: 02.06.2022; revised: 20.09.2022.

ИНФОРМАЦИЯ ОБ АВТОРАХ

Фоломеева Татьяна Владимировна — кандидат психологических наук, доцент кафедры социальной психологии факультета психологии Московского государственного университета имени М.В. Ломоносова, [email protected], https://orcid.org/0000-0002-9074-9327

Садовская Екатерина Дмитриевна — аспирантка, старший научный сотрудник кафедры социальной психологии факультета психологии Московского государственного университета имени М.В. Ломоносова, [email protected]. ru, https://orcid.org/0000-0002-7530-0097

Винокуров Федор Никитич — кандидат психологических наук, старший научный сотрудник кафедры социальной психологии факультета психологии Московского государственного университета имени М.В. Ломоносова, [email protected], https://orcid.org/0000-0001-8302-374X

Федотова Светлана Владимировна — кандидат психологических наук, старший научный сотрудник кафедры социальной психологии факультета психологии Московского государственного университета имени М.В. Ломоносова, [email protected], https://orcid.org/0000-0002-3324-8964

ABOUT AUTHORS

Tatiana V. Folomeeva — PhD in Psychology, Associate Professor, the Department of Social Psychology, Faculty of Psychology, Lomonosov Moscow State University, [email protected], https://orcid.org/0000-0002-9074-9327

Ekaterina D. Sadovskaia — Postgraduate Student, Senior Researcher, the Department of Social Psychology, Faculty of Psychology, Lomonosov Moscow State University, [email protected], https://orcid.org/0000-0002-7530-0097

Fedor N. Vinokurov — PhD in Psychology, Senior Researcher, the Department of Social Psychology, Faculty of Psychology, Lomonosov Moscow State University, [email protected], https://orcid.org/0000-0001-8302-374X

Svetlana V. Fedotova — PhD in Psychology, Senior Researcher, the Department of Social Psychology, Faculty of Psychology, Lomonosov Moscow State University, [email protected], https://orcid.org/0000-0002-3324-8964

i Надоели баннеры? Вы всегда можете отключить рекламу.