Научная статья на тему 'ИСКАЖЕНИЯ И ОШИБКИ МОДЕЛИРОВАНИЯ ЭМОЦИЙ В ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ'

ИСКАЖЕНИЯ И ОШИБКИ МОДЕЛИРОВАНИЯ ЭМОЦИЙ В ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ Текст научной статьи по специальности «Психологические науки»

CC BY
309
67
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Ценности и смыслы
ВАК
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / МОДЕЛИРОВАНИЕ ЭМОЦИЙ / МЕТОДОЛОГИЯ ИИ / «ЭМОЦИОНАЛЬНЫЕ» МАШИНЫ / ИСКУССТВЕННЫЕ АГЕНТЫ / ARTIFICIAL INTELLIGENCE / EMOTION MODELING / AI METHODOLOGY / “EMOTIONAL” MACHINES / ARTIFICIAL AGENTS

Аннотация научной статьи по психологическим наукам, автор научной работы — Шиллер А. В.

С распространением и успешным внедрением методов машинного обучения и развитием технологий, а также с учетом значительного снижения стоимости комплектующих, используемых в мобильных устройствах, область анализа и моделирования эмоций значительно расширилась. Приложения для смартфонов, веб-приложения и разного рода помощники, обладающие искусственным интеллектом (далее ИИ) создаются с учетом запроса пользователей на определенный функционал: распознавание эмоций и демонстрацию эмоционального поведения. Подобные практические запросы подталкивают развитие научных исследований в области моделирования эмоций, появляются новые модели и подходы. вание антропоморфного языка для систем ИИ и ошибочное наделение их эмоциональностью, использование чрезмерно упрощенных моделей человеческих эмоций, культурные и гендерные искажения, методологические сложности разработки эмоциональной системы у ИИ.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

BIASES AND ERRORS IN AI’S MODELING OF EMOTIONS

With the spread and successful implementation of machine learning methods and the development of technologies, as well as with the significant reduction in the cost of components used in mobile devices, the field of analysis and modeling of emotions has expanded significantly. Smartphone apps, web apps, and various AI assistants are created based on users ' requests for certain functionality: emotion recognition and demonstration of emotional behavior. Such practical requests push the development of scientific research in the field of emotion modeling, new models and approaches are emerging. At the same time, the ability to create new devices that can act as individual agents requires increased professional responsibility and compliance with modeling ethics. At the same time, many theoretical studies support or generate errors related to both methodological and social, value-based foundations of emotion modeling. The fundamental nature of the emotion problem forces researchers to discuss and carefully use existing limited models. The main purpose of this article is a brief analysis of various errors and biases that occur in many existing models. These include underestimating and, on the other hand, overestimating the capabilities of emotional machines, using anthropomorphic language for AI systems and mistakenly giving them emotionality, using oversimplified models of human emotions, cultural and gender biases, and methodological difficulties in developing an emotional system for AI.

Текст научной работы на тему «ИСКАЖЕНИЯ И ОШИБКИ МОДЕЛИРОВАНИЯ ЭМОЦИЙ В ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ»

ТЕОРИЯ ГУМАНИТАРНОГО ПОЗНАНИЯ

УДК 167.7; 004.81; 159.95 Б01: 10.24411/2071-6427-2020-10047

Искажения и ошибки моделирования эмоций в искусственном интеллекте

С распространением и успешным внедрением методов машинного обучения и развитием технологий, а также с учетом значительного снижения стоимости комплектующих, используемых в мобильных устройствах, область анализа и моделирования эмоций значительно расширилась. Приложения для смартфонов, веб-приложения и разного рода помощники, обладающие искусственным интеллектом (далее ИИ) создаются с учетом запроса пользователей на определенный функционал: распознавание эмоций и демонстрацию эмоционального поведения. Подобные практические запросы подталкивают развитие научных исследований в области моделирования эмоций, появляются новые модели и подходы. В то же время возможность создавать новые устройства, которые могут действовать как индивидуальные агенты, требует от разработчиков повышенной профессиональной ответственности и соблюдения этики моделирования. При этом многие теоретические исследования поддерживают или порождают ошибки, связанные как с методологическими, так и с социальными, ценностными основаниями моделирования эмоций. Фундаментальность проблемы эмоций вынуждает исследователей внимательно обсуждать и аккуратно использовать существующие ограниченные модели. Основной целью данной статьи является краткий анализ разного рода ошибок и искажений, которые встречаются во многих существующих моделях. К ним относятся недооценка и, с другой стороны, переоценка возможностей эмоциональных машин, использо-

А. В. Шиллер

Кандидат философских наук, руководитель грантового отдела философского факультета МГУ имени М. В. Ломоносова, г. Москва

E-mail: shiller.a@gmail. com

Alexandra V. Shiller

PhD (Philosophy), Head of Grant's Department of Faculty of Philosophy, Lomonosov Moscow State University, Russia

Как цитировать статью: Шиллер А. В. Искажения и ошибки моделирования эмоций в искусственном интеллекте // Ценности и смыслы. 2020. № 5 (69). С. 93-107.

вание антропоморфного языка для систем ИИ и ошибочное наделение их эмоциональностью, использование чрезмерно упрощенных моделей человеческих эмоций, культурные и гендерные искажения, методологические сложности разработки эмоциональной системы у ИИ.

Ключевые слова: искусственный интеллект, моделирование эмоций, методология ИИ, «эмоциональные» машины, искусственные агенты.

Введение

При создании моделей эмоций исследователи очень часто исходят из предпосылки о важности предварительных теоретических исследований феномена эмоций. Это, в свою очередь, требует ответить на ряд вопросов: что такое эмоция? Как «увидеть», измерить эмоции в мозге? Как измерить выражение эмоций? Как представить эмоции в вычислительном моделировании? Можно ли распознать эмоции с помощью искусственного интеллекта (AI — Artificial Intelligence, в русскоязычной традиции — ИИ) или Web Intelligence?

Безусловно, предварительная теоретическая работа важна, но одна из наиболее распространенных ошибок в вычислительном подходе к распознаванию и моделированию эмоций касается предпосылки об обязательности «понимания» феномена эмоций, что является на сегодняшний день невыполнимой задачей [5].

У человека эмоциональная и когнитивная системы взаимодействуют в рамках отдельных процессов, но локализованы в различных областях мозга и, в основном, работают автономно с использованием различных механизмов. Поэтому их можно объединять в когнитивно-аффективную систему только по функциональному признаку.

Эмоции позволяют нам действовать определенным образом и появляются вместе с «чувствами» (feelings), порождаемыми физиологическими реакциями тела. Здесь следует отметить, что в данном случае чувства понимаются мной в западной традиции, так как в русской психологической школе чувства определяются совершенно иначе: как «продукт культурно-исторического развития человека. Они связаны с определенными предметами, видами деятельности и людьми, окружающими человека. Чувства выполняют в жизни и деятельности человека, в его общении с окружающими людьми мотивирующую роль» [1].

«Чувства» (feelings) в западной традиции являются внутренними субъективными компонентами нашего восприятия, возникающими

в результате стимуляции органов чувств явлениями внешней среды или социальными взаимодействиями [3]. Чувства, возникающие вместе с эмоциями, могут быть связаны с воспоминанием об эмоции, которая, в свою очередь, нужна нам для того, чтобы обучаться и планировать будущее. Когда мы вызываем в памяти некоторую эмоцию, мы будто инстинктивно знаем, как действовать в будущем при аналогичных стимулах. Это подтверждают современные исследования в русле теории воплощенного познания [29]. Следовательно, эмоции — это не только чувства.

Эмоции также не являются только мыслями или воспоминаниями, поскольку относятся к аффективно-когнитивным феноменам, и аффективный компонент в этом определении не просто так стоит на первом месте.

Эмоции — это не настроения, не аффекты и не страсти. Эмоции преходящи, имеют определенную длительность, ограниченное время существования: они появляются сразу после возникновения стимула, достигают пика и затем, в нормальных условиях, постепенно их интенсивность снижается, и они угасают. Этим они похожи на аффекты, однако аффекты обладают яркой отличительной чертой, которая состоит в том, что «данная эмоциональная реакция неодолимо навязывает человеку необходимость выполнить какое-либо действие, но при этом у человека теряется чувство реальности» [2].

Настроения — это более длительные состояния нашего ума, связанные с комплексом стимулов, ситуационно обусловленные. Если эмоции быстро набирают интенсивность и довольно быстро угасают, настроения могут сохраняться в течение долгого времени.

Страсти в русской психологической традиции — «еще один вид сложных, качественно своеобразных и встречающихся только у человека эмоциональных состояний. Страсть представляет собой сплав эмоций, мотивов и чувств, сконцентрированных вокруг определенного вида деятельности или предмета» [4].

Таким образом, учитывая всю сложность и разнообразие эмоциональных явлений, с точки зрения вычислительного моделирования и исследований ИИ, мы не можем дать однозначного определения эмоций, но можем определить эмоции через два класса характеристик: их функции и свойства.

Среди свойств эмоций можно выделить такие: • приблизительность: эмоции — это почти мгновенно возникающие

реакции, учитывающие доступные данные памяти и результаты быстрого анализа ситуации (но не сложные когнитивные процессы с использованием алгоритмов и обширных данных);

• реактивность: возникают автоматически в ответ на стимуляцию;

• адаптивность: динамически подстраиваются на основании информации, поступающей из окружающей среды;

• способность эволюционировать: изменяются со временем в процессе обучения;

• социальность: существование социальных эмоций, связанных с референтной группой или эмоций толпы, возникающих в определенных ситуациях социального взаимодействия;

• контагиозность: наличие феномена реакции на действия других людей, эмоций, порождаемых зеркальными нейронами.

Используя знания об этих свойствах эмоций и применяя современные компьютерные технологии, можно делать попытки моделирования и управления эмоциями в рамках ИИ. Эти характеристики могут пролить свет на семантику эмоций, уникальную для информационных систем и сильно отличающуюся от семантики отдельных человеческих эмоций.

Эмоции не получится исследовать с помощью чрезмерно упрощенного подхода, который учитывает только положительные, отрицательные и нейтральные элементы. Такой подход не работает для анализа эмоций хотя бы потому, что, даже если предположить, что некоторые эмоции могут восприниматься как «плохие», ни одна эмоция не может считаться однозначно негативной или позитивной. Это связано с функциями, которые выполняют эмоции.

Кроме того, что эмоции обусловлены биологически и отвечают за мобилизацию человека в ситуации реагирования на стимул или комплекс стимулов, к их функциям можно отнести оценочную, компенсационную в части информационного дефицита, коммуникационную [3]. Например, когда мы испытываем страх, важно избегать его отрицания или блокирования. Вместо этого имеет смысл прислушиваться к нему, чтобы реагировать на опасность или перейти со временем к рефлексии, чтобы понять, как пережитый опыт влияет на нашу повседневную жизнь.

Переоценка эмоционального ИИ

Самая фундаментальная проблема инженеров, руководителей отделов продаж технологических компаний и ученых, связанная с эмоцио-

нальностью, заключается в том, что машины должны быть способны к выражению и проявлению эмоций хотя бы в какой-то степени, чтобы быть принятыми обывателями (то есть рынком) [11]. Хотя не подлежит сомнению, что люди взаимодействуют друг с другом в основном эмоциональным образом, не так очевидно, что HRI или HMI (взаимодействия человек — робот и человек — компьютер, соответственно) будут обязательно лучше с эмоциональными машинами и системами. Например, автоматы на заправочной станции, которые благодарят пользователя после заправки, часто не воспринимаются как вежливые, а наоборот, вызывают негативные эмоции. Одно из объяснений таково: проявление благодарности от ИИ ставит человека в нежелательное положение в социальной иерархии [37]. То же самое происходит с парковочными автоматами, которые разговаривают с пользователем во время приема парковочного билета, или банкоматами, бесполезно и довольно назойливо разговаривающими с пользователями при обработке карты. Каждый раз, когда функция непосредственно не приносит пользы, например, добавлена для поддержания доступности для разных категорий пользователей или по соображениям общей практичности, она не только на самом деле является лишней, но и часто воспринимается как раздражающая.

Также известны случаи, когда «вежливые» туалетные комнаты, которые распространены в Азии, могут раздражать пользователя, который не готов с ними взаимодействовать и ожидает тишины и приватности. Было выявлено нежелание пользователей MS Office эмоционально взаимодействовать с таким искусственным агентом, как Клиппи (Clippy), что стало одним из значительных просчетов компании Microsoft [11].

Даже социально-эмоциональные навыки — не самые необходимые для устройств: в то время как Amazon Alexa и Google Home успешно входят в дома, дружественный робот Jibo, созданный Синтией Бризил, ведущим инженером-исследователем в области социальной робототехники MIT (Massachusetts Institute of Technology — Массучусетский технологический институт), первоначально не был принят пользователями [13; 24]. Такая же судьба постигла в 2018 году робота Vector, созданного компанией Anki, и Kuri, произведенного Mayfield Robotics [26]. Ключевой причиной таких неудач является тот факт, что машины все еще не могут обеспечить качественную и адекватную эмоциональную обратную связь, которую ожидают от них люди, особенно в антропоморфных роботах или ИИ-помощниках. До сих пор, если люди хотят поделиться своими

эмоциями, они предпочитают делать это в компании других людей, хотя есть и исключительные индивиды, избегающие человеческого контакта и заявляющие о готовности жениться на голограммах или роботах [27].

Недооценка эмоционального ИИ

Чаще всего преимущества эмоциональных машин переоцениваются, что происходит не из-за их реальной пользы, а иногда просто потому, что таков «тренд», модное веяние в области робототехники. С другой стороны, иногда эффекты хорошо спроектированных эмоциональных машин недооцениваются. В качестве аргумента в пользу этой идеи я предлагаю рассмотреть пример изучения «эффектов харизмы», выявленных у политиков и мотивационных ораторов.

Недавнее исследование показало, что можно смоделировать просодику и тон речи харизматичных ораторов, таких как Стив Джобс [28], и показать, насколько они могут влиять на людей, подталкивая их к неправильным решениям. В одном исследовании были смоделированы просодика и тон Стива Джобса и Марка Цукерберга, и на этой основе созданы голоса для автомобильной навигационной системы. Одна группа испытуемых ехала в машине с голосом, похожим на голос Стива Джобса. Уже зная правильный путь к месту назначения, люди следовали неверным указаниям в 90% случаев. Такое поведение наблюдалось даже тогда, когда машины находились на дорогах за пределами города, где для 30% испытуемых единственный способ доехать до места назначения предполагал разворот в противоположную сторону. Когда их попросили дать оценку навигационной системе, они сказали, что полностью доверяют ей. Менее чем 10% испытуемых, следовавших за голосом Марка Цукерберга, следовали по неправильному пути до самого конца. Когда их попросили дать оценку системе, они сказали, что эта система ненадежная и не вызывает их доверия. Эти результаты вызвали у меня удивление и желание проверить представленные данные, например, провести аналогичный эксперимент с русскоязычной выборкой и использованием голосов известных в нашей стране харизматичных ораторов. Но также это исследование заставило меня задуматься о том, насколько часто и незаметно для большинства людей могут использоваться подобные технологии. Например, политики изучают и используют определенные способы коммуникации через интернет с акцентом на стимулирование эмоций, которые подтолкнут в итоге потенциальных

избирателей проголосовать за них в будущем [20]. На этих примерах становится очевидно, насколько опасным может быть манипулирование эмоциями. Исследователи должны понимать, что любая технология, которую они изобретают и выпускают на рынок, может также применяться для менее благовидных целей.

Спорный эксперимент, проведенный «Фейсбуком» в 2014 году [22; 35], также показал силу социальных медиа для изменения эмоционального поведения пользователей, а также для создания эмоционального заражения [14]. Суть эксперимента была проста — группам пользователей общим числом более тысячи человек предлагались разные сценарии взаимодействия с социальной сетью. В итоге в сравнении с контрольными группами у группы, которая на неделю полностью прекратила использовать «Фейсбук», проявились два значимых последствия: выросла удовлетворенность жизнью и увеличилось количество положительных эмоций, которые они испытывали в то время, когда не пользовались социальной сетью.

Учитывая, что в настоящее время бизнес во многом задает направление развития технологий, большая часть усилий в области распознавания и моделирования эмоций сосредоточена в области маркетинга, учитывающего интересы создателей услуг / сервисов. Возможно, вместо этого стоит сосредоточиться на подходе, ориентированном на пользователя, что может потенциально привести к созданию новых технологий для улучшения жизни людей [18].

С другой стороны, в некоторых конкретных сценариях использования ИИ эмоциональная привязанность между людьми и роботами должна быть тщательно изучена, чтобы предотвратить опасные для человека ответные реакции ИИ, например, если речь идет о военной робототехнике [12]. Высокий уровень доверия к ИИ может способствовать созданию новых технологий обмана людей со стороны компаний — владельцев роботов, потому что пользователи могут не знать о скрытом наблюдении и особых способностях (например, навыках слежки) своих искусственных компаньонов. В качестве безобидного примера можно привести робота Janken, который в 100% случаев выигрывает при игре в «камень-ножницы-бумагу» [21].

Сверхпринятие эмоциональности машин

Еще одной большой ошибкой, встречающейся во многих исследо-

ваниях по моделированию эмоционального ИИ, является реализация антропоморфного языка. Например, утверждать об эмоциональности ИИ и закладывать эмоцию страха с помощью инструкции «если-то» функционально неточно и даже больше похоже на мошенничество.

Эта подмена происходит после того, как человек субъективно присваивает какие-то значения входящим сигналам, а затем утверждает, что машина может «чувствовать», «понимать» или «быть счастливой». Смутное сходство между механизмами, лежащими в основе человеческих эмоций, и механизмами, внедренными в роботов, недостаточно для утверждения о том, что робот обладает эмоциональными способностями. Процессы имитации эмоций в НМ помогают улучшить качество взаимодействия [32], но не оправдывают разговоров об эмоциональной эмпатии машин: антропоморфные роботы, способные имитировать определенные базовые человеческие эмоции и реагировать на них, используя свою голову (и основные части тела), не реагируют таким же образом, как люди, и не управляют эмоционально-информационными процессами, а просто следуют предопределенному набору правил.

Чрезмерное упрощение человеческих эмоций

Всегда ли лучшие модели — самые простые? Если ограничивать выборку моделей для анализа только простыми моделями, существует риск потерять значительную часть описываемой области исследований и, таким образом, исказить реальную картину. Большинство ученых, изучающих эмоции и применяющих свои знания в разработке эмоциональных инструментов, склонны к использованию чрезмерно упрощенной модели: модели шести основных эмоций П. Экмана [10]. Понятно, что на начальном этапе исследований эмоций или когда появлялось распознавание эмоций и аффективные вычисления, лучше всего было начинать с простой модели, потому что сложная модель включает слишком много переменных для практической оценки результатов [9; 15]. В настоящее время, однако, многие исследователи склонны изобретать велосипед вместо того, чтобы переносить существующие хорошо разработанные теоретические подходы на следующий уровень проектирования и пытаться внедрить более сложные модели [17].

Базой для моделирования эмоций может служить мультимодальное распознавание эмоций, которое можно дополнить многомерной моделью (например, использовать модель восьми базовых эмоций Плутчика [30]),

при этом учитывать эмоциональную интенсивность или рассматривать различные составляющие моделей эмоциональной доступности [16] или контекст, в котором появляются эмоции.

Помимо рассмотрения более сложных и всеобъемлющих моделей, важно знать, что человеческие эмоции могут насчитывать более 130 вариаций, причем некоторые совершенно различны по своему выражению, если сравнивать их телесное выражение в разных культурах [25]. Но, к сожалению, большинство разработчиков моделей эмоций для ИИ используют простую модель эмоций, в которой не учитывается продолжительность существования разных эмоциональных проявлений, а также переходы от одной эмоции к другой.

Гендерные и культурные модели

Одним из наиболее важных аспектов ИИ и робототехники является то, что исследования в основном реализуются мужчинами. Социальные и экономические факторы приводят к тому, что женщины почти не участвуют в разработке ИИ и робототехники. В разработке алгоритмов присутствует несколько гендерных предубеждений, переносящих традиционные гендерные роли в роботизированные устройства [6; 34]. Хотя это очень сложная проблема для решения, можно проанализировать то, как эти гендерные предубеждения реализуются, что, в свою очередь, может помочь снизить количество таких «предубежденных» моделей ИИ. Это необходимо не только как способ достижения социальной справедливости и объективности, но и потому, что более точное понимание человеческих ценностей может помочь создать более эффективную и адаптированную систему. Примером происходящих изменений в области моделирования являются прошедшие недавно дебаты о необходимости создания нейтрального или бесполого голоса для помощников в системах искусственного интеллекта. Обычно в подобных системах используется женский голос, более приятный для мужчин, чем для женщин. Выбор такого голоса объясняется представлением о доброй услужливой помощнице, что плохо укладывается в современную парадигму гендерного равенства и разнообразия.

Наконец, еще одна важная проблема инженерных подходов к эмоциям состоит в том, могут ли они быть универсальными, в том числе и с точки зрения культуры. Хорошо известно, что выражение и регулирование эмоциональных сигналов может проявляться в разных культурах со-

вершенно по-разному. Например, в восточных культурах люди склонны скрывать некоторые эмоциональные состояния, которые выражаются (или не выражаются вовсе) с помощью более тонких механизмов, помимо изменений лицевых выражений.

С другой стороны, некоторые этнические группы склонны вместо этого преувеличивать эмоции голосом, жестами и выражением лица. Без учета локальных и разнообразных культурных особенностей [8] будущие разработки в области ИИ скорее всего будут не востребованы и финансово неуспешны, потому что будут построены с учетом культурных особенностей создателей. Следовательно, кросс-культурные исследования для робототехники и области ИИ имеют первостепенное значение [23; 31; 33].

Заключение

По результатам анализа современных подходов к моделированию эмоций выявились основные методологические сложности:

• Отсутствие общепринятого определения понятия «эмоция» и, как следствие, понятия «модель эмоций».

• Проблема однозначности используемой терминологии, невозможность сравнивать теоретические подходы к моделированию эмоций.

• Большой разброс аффективных состояний, которые могут включаться в модели: эмоции, чувства, настроения, страсти, аффекты.

• Модели эмоций ограничены функциями и свойствами эмоций, которые в них моделируются.

• Отсутствие методологических рекомендаций по созданию моделей эмоций и помещению их в систему искусственного интеллекта.

К сожалению, слишком часто ученые называют эмоциями то, что ими не является, а связано только с состоянием человека, общением или социальными связями. В качестве основы моделирования следует выработать и использовать единое определение эмоций в рамках междисциплинарного подхода. Полезно использовать простые модели, но чрезмерное упрощение может скрыть важные аспекты человеческого поведения.

В то же время возможность создавать новые устройства, которые могут действовать как индивидуальные агенты, требует от нас повышенной профессиональной ответственности и соблюдения этики моделирования [36]. Поскольку представления о гендере, расе и культуре создали

существенные барьеры между людьми и способны подрывать социальное сотрудничество (основу человеческого общественного устройства [7; 19]), их стоит выявлять и избегать их проникновения в ИИ или роботизированные системы. Фундаментальность проблемы эмоций для понимания человека вынуждает исследователей внимательно обсуждать и аккуратно использовать существующие ограниченные модели.

Литература

1. Выготский Л. С. Собрание сочинений. В 6-ти т. Т. 5. М.: Педагогика, 1983. C. 142-143.

2. Маклаков А. Г. Общая психология: учебник для вузов. СПб.: Питер, 2012. С. 393-394.

3. Симонов П. В. Эмоциональный мозг. Физиология. Нейроанатомия. Психология эмоций. М.: Наука, 1981. 214 с.

4. СтоляренкоЛ. Д., Столяренко В. Е. Психология и педагогика: учебник для академического бакалавриата. 4-е изд., перераб. и доп. М.: Юрайт, 2015. С. 163-164.

5. Шиллер А. В. Роль эмоций в когнитивно-аффективной системе как фактор развития архитектуры искусственных агентов // Вестник Московского университета. Серия 7: Философия. 2018. № 6. С. 78-90.

6. Adam A. Gendered knowledge — Epistemology and artificial intelligence // AI & Society. 1993. No. 7. P. 311-322.

7. Axelrod R. The Evolution of Cooperation. New York: Basic Books, Inc., 1984. P. 56-68.

8. Bartneck C., Nomura T., Kanda T., et al. A cross-cultural study on attitudes towards robots // Proceedings of the HCI International. 2005. P. 1981-1983.

9. Biondi G., Franzoni V., Poggioni V. A deep learning semantic approach to emotion recognition using the IBM watson bluemix alchemy language // Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics). 10406 LNCS. 2017. P. 719-729.

10. Biondi G., Franzoni V., Li Y., et al. Web-based similarity for emotion recognition in web objects // Proceedings of the 9th International Conference on Utility and Cloud Computing — UCC '16. 2016. P. 327-332.

11. Bonarini A. Can my robotic home cleaner be happy? Issues about emotional expression in non-bio-inspired robots // Adaptive Behavior. 2016. No. 24 (5). P. 335-349.

12. Carpenter J. Culture and human-robot interaction in militarized spaces: A war story. London: Routledge, 2016. P. 51-54.

13. CurumsingM. K., Fernando N., Abdelrazek M., et al. Understanding the impact of emotions on software: A case study in requirements gathering and evaluation // Journal of Systems and Software. 2019. No. 147. P. 215-229.

14. Ferrara E., Yang Z. Measuring Emotional Contagion in Social Media // PLoS ONE. 2015. No. 10 (11). P. 1-14.

15. Franzoni V., Milani A., Valverdu J. Emotional affordances in human-machine interactive planning and negotiation // Proceedings of 2017 IEEE/WIC/ACM International Conference on Web Intelligence. 2017. P. 924-930.

16. Franzoni V., Biondi G. SEMO: A semantic model for emotion recognition in web objects // Proceedings of 2017 IEEE/WIC/ACM International Conference on Web

Intelligence. 2017. P. 954-967.

17. Franzoni V., Milani A., Nardi D., et al. Emotional machines: The next revolution // Web Intelligence. 2019. No. 17. P. 1-7.

18. Franzoni V., Milani A. Emotion Recognition for Self-aid in Addiction Treatment, Psychotherapy, and Nonviolent Communication // IEEE Transactions on Affective Computing. 2019. Vol. 10. P. 18-31.

19. Howard A., Borenstein J. The Ugly Truth About Ourselves and Our Robot Creations: The Problem of Bias and Social Inequity // Science and Engineering Ethics. 2018. Vol. 24. P. 1521-1536.

20. Kanai R., Feilden T., Firth C., et al. Political orientations are correlated with brain structure in young adults // Current Biology. 2011. No. 21 (8). P. 677-680.

21. Katsuki Y., Yamakawa Y., Ishikawa M. High-speed Human / Robot Hand Interaction System // Proceedings of the Tenth Annual ACM/IEEE International Conference. 2015. P. 117-118.

22. Kramer A. D. I., Guillory J. E., Hancook J. T. Experimental evidence of massive-scale emotional contagion through social networks // Proceedings of the National Academy of Sciences of the United States of America. 2014. Vol. 111 (24). P. 8788-8790.

23. Lindblom J., Ziemke T. Social situatedness of natural and artificial intelligence: Vygotsky and beyond // Adaptive Behavior. 2003. Vol. 11 (2). P. 79-96.

24. Lopatovska I., Knight I., Raines K., et al. Talk to me: Exploring user interactions with the Amazon Alexa // Journal of Librarianship and Information Science. 2018. Vol. 51 (4). P. 984-997.

25. Lutz C. Unnatural emotions: everyday sentiments on a Micronesian Atoll and their challenge to western theory. The University of Chicago Press, 1988. P. 212-215.

26. MirnigN., Stollenberg G., Miksch M., et al. To Err Is Robot: How Humans Assess and Act toward an Erroneous Social Robot // Frontiers in Robotics and AI. 2017. Vol. 4. P. 1-21.

27. Morsunbul U. Attachment and Sex with Robots: An Assessment from Mental Health Perspective // Psikiyatride Guncel Yaklasimlar — Current Approaches in Psychiatry. 2018. Vol. 10 (4). P. 427-439.

28. Niebuhr O., Michalsky J. Computer-Generated Speaker Charisma and Its Effects on Human Actions in a Car-Navigation System Experiment — or How Steve Jobs' Tone of Voice Can Take You Anywhere // ICCSA 2019: Computational Science and Its Applications — ICCSA 2019. P. 375-390.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

29. NiedenthalP. M., Winkielman P., Vermeulen N., et al. Embodiment of emotion concepts // Journal of Personality and Social Psychology. 2009. Vol. 96, P. 1120-1136.

30. Plutchik R. A psychoevolutionary theory of emotions // Social Science Information. 1982. Vol. 21. P. 529-553.

31. RauP. L. P., Li Y., Li D. A cross-cultural study: Effect of robot appearance and task // International Journal of Social Robotics. 2010. Vol. 2. P. 175-186.

32. Riek L. D., Rabinowitch T.-C., Robinson P., et al. How anthropomorphism affects empathy toward robots // Human robot interaction. 2009. Vol. 3. P. 245-246.

33. Samani H., Saadatian E., PangN., et al. Cultural robotics: The culture of robotics and robotics in culture // International Journal of Advanced Robotic Systems. 2013. Vol. 10. P. 1-10.

34. Stroessner S. J., Benitez J. The Social Perception of Humanoid and Non-Humanoid Robots: Effects of Gendered and Machinelike Features // International Journal of Social Robotics. 2019. Vol. 11 (2). P. 305-315.

35. Tromholt M. The Facebook Experiment: Quitting Facebook Leads to Higher

Levels of Well-Being // Cyberpsychology, Behavior, and Social Networking. 2016. Vol. 19 (11). P. 661-666.

36. Whitworth B. Polite computing // Behaviour and Information Technology. 2005. Vol. 24 (5). P. 353-363.

37. Yip J. A., Chan C., Lee K. K., et al. Thanks for Nothing: Expressing Gratitude Invites Exploitation by Competitors // Harvard businessschool working paper 18-081. 2018. P. 1-42 [Электронный ресурс]. URL: https://www.hbs.edu/faculty/ Publication%20Files/18-081_00ece953-320c-4f90-8318-c9cebbbd4bf4.pdf (дата обращения: 07.09.2020).

BIASES AND ERRORS IN AI'S MODELING OF EMOTIONS

With the spread and successful implementation of machine learning methods and the development of technologies, as well as with the significant reduction in the cost of components used in mobile devices, the field of analysis and modeling of emotions has expanded significantly. Smartphone apps, web apps, and various AI assistants are created based on users ' requests for certain functionality: emotion recognition and demonstration of emotional behavior. Such practical requests push the development of scientific research in the field of emotion modeling, new models and approaches are emerging. At the same time, the ability to create new devices that can act as individual agents requires increased professional responsibility and compliance with modeling ethics. At the same time, many theoretical studies support or generate errors related to both methodological and social, value-based foundations of emotion modeling. The fundamental nature of the emotion problem forces researchers to discuss and carefully use existing limited models. The main purpose of this article is a brief analysis of various errors and biases that occur in many existing models. These include underestimating and, on the other hand, overestimating the capabilities of emotional machines, using anthropomorphic language for AI systems and mistakenly giving them emotionality, using oversimplified models of human emotions, cultural and gender biases, and methodological difficulties in developing an emotional system for AI.

Keywords: artificial intelligence, emotion modeling, AI methodology, "emotional" machines, artificial agents.

References

• Adam A. Gendered knowledge — Epistemology and artificial intelligence // AI & Society. 1993. No. 7. P. 311-322.

• Axelrod R. The Evolution of Cooperation. New York: Basic Books, Inc., 1984. P. 56-68.

• Bartneck C., Nomura T., Kanda T., et al. A cross-cultural study on attitudes towards robots // Proceedings of the HCI International. 2005. P. 1981-1983.

• Biondi G., Franzoni V., Poggioni V. A deep learning semantic approach to emotion recognition using the IBM watson bluemix alchemy language // Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics). 10406 LNCS. 2017. P. 719-729.

• Biondi G., Franzoni V., Li Y., et al. Web-based similarity for emotion recognition in web objects // Proceedings of the 9th International Conference on Utility and Cloud Computing — UCC '16. 2016. P. 327-332.

• Bonarini A. Can my robotic home cleaner be happy? Issues about emotional expression in non-bio-inspired robots // Adaptive Behavior. 2016. No. 24 (5). P. 335-349.

• Carpenter J. Culture and human-robot interaction in militarized spaces: A war story. London: Routledge, 2016. P. 51-54.

• CurumsingM. K., Fernando N., Abdelrazek M., et al. Understanding the impact of emotions on software: A case study in requirements gathering and evaluation // Journal of Systems and Software. 2019. No. 147. P. 215-229.

• Ferrara E., YangZ. Measuring Emotional Contagion in Social Media // PLoS ONE. 2015. No. 10 (11). P. 1-14.

• Franzoni V., Milani A., Valverdu J. Emotional affordances in human-machine interactive planning and negotiation // Proceedings of 2017 IEEE/WIC/ACM International Conference on Web Intelligence. 2017. P. 924-930.

• Franzoni V., Biondi G. SEMO: A semantic model for emotion recognition in web objects // Proceedings of 2017 IEEE/WIC/ACM International Conference on Web Intelligence. 2017. P. 954-967.

• Franzoni V., Milani A., Nardi D., et al. Emotional machines: The next revolution // Web Intelligence. 2019. No. 17. P. 1-7.

• Franzoni V., Milani A. Emotion Recognition for Self-aid in Addiction Treatment, Psychotherapy, and Nonviolent Communication // IEEE Transactions on Affective Computing. 2019. Vol. 10. P. 18-31.

• Howard A., Borenstein J. The Ugly Truth About Ourselves and Our Robot Creations: The Problem of Bias and Social Inequity // Science and Engineering Ethics. 2018. Vol. 24. P. 1521-1536.

• Kanai R., Feilden T., Firth C., et al. Political orientations are correlated with brain structure in young adults // Current Biology. 2011. No. 21 (8). P. 677-680.

• Katsuki Y., Yamakawa Y., Ishikawa M. High-speed Human / Robot Hand Interaction System // Proceedings of the Tenth Annual ACM/IEEE International Conference. 2015. P. 117-118.

• Kramer A. D. I., Guillory J. E., Hancook J. T. Experimental evidence of massive-scale emotional contagion through social networks // Proceedings of the National Academy of Sciences of the United States of America. 2014. Vol. 111 (24). P. 8788-8790.

• Lindblom J., Ziemke T. Social situatedness of natural and artificial intelligence: Vygotsky and beyond // Adaptive Behavior. 2003. Vol. 11 (2). P. 79-96.

• Lopatovska I., Knight I., Raines K., et al. Talk to me: Exploring user interactions with the Amazon Alexa // Journal of Librarianship and Information Science. 2018. Vol. 51 (4). P. 984-997.

• Lutz C. Unnatural emotions: everyday sentiments on a Micronesian Atoll and their challenge to western theory. The University of Chicago Press, 1988. P. 212-215.

• Maklakov A. G. Obshchaya psihologiya: uchebnik dlya vuzov. SPb.: Piter, 2012. S. 393394. [In Rus].

• MirnigN., Stollenberg G., Miksch M., et al. To Err Is Robot: How Humans Assess and Act toward an Erroneous Social Robot // Frontiers in Robotics and AI. 2017. Vol. 4. P. 1-21.

• Morsunbul U. Attachment and Sex with Robots: An Assessment from Mental Health Perspective // Psikiyatride Guncel Yaklasimlar — Current Approaches in Psychiatry. 2018. Vol. 10 (4). P. 427-439.

• Niebuhr O., Michalsky J. Computer-Generated Speaker Charisma and Its Effects on Human Actions in a Car-Navigation System Experiment — or How Steve Jobs' Tone of Voice Can Take You Anywhere // ICCSA 2019: Computational Science and Its Applications — ICCSA 2019. P. 375-390.

• Niedenthal P. M., Winkielman P., Vermeulen N., et al. Embodiment ofemotion concepts // Journal of Personality and Social Psychology. 2009. Vol. 96, P. 1120-1136.

• Plutchik R. A psychoevolutionary theory of emotions // Social Science Information. 1982. Vol. 21. P. 529-553.

• Rau P. L. P., Li Y, Li D. A cross-cultural study: Effect of robot appearance and task // International Journal of Social Robotics. 2010. Vol. 2. P. 175-186.

• Riek L. D., Rabinowitch T.-C., Robinson P., et al. How anthropomorphism affects empathy toward robots // Human robot interaction. 2009. Vol. 3. P. 245-246.

• Samani H., Saadatian E., Pang N., et al. Cultural robotics: The culture of robotics and robotics in culture // International Journal of Advanced Robotic Systems. 2013. Vol. 10. P. 1-10.

• Shiller A. V. Rol' emocij v kognitivno-affektivnoj sisteme kak faktor razvitiya arhitektury iskusstvennyh agentov // Vestnik Moskovskogo universiteta. Seriya 7: Filosofiya. 2018. № 6. S. 78-90. [In Rus].

• SimonovP. V. Emocional'nyj mozg. Fiziologiya. Nejroanatomiya. Psihologiya emocij. M.: Nauka, 1981. 214 s. [In Rus].

• Stolyarenko L. D., Stolyarenko V. E. Psihologiya i pedagogika: uchebnik dlya akademi-cheskogo bakalavriata. 4-e izd., pererab. i dop. M.: Yurajt, 2015. S. 163-164. [In Rus].

• Stroessner S. J., Benitez J. The Social Perception of Humanoid and Non-Humanoid Robots: Effects of Gendered and Machinelike Features // International Journal of Social Robotics. 2019. Vol. 11 (2). P. 305-315.

• Tromholt M. The Facebook Experiment: Quitting Facebook Leads to Higher Levels of Well-Being // Cyberpsychology, Behavior, and Social Networking. 2016. Vol. 19 (11). P. 661-666.

• VygotskijL. S. Sobranie sochinenij. V 6-ti t. T. 5. M.: Pedagogika, 1983. C. 142-143. [In Rus].

• Whitworth B. Polite computing // Behaviour and Information Technology. 2005. Vol. 24 (5). P. 353-363.

• Yip J. A., Chan C., Lee K. K., et al. Thanks for Nothing: Expressing Gratitude Invites Exploitation by Competitors // Harvard businessschool working paper 18-081. 2018. P. 1-42 [Elektronnyj resurs]. URL: https://www.hbs.edu/faculty/Publication%20Files/18-081_00ece953-320c-4f90-8318-c9cebbbd4bf4.pdf (data obrashcheniya: 07.09.2020).

i Надоели баннеры? Вы всегда можете отключить рекламу.