ЦЕННОСТНЫЙ ОПЫТ
УДК 17:008 ББК 87.7
В.В. Шляпников
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ЭМПАТИЯ И ПОДОТЧЕТНОСТЬ
Подотчетность является одним из ключевых факторов, способствующих этичности систем искусственного интеллекта. Подотчетность включает в себя такие аспекты, как безопасность, доверие, обоснованность, ответственность. Для повышения подотчетности необходимо учитывать точку зрения и требования различных заинтересованных сторон или субъектов, участвующих в разработке искусственного интеллекта. В этом отношении весьма эффективным может быть использование эмпатии, т.е. способности быть чутким к потребностям кого-то, основанной на понимании его эмоциональных состояний и намерений, заботе о его чувствах, что может помочь в решении социально-технических проблем, связанных с подотчетностью. Искусственная эмпатия представляет собой способность искусственного интеллекта распознавать человеческие эмоции и соответствующим образом на них реагировать. В статье выявляется взаимосвязь между эмпатией и подотчетностью, а также определяются требования к эмпатиче-ским системам искусственного интеллекта.
Ключевые слова:
искусственный интеллект, подотчетность, цифровая этика, эмпатия, этика.
Шляпников В.В. Искусственный интеллект: эмпатия и подотчетность // Общество. Среда. Развитие. - 2022, № 3. - С. 100-103. - DOI 10.53115/ 19975996_2022_03_100-103
© Шляпников Виктор Валерьевич - кандидат философских наук, доцент, Санкт-Петербургский университет ГПС МЧС России, Санкт-Петербург; e-mail: [email protected]
В настоящее время повышается интерес к разработке «эмпатических систем искусственного интеллекта» [19]. Однако при разработке таких систем используются в основном косвенные данные, такие как выражение лица, голосовые сигналы и жесты, и не учитывается множество других аспектов. Как отмечают некоторые исследователи, из виду упускается более широкий социальный контекст проблемы, что приводит к неудовлетворительным решениям [16]. Причиной этого является непонимание взаимосвязи эмпатии с подотчетностью. Несмотря на то, что была проделана значительная работа по изучению как эмпа-тии, так и подотчетности в области искусственного интеллекта (ИИ), эти концепции в основном анализировались как две отдельные сущности, без понимания их взаимозависимости.
В данной статье выявляется взаимосвязь между эмпатией и подотчетностью, с
опорой, в том числе, на результаты исследований в различных социальных и гуманитарных науках. В связи с этим определяются требования к эмпатическим системам искусственного интеллекта.
В последние годы появилось множество документов, посвященных этическим принципам систем искусственного интеллекта, как корпоративных, так и государственных и межгосударственных, которые активно обсуждаются и анализируются [3; 5; 6]. Подотчетность считается одним из ключевых факторов, способствующих этичности систем ИИ, однако она определяется и рассматривается с разных точек зрения в зависимости от целей различных заинтересованных сторон или субъектов, участвующих в разработке ИИ [18].
Ученые в области искусственного интеллекта, разработчики программного обеспечения, руководители корпораций и лица, принимающие решения, конеч-
ные пользователи предъявляют разные требования, что приводит к разным взглядам на подотчетность. Ученые в области ИИ разрабатывают алгоритмы; разработчики сосредоточиваются на аудите систем искусственного интеллекта для повышения их надежности и безопасности; регулирующие органы оценивают системы ИИ на предмет их соответствия законодательству; лица, принимающие решения, обосновывают использование этих систем; конечные пользователи ищут системы, которые заслуживают доверия. Таким образом, подотчетность включает в себя такие аспекты, как безопасность, доверие, обоснованность, ответственность. Различные исследования сосредоточены, как правило, на изучении какого-нибудь одного из этих аспектов с точки зрения какой-нибудь одной заинтересованной стороны, например, ученых и разработчиков [10; 13] или конечных пользователей [12]. Это приводит к тому, что потребности в подотчетности других заинтересованных сторон в значительной степени не удовлетворяются. Для повышения подотчетности необходимо учитывать точку зрения и требования различных заинтересованных сторон. В этом отношении весьма эффективным может быть использование эмпатии, т. е. способности поставить себя на место другого человека и способности понять его чувства и эмоции.
Большинство исследований, посвященных подотчетности искусственного интеллекта, изучают различные аспекты подотчетности независимо друг от друга, не анализируя взаимосвязь между ними. Понимание взаимосвязей между такими аспектами, как ответственность, обоснованность, доверие, безопасность и т.д., помогает повысить общую подотчетность системы ИИ за счет удовлетворения потребностей различных заинтересованных сторон. Эмпатия является ключевым помощником в достижении этого.
Эмпатию часто определяют как способность человека видеть мир таким, каким его видят другие. Утверждается, что эмпа-тия - это сложный многоступенчатый процесс, включающий восприятие перспективы, чувства, действия, смысл, понимание, воображение [9]. Таким образом, эмпатия включает в себя понимание намерений людей и развитие связи с ними через социализацию и заботу.
Взаимосвязь между эмпатией и подотчетностью анализируется во многих областях знания: менеджменте, психологии,
философии. Так, подотчетность является важным аспектом функционирования любой организации [14]. Подотчетность включает в себя как положительные, так и отрицательные аспекты: например, вознаграждение за хорошую работу и наказание за плохую работу. Чаще всего люди, занимающие руководящие должности и принимающие решения, сталкиваются с задачей как привлечения людей к ответственности, так и сочувствия к их трудностям, поэтому подчеркивается важность как подотчетности, так и эмпатии для успешного лидерства и организационного развития.
Существует естественная тесная связь между подотчетностью и эмпатией в области философии и религии. Понятие подотчетности встроено в принципы любой философии, а эмпатия включена в ценности, которые характеризуют эти принципы. Например, индуизм делает упор на закон «кармы», который, помимо прочего, влечет за собой ответственность человека за его действия. Центральное место в законе «кармы» занимает концепция эмпатии, согласно которой действия не должны причинять вред другим. Исследуя связь между буддизмом и этикой искусственного интеллекта [7], автор подчеркивает, насколько эмпатия необходима для устранения дискриминации и тем самым для повышения подотчетности. Размышляя о буддийских принципах «ахимсы» или ненасилия, автор проводит аналогии со справедливостью искусственного интеллекта и утверждает, что для обеспечения справедливости и повышения подотчетности важно сопереживать всем, кто участвует в разработке ИИ.
В общих рамках этического сентиментализма, который рассматривает мораль как эмоциональную реакцию на действия других и самого себя, психологи также обращались к эмпатии для объяснения природы моральных суждений [8; 17].
Исследования в области социальных и гуманитарных наук показывают, что, регулируя эмпатию, можно повысить подотчетность [2]. Регулирование эмпатии признает тот факт, что эмоции у разных людей могут отличаться, и что за любой проблемой стоит более широкий социальный контекст. Это подразумевает, что общие данные, такие как выражения лица и жесты, являются плохими показателями эмпатии. Таким образом, существует необходимость прояснить роль эмпатии для подотчетности в области искусственного
см со
О
3
ю О
интеллекта. Включение понятия эмпатии помогает признать, что подотчетность по своей сути является социально-технической проблемой, а не чисто технической. Эмпатия может повысить подотчетность ИИ если ее надлежащим образом включить в разработку систем искусственного интеллекта [15].
В области искусственной эмпатии проводится большое количество исследований: от роботов-компаньонов, которые могут обнаруживать человеческие эмоции и реагировать на них эмпатическим способом, до разговорных чат-ботов или цифровых помощников. Например, эмоциональный искусственный интеллект ЕтраЛ, который может идентифицировать эмоции по свойствам голоса в режиме реального времени независимо от языка [4] или искусственный интеллект-компаньон XiaoIce с эмоциональной связью, удовлетворяющий человеческую потребность в общении, привязанности и социальной принадлежности [19].
Однако у включения эмпатии в дизайн и разработку систем искусственного интеллекта могут быть недостатки, а эмпа-тия без подотчетности может принести вред. Хотя эмпатия способствует просо-циальному поведению и сотрудничеству, в некоторых случаях она может даже углубить разногласия между различными группами, поскольку мы с большей вероятностью будем сопереживать тем, кто принадлежит к схожим социальным, расовым и политическим кругам [11]. Ограничения эмпатии становятся наиболее очевидными в условиях конкуренции и конфликтов, поэтому исследователи в области искусственного интеллекта должны признать необходимость разработки эмпатических систем, которые также были бы полезными, справедливыми и подотчетными. В некоторых исследованиях утверждается, что способ решения конфликтных ситуаций заключается в регулировании эмпатии посредством обеспечения подотчетности [1]. Эмпатия не вызывает предвзятости в условиях высокой подотчетности. Таким образом, использование эмпатии для разработки подотчетных систем искусственного интеллекта может быть полезным, поскольку регулируется не только эмпатия, но и повышается подотчетность.
Конкретные решения можно убедительно объяснить и обосновать, если система искусственного интеллекта способна понимать эмоциональные состояния и намерения заинтересованных сто-
рон, Аналогичным образом понимание намерений заинтересованных сторон и их моделей социализации (то есть того, как заинтересованные стороны сообщают о своих требованиях) может помочь в аудите и отчетности системы ИИ. Проиллюстрируем это двумя примерами из недавнего исследования [15]. Предположим, есть два заявителя: один человек X, который ищет ссуду для покупки более комфортной машины, чем та, что у него есть, и другой человек Y, который ищет ссуду для оплаты обучения. В этом случае цель кредита также должна быть принята во внимание при принятии решения. Поскольку образовательные потребности более важны, чем наличие лучшей машины, разумно обеспечить более высокий уровень отбора для лица ^ Помимо максимизации выгод, банк также несет ответственность как подотчетная организация за минимизацию негативных последствий кредитных решений. Таким образом, внедряя понятие эмпатии, банк может свести к минимуму негативные последствия и тем самым повысить свою подотчетность.
Или предположим, что схема стимулирования разработана таким образом, что те заявители, которые погасят свой кредит до установленного срока, получат более низкую процентную ставку при следующей заявке на кредит в банке. Этот стимул приносит пользу не только заявителю, но и банку, поскольку он создает новые возможности для банка и снижает нагрузку на заявителя при следующем обращении за кредитом, тем самым укрепляя взаимное доверие между банком и заявителем. Можно разработать множество таких стимулов, способствующих эмпатии, которые также повышают подотчетность.
Таким образом, включение эмпатии в системы искусственного интеллекта влечет за собой создание и внедрение новых возможностей и требований, таких как учет субъективных точек зрения различных заинтересованных сторон, а также принятие решений не только на основе косвенных данных. Для этого необходимо понимание намерений всех заинтересованных сторон и контекстуальной информации, связанной с их эмоциональными состояниями и моделями социализации. Кроме того, эмпатические системы искусственного интеллекта должны заботиться о благополучии пользователей и демонстрировать ответственность при принятии решений.
Список литературы:
103
[1] Batista E. Accountability and Empathy (Are Not Mutually Exclusive) // Batista E. Executive Coaching. -Интернет-ресурс. Режим доступа: https://www.edbatista.com/2019/04/accountability-and-empathy. html#:~:text=That%20widely%2Dheld%20mental%20model,extension%2C%20of%20the%20leader's%20 behavior
[2] Blader S.L., Rothman N.B. Paving the Road to preferential Treatment with good Intentions: Empathy, Accountability and Fairness // Journal of Experimental Social Psychology. - 2014, vol. 50.- P. 65-81. - DOI: https://doi.org/10.1016/j.jesp.2013.09.001
[3] Canca C. Operationalizing AI ethics Principles // Communications of the ACM. Vol. 63. - 2020, № 12. -P. 18-21. - DOI: https://doi.org/10.1145/3430368
[4] Empath // Vocal Emotion AI. - Интернет-ресурс. Режим доступа: https://www.webempath.com/
[5] Fjeld J., Achten N., Hilligoss H., Nagy A., Srikumar M. Principled artificial Intelligence: mapping Consensus in ethical and rights-based Approaches to Principles for AI // Berkman Klein Center Research Publication. -2020, № 1. - DOI: http://dx.doi.org/10.2139/ssrn.3518482
[6] Hagendorff T. The Ethics of AI Ethics: an Evaluation of Guidelines // Minds and Machines. Vol. 30. - 2020, № 1. - P. 99-120. - DOI: https://doi.org/10.1007/s11023-020-09517-8
[7] Hongladarom S. The Ethics of AI and Robotics: A Buddhist Viewpoint. - Lanham: Lexington Books, 2020. -230 с.
[8] Kauppinen A. Empathy, Emotion Regulation, and Moral Judgment // Empathy and Morality. - Oxford Scholarship Online, 2014. - DOI: 10.1093/acprof:oso/9780199969470.003.0005
[9] Keskin S.C. From what isn't Empathy to Empathic Learning Process // Procedia - Social and Behavioral Sciences. - 2014, vol. 116. - P. 4932-4938. - DOI: https://doi.org/10.1016/j.sbspro.2014.01.1052
[10] Koh P.W., Liang P. Understanding Black-box Predictions via Influence Functions // Proceedings of the 34th International Conference on Machine Learning, Sydney, Australia, PMLR 70. - 2017. - P. 1885-1894. - Интернет-ресурс. Режим доступа: http://proceedings.mlr.press/v70/koh17a/koh17a.pdf
[11] Kwon D. The limits of empathy // The Psychologist. - 2017, vol. 30. - P. 28-32. - Интернет-ресурс. Режим доступа: https://thepsychologist.bps.org.uk/volume-30/january-2017/limits-empathy
[12] Narayanan M., Chen E., He J., Kim B., Gershman S., Doshi-Velez F. How do Humans Understand Explanations from Machine Learning Systems? An Evaluation of the Human-Interpretability of Explanation. - 2018. -Интернет-ресурс. Режим доступа: https://arxiv.org/pdf/1802.00682.pdf
[13] Park D.H., Hendricks L.A., Akata Z., Rohrbach A., Schiele B., Darrell T., Rohrbach M. Multimodal Explanations: Justifying Decisions and Pointing to the Evidence // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). - 2018. - P. 8779-8788. - Интернет-ресурс. Режим доступа: https://openaccess.thecvf.com/content_cvpr_2018/papers/Park_Multimodal_Explanations_ Justifying_CVPR_2018_paper.pdf
[14] Romme A.G.L. Climbing up and down the Hierarchy of Accountability: Implications for Organization Design // Journal of Organization Design. - Vol. 8, - 2019, № 1. - DOI: https://doi.org/10.1186/s41469-019-0060-y
[15] Srinivasan R., González B.S.M. The Role of Empathy for artificial Intelligence Accountability // Journal of Responsible Technology. - 2022, vol. 9.. - DOI: https://doi.org/10.1016/jjrt.2021.100021
[16] Stark L., Hoey J. The Ethics of Emotion in artificial Intelligence Systems // In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT'21). Association for Computing Machinery. - New York, NY, USA. - 2021. - P. 782-793. - DOI: https://doi.org/10.1145/3442188.3445939
[17] Stueber K. Empathy // The Stanford Encyclopedia of Philosophy (Fall 2019 Edition). - Интернет-ресурс. Режим доступа: https://plato.stanford.edu/archives/fall2019/entries/empathy/
[18] Wieringa M. What to Account for when accounting for Algorithms: a systematic Literature Review on algorithmic Accountability // Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (FAT'20). Association for Computing Machinery, New York, NY, USA. - 2020. - P. 1-18. -DOI: https://doi.org/10.1145/3351095.3372833
[19] Zhou L., Gao J., Li D., Shum H.-Y. The Design and Implementation of XiaoIce, an empathetic social Chatbot // Computational Linguistics. - Vol. 46. - 2020, № 1. - P. 53-93. - DOI: https://doi.org/10.1162/coli_a_00368
3
\o О