Ю. В. Назарова,
Тульский государственный педагогический университет
им. Л. Н.Толстого
А. Ю. Каширин
Тульский государственный педагогический университет
им. Л. Н.Толстого
ДИЛЕММЫ ЭТИКИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА1
В статье продолжается исследование этики искусственного интеллекта, предпринятое в предыдущей статье «Этика искусственного интеллекта в современной Росси: актуальные проблемы и тенденции развития» [2]. Одним из этапов анализа этики искусственного интеллекта (далее - ИИ) является реконструкция моральных дилемм ИИ, что поможет четко обозначить основные проблемы этики ИИ и впоследствии станет инструментом для этического анализа правовой базы ИИ в России. На основании отечественных и зарубежных исследований по этике ИИ, нормативных документов, касающихся ИИ, мнений разработчиков ИИ, выводов предыдущей статьи (о содержании этических проблем ИИ, этико-нормативных оснований ИИ, локуса и этоса ИИ) формулируются дилеммы ИИ, описывается и анализируется их этическое содержание, этически оцениваются возможные последствия применения ИИ.
Ключевые слова: цифровая этика; этика искусственного интеллекта, дилеммы искусственного интеллекта; имитация нравственной рефлексии; технологизация этики, этическая верификация.
Yu. V. Nazarova,
Tula State Lev Tolstoy Pedagogical University,
(Tula, Russia)
A. Yu. Kashirin
Tula State Lev Tolstoy Pedagogical University,
(Tula, Russia)
DILEMMAS OF THE ARTIFICIAL INTELLIGENCE ETHICS
The article continues the study of the ethics of artificial intelligence, undertaken in the previous article "Ethics of artificial intelligence in modern Russia: current challenges and development trends" [2]. One of the stages in the analysis of the artificial intelligence ethics (hereinafter referred to as AI) is the reconstruction of the moral dilemmas of AI. This will help to identify clearly the main problems of AI ethics and will subsequently become a tool for the ethical analysis of the AI legal framework in Russia. The article formulates AI dilemmas on the basis of domestic and foreign research on the ethics of AI, regulatory documents related to AI, the opinions of AI developers, the conclusions of the previous article (on the content of ethical problems of AI, ethical and regulatory foundations of AI, the locus and ethos of AI). On the same basis, the authors describe and analyze the ethical content of AI dilemmas and ethically evaluate the possible consequences of using AI.
1Статья написана при поддержке Фонда Президентских грантов в рамках реализации научно-просветительского проекта "Just science!"
Keywords: digital ethics; ethics of artificial intelligence, dilemmas of artificial intelligence; imitation of moral reflection; technologization of ethics, ethical verification.
DOI 10.22405/2304-4772-2020-1 -4-23-31
Актуальность исследования содержания этики искусственного интеллекта раскрывается с двух сторон. С одной стороны, технологии ИИ стремительно расширяются, становясь одним из центральных объектов государственных интересов; это порождает большое количество вопросов этического характера, на границах этики ИИ с политической этикой, этикой бизнеса, правовой этикой, этикой образования и даже этикой войны. По словам И. Ашманова «нас накрывает цифровое цунами. И совершенно неизвестно, что оно оставит после» [4]. Как сообщает, в частности, сайт ICT Moscow, «президент РФ Владимир Путин, выступая на конференции AI Journey, анонсировал цифровую трансформацию России с повсеместным внедрением технологий искусственного интеллекта (ИИ) и больших данных в ближайшие 10 лет... Это формирование стратегии цифровой трансформации 10 ключевых отраслей российской экономики; внедрение ИИ-алгоритмов во все рабочие процессы; запуск экспериментальных правовых режимов, для реализации которых правительству поручено оперативно разработать соответствующие законы; повышение эффективности управленческих процессов с помощью ИИ; совершенствование системы образования, в том числе школьного, в области современных технологий. Также президент поручил в начале 2021 года внести проект закона о доступе ИИ-разработчиков к государственным большим данным. Получить бесплатный доступ к статистическим данным - к показателям рождаемости, смертности, заключения браков, разводов - бизнес сможет уже в 2023 году. К этому времени Росстат планирует запустить центральную аналитическую платформу «Население», она должна стать «витриной данных» для граждан и бизнеса. В отличие от нынешней системы Росстата, которая фиксирует показатели ежемесячно, предполагается, что новая платформа будет это делать в режиме реального времени» [5].
С другой стороны, острую актуальность вопросов этики искусственного интеллекта отмечают и сами его разработчики, которые указывают на необходимость создания алгоритмов этико-нормативного характера уже на стадии разработки ИИ. Так, в открытом письме «Приоритеты исследований в области надежного и эффективного искусственного интеллекта» [7] (2015), подписанным многими учеными и общественными деятелями со всего мира, перечислены те направления, на которые необходимо обратить внимание при внедрении новых технологий; так, одним из приоритетных направлений называется изучение этики искусственного интеллекта, которое, по мысли авторов письма, связано и с вопросами в области права. В частности, в документе говорится о том, что «в процессе разработки интеллектуальных автономных систем поднимаются вопросы, которые охватывают право, государственную политику, профессиональную этику и философскую этику,
поэтому для них требуется экспертиза специалистов по компьютерным технологиям, юристов, политологов и этиков» [7] (перевод - Ю. Н., А. К).
По словам Г. Грефа (из выступления на конференции AI Journey), цитируемым на официальном сайте Сбера, «для современных компаний важно сформулировать этические принципы разработки и использования ИИ. Поэтому мы приняли для себя решение внедрить такие принципы у себя в компании. Ранее внутренние принципы этики разработки и применения ИИ опубликовали ведущие мировые разработчики, среди которых Google, DeepMind и Microsoft. Создание рекомендаций по этике ИИ также занимаются ЮНЕСКО, а Совет Европы обсуждает проект специальной конвенции по ИИ» [8].
Вышеприведенный обзор показывает, что в России вопросы об этике ИИ были подняты на самом высоком уровне, причем совсем недавно - в декабре 2020 года - и, главным образом, касаются проблемы внедрения этико-нормативных критериев и механизмов в ИИ на стадиях его разработки и применения. Такой подход к этике ИИ концентрируется вокруг технологий, как таковых, и профессиональной этики его разработчиков и пользователей. С другой стороны, этический анализ ИИ с точки зрения последствий его применения в нашей стране, на основании существующих законов об ИИ и этических кодексов пока не предпринят, хотя очевидно, что эта тема - наиболее актуальная для общества, поскольку может повлечь социальные последствия, которые коснутся каждого. Эти вопросы лежат в области философской и прикладной этики: является ли искусственный интеллект средством достижения всеобщего блага или средством ограничения гражданских свобод? Каково место человека в цифровом обществе, управляемым искусственным интеллектом? Насколько этически допустимо «обезличивание персональных данных»? Возможно ли, что, в целом, технологии искусственного интеллекта заставят нас изменить философские представления о человеке, обществе, правах, свободах, морали, ценностях - что неизбежно и радикально изменит правовое поле, общественное устройство, нравы, и самого человека во всем многообразии его проявлений?
Обозначение проблем ИИ в духе прикладной этики - в форме дилеммы -поможет сформулировать содержание этики ИИ, что значительно расширит представления об этических критериях применения ИИ и поможет при прогнозировании будущих проблем социального, экономического, культурного и политического характера, связанных с ИИ.
В этой связи в статье предполагается решить ряд задач:
- конкретизировать этические проблемы ИИ на основании: а) документов, связанных с деятельностью разработчиков ИИ; б) этических исследований ИИ
- провести сравнительный анализ указанных работ с целью выявления общих мнений по проблемам ИИ
- сформулировать дилеммы этики ИИ и провести этический анализ их содержания
Указ Президента РФ от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации», определяет ИИ как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное
обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений» [9]. Таким образом, ИИ предстает как имитация интеллектуальных функций человека. Об этом говорит и российский предприниматель и разработчик технологий ИИ Игорь Ашманов: «с точки зрения разработчиков ИИ, а я разработчик, искусственный интеллект - это просто набор, пучок математических методов оптимизации машинного обучения, которые позволяют имитировать некоторые когнитивные - то есть умственные, ментальные - функции человека. Именно имитировать» [4].
Вместе с тем, возникает вопрос об этической ответственности разработчиков, который касается не только области инженерной этики или этики ученого. Этическая ответственность за технологические решения вторична, и относится к сфере профессиональной этики. В то же время главным в этике ИИ является вопрос об этическом содержании целей внедрения ИИ в «информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений» [9], а также в экономику, право, управление, образование [8] и т.д. В этом смысле этику ИИ необходимо рассматривать не саму по себе, а в связи с политической, экономической, правовой и этикой образования; поэтому, этика ИИ приобретает масштабы прикладной этики, становясь основной этической проблемой в глобальном масштабе.
В политическом аспекте, цель развития технологий ИИ - по замечанию Ашманова - повышение обороноспособности страны: «у нас доктрина - как кибер, так и военная, исключительно оборонная. Это некое идеологическое свойство нашего народа, нашей нации. Мы очень сильно оторвались в области радиоэлектронной борьбы, прямо всех обогнали... Но рано или поздно встанет вопрос: а у кого искусственный интеллект круче? И после этого можно будет дальше обсуждать его влияние на гражданскую жизнь и на экономику» (курсив - Ю. Н, А. К.) [4].
Вышесказанное отсылает к вопросам об этике кибервойны и кибербезопасности, которые поднимались на Западе, например, в рамках Семинара «Этика и политика кибервойны», Центра передового опыта Совместной киберзащиты НАТО (NATO CCD COE), который прошел 11-12 ноября 2014 года в колледже Магдалины в Оксфорде. В нем приняли участие эксперты из Великобритании, США, Германии, Испании, Италии,
Нидерландов, Норвегии и Эстонии [10]. Такой масштаб обсуждения проблемы говорит о ее исключительной важности.
В этой связи на первый план в этике ИИ выходят принципы надежности и предсказуемости технологий, о которых, например, упоминают разработчики кодекса этики для ИИ в Сбере (утверждается, что это один из первых документов по этике ИИ на русском языке [8]). Возникает вопрос -каким должен быть этический идеал ИИ? А. Разин в статье «Этика искусственного интеллекта» [3, ^ 57-73] отмечает, что на данный момент наиболее технологически сложным и этически неоднозначным является создание такого ИИ, который будет автономно оценивать не учтенные в его алгоритме ситуации. Автор также обращает внимание на то, что в ИИ должны быть изначально заложены определенные этические ограничения и аналог нравственной рефлексии, возможность оценки рисков, критерии индивидуального опыта, понимание и оценка сделанных ошибок и допустимая степень ошибочности принятия решений [3, ^ 57-73]. Возникает дилемма технологизации морали: если ИИ является имитацией когнитивных функций, то допустимо ли, чтобы он был имитацией нравственной рефлексии? Кто будет определять необходимый этический минимум ИИ? В чем заключается содержание этого минимума? В какой области этики должен находится этот минимум - в области философской этики или в области прикладной, или профессиональной этики? Так, авторы статьи «Об этике и системах искусственного интеллекта» [1, с. 85-102] (Карпов В. Э., Готовцев П. М., Ройзензон Г. В.), утверждают, что этика ИИ по своей сути отличается, например, от других видов этики науки, так как «в искусственном интеллекте этические вопросы ближе к пониманию этики в философском или социогуманитарном смысле, и связаны эти этические аспекты, прежде всего, с тем, что они касаются вопросов поведения и принятия решений» [1, ^ 85] (курсив - Ю. Н., А. К.), и отмечают, что этическое программирование в принципе возможно, однако главной проблемой на этой пути является этическая верификация: «эта верификация заключается в комплексе тестов, способных определить «степень этичности» интеллектуальной системы. При этом, судя по всему, иного способа определения этой степени, кроме наблюдений за реакциями и поведением исследуемой ИИС, не существует» [1, ^ 102].
Какие именно сферы применения ИИ должны подлежать этической технологизации? Анализ упоминаемого выше открытого письма «Приоритеты исследований в области надежного и эффективного искусственного интеллекта» [7] позволил выделить следующие сферы, где необходим этический контроль: военные технологии; беспилотные транспортные средства; вопросы конфиденциальности, в аспекте кибербезопасности, а также в условиях кибервойн; вопрос о роли профессиональной этики в процессе разработки ИИ технологий; вопросы политической этики при применении ИИ в политических целях.
В то же время анализ исследований по ИИ, проводимых в Лаборатории цифровой этики Оксфордского университета показывает следующие актуальные (на 2019 год) вопросы ИИ [6]: как ИИ определяется, объясняется и этически обосновывается теми, кто его разрабатывает и внедряет? Каковы преимущества и недостатки сотрудничества между гражданским обществом, некоммерческими организациями, научными кругами, промышленностью и правительством в разработке успешного ИИ? Каковы риски утечки конфиденциальных данных? Каковы последствия применения ИИ для разных мест и групп населения? Как цифровые технологии влияют на разные культурные и социальные группы? Какие этические принципы, кодексы или передовые практики должны использоваться при разработке и внедрении ИИ? Каким образом использование цифровых технологий в сферах занятости или образования может повлиять на личность? В чем заключаются этические правила использования цифрового следа? Представляют ли цифровые информационные технологии новую форму колониализма и эксплуатации?
Этические дилеммы ИИ можно реконструировать, принимая во внимание вышеизложенные исследования и точки зрения. Этическая дилемма выражает: а) парадоксальность ситуации; б) ситуативность решения; в) уникальность каждой проблемы, относящейся к такой дилемме.
Дилемма целей и средств. «ИИ является средством достижения всеобщего блага» - «ИИ является целью общества и всеобщим благом». Эта дилемма может породить различные точки зрения на природу ИИ, его цели и задачи в широком смысле, его влиянии на общество, культуру, политику, экономику, в частности, на рынок труда и занятость. Кроме того, эта дилемма может быть связана с вопросом об оборонном назначении ИИ для государства.
Дилемма свободной воли. «ИИ выражает интересы общества (в этическом смысле - определяет содержание всеобщего блага), поэтому его решения изначально морально безупречны» - «ИИ выражает интересы общества, поэтому ИИ выступает как замена свободной воли человека, предлагая готовые решения, которые могут вступать в противоречие с моральными принципами конкретного индивидуума». Сразу же возникает вопрос - какие критерии можно использовать при определении содержания во-первых, всеобщего блага, и, во-вторых, кто должен определять эти критерии при разработке ИИ? Этот вопрос порождает следующую дилемму - дилемму ответственности.
Дилемма ответственности. «К ИИ не могут быть применимы моральные критерии, и поэтому никто не является ответственным за возможные решения ИИ» - «К ИИ не могут быть применимы моральные критерии, и поэтому ИИ должен быть областью внимательного этического контроля; все, так или иначе связанные с ИИ должны нести за него этическую ответственность». В этой связи возникает вопрос об этическом статусе ИИ, который выражается в дилемме технологизации морали.
Дилемма технологизации морали. «ИИ должен быть запрограммирован на определенный минимум морали, для обеспечения надежности и
безопасности, он должен имитировать мораль, как имитирует интеллектуальные способности человека» - «Имитация морали не может быть моралью».
Тем не менее, это всего лишь верхушка айсберга - можно назвать еще ряд дилемм, относящихся к частным проблемам этики ИИ, например:
Дилемма обезличивания (вопрос об обезличивании персональных данных в рамках технологий ИИ)
Дилемма приватности (вопрос о цифровой прозрачности персональных данных)
Дилемма творчества (что эффективнее - творческий подход к проблеме или заданный ИИ алгоритм)
Дилемма туннеля (когда человек не видит иных решений, чем те, что предлагает ИИ)
Дилемма справедливости (связана с использованием ИИ в судебной практике)
Дилемма виртуальности (когда многие сферы жизни переходят в виртуальную плоскость)
Дилемма зависимости (когда от ИИ начинают зависеть большинство сфер социальной жизни)
Это основные дилеммы этики ИИ, определяющие характер общезначимых глобальных проблем, связанных с его технологиями. В России, несмотря на начавшийся эксперимент по внедрению цифровых технологий, отсутствует внятная правовая база для применения ИИ; население практически не информировано ни о проводимом эксперименте, ни о том, что такое технологии ИИ и каковы конкретные цели их внедрения. Привлекается мало отечественных научных исследований для оценки возможных этических рисков ИИ в текущей экономической, политической, технологической, социальной ситуации в нашей стране, что ставит под сомнения попытки создания эффективного этического кодекса для ИИ. Все это говорит о том, что этика ИИ - тема, которая должна исследоваться комплексно и обсуждаться публично, с привлечением специалистов по компьютерным технологиям, экспертов в области этики, представителей общественности - как это обычно бывает при оценке проблем прикладной этики.
Литература
1. Карпов В. Э., Готовцев П. М., Ройзензон Г. В. Об этике и системах искусственного интеллекта // Философия и общество. 2018. Вып. 2 (87). С. 85102.
2. Назарова Ю. В. Этика искусственного интеллекта в современной Росси: актуальные проблемы и тенденции развития // Гуманитарные ведомости ТГПУ им. Л.Н. Толстого. 2020. Вып. 2 (34). С. 14-23. URL: https://tsput.ru/fb//hum/2020/№2%20(34)/14/index.html#zoom=z (дата обращения: 05.12.2020).
3. Разин А. В. Этика искусственного интеллекта // Философия и общество. 2019. № 1. С. 57-73.
4. Ашманов И. С. «Люди ещё не поняли, что их накрывает страшное оружие - цифровое цунами» [Электронный ресурс] // Новые известия. 2020. 1 мая. URL: https://newizv.ru/article/general/01-05-2020/ashmanov-lyudi-eschyo-ne-ponyali-chto-ih-nakryvaet-strashnoe-oruzhie-tsifrovoe-tsunami (дата обращения: 03.12.2020)
5. ИТ и Телеком в Москве // ICT.Moscow : офиц. сайт. URL: https://ict.moscow/news/mediareview-december-2-8-2020/ (дата обращения: 02.12.2020).
6. Digital Ethics Lab [Лаборатория цифровой этики при Оксфордском университете] [Электронный ресурс] : офиц. сайт. URL: https://digitalethicslab.oii.ox.ac.uk (дата обращения: 02.12.2020).
7. Открытое письмо «Приоритеты исследований в области надежного и эффективного искусственного интеллекта» // Институт будущего жизни (FLI) : офиц. сайт. URL: https://futureoflife.org/data/documents/research priorities.pdf?x96845 (дата обращения: 03.12.2020).
8. Сбер внедрил внутренние принципы этики при разработке проектов в области ИИ // Сберпресс: офиц. сайт. URL: https://press.sber.ru/publications/sber-vnedril-vnutrennie-printsipy-etiki-pri-razrabotke-proektov-v-oblasti-ii (дата обращения: 03.12.2020).
9. Указ Президента Российской Федерации от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» // Президент России : офиц. сайт. М., 2020. URL: http://www.kremlin.ru/acts/bank/44731 (дата обращения: 03.12.2020).
10. Ethics and Policies for Cyber Operations // NATO CCD COE Workshop on 'Ethics and Policies for Cyber Warfare - A Report. 2017. P. 231-241. (Ethics and Policies for Cyber Operations. Philosophical Studies Series, vol. 124). URL: https ://link. springer.com/chapter/10.1007%2F978 -3-319-45300-2 13 (дата обращения: 03.12.2020).
Refrences
1. Karpov V. E., Gotovtsev P. M., Roizenzon G. V. Ob etike i sistemakh iskusstvennogo intellekta [On the issue of ethics and artificial intelligence systems]. Filosofiya i obshchestvo [Philosophy and society]. Issue 2 (87). 2018. Pp. 85-102. [In Russian]
2. Nazarova Yu. V. Etika iskusstvennogo intellekta v sovremennoy Rossi: aktual'nyye problemy i tendentsii razvitiya [Ethics of artificial intelligence in modern Russia: current challenges and development trends]. Gumanitarnye vedomosti TGPU im. L. N. Tolstogo. Issue 2 (34). Tula, 2020. Pp. 14-23. URL: https://tsput.ru/fb//hum/2020/№2%20(34)/14/index.html#zoom=z (accessed: 05 December 2020). [In Russian]
3. Razin A. V. Etika iskusstvennogo intellekta [The ethics of artificial intelligence]. Filosofiya i obshchestvo [Philosophy and society]. Issue 1. 2019. Pp. 57-73. [In Russian]
4. Ashmanov I. S. «Lyudi yeshcho ne ponyali, chto ikh nakryvayet strashnoye oruzhiye - tsifrovoye tsunami» ["People still do not understand that a terrible weapon - the digital tsunami - is overcovering them"]. Novyye izvestiya, 1 May 2020. URL: https://newizv.ru/article/general/01-05-2020/ashmanov-lyudi-eschyo-ne-ponyali-chto-ih-nakryvaet-strashnoe-oruzhie-tsifrovoe-tsunami. (accessed: 03 December 2020). [In Russian]
5. IT i Telekom v Moskve [IT and Telecom in Moscow]. URL: https://ict.moscow/news/mediareview-december-2-8-2020 (accessed: 02 December 2020). [In Russian]
6. Digital Ethics Lab. URL: https://digitalethicslab.oii.ox.ac.uk (accessed: 02 December 2020).
7. Otkrytoye pis'mo «Prioritety issledovaniy v oblasti nadezhnogo i effektivnogo iskusstvennogo intellekta» [Open Letter "Research Priorities for Robust and Benefcial Artifcial Intelligence"]. URL: https://futureoflife.org/data/documents/research priorities.pdf?x96845 (accessed: 03 December 2020).
8. Sber vnedril vnutrenniye printsipy etiki pri razrabotke proyektov v oblasti II [Sber Introduces Internal Ethical Principles When Developing AI Projects]. URL: https://press.sber.ru/publications/sber-vnedril-vnutrennie-printsipy-etiki-pri-razrabotke-proektov-v-oblasti-ii (accessed: 03 December 2020). [In Russian]
9. Ukaz Prezidenta Rossiyskoy Federatsii ot 10.10.2019 g. № 490 «O razvitii iskusstvennogo intellekta v Rossiyskoy Federatsii» [Decree of the President of the Russian Federation No. 490 dated 10.10.2019 "On the Development of Artificial Intelligence in the Russian Federation"]. URL: http://www.kremlin.ru/acts/bank/44731 (accessed: 03 December 2020). [In Russian]
10. Ethics and Policies for Cyber Operations NATO CCD COE Workshop on 'Ethics and Policies for Cyber Warfare - A Report. URL: https://link.springer.com/chapter/10.1007%2F978-3-319-45300-2 13 Pp. 231-241. (accessed: 03 December 2020).
Статья поступила в редакцию 06.12.2020 Статья допущена к публикации 14.12.2020
The article was received by the editorial staff06.12.2020 The article is approved for publication 14.12.2020