Научная статья на тему 'ЭТИКО-ПРИКЛАДНЫЕ АСПЕКТЫ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

ЭТИКО-ПРИКЛАДНЫЕ АСПЕКТЫ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
55
18
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ФИЛОСОФИЯ ТЕХНИКИ / ПРИКЛАДНАЯ ЭТИКА / СОЦИАЛЬНО-ГУМАНИТАРНАЯ ЭКСПЕРТИЗА / ЭТИКА НАУКИ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Клюева Наталья Юрьевна

Существенный прогресс в сфере разработки систем искусственного интеллекта, достигнутый в последние годы, и активное применение этих технологий на практике приводят к трансформациям в самых разных сферах общественной жизни. В фокусе внимания автора статьи - обзор этико-прикладных проблем использования данных технологий. Рассматривается связь проблемы дискриминации при работе с алгоритмами с принципом обучения современных систем искусственного интеллекта. Показано, как принципы работы систем искусственного интеллекта изменяют проблематику распределения ответственности за результат работы машины.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Клюева Наталья Юрьевна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

APPLIED ETHICAL ISSUES OF ARTIFICIAL INTELLIGENCE

T e current progress in the development of the systems of artif cial intelligence, achieved in recent years, and the active application of these technologies in practice will lead to transformations in various spheres of public life. T e article is focused on ap plied ethical issues of using this technology. T e connection of the problem of discrimination with the principle of training of modern artif cial intelligence systems is considered. It is shown how the principles of artif cial intelligence sy stems based on artif cial neural networks transform the problem of the distribution of responsibility for the result of the machine.

Текст научной работы на тему «ЭТИКО-ПРИКЛАДНЫЕ АСПЕКТЫ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

ВЕСТН. МОСК. УН-ТА. СЕР. 7. ФИЛОСОФИЯ. 2021. № 5. С. 52-66

УДК 167:177 Научная статья

ФИЛОСОФИЯ И МЕТОДОЛОГИЯ НАУКИ

ЭТИКО-ПРИКЛАДНЫЕ АСПЕКТЫ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Н.Ю. Клюева*

Московский государственный университет имени М.В. Ломоносова, 119991, Ленинские горы, МГУ, учебно-научный корпус «Шуваловский», г. Москва, Россия

Аннотация. Существенный прогресс в сфере разработки систем искусственного интеллекта, достигнутый в последние годы, и активное применение этих технологий на практике приводят к трансформациям в самых разных сферах общественной жизни. В фокусе внимания автора статьи — обзор этико-прикладных проблем использования данных технологий. Рассматривается связь проблемы дискриминации при работе с алгоритмами с принципом обучения современных систем искусственного интеллекта. Показано, как принципы работы систем искусственного интеллекта изменяют проблематику распределения ответственности за результат работы машины.

Ключевые слова: искусственный интеллект, философия техники, прикладная этика, социально-гуманитарная экспертиза, этика науки

Original article

PHILOSOPHY AND METHODOLOGY OF SCIENCE

АPPLIED ETHICAL ISSUES OF ARTIFICIAL INTELLIGENCE

N.Yu. Klyueva

Lomonosov Moscow State University, Leninskie Gory, Moscow, Teaching and Scientific Building "Shuvalovsky", 119991, Russia

Abstract. The current progress in the development of the systems of artificial intelligence, achieved in recent years, and the active application of these technologies in practice will lead to transformations in various spheres of public life. The article is focused on applied ethical issues of using this technology. The connection of

* © Н.Ю. Клюева, 2021

the problem of discrimination with the principle of training of modern artificial intelligence systems is considered. It is shown how the principles of artificial intelligence systems based on artificial neural networks transform the problem of the distribution of responsibility for the result of the machine.

Keywords: artificial intelligence, philosophy of technology, applied ethics, socio-humanitarian expertise, ethics of science

В настоящее время искусственный интеллект (далее ИИ) как научно-практическое направление исследований имеет существенные результаты как в теоретической сфере, так и в области разработки конкретных инновационных технологий, применение которых возрастает с каждым днем. ИИ представляет собой междисциплинарную область исследований, которая, базируясь на информатике (computer science), объединяет знания, подходы и разработки, полученные в ходе развития как естественных и точных, так и общественных и гуманитарных наук. Ввиду перспектив широкого применения технологий ИИ активно идет работа по созданию единых стандартов, в частности такие стандарты разрабатывает «Международная организация по стандартизации»1, при этом надо заметить, что пока нет единства в определении базовых терминов, имеющих отношение к данной проблематике. На наш взгляд, в самом общем смысле под ИИ можно понимать область компьютерных наук, которая занимается созданием программ и компьютеров, способных проявлять разумное поведение, имитировать когнитивные (познавательные) функции человека. В рамках исследований по ИИ развивается большое количество практически значимых направлений, в частности медицинская диагностика, игровой искусственный интеллект, обработка естественного языка, перевод, диалоговые боты, распознавание образов, письменной и устной речи, лиц, теория игр, искусственное творчество, нелинейное управление, стратегическое планирование, робототехника и многие другие. Повсеместно можно наблюдать рост темпа внедрений информационно-коммуникационных технологий и интеллектуальных систем на основе ИИ, и эта тенденция требует социально-гуманитарного осмысления процесса их разработки и применения. С одной стороны, попытки создания общего ИИ (Artificial general intelligence), решающего весь круг интеллектуальных задач, доступных человеку, остаются безуспешными, с другой стороны, с некоторым набором интеллектуальных вызовов технологии ИИ

1 Один из разрабатываемых «Международной организацией по стандартизации» стандарт в области информационных технологий — ISO/IEC WD 22989 Artificial intelligence — Concepts and terminology (Искусственный интеллект — Понятия и терминология). URL: https://www.iso.org/standard/74296.html

справляются довольно хорошо, а в отдельных случаях возможности «слабого» ИИ превосходят возможности естественного интеллекта.

Этическое осмысление технологических инноваций на основе компьютерных технологий находится в фокусе внимания специалистов по моральной философии достаточно давно, уже в 1985 г. один из первых теоретиков исследований в этой сфере Д. Мур пишет о том, что компьютерная этика должна развиваться как особое направление, поскольку постоянное совершенствование и массовое использование компьютеров требуют размышления над тем, как трансформируются, казалось бы, понятные нам концепты и их ценность в глазах человека. Так, например, изменяются значение и ценность базовых общественных концептов, таких как деньги, политические выборы, работа. Мур приводит пример с трансформацией ценности работы, которая больше не может быть определена как то, что происходит в конкретном месте и в конкретное время; теперь не вы выполняете некоторую работу — вы даете инструкцию компьютеру, чтобы он делал эту работу за вас. Если вы работаете перед монитором компьютера целый день в собственной квартире, вы лишаетесь такой составляющей работы, как, например, спонтанная беседа с коллегами. Меняется понимание работы и ее ценности. В 2020 г., когда во всем мире огромное количество людей перешло на удаленную работу, этот пример выглядит весьма актуальным. Как отмечает Мур, рефлексия над результатами компьютеризации всегда оказывается позади самой компьютеризации. Компьютерная этика должна включать «анализ природы и социального влияния компьютерных технологий, а также заниматься формулировкой и обоснованием политики этичного использования этих технологий» [1, 266].

Идея компьютерной этики близка по смыслу концепции этической и социально-гуманитарной экспертизы. Эти понятия в первую очередь связаны с биоэтической проблематикой. Этическая экспертиза исторически начинается с вопросов об оценке биомедицинских исследований с участием человека в качестве испытуемого и в настоящий момент формализована в работе этических комитетов. Говоря о гуманитарной экспертизе как более широком пути анализа инноваций, отечественный биоэтик Б.Г. Юдин подчеркивал, что «этическая экспертиза выступает в качестве вида по отношению к гуманитарной как к роду» [2, 214]. Кроме того, специфика гуманитарной экспертизы заключается в ее процессуальном характере, ей присуща форма диалога, взаимодействия, коммуникации.

Важнейшей особенностью проведения этих исследований является то, что «социально-гуманитарная экспертиза является не собственно оценочной, а, по сути, исследовательской практикой» [3, 32]. Комплексная социально-гуманитарная экспертиза помимо

собственно этических вопросов предполагает рассмотрение более широкого круга проблем, которые ставит перед обществом ИИ, это и технические особенности, и правовые вопросы, экономические и политические аспекты разработки и применения данной технологии. Вклад философии в такого рода исследования в первую очередь связан с анализом этической стороны вопроса. Представляется, что подобное понимание роли социально-гуманитарных аспектов инновационных технологий в области биомедицины может быть методологическим регулятивом и для рассмотрения технологий ИИ.

Надо сказать, что связь этики и области ИИ не ограничивается этической оценкой технологий, в рамках исследований по моделированию интеллекта одной из задач оказывается создание интеллектуальных агентов, способных к принятию самостоятельных моральных решений; данное направление, которое принято называть машинной этикой, выпадает из предметного поля настоящего рассмотрения. Дискуссия в этой области связана с такими фундаментальными философскими категориями, как свобода воли, сознание, моральная ответственность и другие (более подробно см.: [4, 57-73]).

Этико-прикладные аспекты применения ИИ находят отражение в появившихся в последние несколько лет рекомендациях международных организаций и национальных стратегиях развития. Указание на этические принципы и необходимость их разрабатывать и (или) придерживаться при создании интеллектуальных систем присутствует в подобных документах повсеместно. Так, в «Национальной стратегии развития искусственного интеллекта в Российской Федерации» поставлена задача «адаптации нормативного регулирования в части, касающейся взаимодействия человека с искусственным интеллектом, и выработки соответствующих этических норм» [5, 20]. В принятом ЮНЕСКО осенью 2020 г. «Первом проекте рекомендаций об этических аспектах искусственного интеллекта» выделены следующие базовые ценностные установки искусственной интеллектуальной системы: уважение, защита и поощрение человеческого достоинства, прав человека и основных свобод; благополучие окружающей среды и экосистем; обеспечение разнообразия и инклюзивности; поощрение мира и согласия [6, 11-15].

Эти ценностные установки могут быть реализованы при соблюдении принципов работы интеллектуальных систем. Перечислим некоторые из этих принципов: непричинения вреда и обеспечения безопасности человека и окружающей среды, что требует процедуры оценки имеющихся рисков, проработки вопросов кибербезопас-ности; справедливости и отсутствия дискриминации; устойчивого развития; неприкосновенности частной жизни; подконтрольности и

подчиненности человеку, признания за человеком права принимать конечные решения и нести за них ответственность; прозрачности в отношении условий работы интеллектуальных систем; подотчетности человеку; повышения осведомленности граждан о законах работы интеллектуальных систем, включенности в их управление и развитие максимально широкого круга заинтересованных сторон (международных организаций, профессионального сообщества, СМИ и т.д.). В самом общем виде указанные принципы присутствуют в большинстве международных проектов и национальных стратегий, что говорит об актуальности этической проблематики, но одновременно ставит задачу дальнейшего более детального анализа данного вопроса, рассмотрения конкретных практических случаев на предмет их соответствия выработанным рекомендациям и требованиям моральной ответственности.

Как было сказано выше, зачастую развитие технологий опережает гуманитарную рефлексию. ИИ не представляет здесь исключение. С ростом применения технологий ИИ в конкретных областях растет и количество сомнительных или неоднозначных, с точки зрения этики, случаев их использования. Ряд причин, по которым задача осмысления процесса разработки и использования ИИ является приоритетной, включает принципиальную новизну некоторых аспектов этой технологии. Кроме того, области применения технологий ИИ включают в себя такие чувствительные сферы общественной жизни, как медицина и здравоохранение, государственное управление и судопроизводство, образование. Это сферы, где традиционно этические вопросы играют большую роль, а внимание общественности к соблюдению принципов справедливости, ответственности за принятые решения, прозрачности работы максимально.

Самый очевидный вариант рисков, которые несут технологии ИИ, — это риски, связанные с тем, что они могут быть использованы не по своему прямому назначению, а злонамеренно. Отчет комитета Национальной безопасности Правительства США в 2018 г. выделяет ИИ первым в списке так называемых технологий «двойного назначения». В качестве претендента на такое использование называют, например, технологию Deepfake, активным критиком которой является американский политик М. Рубио. Его гипотетический сценарий угрозы безопасности страны с использованием технологии Deepfakе следующий: создание ложного видеоконтента с американским политиком, который использует в своей речи расовые эпитеты или совершает какое-то противоправное действие, и дальнейшее распространение этого контента через глобальную сеть интернет. Подобная манипуляция общественным мнением и дезинформация могут быть направлены на дестабилизацию обстановки внутри страны. С уче-

том того, что технология развивается очень интенсивно, при этом в открытом доступе растет набор голосовых и видеоданных, которые могут быть использованы для обучения системы ИИ, по оценкам экспертов, очень скоро отличить подделку от оригинала человеку будет просто не под силу.

Одной из значимых особенностей функционирования интеллектуальных систем, которая, с одной стороны, базируется на технических характеристиках и возможностях самой системы, с другой стороны, вызывает наибольшие опасения с этико-правовой точки зрения, является рост автономности систем в области принятия решений. Речь идет об алгоритмах, способных анализировать данные, поступающие в реальном времени, и принимать на их основе решения, имеющие моральные последствия. Наиболее остро ведутся дискуссии вокруг такого гипотетического уровня автономности системы, когда она сможет принимать решения, касающиеся жизни и здоровья человека, без контроля человека-оператора. Самые обсуждаемые в данном ракурсе технологии на основе ИИ — это автономный транспорт и автономное летальное вооружение.

Примеров разработок в области беспилотного транспорта можно привести довольно много — от систем автопилотирования автомобилей Tesla до систем роботизированного такси. Существующая классификация автономного транспорта, предложенная международной ассоциацией инженеров и технических экспертов в аэрокосмической отрасли и в сфере производства автомобилей и коммерческих транспортных средств SAE International, включает шесть уровней. Нулевой уровень не предполагает автоматизацию. С первого по пятый уровень происходит постепенное увеличение степени автоматизации от частичной до высокой и наконец до полной автономности управления при любых дорожных условиях. В настоящий момент на дорогах общего пользования не могут эксплуатироваться полностью автономные автомобили. Возникающие в связи с развитием этой технологии этические проблемы могут касаться таких аспектов, как конфиденциальность, изменения в сфере занятости. Снижение роли человеческого фактора одного типа, например система никогда не заснет за рулем, может одновременно приводить к росту роли других типов, например, когда водитель будет излишне полагаться на систему, и тогда пешеходам и другим участникам дорожного движения будет сложнее предсказать поведение его автомобиля. Однако наибольшие опасения связаны с вопросами распределения ответственности в случае участия гипотетически полностью автономного транспорта в ДТП. Первое ДТП со смертельным исходом с участием транспорта с активированным режимом автопилота было зафиксировано в 2016 г. в США, погиб водитель автомобиля Tesla Model S [7]. Переход

к полностью автономному режиму работы автомобилей на дорогах общего пользования предполагает решение и таких задач, как программирование машины на действия при неизбежной аварии: следует ли в этом случае сводить к минимуму гибель пешеходов, даже если ради этого придется пожертвовать собственными пассажирами и т.п. Попытки формализации подобных действий привели к появлению целого направления мысленных экспериментов из области философской этики, получивших название «проблема вагонетки», призванного продемонстрировать всю сложность моральных инту-иций, которые использует человек при принятии жизненно важных решений.

Технология автономного летального вооружения также находится в фокусе внимания моральных философов. Автономное летальное вооружение — это алгоритмы и их физическое воплощение, которые могут принимать решения об уничтожении противника без прямого контроля со стороны человека. Как и в случае с автономным транспортом, использование военных роботов может привести к сокращению жертв среди участников, понижению уровня военного конфликта со стороны как самих военных, так и мирного населения и в этом смысле может быть оправдано с утилитаристских позиций. Противоположная точка зрения, выраженная сторонниками запрета использования автономных машин во время военных операций, например общественной организацией «Остановить роботов-убийц»2, апеллирует как раз к неоднозначности этико-правового статуса данного типа вооружения и неопределенности вопросов распределения ответственности, наличию рисков исключения человека из процедур принятия моральных решений. Ввиду этих опасений подобные технологии, по их мнению, должны быть включены в список запрещенного к использованию оружия, наряду с биологическим, ядерным и химическим.

Принятие решений в автономном режиме не обязательно должно касаться пограничных ситуаций, этические коллизии могут возникать в случаях, напрямую не связанных с принятием решений о жизни людей. Цифровые технологии могут значительно изменить традиционные подходы к планированию, мониторингу, оценке результатов работы государственных органов. В числе ключевых рисков использования цифровых технологий, помимо потери управляемости в критических сферах государственного управления, несанкционированного распространения персональных данных, эксперты выделяют также возможность нарушениия прав человека

2 Сайт кампании «Остановить роботов-убийц» Союза неправительственных организаций (НПО): https://www.stopkillerrobots.org

при автоматизированном принятии управленческих решений. В этой области также отсутствует «четкое определение ответственности субъектов за достоверность информации, сбор которой осуществляется без участия человека, либо на основе обработки больших объемов неструктурированной информации ("большие данные"), ответственности за решения, принимаемые на основе информации, обработанной технологиями предиктивной аналитики и искусственного интеллекта» [8, 87].

Еще одна характеристика, которой в силу своей природы обладает ИИ и которая вызывает сложности для этичного применения данной технологии, — это непрозрачность принципов принятия решений. Данная характеристика оказывается значимой технической особенностью систем искусственного интеллекта, когда встают вопросы этико-правового характера, в первую очередь вопрос распределения ответственности. Чтобы прояснить проблему непрозрачности работы интеллектуальной системы, необходимо проанализировать некоторые принципы ее работы.

Традиционно начало исследований по ИИ отсчитывают от момента проведения исследовательского семинара в Дартмутском колледже (США) летом 1956 г. В семинаре принимали участие будущие «пионеры» ИИ, такие как Дж. Маккарти, М. Минский, К. Шеннон, Г. Саймон, А. Ньюэлл и другие. В заявке на проведение этого научного мероприятия, поданной учеными в фонд Рокфеллера, была обозначена суть исследовательской задачи: «Изучение вопроса будет опираться на предположение, что на сегодняшний день существует принципиальная возможность моделирования интеллекта, поскольку теперь мы в состоянии точно описать каждый аспект обучения машины и любые отличительные признаки умственной деятельности. Будет предпринята попытка определить пути, как разработать машину, способную использовать язык, формировать абстракции и концепции, решать задачи, сейчас доступные лишь человеку, и саморазвиваться» [9, 79]. Для решения этих задач в качестве магистральных было выбрано в самом общем виде два пути — символьный и нейросетевой. Примером разработок в рамках символьного подхода будет создание систем логического вывода, баз знаний, экспертных систем, имитирующих высокоуровневые психические процессы без опоры на нейрофизиологические данные о функционировании естественного интеллекта. В основе лежит гипотеза о физической символьной системе Ньюэлла-Саймона, которая предполагает, что интеллект может быть описан как процедуры оперирования символами. Альтернатива символьному подходу — нейросетевой, или коннекционистский путь. Коннекционизм базируется на так называемой «мозговой» метафоре познания, где познавательные процессы

понимаются как результат параллельной переработки информации сетью, состоящий из простых единиц.

Значительное число исследований по ИИ, особенно на ранних этапах, в 50-80-х гг. ХХ в., проходило в русле символьного подхода. Успехи в области решения логических задач, автоматического доказательства теорем, создания экспертных систем связаны с этим направлением. Однако был выявлен и класс задач, решение которых в рамках этого подхода оказалось проблематичным, в частности это касается вопросов понимания естественного языка и автоматического перевода, машинного зрения и распознавания образов. Как пишет критик искусственного интеллекта Х. Дрейфус, самая сложная часть решения задачи, а именно ее «предварительная структуризация» [10, 77], в рамках этого подхода остается в ведении людей и успехи машин — это скорее успехи программистов, которые и выполняют самую сложную, по истине интеллектуальную часть поставленной задачи.

Первые разработки нейросетевого ИИ традиционно связывают с именами У. Мак-Каллоха и У. Питтса, авторов модели формального нейрона, которую они предложили еще в начале 40-х гг. ХХ в. Первая работающая по такому принципу машина была создана Ф. Розен-блаттом в конце 50-х гг., она получила название «перцептрон», машина грубо копировала принцип взаимодействия человеческого глаза и мозга и могла распознавать изображения букв. Показывая разницу между символьными моделями и нейросетями, Д. Люгер, автор одного из самых популярных учебников по ИИ, пишет, что, в отличие от «поиска и обобщения, выполняемых методами символьного представления языка, модели на основе связей позволяют выявить инвариантные фрагменты данных и представить их в структуре сети» [11, 370]. История этого направления включает несколько волн интереса, последняя из них приходится на начало XXI в. и обусловлена такими факторами, как появление алгоритмов обучения глубоких нейронных сетей, появление быстрых аппаратных графических процессоров и лавионообразный рост цифровых данных, пригодных для обучения сетей. В результате при помощи нейросетевого подхода произошел прогресс в решении таких практических задач, как распознавание речи и обработка изображений. Модели, основанные на нейросетевом принципе, имеют ряд преимуществ, среди которых называют, в частности, отказоустойчивость и адаптивность за счет обучения. Самые большие сложности — отсутствие явного объяснения хода решения задачи или принятия решения, невозможность эксплицировать признаки, по которым нейронная сеть сформировала правила для принятия решения. Отсутствие объяснения порождает проблему непрозрачности и

доверия к решениям алгоритмов. В системе ИИ, основанного на ней-росетевом принципе, отсутствует алгоритм, написанный программистом, машина обучается на массиве данных, выявляя корреляции, ввиду чего нельзя сказать, что машина в своей работе реализует некоторый «замысел программиста». Получается, что в каком-то смысле разработчик не может нести ответственность за принятое машиной решение. В числе сфер, где необходимо ограничить применение систем, действующих по принципу «черного ящика», эксперты в области этики называют медицину и здравоохранение, сферу судопроизводства, криминалистику и социальное обеспечение граждан. Так, анализируя перспективы использования технологий ИИ в медицине, Е.В. Брызгалина пишет о том, что «цифровой тайный суд», а именно принятие ИИ решений на основании алгоритмов, непрозрачных для человека, «обострит чувствительность к справедливому распределению ресурсов здравоохранения и запросу на их доступность» [12, 63]. Получается, что, с одной стороны, можно наблюдать потрясающие результаты, которых добились с помощью технологий нейронных сетей и машинного обучения, а с другой — мы понимаем ограниченность данного подхода.

Как видно из описанных принципов работы искусственной нейронной сети, большое значение для точности работы системы играет массив используемых для обучения данных, он же одновременно является и проблемным моментом. Есть ряд исследований, которые свидетельствуют об успехах нейронных сетей глубокого обучения для решения задач в области диагностики. Например, при автоматическом распознавании и определении локализации опухоли и ее метастазов на цифровой микрофотографии исследователям удалось получить результаты эффективности алгоритма выше эффективности человека-диагноста. Однако качество данных может снизить эффективность работы системы в реальных условиях. Для обучения таких алгоритмов требуются не только большие объемы данных, но большие объемы качественных данных, получение которых в медицине и здравоохранении не всегда возможно; кроме того, возникает риск несовпадения данных, используемых для обучения, с данными, собираемыми в конкретном лечебном учреждении, что также приведет к неэффективности разработанного и прошедшего тестирование алгоритма [13, 21-28 ].

Проблема массива данных напрямую связана с еще одной этической проблемой использования технологий ИИ, а именно с проблемой дискриминационных алгоритмов. Уже накопилось довольно много случаев, когда решения, принимаемые алгоритмами ИИ, дискриминировали людей по признаку пола, расы, возраста и т.п. Самый известный случай связан с алгоритмом, который ис-

пользовала компания "Amazon" для целей подбора кадров. В 2014 г. компания начала тестировать программу ИИ для отбора резюме, и по итогам работы выяснилось, что на некоторые позиции алгоритм предлагал в основном претендентов-мужчин, это касалось кандидатов на должности разработчиков программного обеспечения и других технических специалистов [14]. Компании так и не удалось избавиться от этой ошибки, и от программы отказались. Причина, по которой алгоритм стал «проявлять» дискриминацию по половому признаку, заключалась в том, что нейронная сеть обучалась на данных архива отдела кадров компании, собранных за последние 10 лет: как оказалось, число женщин, которые занимали анализируемые должности, было небольшим, и эту корреляцию продублировала система ИИ. Широкий общественный резонанс получил случай с алгоритмом, используемым в приложении «Google Фото», который в автоматическом режиме классифицирует фотоизображения пользователя и распределяет их по категориям. В 2015 г. такой алгоритм ошибочно определил фотографию человека с очень темным цветом кожи в разряд «горилл». В результате компания удалила эту категорию из приложения, поскольку им не удалось окончательно избавиться от ошибки классификации [15]. Еще одним получившим огласку примером предвзятости при распознавании лиц был случай работы системы распознавания образов камеры Nikon, которая могла определять моргание глаз и при фотографировании человека азиатской внешности всегда предупреждала: «Кто-то моргнул?», хотя глаза людей были полностью открыты [16].

Тестирование систем на основе технологий искусственных нейронных сетей и реальная практика их применения показывают, что обучение на массиве данных может привести к ошибкам и дискриминациям, в основе которых лежит несовершенство самого массива. Одна из причин того, что с проблемой дискриминации довольно сложно справиться, кроется в такой характеристике массива данных для обучения нейросетей, как наличие в нем скрытых стереотипов, которые «обнаруживает» и перенимает система. Предположительно в рассматриваемом контексте оценка качества работы машины на момент наличия дискриминационных результатов может быть проведена только после их получения.

Целый спектр этических проблем связан с таким направлением использования технологий искусственного интеллекта, как область прогнозирования. Особую остроту приобретает вопрос применимости прогностики на основе технологий ИИ в правоохранительной сфере для досудебной оценки рисков, которая может быть использована для профилактики правонарушений или определения степени наказания. С одной стороны, подобный подход не лишен

таких проблем, как влияние скрытых стереотипов на итоговое решение, поскольку судебные решения, на основе которых будет обучаться система, созданы с использованием решений, принятых когда-то судьей-человеком. Массив может содержать ошибки и скрытые стереотипы. С другой стороны, сама идея оценки рисков противоречит этической позиции, согласно которой человек обладает свободой воли в принятии решений. Существующий опыт пилотных проектов в этой области в судах США вызвал неоднозначную реакцию. В 2014 г. пилотный проект в судах Нью-Джерси показал, что система не смогла избавиться от проблемы расового неравенства в своих рекомендациях, одновременно пилотный проект в Нью-Йорке, запущенный уже в 2020 г., оказался индифферентен по отношению к расовому показателю. Ученые из Массачусетского технологического института, Гарвардского, Принстонского, Колумбийского университетов в открытом письме против реформы судопроизводства, опубликованном в 2019 г., отмечают целый ряд нерешенных технических недостатков в работе системы досудебной оценки рисков на основе алгоритмов и наличие проблем этического характера, указывая также и на то, что некоторые положительные результаты пилотных проектов в конкретных юрисдикциях не могут быть основанием для обобщений и оценки качества технологии в целом [17, 4]. Анализируя перспективы технологий ИИ в области образования, также можно отдельно выделить спектр прикладных этических проблем, которые связаны с прогностической направленностью некоторых проектов, например, таких, как консультативные программы тестирования профессиональных потенций. Некритичное отношение к результатам работы таких алгоритмов может быть психологически травматично, может вызвать ощущение «запрограммированности», отсутствия свободы выбора и повлиять

на мотивацию человека [18, 225].

* * *

Рассмотренные принципы работы систем на основе ИИ иллюстрируют наличие целого ряда этических сложностей, которые возникают на пути применения этих технологий — это вопросы неравенства, предвзятости, непрозрачности принятия решений, неправильного использования массива данных, возможность появления дискриминационных алгоритмов. Кроме того, множество проблем этического характера связано с прогностической направленностью задач, которые призвана решать система ИИ. Все эти вопросы возникают в связи с технологиями ИИ во многих сферах их применения, одновременно некоторые этико-правовые сложности оказываются уникальными для конкретных областей их внедрения. Гуманитарное

осмысление инновационных проектов позволяет выявить возможности и описать риски в практическом использовании ИИ, которые требуют этической и правовой определенности.

СПИСОК ИСТОЧНИКОВ

1. Moor J.H. What is computer ethics? // Metaphilosophy. 1985. Vol. 16, N 4. P. 266-275.

2. Юдин Б.Г. От этической экспертизы к экспертизе гуманитарной // Гуманитарное знание: тенденции развития в XXI веке. В честь 70-летия Игоря Михайловича Ильинского. М.: Изд-во Национального института бизнеса, 2006. С. 214-237.

3. Брызгалина Е.В., Аласания К.Ю., Вархотов Т.А., Гавриленко С.М., РыжовА.Л., Шкомова Е.М. Биобанкинг: социально-гуманитарные аспекты. М.: Изд-во МГУ, 2018. 232 с.

4. Разин А.А. Этика искусственного интеллекта // Философия и общество. 2019. № 1. С. 57-73.

5. Национальная стратегия развития искусственного интеллекта на период до 2030 года // Официальный интернет-портал правовой информации. 2019.11.10. URL: http://publication.pravo.gov.ru/Document/ View/0001201910110003

6. Итоговый документ: Первый проект рекомендации об этических аспектах искусственного интеллекта. URL: https://unesdoc.unesco.org/ ark:/48223/pf0000373434_rus/PDF/373434rus.pdf.multi

7. A tragic loss. URL: https://www.tesla.com/blog/tragic-loss

8. Добролюбова Е.И., Южаков В.Н., Ефремов А.А., Клочкова Е.Н., Тала-пина Э.В., Старцев Я.Ю. Цифровое будущее государственного управления по результатам. М.: Издательский дом «Дело» РАНХиГС, 2019. 864 с.

9. Бостром Н. Искусственный интеллект: Этапы. Угрозы. Стратегии. М.: Манн, Иванов и Фербер, 2016. 496 с.

10. ДрейфусХ. Чего не могут вычислительные машины. М.: Прогресс, 1978. 333 с.

11. Люгер Д. Искусственный интеллект: Стратегии и методы решения сложных проблем. М.: Изд-во Вильямс, 2014. 864 с..

12. Брызгалина Е.В. Медицина в оптике искусственного интеллекта: философский контекст будущего // Человек. 2019. T. 30, № 6. C. 54-71.

13. Ганцев Ш.Х., Франц М.В. Искусственный интеллект в онкологии: взгляд в будущее // Журнал «Практическая онкология». 2019. Т. 20, № 1. С. 21-28.

14. Dastin J. Amazon scraps secret AI recruiting tool that showed bias against women. URL: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

15. Simonite T. When it comes to gorillas, google photos remains blind. 2018. November 1. URL: https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind

16. ZhangM. Google photos tags two African-Americans as gorillas through facial recognition software. 2015. July 1. URL: https://www.forbes.com/sites/ mzhang/2015/07/01/google-photos-tags-two-african-americans-as-gorillas-through-facial-recognition-software

17. Technical flaws of pretrial risk assessments raise grave concerns. URL: https://damprod.media.mit.edU/x/2019/07/16/TechnicalFlawsOfPretrial_ML%20 site.pdf

18. Гаспарян Д.Э., Стырин Е.М. Прикладные проблемы внедрения этики искусственного интеллекта в России: Отраслевой анализ и судебная система. М.: Издательский дом Высшей школы экономики, 2020. 112.

REFERENCES

1. Moor J.H. What is computer ethics? // Metaphilosophy. 1985. Vol. 16, N 4. P. 266-275.

2. Yudin B.G. Ot eticheskoi ekspertizy k ekspertizegumanitarnoi // Gumanitar-noe znanie: tendentsii razvitiya v XXI veke. V chest' 70-letiya Igorya Mikhailovicha Il'inskogo. M.: Izd-vo Natsional'nogo instituta biznesa, 2006. P. 214-237. (In Russ.)

3. Bryzgalina E.V., Alasaniya K.Yu., Varkhotov T.A., Gavrilenko S.M., RyzhovA.L., Shkomova E.M. Biobanking: sotsial'no-gumanitarnye aspekty. M.: Izdatel'stvo MGU, 2018. 232 p. (In Russ.)

4. Razin A.A. Etika iskusstvennogo intellekta // Filosofiya i obshchestvo. 2019. N 1. P. 57-73. (In Russ.)

5. Natsional'naya strategiya razvitiya iskusstvennogo intellekta na period do 2030 goda // Ofitsial'nyi internet-portal pravovoi informatsii. 2019.11.10. URL: http://publication.pravo.gov.ru/Document/View/0001201910110003 (In Russ.)

6. Itogovyi dokument: Pervyi proekt rekomendatsii ob eticheskikh aspe-ktakh iskusstvennogo intellekta. URL: https://unesdoc.unesco.org/ark:/48223/ pf0000373434_rus/PDF/373434rus.pdf.multi (In Russ.)

7. A tragic loss. URL: https://www.tesla.com/blog/tragic-loss

8. Dobrolyubova E.I., Yuzhakov V.N., Efremov A.A., Klochkova E.N., Talapina E.V., Startsev Ya.Yu. Tsifrovoe budushcheegosudarstvennogo upravleniya po rezul'tatam. M.: Izdatel'skii dom «Delo» RANKhiGS, 2019. 864 p. (In Russ.)

9. Bostrom N. Iskusstvennyi intellekt: Etapy. Ugrozy. Strategii. M.: Mann, Ivanov i Ferber, 2016. 496 p. (In Russ.)

10. Dreyfus H. Chego ne mogut vychislitel'nye mashiny. M.: Progress, 1978. 333 p.

11. Luger G. Iskusstvennyi intellect: Strategii i metody resheniya slozhnykh problem. M.: Izdatel'stvo Vil'yams, 2014. 864 p. (In Russ.)

12. Bryzgalina E.V. Meditsina v optike iskusstvennogo intellekta: filosofskii kontekst budushchego // Chelovek. 2019. T. 30, N 6. C. 54-71. (In Russ.)

13. Gantsev Sh.Kh., Frants M.V. Iskusstvennyi intellekt v onkologii: vzglyad v budushchee // Zhurnal «Prakticheskaya onkologiya», T. 20, N 1, 2019. P. 21-28. (In Russ.)

14. Dastin J. Amazon scraps secret AI recruiting tool that showed bias against women. URL: https://www.reuters.com/article/us-amazon-com-jobs-automation-

insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

15. Simonite T. When it comes to gorillas, google photos remains blind. 2018. November 1. URL: https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind

16. Zhang M. Google photos tags two African-Americans as gorillas through facial recognition software. 2015. July 1. URL: https://www.forbes.com/sites/ mzhang/2015/07/01/google-photos-tags-two-african-americans-as-gorillas-through-facial-recognition-software

17. Technical flaws of pretrial risk assessments raise grave concerns. URL: https://damprod.media.mit.edU/x/2019/07/16/TechnicalFlawsOfPretrial_ML%20 site.pdf

18. Gasparyan D.E., Styrin E.M. Prikladnye problemy vnedreniya etiki iskusstvennogo intellekta v Rossii. Otraslevoi analiz i sudebnaya sistema. M.: Izdatel'skii dom Vysshei shkoly ekonomiki, 2020. 112 p. (In Russ.)

Информация об авторе: Клюева Наталья Юрьевна — кандидат философских наук, доцент кафедры философии и методологии науки философского факультета МГУ имени М.В. Ломоносова, тел.: +7 (926) 674-59-70; klyueva.msu@gmail.com

Information about the author: Klyueva Natalia Yurievna — Candidate of Philosophical Science, Associate Professor, Department of Philosophy and Methodology of Science, Faculty of Philosophy, Lomonosov Moscow State University, tel.: +7 (926) 674-59-70; klyueva.msu@gmail.com

Поступила в редакцию 15.06.2021; принята к публикации 24.09.2021

i Надоели баннеры? Вы всегда можете отключить рекламу.