Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И БОЛЬШИЕ ДАННЫЕ : ЭТИЧЕСКИЕ ПРОБЛЕМЫ ПРАКТИЧЕСКОГО ИСПОЛЬЗОВАНИЯ. (АНАЛИТИЧЕСКИЙ ОБЗОР)'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И БОЛЬШИЕ ДАННЫЕ : ЭТИЧЕСКИЕ ПРОБЛЕМЫ ПРАКТИЧЕСКОГО ИСПОЛЬЗОВАНИЯ. (АНАЛИТИЧЕСКИЙ ОБЗОР) Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1447
199
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭТИКА НАУКИ И ТЕХНОЛОГИЙ / ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / БОЛЬШИЕ ДАННЫЕ / ИНТЕГРАЛЬНАЯ ТЕХНОЛОГИЯ BD&AI / «ОБЩИЕ ПРАВИЛА ЗАЩИТЫ ДАННЫХ» (GDPR) / КОНФИДЕНЦИАЛЬНОСТЬ / ПРОЗРАЧНОСТЬ / ЭКОНОМИЧЕСКАЯ УЯЗВИМОСТЬ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Асеева Ирина Александровна

Аналитический обзор посвящен выявлению наиболее часто встречающихся и острых этических проблем, связанных с применением на практике информационных технологий, в частности интегральной технологии искусственного интеллекта и больших данных (BD&AI). В обзоре приводятся результаты нескольких эмпирических исследований, затрагивающих такие области, как государственное управление и безопасность, страхование и разработка ИИ. Рассматриваются выявленные сквозные этические проблемы, возникающие в связи с внедрением и использованием BD&AI, представлена простая классификация этических проблем (краткосрочных, среднесрочных, долгосрочных). Эти тематические исследования BD&AI дают представление о вариантах решения этических проблем в существующей практике использования цифровых информационных технологий с функцией искусственного интеллекта.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE AND BIG DATA : ETHICAL PROBLEMS OF PRACTICAL USE. (ANALYTICAL REVIEW)

An analytical review is devoted to identifying the most common and acute ethical problems associated with the practical application of information technologies, in particular, integrated artificial intelligence and big data (BD&AI) technology. The review presents the results of several empirical studies covering such areas as public administration and security, insurance and AI development. The identified cross-cutting ethical problems which have arisen in connection with the introduction and use of BD&AI are considered. A simple classification of ethical problems (short-term, medium-term, long-term) is presented. These case studies of BD&AI give an idea of the options for solving ethical problems in the existing practice of using digital information technologies with the function of artificial intelligence.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И БОЛЬШИЕ ДАННЫЕ : ЭТИЧЕСКИЕ ПРОБЛЕМЫ ПРАКТИЧЕСКОГО ИСПОЛЬЗОВАНИЯ. (АНАЛИТИЧЕСКИЙ ОБЗОР)»

СОЦИАЛЬНЫЕ ФАКТОРЫ РАЗВИТИЯ НАУКИ

АСЕЕВА И.А.* ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И БОЛЬШИЕ ДАННЫЕ: ЭТИЧЕСКИЕ ПРОБЛЕМЫ ПРАКТИЧЕСКОГО ИСПОЛЬЗОВАНИЯ. (Аналитический обзор). Б01: 10.31249/паикоуеа/2022.02.02.

Аннотация. Аналитический обзор посвящен выявлению наиболее часто встречающихся и острых этических проблем, связанных с применением на практике информационных технологий, в частности интегральной технологии искусственного интеллекта и больших данных (BD&AI). В обзоре приводятся результаты нескольких эмпирических исследований, затрагивающих такие области, как государственное управление и безопасность, страхование и разработка ИИ. Рассматриваются выявленные сквозные этические проблемы, возникающие в связи с внедрением и использованием BD&AI, представлена простая классификация этических проблем (краткосрочных, среднесрочных, долгосрочных). Эти тематические исследования BD&AI дают представление о вариантах решения этических проблем в существующей практике использования цифровых информационных технологий с функцией искусственного интеллекта.

Ключевые слова: этика науки и технологий; информационные технологии; искусственный интеллект; большие данные; интегральная технология BD&AI; «Общие правила защиты данных» (GDPR); конфиденциальность; прозрачность; экономическая уязвимость.

* Асеева Ирина Александровна - доктор философских наук, ведущий научный сотрудник Центра научно-информационных исследований по науке, образованию и технологиям ИНИОН РАН.

ASEEVA I.A. Artificial intelligence and big data : ethical problems of practical USE. (Analytical review).

Abstract. An analytical review is devoted to identifying the most common and acute ethical problems associated with the practical application of information technologies, in particular, integrated artificial intelligence and big data (BD&AI) technology. The review presents the results of several empirical studies covering such areas as public administration and security, insurance and AI development. The identified cross-cutting ethical problems which have arisen in connection with the introduction and use of BD&AI are considered. A simple classification of ethical problems (short-term, medium-term, long-term) is presented. These case studies of BD&AI give an idea of the options for solving ethical problems in the existing practice of using digital information technologies with the function of artificial intelligence.

Keywords: ethics of science and technology; information technology; artificial intelligence; big data; integrated technology BD&AI; General Data Protection Regulation (GDPR); confidentiality; transparency; economic vulnerability.

Для цитирования: Асеева И.А. Искусственный интеллект и большие данные : этические проблемы практического использования. (Аналитический обзор) // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Сер. 8: Науковедение. - 2022. - № 2. - С. 89-98. DOI: 10.31249/naukoved/2022.02.02.

Введение в проблему

Информационные технологии, без сомнения, заняли лидирующее положение в комплексе конвергентных технологий, определяющих специфику современной технонауки. Особенно заметно растущее влияние двух технологий - больших данных и искусственного интеллекта (ИИ), названия которых в научных источниках все чаще встречаются в виде устойчивой аббревиатуры BD&AI (BD+AI). Большие данные аккумулируют ценную информацию о многочисленных уникальных объектах, структурных закономерностях, аномалиях и принятии решений в широком спектре различных цифровых приложений; ИИ строит прогнозы, разрабатывает рекомендации и осуществляет моделирование процессов. Совокупный потенциал этих двух технологий в таких секторах,

90

как бизнес, здравоохранение, регулирование городской среды, государственные услуги, страхование и статистика, индустрия развлечений, маркетинг и многие другие, может значительно повысить скорость организационных процессов и качественно улучшить автоматизированное управление. Сочетание больших данных и ИИ, например в форме приложений машинного обучения, усовершенствует, по мнению разработчиков, детализацию и анализ информации, что даст возможность лучше понять социальные проблемы и риски и в конечном счете направить технологическое развитие к позитивным организационным преобразованиям. Вместе с тем интегральная технология BD&AI несет также риски для пользователей, связанные с нарушением конфиденциальности, угрозой безработицы, дискриминацией, проблемами безопасности, манипуляциями и растущим неравенством.

Количество научной литературы, посвященной социальным проблемам информационных технологий с функцией ИИ, растет очень быстро, и она требует тщательного изучения. Ранее уже были опубликованы обзоры этой области [10; 17], в которых затрагивались в том числе этические аспекты, понимание которых крайне необходимо для снятия социальной напряженности и повышения доверия к науке. Однако одним из основных препятствий в разработке этических норм использования BD&AI является недостаток эмпирических исследований, посвященных этическим последствиям применения этих технологий. Это затрудняет понимание того, когда этические проблемы актуальны только для отдельных областей и приложений, а когда можно выделить повторяющиеся или универсальные проблемы, характерные для разных секторов экономики и культуры.

Временной горизонт решения этических проблем, связанных с применением информационных технологий

Прежде всего важно отметить, что этические проблемы могут быть классифицированы как краткосрочные, среднесрочные и долгосрочные в зависимости от горизонта их актуального решения. Примеры таких классификаций предложены в концепции М. Хайнлейна и А. Каплана о различии между микро-, мезо- и

макроспективами [5] и в научном исследовании под руководством Марка Райана [16].

Краткосрочные проблемы напрямую связаны с некоторыми ключевыми технологиями - ИИ, машинным обучением - и некоторыми вспомогательными методами и подходами, такими как нейронные сети и обучение с подкреплением, работа над которыми ведется в настоящий момент. Уже выявлен ряд этических сложностей. Речь идет, в частности, об использовании персональных данных для идентификации характеристик физических лиц (например, состояние здоровья), данных ANPR (автоматическое распознавание номерных знаков), банковской информации и даже данных о фермерских землях, домашнем скоте и урожаях. Вопросы, связанные с конфиденциальностью и контролем данных, широко обсуждаются и признаются в качестве основных этических проблем, которые необходимо решить в ближайшей перспективе, причем силами местных властей [9; 13; 17].

Озабоченность, связанная с конфиденциальностью, может быть объяснена сочетанием уровня осведомленности о вопросах частной жизни граждан и введенных 25 мая 2018 г. во всех государствах - членах ЕС «Общих правил защиты данных (GDPR)», частично действующих и в России [1]. В документе четко определен перечень данных, служащих для идентификации личности, и обозначены руководящие принципы работы с персональной информацией: техническая безопасность, включая «право на забвение» («право на удаление персональных данных»), точность, легкую доступность для самой личности и надежность [15]. Необходимо отслеживать предвзятость и возможность дискриминации, которые сознательно или неосознанно могут быть заложены в алгоритмах теми, кто использует технологии BD&AI. С. Ба-роккас и А.Д. Селбст, например, считают, что неверно заданные алгоритмы сбора и анализа информации могут повлиять на уровни неравенства и дискриминации, и, если предубеждения не будут устранены, эти системы могут воспроизводить существующие модели дискриминации или перенять предубеждения предыдущих лиц, принимающих решения. Так, пример унаследованных предрассудков задокументирован в Соединенных Штатах, где афро-американские граждане за одно и то же преступление чаще, чем белые, получали более длительные тюремные сроки [4, p. 674].

Среднесрочные проблемы не связаны четко с конкретной технологией, но обычно возникают в результате интеграции методов ИИ в более крупные социально-технические системы и социальные контексты. Использование BD&AI, в частности машинного обучения, считает Б. Вольф, позволит контролировать поведение отдельных лиц, что может привести к нарушениям неприкосновенности частной жизни, свободы, автономии и самоопределения [20]. Дисбаланс демократической власти будет усиливаться, поскольку компании и правительства могут использовать BD&AI для наблюдения, вторжения в частную жизнь и для манипулирования с помощью персонализированных маркетинговых предложений и стратегий социального контроля.

В статье М. Латонеро обсуждается опасность, связанная с созданием управления технократического типа, когда легкая доступность публичного поиска данных может нанести ущерб свободе выражения мнений, свободе передвижения людей из-за страха перед слежкой и тюремным заключением [11]. Кроме того, пользователей беспокоит вопрос об ответственности разработчиков BD&AI или государства. Например, масштабный опрос, проведенный в Австралии в 2020 г., показал, что 57,9% пользователей вовсе не уверены в том, что большинство компаний предпринимают адекватные шаги для защиты их персональных данных [там же]. Доверие и контроль над BD&AI как проблемы подтверждаются и недавним отчетом ICO (Information Commissioner's Office), который ярко продемонстрировал, что большинство граждан Великобритании не доверяют организациям свои данные [8].

Долгосрочные проблемы относятся к фундаментальным аспектам существования природы, общества или человечества. По оценкам некоторых экспертов (Р. Курцвейл), ИИ разовьет возможности, намного превосходящие человеческие. Высказываются опасения, что на этапе технологической сингулярности машины достигнут уровня человеческого интеллекта, смогут улучшить себя, превзойти человеческий интеллект и стать сверхразумными (Н. Бостром). В связи с этим возникают такие этические проблемы, как наделение интеллектуальных машин статусом морального субъекта, возможность введения технических имплантов для улучшения человеческой природы и создания трансчеловека -следующей стадии антропологической эволюции, передача всего

социального управления так называемому сильному ИИ и др. Несмотря на то что эти перспективы представляются отдаленными и фантастическими, они все больше распространяются в публичных дискуссиях и научно-популярных публикациях [6].

Предложенная простая классификация помогает разобраться в текущем дискурсе, посвященном новым информационным технологиям, и лучше понять результаты эмпирических исследований, показывающих, как организации из разных секторов экономики воспринимают этические проблемы, связанные с BD&AI, и каким образом они с ними справляются.

Методология анализа этических проблем по нескольким тематическим направлениям

Методологический подход, который может применяться для всестороннего анализа проблем по нескольким тематическим направлениям, предлагался еще в 1983 г. Е.Р. Херриоттом и У. Файстоуном [7]. Такой подход позволяет соотнести результаты сразу по нескольким шкалам и извлечь совпадающие показатели и выводы.

Исследование на современном эмпирическом материале было выполнено в 2021 г. коллективом ученых из Нидерландов, Кипра и Великобритании [16]. Они провели опрос (22 экспертных интервью) в 13 различных по типу организациях (стартапы, нишевые компании - разработчики программного обеспечения, национальные медицинские страховые компании, национальные энергетические компании, многонациональные предприятия химической и сельскохозяйственной промышленности, телекоммуникационные провайдерские фирмы, общественные и научно-исследовательские организации и т.д.) в рамках десяти тематических исследований.

На основе записей интервью были сформулированы 26 этических проблем, сгруппированных в шесть тематических кластеров: 1) контроль данных (конфиденциальность, безопасность и информированное согласие); 2) надежность данных (точность данных, адекватность алгоритмов); 3) справедливость (асимметрия власти, справедливость, дискриминация и предвзятость); 4) экономические проблемы (устойчивость, занятость); 5) роль организаций (доверие, ответственность); 6) свобода человека (авто-

номия, права человека). Выяснилось, что защита конфиденциальности была единственной этической проблемой, которая возникала во всех тематических исследованиях, и это не удивительно, поскольку в последнее время ей уделяется большое внимание в связи с GDPR.

Проблема доверия к BD&AI

Серьезная этическая проблема, возникающая при попытке использовать технологии BD&AI, связана с желанием общественности участвовать в обсуждении не только последствий внедрения новых информационных технологий, но и их проектирования. По данным компании Accenture, одного из лидеров мирового рынка профессиональных услуг и цифровых технологий, если люди чувствуют себя лишенными возможности участвовать в процессе разработки BD&AI, они, как правило, теряют к ним доверие [2; 3].

Проблему доверия затрагивает и американский футуролог, социолог и политолог Ф. Фукуяма1. Он утверждает, что организация социальных интеракций в долгосрочном периоде, благополучие и даже конкурентоспособность государства зависят от уровня доверия в обществе. Именно доверие способно оживить и легитимировать такие формальные социальные институты, как габитус, традиции и мораль. Доверие, по Э. Гидденсу, выступает тем самым основанием, на котором выстраиваются предсказуемые отношения и между личностями, и между человеком и социальными системами и государством в целом.

Необходимость контроля сбора данных

Следующая часто обсуждаемая этическая проблема использования BD&AI - необходимость надежного контроля собираемых данных с точки зрения конфиденциальности, особенно в связи с недавно введенными GDPR. Вместе с тем предположение, что все данные собраны в соответствии с GDPR, может создать у общественности ложное чувство безопасности в отношении защиты частной информации. В научной литературе подчеркивается важ-

1 Фукуяма Ф. Доверие: социальные добродетели и путь к процветанию : пер. с англ. - Москва : АСТ, 1994. - 730 с.

95

ность контроля за доступом к медицинским персональным данным, приводятся примеры различного прочтения понятий конфиденциальности и информированного согласия на использование информации, вплоть до случаев, когда согласие скорее подразумевалось, чем предоставлялось обдуманно и сознательно [12]. Обсуждается пример, когда информация была запрошена у предполагаемого владельца данных (страховой компании), а не у отправителей. Этот случай демонстрирует, что возможно использование личных данных сверх правовых рамок, в соответствии с которыми они собирались. Например, данные, касающиеся физических лиц, могут быть легально доступны для выявления мошенничества без уведомления физического лица и без его согласия [18]. Это также связано с «проблемой прозрачности», которая может быть внешней по отношению к организации (понимают ли люди, как организация хранит и обрабатывает свои данные) или внутренней (насколько хорошо организация понимает алгоритмы, разработанные внутри) и иногда предполагает преднамеренную непрозрачность (используется в конкретных контекстах, где это воспринимается как необходимое действие, например при мониторинге политических беспорядков и их возможных последствий).

Экономический парадокс в разработке и использовании

BD&AI

Н. Мэнсон и О. Нейл отмечают, что проблемы конфиденциальности иногда вступают в противоречие с научными инновациями и приводят к непредвиденным расходам и конфликтам в обществе. Такая точка зрения - не редкость в научных и медицинских инновациях, где вред, возникающий в результате использования анонимных медицинских данных, часто рассматривается как минимальный, при этом потенциальные выгоды значительны [14].

Такая позиция отчасти касается экономической уязвимости организаций-разработчиков в связи с законным и этичным внедрением информационных технологий с функцией ИИ. В частности, в научной литературе обсуждается следующее противоречие: даже если новые технологии будут «этически ориентированными» и «аккуратными» в использовании персональных данных, они в лю-

бом случае будут отвергнуты потенциальными заказчиками, если они финансово убыточны.

В то же время производители BD&AI озабочены влиянием законодательства GDPR, создающего большие препятствия для европейских компаний - разработчиков информационных технологий. Они опасаются, что компании, не подписавшие GDPR, могут оказаться более эффективными, чем европейские производители, поскольку могут обойти этические границы европейского законодательства. Н. Уоллес и Д. Кастро, например, считают, что это может стать очень серьезной проблемой для будущего развития ИИ в Европе. Существует вероятность того, что GDPR увеличат затраты европейских компаний, занимающихся ИИ, из-за необходимости вручную регулировать процесс принятия алгоритмических решений. Попытка объяснить алгоритмы может снизить точность ИИ, а право на удаление персональных данных - повредить системам ИИ [19, p. 2].

Для продолжения разработки указанной в обзоре тематики выявленные сквозные этические проблемы при использовании на практике BD&AI в перспективе могут быть скоррелированы с национальными законодательствами государств - потенциальных заказчиков и потребителей информационных технологий с функцией ИИ, а также сопоставлены с более или менее успешными вариантами решения данных этических проблем. В любом случае это направление должно стать частью широкой общественной дискуссии о том, для каких целей могут и должны применяться новые технологии и как обеспечить благоприятные последствия для отдельных людей и всего общества.

Список литературы

1. Общий регламент по защите персональных данных. - URL: https://ogdpr.eu/ru

2. Accenture. Building digital trust : the role of data ethics in the digital age // Accen-ture labs. - 2016. - URL: https://www.accenture.com/t20160613T024441__w__/ us-en/_acnmedia/PDF-22/Accenture-Data-Ethics-POV-WEB.pdf

3. Accenture. Embracing artificial intelligence. Enabling strong and inclusive AI driven growth // Accenture labs. - 2017. - URL: https://www.accenture.com/ t20170614T130615Z w /us-en/ acnmedia/Accenture/next-gen-5/event-g20-yea-summit/pdfs/Accenture-Intelligent-Economy.pdf

4. Barocas S., Selbst A.D. Big data's disparate impact // California law review. -2016. - Vol. 104, N 671. - P. 671-732.

5. Haenlein M., Kaplan A. A brief history of artificial intelligence : on the past, present, and future of artificial intelligence // California management review. - 2019. -Vol. 61, N 4. - P. 5-14.

6. Harari Y.N. Homo deus : a brief history of tomorrow. - 1st ed. - New York : Vintage, 2017. - 448 p.

7. Herriott E.R., Firestone W. Multisite qualitative policy research : optimizing description and generalizability // Educational researcher. - 1983. - Vol. 12. - P. 1419.

8. ICO. Big data, artificial intelligence, machine learning and data protection / ICO. -2017. - 114 p.

9. Jain P., Gyanchandani M., Khare N. Big data privacy : a technological perspective and review // Journal of big data. - 2016. - Vol. 3, N 1. - P. 1-25.

10. Jobin A., Ienca M., Vayena E. The global landscape of AI ethics guidelines // Nature machine intelligence. - 2019. - Vol. 1, N 9. - P. 389-399.

11. Latonero M. Big Data analytics and human rights // New technologies for human rights law and practice / Land M.K., Aronson J. (eds.). - Cambridge : Cambridge univ. press, 2018. - P. 149-161.

12. Macnish K. Government surveillance and why defining privacy matters in a post-snowden world / Journal of applied philosophy. - 2018. - Vol. 35, N 2. - P. 417432.

13. Mai J.E. Big data privacy : the datafication of personal information // The information society. - 2016. - Vol. 32, N 3. - P. 192-199.

14. Manson N.C., O'Neill O. Rethinking informed consent in bioethics. - Cambridge : Cambridge univ. press, 2007. - 226 p.

15. Meeker Q.W., Hong Y. Reliability meets big data : opportunities and challenges // Quality engineering. - 2014. - Vol. 26, N 1. - P. 102-116.

16. Research and practice of AI ethics : a case study approach juxtaposing academic discourse with organisational reality / Ryan M. [et al.] // Science and Engineering Ethics. - 2021. - Vol. 27, N 2. - P. 1-29.

17. The ethics of algorithms : mapping the debate / Mittelstadt B.D. [et all.] // Big Data and society. - 2016. - Vol. 3, N 2. - P. 1-21.

18. The legal and ethical concerns that arise from using complex predictive analytics in health care / Cohen I.G. [et al.] // Health affairs. - 2014. - Vol. 33, N 7. - P. 11391147.

19. Wallace N., Castro D. The impact of the EU's new data protection regulation on AI / Centre for data innovation. - 2018. - 37 p. - URL: https://ec.europa.eu/futurium/ en/system/files/ged/2018-impact-gdpr-ai.pdf

20. Wolf B. Big data, small freedom? // Radical Philosophy. - 2015. - Vol. 194. -P. 13-20.

i Надоели баннеры? Вы всегда можете отключить рекламу.