ВЕСТН. МОСК. УН-ТА. СЕР. 7. ФИЛОСОФИЯ. 2021. №4
ЭТИКА
М.Д. Мартынова*, Е.А. Коваль**, Н.В. жадунова*** BIG DATA КАК ТЕхНОЛОГИЧЕСКИй ВЫЗОВ
этическим принципам*
В статье выполнен обзор зарубежных исследований, посвященных этике Big Data и опубликованных в рецензируемых журналах в период с 2016 по 2019 г. Материалы отбирались по упоминанию в них таких феноменов, как автономия, забота, вред, предосторожность. В процессе работы с источниками обращалось внимание на анализ указанных феноменов, реальных и потенциальных угроз и технологических вызовов, возникающих в мире Big Data, а также на моральную составляющую способов изучения и решения технологических проблем, в частности конфиденциальность, приватность, утрату доверия, деанонимизацию персональных данных, угрозу благополучию и благосостоянию человека и общества, вторичное использование персональных данных, конфликт между индивидуальным и общим благом в цифровом пространстве, недостаток этических компетенций у специалистов, работающих с большими данными.
Ключевые слова: большие данные (Big Data), принцип автономии, принцип заботы, принцип непричинения вреда, принцип предосторожности, конфиденциальность, доверие.
M.D. M a r t y n o v a, E.A. K o v a l, N.V. Z h a d u n o v a. BIG DATA as a technological challenge to ethical principles
The article reviews foreign research on the ethics of Big Data published in peer-reviewed journals within the period from 2016 to 2019. Articles were selected
* Мартынова Марина Дмитриевна — кандидат философских наук, доцент, проректор по внеучебной работе Национального исследовательского Мордовского государственного университета им. Н.П. Огарева (430005 ул. Большевистская, д. 68/1,
г. Саранск, Россия), тел: +7 (927) 276-40-38; e-mail: [email protected]
** Коваль Екатерина Александровна — доктор философских наук, профессор кафедры уголовно-процессуального права и криминалистики Средне-Волжского института (филиал) Всероссийского государственного университета юстиции (РПА Минюста России) (430011, ул. Федосеенко, д. 6, г. Саранск, Россия), тел.: +7 (906) 379-06-15; e-mail: [email protected]
*** Жадунова Наталья Владимировна — кандидат философских наук, декан факультета дополнительного образования Национального исследовательского Мордовского государственного университета им. Н.П. (430005 ул. Большевистская,
д. 68/1, г. Саранск, Россия), тел: +7 (902) 668-88-44; e-mail: [email protected]
**** Статья подготовлена при финансовой поддержке РФФИ в рамках научного проекта «Экспансия» № 19-111-50377.
based on the analysis of such phenomena as autonomy, care, harm, and precaution. In the process of working with sources, we paid attention to the analysis of these phenomena, as well as real and potential threats and technological challenges that arise in the world of Big Data. The review includes ways to study and solve technological problems that have a moral component: confidentiality, privacy, loss of trust, deanonymization of personal data, threats to the prosperity and well-being of people and society, secondary use of personal data, conflict between the individual and the common good in the digital space, lack of ethical competence of specialists working with big data.
Keywords: Big Data, the principle of autonomy, the principle of care, the principle of non-harm, the precautionary principle, confidentiality, trust.
Введение
Термином «Big Data» обозначают очень большой объем информации, анализ которой возможен только при помощи специальных технологий. К существенным характеристикам Big Data, помимо огромного массива информации, традиционно относятся скорость, вариативность, достоверность, а также сложность, взаимосвязанность, масштабируемость и ценность [M. Favaretto et al., 2019; K.N.A. Arthur, R.A. Owen, 2019]. Доступность большого объема информации, включая персональные данные, создает новые вызовы, отвечать на которые человек еще не научился ни в повседневной, ни в профессиональной деятельности. Проблема очевидна для исследователей, рассматривающих угрозы и риски, затрагивающие пространство морали: свободу и автономию личности, достоинство, конфиденциальность, непричинение вреда.
Существует большое количество публикаций, в которых изучаются те или иные аспекты использования технологий Big Data. Авторы структурируют их по сферам общественной жизни и деятельности, где возникают этические проблемы и конфликты, по этическим теориям, которые отвечают на вызов Big Data, а также анализируют содержание дискурса в области этики и автоматизированных интеллектуальных систем (И.В. Бегтин, А.В. Разин, А. Ballantyne, Ph. Bachmann, A. Blasimme, R. Capurro, B. Custers, L. Floridi, K. La Fors, K. Leurs, E. Keymolen, M. Lanzing, B.D. Mittelstadt, H. Nissenbaum, L. Taylor, E. Vayena, A. Zwitter и др.)
Наибольший интерес вызывают исследования моральных проблем использования Big Data, опирающиеся на существующие этические теории и акцентирующие внимание на применимости универсальных (универсализуемых) этических принципов к новым ситуациям. В данном обзоре осуществляется рассмотрение Big Data как технологического вызова универсальным (универсализуемым)
этическим принципам: автономии личности, непричинения вреда, заботы, предосторожности. Это позволит обобщить результаты исследований моральных проблем Big Data в различных областях общественной жизни и систематизировать представленные в научной литературе способы их решения.
принцип автономии личности vs большие данные
Принцип автономии личности является ключевым для европейской идентичности. На автономии личности строятся идеи гуманизма, справедливости, равенства, прав человека. Возникший в эпоху Нового времени, ставший «экспликацией глубинного смысла нравственности» в трудах И. Канта [И. Кант, 1997], принцип автономии является содержательным ориентиром практическим решениям и действиям [Р.Г. Апресян, 2018; Р.Г. Апресян, И.А. Михайлов, 2020]. Технологический вызов принципу автономии личности можно назвать наиболее серьезным, поскольку это не просто смена социальных ожиданий и поведенческих норм, но угроза ценностно-нормативному фундаменту, на котором покоится вся европейская культура.
Манифест «Призрак трансгуманизма и чувство бытия» («The ghost of transhumanism & the sentience of existence») [S. Spiekermann et al., 2017] отражает беспокойство ученых по поводу сохранения достоинства и автономии человека, так как трансгуманизм посягает на ключевой принцип европейской цивилизации — антропоцентризм.
Принцип автономии, наряду с принципами справедливости, «не навреди», «делай благо», входит в систему принципов биомедицинской этики, разработанную Бичампом и Чилдрессом, которые уже можно назвать классическими [T. Childress, J. Beauchamp, 2001]. Классические принципы столкнулись с вызовом Big Data, связанным с трудно прогнозируемыми рисками причинения вреда (хранение массивов электронных медицинских записей и обмен ими могут представлять угрозу конфиденциальности и, соответственно, способствовать деанонимизации данных пациентов, большие геномные данные могут быть использованы способом, о котором пациент и те, кто запрашивал у него информацию, могут ничего не знать). Кроме того, результаты аналитики больших медицинских данных покупаются страховыми компаниями, что может представлять опасность для автономии пациентов и иметь негативные последствия сейчас или в будущем и, возможно, не только для пациентов, но и их родственников [S.B. Brill et al., 2019].
Помимо классических и биоэтических интерпретаций принципа автономии необходимо отметить феминистский подход, в рамках которого атомистическая маскулинная автономия подвергается критике, а вместо нее предлагается концепция реляционной автономии,
где принципиальное значение имеют отношения морального агента с другими людьми [К. Mackenzie, N. Stoljar, 2000; D.T. Meyers, 1989].
Все подходы к анализу принципа автономии трансформируются в условиях накопления данных. Так, А. Цвиттер утверждает, что большие данные принципиальным образом изменяют природу этических дебатов, ставя вопрос о том, в какой степени человек, живущий в мире больших данных, обладает свободой воли, может выносить моральные суждения о добре и зле и управлять собой [А. Zwitter, 2014].
Р. Хершель и В. Миори рассматривают технологические вызовы принципу автономии с позиций кантовской этики: субъекты, собирая, обрабатывая и используя большие данные без получения осознанного согласия людей, извлекая при этом прибыль или получая иные преимущества и выгоды, тем самым нарушают моральное требование относиться к человеку всегда как к цели и никогда как к средству [Л. Herschel, V.M. Miori, 2017].
В ряде работ внимание акцентируется на такой угрозе автономии, как вторжение в процедуру принятия решений. Если индивид перекладывает ответственность за принятие решений на алгоритм, он игнорирует этические принципы или, в формулировке А. Рубель, К. Кастро, А. Фам, занимается «размыванием способности к моральной деятельности» (agency laundering) [А. Rubel et al., 2019]. Данная проблема весьма неоднозначна, поскольку неизбежно ставит перед исследователями вопрос: где кончается воля личности и начинается власть алгоритма? M. Ланцинг рассматривает эту проблематику на примере использования фитнес-браслетов, которые позиционируются производителями как средства самоконтроля, но фактически управляют поведением носителя, осуществляют гиперопеку, не просто «подталкивают» к здоровому образу жизни, но дают «гипертолчок» ("hypernudging") [M. Lanzing, 2019]. При этом носители сохраняют убеждение в том, что принимают решение об изменении поведения самостоятельно, сохраняя автономию и свободу воли [R.H. Thaler, C.R. Sunstein, 2008].
Иное отношение к использованию алгоритмов в процессе принятия решений оправдывает вмешательство в выбор людей, обладающих слабой волей. Однако в большинстве случаев исследователи понимают автономию как наличие возможности отказаться от давления извне, будь то человек или алгоритм. Таким образом, Ланцинг формулирует парадокс: «...хотя технологии самоконтроля предназначены для защиты автономии личности, они же одновременно и угрожают автономии» [M. Lanzing, 2016].
Дж. Оуэнс и А. Крибб, анализируя угрозу автономии с позиций различных концепций, отмечают, что такие технологии не просто
манипулируют поведением личности, но и меняют ее мировосприятие [/. Owens, A. Cribb, 2019]. В процедурных теориях, в которых автономия рассматривается как совокупность когнитивных процессов, технологии самоконтроля помогают развивать автономию: человек получает больше информации о своем здоровье и может на основе ее анализа автономно принимать те решения, которые считает правильными. Правда, сохраняет актуальность парадокс Ланцинга: сам ли человек принимает решение или за него это делает фитнес-браслет? Если же апеллировать к феминистским теориям, где преимущество имеет автономия поступка, то технологии самоконтроля оказываются бессильными и никак не могут помочь поддерживать здоровье. Фитнес-браслет никак не может улучшить обстоятельства, в которых существует его носитель: если находящийся за чертой бедности человек узнает о серьезных проблемах со здоровьем, то знание о том, что он может их решить при наличии финансовых средств, ему не поможет и только усугубит его состояние [ibid., p. 31].
Технологические вызовы принципу автономии личности в исследовательских и обзорных работах, затрагивающих проблематику больших данных, часто рассматриваются наряду с угрозами конфиденциальности и неприкосновенности частной жизни [M. Lanzing, 2016; B.D. Mittelstadt et al, 2016; E. Vayena, A. Blasimme, 2017, p. 506].
В аналитической записке РАНХиГС «Этика и "цифра"» авторы отмечают, что сегодня сбор и обработка больших данных определяются экономическими интересами и коммерческой целесообразностью, что разрушает приватность частной жизни, ставит под сомнение автономию личности и свободу выбора [Этика и «цифра»..., 2020].
Дж. Данахер пишет о такой угрозе, как алгократия (власть алгоритмов). Он рассматривает два способа реагирования на алгократию: сопротивление и приспособление. По его мнению, ни один из них не является идеальным. Данахер приходит к пессимистическому выводу, что сегодня человек сам отказывается от своей автономии, создавая технологии, исключающие или, по крайней мере, минимизирующие его участие в процессе принятия решений как на индивидуальном, так и на государственном уровне [/. Danaher, 2016].
В биоэтическом контексте рассматриваются такие угрозы автономии пациентов или участников медицинских исследований, как деанонимизация данных, получение информированного согласия для вторичного их использования, удаленный контроль приема лекарств и др. Часто возникают ситуации, когда полученные по согласию данные необходимо использовать вторично в больших наборах данных, и в результате такого использования вполне возможна деа-нонимизация субъектов. В итоге пациенты лишаются возможности контролировать свои данные, что в ряде работ интерпретируется
как угроза конфиденциальности и автономии пациента [E. Vayena, А. Blasimme, 2017; J.M.M. Rumbold, B.K. Pierscionek, 2018].
Большие медицинские данные могут быть использованы для понуждения населения к изменению поведения в форме запрета практик, вредных для общественного здоровья [L-S. Pilar, 2019, p. 5]. Это ограничивает автономию личности, позволяет государству и бизнесу вмешиваться в повседневную жизнь людей, а также на основании получаемых больших данных дает возможность дифференцировать их по группам, которые могут быть в дальнейшем дискриминируемы или стигматизируемы [M. Becker, 2018; E. Vayena, А. Blasimme, 2017].
В экосистеме медицинских Big Data автономия личности проб-лематизируется с позиций различных конфигураций данных о ней. Например, дискуссионным остается вопрос включения в большие дата-сеты генетической информации о человеке [E. Vayena, А. Blasimme, 2017], поскольку есть сложность в определении того, какие данные можно отнести к разряду «данных о себе», где пролегает граница между информацией о конкретном человеке и информацией о человеке как носителе сведений о родственниках, друзьях, знакомых и т.д. [V. Gopichandran et al., 2016].
В мире больших данных автономия, наряду с ответственностью и справедливостью, является ключевой ценностью, и для воспроизводства этих ценностей необходимо защищать конфиденциальность и неприкосновенность частной жизни. В исследованиях последних пяти лет, посвященных этике больших данных, констатируется, что данные не должны использоваться в манипулятивных целях даже ради общего блага, не должны ограничивать свободу воли и свободный выбор личности. Однако в процессе сбора, обработки и использования Big Data возникают многочисленные угрозы автономии личности: деанонимизация данных, вмешательство в процесс принятия решений, использование неэффективных моделей информированного согласия и др.
принцип заботы в условиях информационной перегрузки
Концепт «забота» оказался настолько значительным для теории морали, что в науке появилось целостное направление — «этика заботы». Оно включает в себя заботу как отношение к себе, реальную практику морали, конституирование себя в качестве субъекта моральных действий, заботу как уход за другим. Принцип заботы имеет долгую историю в классической традиции этики, о чем подробно пишет Мишель Фуко [М. Фуко, 1998], и приобретает новое звучание в начале 80-х гг. ХХ в. в этике феминизма [C. Gilligan, 1982]. Классический и феминистский подходы к этике заботы различны в интенции, но их объединяет то, что забота рассматривается как ре-
альная моральная практика. Принцип заботы получил наибольшее развитие в медицинской этике и биоэтическом дискурсе, где забота определяется как комплекс «взаимосвязанных действий, которые осуществляются в институциональном контексте и направлены на поддержание, улучшение или восстановление благополучия» пациента [Care in healthcare..., 2018, p. 3].
Сегодня концепт «забота» приобретает инструментальное содержание. Информационные технологии позволяют масштабировать заботу, одновременно делая ее адресной, персонифицированной, экономически обусловленной. Связь между личной заботой человека и его поведением парадоксально сложна, цифровизация изменяет отношение человека к самому себе, ставя во главу угла заботу о своем теле, когнитивных способностях, персональных данных [Л. Capurro, 2017]. В цифровом мире, в отличие от аналогового, рациональные практики заботы о себе уступают аффектам. Ряд исследователей отмечает наличие обратной связи между стремлением пользователя защитить конфиденциальность своих данных и заботой о себе: чем сильнее беспокойство, тем ниже уровень защиты [Y.J. Park et al., 2018]. Одним из прямых следствий этого процесса является рост цифрового неравенства, основанного на рыночных ценностях и статусах [G. Hasselbalch, 2019; Ph. Bachmann, 2019].
Для многих исследователей очевидно, что в «обществе больших данных» происходит процесс преобразования всех вещей (и людей) в форматы данных [V. Mayer-Schonberger et al., 2013; C. O'Neil, 2016] с «благой» целью «количественной оценки мира» для организации общества и прогнозирования рисков. Результат этого преобразования часто обозначается понятием «цифровой след» [J. Mikal et al., 2016], что влечет за собой трансформацию ценности человека. Так, например, трансгуманизм определяет человека как простой информационный объект, ничем не отличающийся от других информационных объектов (неодушевленных) [S. Spiekermann et al., 2017].
Человек в цифровом мире вырабатывает новые инструментальные практики заботы, включая в этот комплекс действий заботу о здоровье, конфиденциальность, благополучие, личностное развитие. Появляются новые технологии, обеспечивающие поддержку самостоятельного управления благополучием («Smart Reasoning for Well-being at Home and at Work» (SWELL)) [S. Koldijk et al., 2016]. Заботясь о себе, человек самостоятельно использует приложения контекстно-зависимой поддержки для регулирования своего эмоционального и физического состояния, при этом часто не осознавая их манипуля-тивной природы и тотального внешнего контроля.
«Забота» как этический принцип находит широкое отражение в исследованиях, посвященных Big Data в биомедицинском контексте
[К. Leurs, 2017; R. Edwards, M. Mauthner, 2012; H. Lomax, 2015]. Преимущества обработки больших данных в медицине состоят в том, что их анализ может привести к разработке успешных стратегий персонализированной медицинской помощи и к значительному улучшению ухода за пациентами. Вместе с тем существуют и очевидные негативные последствия для благополучия пациентов, поскольку анализ Big Data может быть применен для отказа в медицинском страховании тем, кто по состоянию здоровья соответствует модели перспективы «высокого риска». Кроме того, возникают риски и в профессиональной деятельности врачей, которые вынуждены следовать разработанным на основе больших данных протоколам лечения даже в такой ситуации, когда их рекомендации на практике противоречат заботе о больном [S.B. Brill et al., 2019].
В этике больших биомедицинских данных авторы выделяют исследовательскую этику [B.D. Mittelstadt et al., 2016; A. Ballantyne, 2019; N.S. Mauthner, 2019], этику общественного здравоохранения [D.E. Winickoff et al., 2016; A. Stylianou, M.A. Talias, 2017] и этику имплементационных исследований (Implementation Research (IR)) [V. Gopichandran et al., 2016] со своим объектом заботы: в исследовательской этике — это участники конкретных исследований; в этике общественного здравоохранения — население или отдельные сообщества [X. Zhang et al., 2017]; в имплементационной этике — эффективные практики лечения, согласующие интересы участников исследования/субъектов данных с интересами государства и бизнеса [S. Holm, Th. Ploug, 2017; A. Stylianou, M.A. Talias, 2017].
Заботу о благополучии пациентов все чаще берет на себя связанный со здоровьем интернет вещей (H-IoT), обеспечивая телемониторинг пациентов в режиме реального времени, тестирование методов лечения, приведение в действие медицинских устройств, а также наблюдение за физической формой и благополучием [B.D. Mittelstadt et al., 2017]. Наряду с этим возрастает уязвимость пациентов, которые не в состоянии контролировать свои медицинские данные вследствие масштаба, объема и сложности систем.
Таким образом, Big Data меняют представление субъекта о заботе, будь то забота о себе, ответственность за которую перекладывается на искусственных «помощников», либо забота о других, целесообразность которой рассчитывается алгоритмами. Забота тесно связана с доверием, которое может быть подорвано в результате ошибок разработчиков алгоритмов, некомпетентных в практике ухода. Если человек — информационный объект, то изменяется само содержание практики заботы, что усугубляет конфликты в традиционных сферах ее проявления: при уходе за больным, в ситуации, когда врачу приходится соблюдать не интересы конкретного пациента, а
исходить из стоимости лечения, которая может быть высокой, при обеспечении доступности медицинских инноваций для различных групп населения и др.
принцип непричинения вреда
в эпоху больших данных
Одной из классических этических проблем, связанных с принципом непричинения вреда, является дифференциация между причинением вреда и его допущением. Утилитаристский подход игнорирует различия между этими понятиями, но деонтологическая, контрактарианистская этика, этика добродетели, как правило, более негативно оценивают непричинение вреда. Как отмечает Р.Г. Апресян, «непричинение вреда, т.е. негативное по своей сути требование, является базовым и исходным для морали» [Р.Г. Апресян, И.А. Михайлов, 2018, с. 12].
Поскольку вред может быть причинен как действием, так и бездействием, в некоторых случаях причинение вреда может оцениваться как меньшее зло по сравнению с допущением вреда (например, убийство насильника и смерть ребенка от голода, которому не давали еды). Этот подход позволяет проиллюстрировать не только моральные различия причинения и допущения вреда.
Любой проект с применением Big Data должен начинаться с анализа потенциального вреда, который исходит не из наличия самих данных, а наносится, как правило, в процессе их сбора, обработки и дальнейшего использования.
Дж. С. Зальтц и Н. Дьюар выделяют два основных способа причинения вреда, связанных с данными: 1) нарушение конфиденциальности и анонимности субъекта данных; 2) некорректно заданные цели во время обработки данных, технические (ошибки) и субъективные (стереотипы разработчиков) искажения алгоритма [J.S. Saltz, N. Dewar, 2019, p. 206].
Если речь идет об обработке и анализе данных, то источником причинения вреда становятся алгоритмы [К. La Fors et al., 2019; К. Martin, 2019] или аналитические модели, способные прогнозировать ситуацию на основании ранее полученной информации [J.S. Saltz, N. Dewar, 2019, p. 204]. Алгоритмы не могут быть морально нейтральными, поскольку их использование влечет за собой морально значимые последствия, поэтому алгоритмы должны быть прозрачными, а их разработчики и производители должны нести ответственность за причинение вреда.
Аналитические модели могут причинить вред не только личности, но и группе, если в процессе их разработки были допущены алгоритмические смещения, либо автономная интеллектуальная
система обучается на таком наборе данных, который приводит к дискриминации [ibid.; L. Floridi, M. Taddeo, 2016; M. Favaretto et al., 2019]. В этой связи в литературе обсуждается вопрос об ограничении или запрете использования большого набора данных, даже если он уже опубликован, деанонимизирован, в случае, когда его использование может причинить вред человеку (например, использование данных о здоровье для увеличения страховых взносов) [M. Favaretto et al., 2019, p. 16].
С появлением больших данных обострилась ситуация, когда допускается причинение вреда индивиду или группе ради увеличения общего блага. К сожалению, определение того, соразмерен ли причиняемый в процессе использования данных вред, весьма затруднительно, потому что вред и благо неравномерно распределяются в обществе [А. Ballantyne, 2019, p. 364]: появляются стигматизируемые и дискриминируемые группы, неоправданное распределение людей по группам, отсутствие доступа к благу, в создание которого сделан групповой вклад, и т.п. И причиной такого вреда будут уже не алгоритмы и их разработчики, а несправедливое общественное устройство, которое было до начала эпохи больших данных.
В мире больших данных принцип непричинения вреда часто уступает принципу его минимизации. Впрочем, это вполне коррелирует с интуитивным различием между причинением и допущением вреда, и к допущению имеется большее снисхождение со стороны субъекта, дающего моральную оценку поступку. Так, М. Циммер отмечает, что участники научных исследований подвергаются многочисленным вредным воздействиям, среди которых наиболее распространенными являются «физический вред, психологические расстройства, социальный и репутационный вред, ущерб финансовому положению и нарушения ожидаемой неприкосновенности частной жизни, конфиденциальности или анонимности» [M. Zimmer, 2018, p. 3]. Однако если результаты таких исследований могут привнести существенный вклад в общее благо, они проводятся, но требуется свести риски непричинения вреда к минимуму. Проблема обостряется тем, что исследователь не может заранее спрогнозировать этот минимум рисков, особенно в этически неоднозначных ситуациях, например, неочевидно, как информация, которую пользователь сам сделал общедоступной, может причинить физический вред. Однако практика показывает, что алгоритмическая обработка больших данных, полученных из разных источников, может привести к такому результату.
Чаще всего сбор, обработка и использование больших данных приводят к причинению не физического, а психологического [E. Aboujaoude, 2018], морального, репутационного или материаль-
ного вреда. Так, например, алгоритмическая прогностика рецидива преступлений в правовых системах, где установлена презумпция невиновности, способна причинить существенный репутацион-ный вред из-за скрытой дискриминации, заложенной в алгоритм [D. McQuillan, 2018, p. 4].
Чтобы избежать вреда и автоматизма при принятии решений на грани закона и морали, Ден МакКуиллан предлагает создавать демократические коллегиальные органы, которые будут оспаривать решения, принятые машиной [ibid., p. 6-8]. Однако такого рода решения совершенно не применимы в ситуациях, где требуется выбор меньшего зла. К.Б. Сандвик, К.Л. Якобсен, М. Макдоналд пишут о том, что в ходе гуманитарных акций часто используются большие данные, но поскольку речь идет о чрезвычайных ситуациях, уязвимые люди, которые в них попадают, становятся еще и подопытными в экспериментах с данными. Так, например, сбор биометрических данных беженцев фактически представляет собой тестирование технологии, которая впоследствии будет использована в других областях [K.B. Sandvik et al., 2017, p. 333].
Итак, принцип непричинения вреда подвергается технологическим вызовам, связанным с неопределенностью и непредсказуемостью последствий сбора, обработки и использования больших данных. Причинно-следственные связи между предоставлением персональных данных и вредом индивиду или группе сложно отследить и идентифицировать. Поэтому в мире больших данных необходима более строгая моральная оценка не только причинению, но и дозволению вреда.
Принцип невреждения в этике больших данных приобретает особое значение: как правило, человек при совершении действий в отношении других людей находится в условиях, которые можно назвать своеобразной «завесой неведения», что предполагает невозможность с большой степенью достоверности просчитать возникновение каких-либо ситуаций, в то время как большие данные позволяют с высокой долей вероятности осуществить расчет развития сценариев будущих событий и их последствий.
предосторожность в условиях
цифровой неопределенности
Принцип предосторожности представляет собой инструмент контроля над рисками при разработке проектов и программ деятельности, имеющих прямые или косвенные социально значимые последствия. Впервые о мерах предосторожности упоминается во Всемирной хартии природы, принятой Генеральной Ассамблеей в 1982 г. [Всемирная хартия..., 1982], а принцип предосторожности
формулируется в Рио-де-Жанейрской декларации по окружающей среде и развитию [Рио-де-Жанейрская декларация..., 1992].
В работах, посвященных этике больших данных, о предосторожности говорят в связи с усилением неопределенности, необоснованной дискриминацией, потерей доверия, контроля, утратой благополучия, контекстной целостности, коллективной и распределенной ответственностью, субъектностью данных. Big Data создают иллюзию подлинности и объективности, внушают доверие, заставляют забыть об осторожности, с другой стороны, работа с ними позволяет предсказывать кризисные состояния социально-экономических и социально-технологических систем [/. Metcalf, K. Crawford, 2016], тем самым предостерегая от необдуманных решений.
Подавляющее большинство публикаций, посвященных этике Big Data, начинается с утверждения о неявных последствиях использования технологических инноваций [ibid., 2016], которые производят вероятностные, но неизбежно неопределенные знания [B.D. Mittelstadt et al., 2016]. Результаты исследований, основанные на алгоритмической обработке данных, могут представлять большой риск для отдельных людей и сообществ в результате включения в массивы данных недостоверных или заведомо ложных сведений, а также преднамеренного или непреднамеренного неправильного использования прогнозов [S. Chancellor et al., 2019].
Непредсказуемость риска нанесения ущерба определяется тем, что, во-первых, в исследованиях отдается предпочтение объему данных, а не их точности, во-вторых, коммерческое использование может привести к конфликту права интеллектуальной собственности и права на неприкосновенность частной жизни [A. Harkens, 2016]. Так, например, в биомедицинских исследованиях с использованием больших данных могут быть минимизированы риски для отдельных участников, но при этом возрастает риск для групп пациентов, которые не получают доступа к инновационным медицинским услугам [A. Ballantyne, 2019]. Кроме того, возникает конфликт между публичным обменом информацией и частным контролем персональных данных (например, при передаче личной и семейной медицинской и генетической информации, когда появляются «бесправные субъекты данных») [P. Boddington, 2016].
Еще большую неопределенность последствий использования данных создает концепция «данные как общественное благо», в рамках которой, например, реализуются модели обмена данными между компаниями сотовой связи и международными организациями с целью борьбы с нищетой, болезнями и иными глобальными угрозами [L. Taylor, 2016]. Однако отказ от принципа предосторожности ради
общего блага часто приводит к нарушению прав отдельных лиц или групп [Y Wang, 2016].
Подобные ситуации демонстрируют необходимость учета социального и культурного контекстов [G. Nissenbaum, 2010], поскольку алгоритмы не могут быть ценностно нейтральными, они всегда субъективны, как и их разработчики [D. Holtzhausen, 2016; B.D. Mittelstadt et al., 2016]. В ином случае возникает «дефицит доверия к данным» и к институтам, которые эти данные используют. Особые опасения вызывает сочетание Big Data и политических интересов, поскольку отсутствуют действенные механизмы для привлечения власти к ответственности за манипуляции с данными. Ошибки, вносимые алгоритмами, часто не являются случайными и имеют систематические последствия. Эти проблемы связаны со сложностью определения субъектов, которых можно привлечь к ответственности за игнорирование принципа предосторожности при принятии социально значимых решений. Здесь формируется пространство инфраэтики, которое регулируется «распределенной моралью» [L. Floridi, 2013], применяемой к действиям мультиагентных систем, включающих людей и алгоритмы. В таких системах смешиваются эпистемологические и этические проблемы, что приводит к размыванию ответственности [B.D. Mittelstadt et al., 2016].
Таким образом, принцип предосторожности в работах, посвященных этической проблематике больших данных, раскрывается через ряд смежных понятий: доверие к данным, непричинение вреда, учет контекстной целостности, конфликт между общим благом и личными интересами, распределение ответственности в мультиа-гентных системах.
Заключение
Материалы и выводы данной обзорной статьи могут быть полезны при разработке и усовершенствовании проектов Кодексов этики использования больших данных, в дальнейших научных исследованиях этики Big Data, включая диссертационные, а также послужить руководством для специалистов по этике, анализу данных и для других заинтересованных сторон, реагирующих на риски и вызовы, связанные с развитием подобных технологий.
Рассмотренные принципы объединяет то, что они разработаны в русле гуманистического подхода, где в центре мира помещается человек, его автономия, права и законные интересы. Однако большие данные и их аналитика меняют мир, информационные технологии вытесняют человека из центра мироздания на периферию. По этой причине специалисты во многих областях науки и практики нуждаются в разработке этического инструментария, позволяющего
решать моральные дилеммы, сохранять автономию, брать на себя ответственность за решения с учетом принципов заботы, непричинения вреда и предосторожности.
В мире больших данных моральные принципы становятся взаимозависимыми. Поддержание и воспроизводство одного принципа может повлечь за собой нивелирование ценности другого. Так, например, забота о себе при помощи технических средств может привести к ограничению автономии; реализация принципа предосторожности может помешать проявить заботу о себе и других; защищая автономию, мы иногда забываем о предосторожности и т.д.
Для поиска ответов на технологические вызовы этическим принципам следует привлекать к обсуждению данной проблематики разных специалистов и заниматься ее разработкой посредством введения этического контроля над инициативами в области науки о данных [S. Leonelli, 2016], создания этических комитетов, внедрения нормативного регулирования их деятельности [S. Holm, Th. Ploug, 2017], инициирования демократических процедур в тех сферах жизни общества, где используются большие данные [E. Vayena, A. Blasimme, 2017]. В этой связи необходимо заниматься подготовкой профессиональных сообществ к компетентному участию в дискуссиях об этике Big Data, предполагающей целенаправленное развивающее обучение, поддерживающее культуру этических исследований и практики работы с большими данными.
СПИСОК ЛИТЕРАТУРЫ
Апресян Р.Г. Феномен моральной императивности: Критические очерки / Р.Г. Апресян, О.В. Артемьева, А.В. Прокофьев; Рос. акад. наук, Ин-т философии. М., 2018.
АпресянР.Г.,МихайловИ.А. Императивность - репрессия - автономия // Человек. 2020. Т. 31, № 3. С. 61-85.
Всемирная хартия природы (принята резолюцией 37/7 Генеральной Ассамблеи ООН от 28 октября 1982 года). 1982 // URL: https://www.un.org/ ru/documents/decl_conv/conventions/charter_for_nature.shtml
Кант И. Основоположения к метафизике нравов // Кант И. Соч.: В 4 т. / На нем. и рус. яз.; Подгот. к изд. Н.В. Мотрошиловой, Б. Тушлингом. М., 1997. Т. 3. С. 39-276.
Разин А.В. Этика искусственного интеллекта // Философия и общество. 2019. № 1 (90). С. 53-73.
Рио-де-Жанейрская декларация по окружающей среде и развитию. 1992 // URL: https://www.un.org/ru/documents/decl_conv/declarations/riodecl. shtml
Фуко М. История сексуальности. Т. 3. Забота о себе / Пер. Т.Н. Титовой и О.И. Хомы; Под ред. А.Б. Мокроусова. Киев, 1998.
Этика и «цифра» — коротко о главном. Робот-врач, робот-учитель, робот-полицейский: социальные риски и отраслевые этические вызовы: аналитическая записка к тому 2 доклада «Этика и "цифра": этические проблемы цифровых технологий». М., 2020.
Aboujaoude E. Protecting privacy to protect mental health: The new ethical imperative // Journal of Medical Ethics. 2018. Vol., 45, N 9. P. 604-607.
Arthur K.N.A., R.A. Owen. Micro-ethnographic study of Big Data — based innovation in the financial services sector: governance, ethics and organizational practices // Journal Bus Ethics. 2019.Vol. 160 (2). P. 363-375.
Bachmann Ph. Public relations in liquid modernity: How Big Data and automation cause moral blindness // Public Relations Inquiry. 2019. Vol. 8, N 3. P. 319-331.
Ballantyne A. Adjusting the focus: A public health ethics approach to Data research // Bioethics. 2019. Vol. 33. P. 357-366.
BeckerM. Ethiek in het big data tijdperk. Privacy als autonomie en als waar-digheid (Ethics in the Big Data era: Privacy as autonomy and privacy as dignity) // Tydskrif vir Geesteswetenskappe, Jaargang. 2018.Vol. 58, N 4 (1). P. 669-682.
Biesen W.V., Decruyenaere J., Sideri K., Cockbain J., Sterckx S. Remote digital monitoring of medication intake: Methodological, medical, ethical and legal reflections // Acta Clinica Belgica. 2019. P. 209-216.
Boddington P. Big Data, Small Talk: Lessons from the ethical practices of interpersonal communication for the management of biomedical Big Data // Ethics of Biomedical Big Data: Law Governance and Technology Series. 2016. Vol. 29. P. 277-305.
Brill S.B., MossK.O.,PraterL. Transformation of the doctor-patient relationship: Big Data, accountable care, and predictive health analytics // HEC Forum. 2019. Vol. 31. P. 261-282.
Capurro R. Digitization as an ethical challenge // AI & Society. 2017. Vol. 32. P. 277-283.
Care in healthcare: Reflections on theory and practice / Ed. by F. Kraus, J. Boldt. Basingstoke, 2018.
Chancellor S., Birnbaum M.L., Caine E.D., Silenzio V.M.B., De Choudhury M. A taxonomy of ethical tensions in inferring mental health states from social media // ACM Conference on Fairness, Accountability, and Transparency (FAT). Assoc. Comp. Machinery. 2019. P. 79-88.
Childress T., Beauchamp J. Principles of biomedical ethics. N.Y., 2001.
Danaher J. The threat of algocracy: Reality, resistance and accommodation // Philosophy and Technology. 2016. Vol. 29, N 3. P. 245-268.
Edwards R., MauthnerM. Ethics and feminist research: Theory and practice // Ethics in qualitative research / Ed. by T. Miller, M. Birch, M. Mauthner, J. Jessop. L., 2012. P. 14-28.
Favaretto M., De Clercq E., Elger B.S. Big Data and discrimination: Perils, promises and solutions // A Systematic Review: Journal Big Data. 2019. Vol. 6, N 12 // URL: https://doi.org/10.1186/s40537-019-0177-4
Floridi L. Distributed morality in an information society // Science and Engineering Ethics. 2013. N 19. P. 727-743.
Floridi L., Taddeo M. What is Data ethics? // Philosophical transactions of the royal society: A mathematical, physical and engineering sciences // Royal Society Publishing. November. 2016 // URL: https://doi.org/10.1098/ rsta.2016.0360
Gilligan C. In a different voice: Psychological theory and women's development. Cambridge, Mass., 1982.
Gopichandran V., Luyckx V.A., Biller-Andorno N. et al. Developing the ethics of implementation research in health // Implementation Science. 2016. N 11 // URL: https://doi.org/10.1186/s13012-016-0527-y
Harkens A. "Rear Window Ethics" and discrimination: The darker side of Big Data // 16th European Conference on e-Government (ECEG) / Univ. Ljubljana, FacAdm. Ljubljana, Slovenia. Ljubljana, 2016. P. 267-272.
Hasselbalch G., Tranberg P. Data ethics: The new competitive advantage. Copenhagen, 2016.
Hasselbalch G. Making sense of Data ethics. The powers behind the Data ethics debate in European policy-making // Internet Policy Review. 2019. N 8 (2). DOI: 10.14763/2019.2.1401
Herschel R., Miori V.M. Ethics & Big Data // Technology in Society. 2017. Vol. 49. P. 31-36.
Holm S., Ploug Th. Big Data and health research — the Governance challenges in a Mixed Data economy // Bioethical Inquiry. 2017. N 14. P. 515-525.
Koldijk S., Kraaij W., NeerincxM.A. Deriving requirements for pervasive well-being technology from work stress and intervention theory: Framework and case study // JMIR mHealth and uHealth. 2016. N 4 (3). DOI: 10.2196/mhealth.5341
La Fors K., Custers B., Keymolen E. Reassessing values for emerging Big Data technologies: Integrating design-based and application-based approaches // Ethics and Information Technology. 2019. Vol. 21. P. 209-226
LanzingM. The transparent self // Ethics and Information Technology. 2016. Vol. 18. P. 9-16.
Lanzing M. «Strongly recommended» revisiting decisional privacy to judge hypernudging in self-tracking technologies // Philosophy & Technology. 2019. Vol. 32. P. 549-568.
Leonelli S. Locating ethics in Data science: Responsibility and accountability in global and distributed knowledge production systems // Philosophical transactions of the Royal society: Mathematical, physical and engineering sciences. 2016. DOI: 10.1098/rsta.2016.0122
Leurs K. Feminist Data studies: Using digital methods for ethical, reflexive and situated socio-cultural research // Feminist Review. 2017. Vol. 115. P. 130-154.
Lomax H. Seen and heard? // Families, Relationships and Societies. 2015. Vol. 4, N 3. P. 493-502.
Mackenzie K., Stoljar N. Relational autonomy feminist perspectives on autonomy, agency and the social self. N.Y., 2000.
Martin K. Ethical implications and accountability of algorithms // Journal of Business Ethics. 2019. Vol. 160. P. 835-850.
McQuillan D. People's councils for ethical machine learning // Social Media + Society. 2018. April-June. P. 1-10.
Mauthner N.S. Toward a posthumanist ethics of qualitative research in a Big Data era // American Behavioral Scientist. 2019. Vol. 63 (6). P. 669-698.
Mayer-Schonberger V., Cukier K. Big Data: A revolution that will transform how we live, work and think. L., 2013.
Metcalf J., CrawfordK. Where are human subjects in Big Data research? The emerging ethics divide // Big Data & Society. 2016. DOI: 10.1177/2053951716650211
Meyers D.T. Self, society and personal choice. N.Y., 1989.
Mikal J., Hurst S., Conway M. Ethical issues in using Twitter for populationlevel depression monitoring: a qualitative study // BMC Med Ethics.2016. Vol. 17, N 22. DOI: 10.1186/s12910-016-0105-5
Mittelstadt B.D. Designing the health-related internet of things: Ethical principles and guidelines // Computer Science Information. 2017. Vol. 8, N 3. P. 1051-1055
Mittelstadt B. D., Alio P., Taddeo M., Wachter S., Floridi L. The ethics of algorithms: Mapping the debate // Big Data & Society. 2016. July-December. P. 1-21.
Mittelstadt B.D., Floridi L. The ethics of Big Data: Current and foreseeable issues in biomedical contexts // Science and Engineering Ethics. 2016. Vol. 22. P. 303-341.
O'Neil C. Weapons of math destruction. N.Y., 2016.
Owens J., Cribb A. «My fitbit thinks I can do better! » do health promoting wearable technologies support personal autonomy? // Philosophy & Technology. 2019. Vol. 32. P. 23-38.
Park Y.J., Chung J.E., Shin D.H. The structuration of digital ecosystem, privacy, and Big Data intelligence // American Behavioral Scientist. 2018. Vol. 62, N 10. P. 1319-1337.
Pilar L.-S. Key points for an ethical evaluation of healthcare Big Data // Processes. 2019. Vol. 7. Article 493.
The ethics of digital well-being: A multidisciplinary perspective / C. Burr, L. Floridi (eds). Ethics of digital well-being. Springer. 2020 // URL: https://philpapers. org/archive/BURTEO-62.pdf
The Precautionary Principle / United Nations Educational, Scientific and Cultural Organization (UNESCO). World Commission on the Ethics of Scientific Knowledge and Technology (COMEST). 2005 // URL: https://unesdoc.unesco. org/ark:/48223/pf0000139578
Rubel A., Castro C., Pham A. Agency laundering and information technologies // Ethical Theory and Moral Practice. 2019. Vol. 22. P. 1017-1041.
Rumbold J.M.M., Pierscionek B.K. What are Data? A categorization of the Data sensitivity spectrum // Big Data Research. 2018. Vol. 12. P. 49-59.
Saltz J.S., Dewar N. Data science ethical considerations: a systematic literature review // Ethics and Information Technology. 2019. Vol. 21, N 3. P.197-208.
Sandvik K.B., Jacobsen K.L., McDonald S.M. Do no harm: A taxonomy of the challenges of humanitarian experimentation // International Review of the Red Cross. 2017. Vol. 99, iss. 1. P. 319-344.
Spiekermann S., Hampson P., Ess Ch., Franck G. The ghost of transhuman-ism & the sentience of existence: Retrieved from the privacy surgeon. 2017 //
URL: http://privacysurgeon.org/blog/wp-content/uploads/2017/07/Human-manifesto_26_short-1.pdf
Stylianou A., Talias M. A. Big Data in healthcare: a discussion on the Big challenges // Health Technology. 2017. Vol. 7. P. 97-107.
Taylor L. The ethics of big data as a public good: which public? Whose good? Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 2016. Vol. 374 // URL: https://doi.org/10.1098/rsta.2016.0126
Thaler R.H., Sunstein C.R. Nudge: Improving decisions about health, wealth, and happiness. New Haven, 2008.
Vayena E., Blasimme A. biomedical Big Data: New models of control over access, use and governance // Bioethical Inquiry. 2017. Vol. 14. P. 501-513.
Wang Y. Big opportunities and big concerns of Big Data in education // Tech Trends. 2016.Vol. 60. P. 381-384.
Winickoff D.E., Jamal L., Anderson N.R. New modes of engagement for Big Data research // Journal of Responsible Innovation. 2016. Vol. 3, N 2. P. 169-177.
ZhangX., Perez-Stable E.J., Bourne Ph.E. et al. Big Data science: Opportunities and challenges to address minority health and health disparities in the 21st century // Ethnicity & Disease. 2017. Vol. 27, N 2. P. 95-106.
Zimmer M. Addressing conceptual gaps in Big Data research ethics: An application of contextual integrity // Social Media + Society. 2018. April-June. P. 1-11.
Zwitter A. Big Data ethics // Big Data & Society. 2014. July-December P. 1-6.