РЕЦЕНЗИЯ НА КНИГУ
DOI: 10.14515/monitoring.2023.5.2463
Е. А. Коваль
НОВЫЕ АЛГОРИТМЫ ВЛАСТИ В МИРЕ АЛГОРИТМОВ. РЕЦ. НА КН.: HASSELBALCH G. DATA ETHICS OF POWER: A HUMAN APPROACH IN THE BIG DATA AND AI ERA. CHELTENHAM ; NORTHAMPTON, MA : EDWARD ELGAR, 2021
Правильная ссылка на статью:
Коваль Е. А. Новые алгоритмы власти в мире алгоритмов // Мониторинг общественного мнения: экономические и социальные перемены. 2023. № 5. С. 262—282. https:// doi.org/10.14515/monitoring.2023.5.2463. Рец. на кн.: Hasselbalch G. Data Ethics of Power: A Human Approach in the Big Data and AI Era. Cheltenham ; Northampton, MA : Edward Elgar, 2021 For citation:
Koval E. A. (2023) New Algorithms of Power in the World of Algorithms. Monitoring of Public Opinion: Economic and Social Changes. No. 5. P. 262-282. https://doi.org/10.14515/monitor-ing.2023.5.2463. Book Review: Hasselbalch G. (2021) Data Ethics of Power: A Human Approach in the Big Data and AI Era. Cheltenham; Northampton, MA: Edward Elgar. (In Russ.)
Получено: 22.07.2023. Принято к публикации: 14.09.2023.
НОВЫЕ АЛГОРИТМЫ ВЛАСТИ В МИРЕ АЛГОРИТМОВ. РЕЦ. НА КН.: HASSEL-BALCH G. DATA ETHICS OF POWER: A HUMAN APPROACH IN THE BIG DATA AND AI ERA. CHELTENHAM; NORTHAMPTON, MA: EDWARD ELGAR, 2021
КОВАЛЬ Екатерина Александровна — доктор философских наук, ведущий научный сотрудник Института корпоративного обучения и непрерывного образования, Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева, Саранск, Россия; профессор кафедры уголовного права и процесса, Средне-Волжский институт (филиал) Всероссийского государственного университета юстиции, Саранск, Россия E-MAIL: [email protected] https://orcid.org/0000-0003-0069-5335
Аннотация. Опубликованная в 2021 г. книга европейской исследовательницы Гри Хассельбальх посвящена анализу актуальных вопросов, касающихся влияния больших данных и искусственного интеллекта на социальные процессы и перераспределение власти в обществе. Уникальность исследования связана не только с оригинальным авторским взглядом на то, что происходит с властными отношениями в социотех-нических системах, где люди и технологии взаимодействуют столь тесно, что не всегда можно отличить антропную и нон-антропную составляющую принимаемых решений. Интерес представляет и профессиональный бэкграунд автора: она не только академический исследователь, но и политик, занимающийся разработкой стратегических документов и стандартов регулирования новых информационных технологий, а также реализацией общественных
NEW ALGORITHMS OF POWER IN THE WORLD OF ALGORITHMS. BOOK REVIEW: HASSELBALCH G. (2021) DATA ETHICS OF POWER: A HUMAN APPROACH IN THE BIG DATA AND AI ERA. CHELTENHAM; NORTHAMPTON, MA: EDWARD ELGAR
Ekaterina A. KOVAL12 — Dr. Sci. (Philos.), Leading Researcher at the Institute for Corporate Education and Continuing Education; Professor at the Department of Criminal Law and Criminal Procedure E-MAIL: [email protected] https://orcid.org/0000-0003-0069-5335
1 National Research Mordovia State University, Saransk, Russia
2 Mid-Volga Institute — Branch of the All-Russian State University of Justice, Saransk, Russia
Abstract. A book by Gry Hasselbalch published in 2021 examines how big data and
artificial intelligence affect social process-
es and the redistribution of power within society. The uniqueness of Hasselbalch's research is due to several factors. Firstly, the book presents an original author's
view of what happens to power relations in socio-technical systems, where people
and technologies interact so closely that it is not always possible to distinguish be-
tween the human and non-human components of the decisions made. Secondly,
the professional background of the author is important. She is not just an academic researcher but also a politician professionally involved in the development of strategic documents and standards re-
garding the regulation of new information
technologies, as well as the implementa-
tion of different projects aimed at ensuring ethical data management and protecting human rights.
проектов, направленных на обеспечение этичного управления данными и защиту прав человека.
В связи с вышесказанным книга может быть полезна не только ученым, но и юристам, политикам, инженерам — всем, кто в той или иной форме включен в разработку и создание технологий, нормативное регулирование их дизайна и использования. Хотя в работе отражен западноевропейский опыт внедрения больших данных и искусственного интеллекта, концептуальные схемы могут быть масштабированы и перенесены в другие социально-политические контексты. Книга наталкивает на размышления о том, какая культура данных воспроизводится в России; как развивается отечественное пространство переговоров, в котором стейкхолдеры отстаивают свои интересы в социотехнических инфраструктурах; как происходит борьба за новые формы власти; наконец, приближают ли нас большие данные и искусственный интеллект к «хорошему обществу» или, наоборот, делают его недостижимым.
Ключевые слова: большие данные, искусственный интеллект, этика данных, власть, человечный подход, со-циотехническая инфраструктура, распределенная моральная агентность, этичное управление данными
Благодарность. Работа подготовлена в рамках реализации гранта Российского научного фонда № 23-28-01288, https://rscf.ru/project/23-28-01288/.
Therefore, Hasselbalch's book could be useful not only for scientists, but also for lawyers, politicians, engineers, and everyone involved in the development and creation of technologies, as well as the normative regulation of their design and usage. Although the study reflects the Western European experience in the implementation of big data and artificial intelligence, the conceptual schemes could be scaled and transferred to other socio-political contexts. The book prompts reflections on the kind of data culture being reproduced in Russia; how the Russian domestic negotiation space is developing, where stakeholders defend their interests in sociotechni-cal infrastructures; how the struggle for new forms of power takes place; finally, whether big data and artificial intelligence bring us closer to a "good society" or, conversely, make it unattainable.
Keywords: big data, artificial intelligence, data ethics, power, human approach, so-cio-technical infrastructure, distributed moral agency, data ethical governance
Acknowledgments. The article was prepared with the financial support of the Russian Science Foundation (project No. 2328-01288), https://rscf.ru/project/ 23-28-01288/.
Введение
Искусственный интеллект (ИИ) и большие данные (БД) прочно вошли в поле интересов социальных исследователей. Сегодня профессиональное дискурсивное пространство расширяется посредством приложения технологической проблематики к традиционным социологическим исследовательским вопросам. Одна из архиактуальных проблем такого рода касается вопросов трансформации власти, влияния технологий на властные структуры и процессы реализации власти.
Как искусственный интеллект и большие данные влияют на распределение власти в обществе? Есть ли закономерности или хотя бы устойчивые тенденции в формировании информационно-технологической политики, правового и этического регулирования разработки и использования технологий? Можно предположить, что российское социологическое сообщество в поиске ответов на эти вопросы не останется равнодушным к работе Гри Хассельбальх «Этика власти, основанная на данных. Человечный подход в эпоху больших данных и искусственного интеллекта».
Г. Хассельбальх—европейская исследовательница, соосновательница аналитического центра DataEthics.eu. Более 20 лет она занимается вопросами этических и социальных последствий развития таких технологий, как большие данные и искусственный интеллект 1. Помимо исследовательской деятельности, Г. Хассельбальх принимала участие в работе правительственных и межправительственных комиссий, занимающихся разработкой технологической политики и защитой прав человека в цифровом мире. В частности, в качестве независимого эксперта она работала в составе Европейского исследовательского совета (European Research Council), была членом Группы экспертов высокого уровня по ИИ (EU High Level Expert Group on Artificial Intelligence, AI HLEG), участвовала в разработке стандарта P7006 (стандарт для интеллектуального агента управления персональными данными) Института инженеров в области электротехники и электроники (Institute of Electrical and Electronics Engineers, IEEE) 2. В настоящее время Г. Хассельбальх является ключевым экспертом в области этики ИИ в проекте «Международная информационно-просветительская инициатива в области ИИ, ориентированного на человека» 3.
Ее книга посвящена исследованию того, что нужно сделать, чтобы придать ИИ «человеческое лицо», и что происходит с властью в мире больших данных. Сама работа — своеобразное резюме не только научной, но также общественной и просветительской деятельности автора. Основной посыл монографии сформулирован в духе междисциплинарного подхода исследований науки и технологий (Science and Technology Studies, STS): Г. Хассельбальх предлагает обратить внимание на то, что данные не только меняют динамику власти, но и создают ее новые формы. Сложность технологий позволяет легко маскировать цели и ценности, закладываемые еще на этапе их разработки, поэтому требуются норма-
1 Humanism in Data & AI. URL: https://gryhasselbalch.com (дата обращения: 25.10.2023).
2 Hasselbalch G. We Don't Have to Give Up Our Privacy to Have a Digital Life // Digital Future Society. 2019. July 25. URL: https://digitalfuturesociety.com/qanda/gry-hasselbach/ (дата обращения: 25.10.2023).
3 International Outreach for Human-Centric Artificial Intelligence Initiative // European Commission. URL: https://digital-strategy.ec.europa.eu/en/policies/international-outreach-ai (дата обращения: 25.10.2023).
тивные инструменты, позволяющие сделать прозрачными «властные отношения, встроенные в социотехнические инфраструктуры больших данных и искусственного интеллекта» [Hasselbalch, 2021: 1]. Только это позволит переориентировать технологии на человека и его интересы, а также научиться использовать данные так, чтобы это приносило пользу обществу.
Г. Хассельбальх выделяет три смысловые части, в которых используется разная оптика для детального рассмотрения властных отношений. Последние оцениваются с точки зрения больших данных (главы 1 и 2), искусственного интеллекта (глава 3 и 4) и человека, живущего в эпоху больших данных (глава 5). Несмотря на то, что автор прибегает к моральным понятиям, она сразу обозначает свою заинтересованность не столько в этике данных, сколько в том, как технологии, будучи культурными практиками, встраиваются в социальные системы, как выглядит новая архитектура власти, как люди борются за возможность управлять своими данными. Специфика этического акцента автора в том, что она отказывается от антропоцентризма и не рассматривает человека и его индивидуальное бытие как высшую ценность, то есть отказывается от популярной в европейских дебатах о больших данных и искусственном интеллекте «человекоцентричности» (human-centric approach). Ее заменяет человечный подход, где человек — не столько реципиент благ, которые технологии могут ему могут преподнести, сколько существо, ответственное как за себя, так и за жизнь и бытие в технологическом мире. Позиция, согласно которой человек не должен искать пользы от больших данных или думать, как с помощью искусственного интеллекта получить кусок властного пирога, выглядит несколько наивной и совершенно не вписывающийся в нар-ратив гипериндивидуализма, но вера автора в ответственность людей, стоящих на пороге очередной технологической революции (а, возможно, уже и за порогом), заслуживает уважения.
Для удобства дальнейшего анализа необходимо кратко охарактеризовать понятийный аппарат, которым пользуется Г. Хассельбальх. Она рассматривает большие данные и искусственный интеллект как генетически взаимосвязанные технологии: ИИ — это социотехническая эволюция систем БД [ibid.: 64] или, проще говоря, руки и мозги БД [ibid.: 87].
Также она вводит понятия «социотехнических инфраструктур больших данных» (Big Data Socio-Technical Infrastructures, BDSTIs) и «социотехнических инфраструктур искусственного интеллекта» (Artificial Intelligence Sociotechnical Infrastructures, AISTIs). Такие инфраструктуры — пример «новых технологически опосредованных конфигураций пространства и времени» [ibid.: 10]. Большие данные создают инфраструктуры, «не признающие» ни географических, ни политических границ, ни правовых юрисдикций. Несмотря на попытки разных правительств ограничить трансграничную передачу данных, ужесточать ответственность за нарушения требований о защите данных, особенно персональных, большие данные становятся все больше и сложнее, а управление ими представляет все более сложную задачу не только с технологической, но и с социальной точки зрения. AISTIs, в отличие от BDSTIs, отвечают не за пространство, а за время, и работают с данными так, чтобы «активно формировать прошлое и настоящее в образе будущего» [ibid.: 11]. Социотехнические инфраструктуры интерпретируются и как простран-
ство для переговоров и борьбы за власть, которое при этом остается для нас невидимым: мы им пользуемся, но не замечаем этого, подобно тому, как не задумываемся о том, как дышим. Осознавать инфраструктуры мы начинаем только тогда, когда они разрушаются.
Г. Хассельбальх использует для рассмотрения проблемных аспектов БД и ИИ трехуровневую структуру: на микроуровне с технологиями работают инженеры, не всегда учитывающие социальные последствия разработки и применения технологий; макроуровень — «епархия» гуманитариев, занимающихся как раз анализом трансформаций социотехнических систем, но, как правило, упускающих важные технологические нюансы; наконец, на мезоуровне решаются вопросы политики управления данными различными акторами. Обсуждаемая монография, как, впрочем, и текущий проект DataEthics.eu,—это попытка организовать дискурсивное пространство, в рамках которого для конструктивного обсуждения социальных и культурных компромиссов, связанных с БД и ИИ, могут встретиться представители всех трех уровней.
По мнению автора книги, в новейших технологических разработках необходимо создавать условия для согласования интересов и публичного диалога представителей разных «культур данных»: разработчиков, законодателей, пользователей и др. У каждой группы имеется свое представление о БД и ИИ, их социальной роли, а также свои практики работы с данными. Симпатии автора в таком диалоге находятся на стороне культуры данных, ориентированной на человека, который является не только моральным (может действовать в соответствии с нормами морали), но и этическим агентом (может нести ответственность за себя, общество, бытие в целом).
Итак, рассмотрим интерпретацию роли БД и ИИ в распределении власти, оперируя введенным Г. Хассельбальх понятийным аппаратом.
Власть и большие данные
Работу BDSTIs Г. Хассельбальх рассматривает на примере таких инцидентов, как крупные утечки данных, расследование дела Эдварда Сноудена, манипуляции мнением избирателей с помощью технологий БД и др. Благодаря таким событиям общество осознало роль данных, оценило масштаб социальных трансформаций, которые принесли БД, и сформировало социальный запрос на разработку норм и правил работы с данными. Появилась и прижилась в публичном пространстве популярная метафора «данные — новая нефть», однако, по мнению Г. Хассельбальх, это скорее новая власть. В системе перераспределения власти возникают новые акторы, а также внедряются социальные практики, представляющие этих акторов и их интересы в конкретном обществе. Так, например, если отдельные бизнес-проекты «отключить» от потоков пользовательских данных, они если не прекратят свое существование, то будут существенно сокращены. Это стимулирует продвижение в публичном пространстве повестки о полезности продуктов, разработанных на основе БД, о нежелательности принятия норм, препятствующих развитию технологий, о бонусах, которые данные могут принести обществу, если их и далее разрешат собирать бизнес-структурам с минимальными ограничениями, и пр. В результате мы получаем новое пространство переговоров, в ко-
тором наиболее уязвимыми оказываются рядовые пользователи технологий, хотя формально о приоритете их блага заявляют основные властные акторы: государство, бизнес, разработчики.
Покинуть это пространство нельзя, поскольку сегодня «BDSTI — это форма власти, интегрированная в наши пространственные архитектуры» [ibid.: 28]. Власть становится социотехнической; появляются бедные данными и богатыми данными; теряют в цене, по крайней мере, временно, другие ресурсы — земля, промышленное производство. Мы постепенно осознаем себя как членов общества наблюдения, в котором машины на основе постоянно накапливаемых персональных данных умеют прогнозировать наше поведение. При этом, в отличие от наших цифровых двойников, мы как личности им совершенно не интересны. Вероятно, уже существуют количественные критерии оценки полезности пользователей и пользовательских групп как производителей данных, и те, кто производит меньше данных, образуют новые дискриминируемые меньшинства.
Цифровое неравенство усугубляет иные виды неравенства при сохранении нарратива безусловного приоритета интересов человека, гражданина, работника, пациента, потребителя. Хотя все выражают заботу о лицах с упомянутым статусом, власть не перераспределяется в их пользу, а концентрируется в руках субъектов, разрабатывающих BDSTIs. Таким образом, общество БД не такое новое, как кажется. Власть в нем, по аналогии с физическим законом сохранения энергии, никуда не исчезает и не появляется — она просто перераспределяется между существующими и новыми структурами и акторами. Значит, для решения ряда проблем подойдут имеющиеся в социальном багаже инструменты. Например, старая добрая справедливость обязывает предоставить меньшинствам возможность хотя бы «вступать в диалог о данных и власти данных с самыми могущественными игроками» [ibid.: 37]. Г. Хассельбальх неоднократно на страницах книги отмечает необходимость и важность такого инструмента.
Вопрос только в результативности диалога. Если дело начинается и заканчивается договоренностями, которые могущественные игроки не собираются исполнять, не являются ли сами переговоры игрой, призванной создавать видимость участия «простых смертных» в распределении власти в обществе БД? Если ответ на этот вопрос положительный, то различные сообщества пользователей технологий — это даже не дешевая рабочая сила на добывающих «новую нефть» предприятиях. Богатые данными сообщества — это нефтяные залежи, а бедные — нефтяные загрязнения. Для нивелирования асимметрии власти необходимо сконструировать нормативное пространство, в котором выживают только технологии, заслуживающие доверия (trustworthy).
Г. Хассельбальх подчеркивает, что это пространство неоднородно, поскольку большие данные и другие новые технологии — это культурные артефакты, воплощающие в себе определенные ценности. Это означает, например, что европейское общество больших данных будет принципиально отличаться от азиатского или африканского. В самом деле, если в Евросоюзе нормативное регулирование БД и ИИ опирается на права человека, демократию, равенство, в Китае приоритет имеют иные ценности. Так, согласно п. 1 ст. 4 проекта Административных мер регулирования сервисов генеративного искусственного интеллекта, «контент, ге-
нерируемыи генеративным искусственным интеллектом, должен отражать основные социалистические ценности <...>» 4.
Системы генеративного искусственного интеллекта и сами не настаивают на своеИ ценностной нейтральности. Например, социолог Эндрю Балмер, беседуя с ChatGPT, спросил, является ли тот культурным артефактом, и получил следующий ответ: «<...> мой поиск и приоритезация информации основаны на алгоритмах и моделях данных, которые по своей сути не являются нейтральными или объективными, а скорее отражают набор ценностей и приоритетов, встроенных в мою программу. Более того, использование в разных контекстах, разными пользователями и для разных целей может еще больше повлиять на то, как я работаю, и на ценности, которые я воплощаю» [Balmer, 2023: 1252].
Учитывая российскую политико-правовую повестку, касающуюся БД и ИИ, вопрос о типе ценностей, которые должны отражаться в генерируемом большими языковыми моделями контенте, становится весьма актуальным, а выявление общественного мнения по поводу ценностного наполнения (а также его возможности/нужности/важности) отечественного генеративного ИИ представляется интересной социологической задачей. Если опираться на определения БД и ИИ, которые дает Г. Хассельбальх, интерпретируя технологии как неотъемлемую часть социотехнических инфраструктур, вопрос состоит не только и не столько в цензуре данных, используемых для обучения ИИ, и контента, который он выдает, сколько в образе будущего, к которому стремится российское общество.
Текущая геополитическая обстановка обостряет и без того непростую ситуацию, обусловленную тем, что социотехнические инфраструктуры больших данных развиваются в межюрисдикционном пространстве. Неизбежно возникают конфликты, связанные с разными подходами к нормативному регулированию оборота персональных данных, защиты конфиденциальности, интересов бизнеса и государства в отношении сбора, обработки, хранения и использования больших данных в разных регионах и правовых системах. Требуются нетривиальные нор-мотворческие решения, политические инициативы и информационная повестка для того, чтобы обеспечить баланс между развитием BDSTIs и защитой интересов целого ряда акторов (государство, бизнес, разработчики, ученые, пользователи технологий и др.). Г. Хассельбальх описывает данную потребность как гармонию технических, культурных и юридических компонентов инфраструктур, апеллируя к концептуальным наработкам STS. Она неоднократно заостряет внимание на том, что рано или поздно вопросы о социальных и этических последствиях внедрения БД и ИИ проникают в инженерные сообщества, и это расширяет перечень субъектов, вступающих в переговорный процесс относительно проектирования, масштабирования, способов использования технологий. В самом деле, открытое письмо с требованием приостановить разработку больших языковых моделей 5 подписали в первую очередь инженеры, а не политики, социологи или философы.
4 [Уведомление Государственной канцелярии интернет-информации КНР о публичном обсуждении «Административных мер регулирования сервисов генеративного искусственного интеллекта (проект)»] // People.cn. 2023. April 11. URL: http://politics. people.com.cn/n1/2023/0411/c1001-32661638.html (дата обращения: 26.10.2023).
5 Pause Giant AI Experiments: An Open Letter // Future of Life Institute. 2023. March 22. URL: https://futureoflife.org/ open-letter/pause-giant-ai-experiments/ (дата обращения: 25.10.2023).
Еще одна концепция, используемая Г. Хассельбальх для анализа проблем, связанных с развитием BDSTIs, это устойчивое развитие. Она полагает, что социальные и политические трансформации, связанные с технологиями и экологической повесткой, очень похожи: сначала началось публичное обсуждение ценностей, затем по итогам этической рефлексии сформировалась концепция устойчивого развития, и уже она повлияла на политику, способствовала изменению правовых норм, а потом и производственных и исследовательских процессов.
В случае с большими данными и искусственным интеллектом с целью получения нормативных решений, адекватных ситуации, тоже нужны переговоры по поводу ценностей и интересов всех вовлеченных сторон. Только на основании этической рефлексии можно обеспечить этичное управление данными. Однако здесь важно отметить, что этика власти, основанная на данных, у Г. Хассельбальх—это не разговоры о добре и зле и не набор принципов и ценностей. Этическое управление данными она определяет как деятельность в конкретный момент времени, которая осуществляется «для осознанной проверки этической идеи» [Hasselbalch, 2021: 58].
Между тем, примеры, которые она приводит в качестве обоснования своего тезиса, касаются в основном гражданских инициатив 6. Могут ли более крупные игроки на технологическом поле (государство, IT-гиганты и др.) позволить себе сразу действовать, чтобы проверить этические идеи? Можно предположить, что инерционность государства, а в некоторых контекстах и крупного бизнеса в этом плане больше способствует устойчивому развитию, чем революционно интерпретируемая этика власти, основанная на данных. Впрочем, делая выводы по блоку, посвященному вопросам взаимосвязи власти и больших данных, Г. Хассельбальх уточняет, что она имеет в виду под деятельностью по проверке этических идей: «Я утверждаю, что функция этического управления данными заключается в создании пространств для осмысления и переговоров, которые происходят в момент кризиса...» [ibid.: 61].
Таким образом, логика взаимопроникновения власти и больших данных выстраивается следующим образом. Социотехнические инфраструктуры рутинизи-руются — их не замечают, пока они работают. Как только что-либо в их работе нарушается, появляются разногласия и возникает потребность в организации пространства переговоров, где и решается, какими будут технологии дальше, как будут обозначены границы их использования и как перераспределится власть в новой архитектуре BDSTIs. Сейчас такого рода процессы активно идут в странах ШОС и БРИКС. Так, в 2023 г. представители Сбербанка, одной из самых высокотехнологичных российских компаний, обозначили на Петербургском международном экономическом форуме необходимость проработки этического регулирования ИИ и обозначили это как конкурентное преимущество компании 7. Однако принципиально важным остается вопрос о причинно-следственных связях: кто разра-
6 Например, инициатива «Движение за сохранность персональных данных» (Personal Data Store Movement) некоммерческой ассоциации MyData Global, инженерные стандарты от IEEE и др.
7 Николаев П. Сбер предложил регулировать ИИ в странах ШОС и БРИКС // СберДневник. 2023. 15 июня. URL: https://spbdnevnik.ru/news/2023-06-15/sber-predlozhil-regulirovat-ii-v-stranah-shos-i-briks (дата обращения: 25.10.2023).
батывает этику для технологий, у того и власть, или у кого власть, тот и решает, что этично? Обсуждаемая книга не предлагает какого-либо решения этой дилеммы.
Власть и искусственный интеллект
Хотя у AISTIs и BDSTIs много общего, процессы взаимодействия власти и искусственного интеллекта имеют свои особенности. Начнем с того, что в концепции Г. Хассельбальх социотехнические инфраструктуры больших данных отвечают за пространство, а социотехнические инфраструктуры искусственного интеллекта — за время. Иными словами, собранные большие данные — это прошлое, на основе которого ИИ обучается в настоящем и влияет на будущее. Кроме того, в AISTIs более рельефно просматривается проблема распределенной агентности, напрямую связанная с властными трансформациями.
Для описания проблем, связанных с ИИ, автор монографии обращается к скандинавской мифологии и использует образы воронов Одина — Хугина и Мунина [ibid.: 72]. Человек, живущий в эпоху БД и ИИ, подобно Одину, боится потерять такие слишком человеческие атрибуты, как мысль и память. Боимся ли мы того же? В платоновском диалоге «Федр» изложена мысль о том, как письменность повредила памяти: «<...> лишится упражнений память: припоминать станут, доверяясь письму, по посторонним, внешним знакам, а не внутренней силой, сами по себе. <...> И ученикам ты дашь видимость мудрости, а не истинную мудрость, так что они у тебя будут многое знать понаслышке, не усваивая, и казаться многое знающими, оставаясь в большинстве невеждами, невыносимыми в общении; так и сделаются они не мудрыми, а мнимомудрыми» [Платон, 1965: 249]. Интересно, что сказал бы Сократ о влиянии на человеческую память социотехнических систем искусственного интеллекта и больших данных?
Уже сейчас в развитых странах человек практически не имеет шансов абстрагироваться от данных технологий, даже если не пользуется ими. Его «цифровой двойник» есть, как минимум, у государства и отдельных бизнес-структур. Масштабы внедрения ИИ (госсектор, финансы, умные города, социальные сети, здравоохранение, образование и др.) позволяют говорить о появлении искусственной социальности. Андрей Резаев и Наталья Трегубова определяют ее как «эмпирический факт участия агентов ИИ в социальных взаимодействиях в качестве активных посредников или участников этих взаимодействий» [Резаев, Трегубова, 2019: 43]. Г. Хассельбальх же предпочитает использовать понятие «нечеловече-ская(попИитап) агентность».
Следуя обозначенной во введении логике рассуждений, Г. Хассельбальх сосредотачивается на вопросах степени «автономии и участия человека в обработке данных системами ИИ» [Hasselbalch, 2021: 74]. Перекладывая на ИИ принятие морально чувствительных решений на основе обработки данных (управление беспилотным автомобилем, профилирование, прогнозирование рецидивов совершения преступлений и пр.), мы неизбежно приходим к вопросу, кто будет нести ответственность в случаях, когда ИИ ошибается?
Европейская политика в области технологий ориентируется на человека, принимающего решение с использованием ИИ как основного субъекта ответственности. Аналогичный подход отражен и в российском Кодексе этики в сфере искус-
ственного интеллекта: «...за все последствия работы СИИ (систем искусственного интеллекта) всегда должен отвечать человек (физическое или юридическое лицо, признаваемое субъектом ответственности в соответствии с действующим законодательством Российской Федерации)» 8.
Такой подход требует организации человеческого надзора за деятельностью ИИ. Однако Г. Хассельбальх справедливо отмечает, что такой надзор неизбежно будет иметь ограничения, связанные с образованием, моральными убеждениями, культурными паттернами надзирающего за ИИ человека [ibid.: 77]. И даже если нивелировать или игнорировать эти ограничения, никуда не исчезнет проблема степени влияния, которое машина оказывает на принимающего решение человека. Поэтому хотя агенты ИИ и не «берут на себя» ответственность, они не могут не влиять на моральный опыт человека, как, впрочем, и на процессы перераспределения власти.
Итак, в работе AISTIs на каждом этапе присутствует человеческий фактор: начиная от выбора данных для обучения ИИ и заканчивая оценкой принятых машиной решений. Для определения сферы ответственности нужна четкая дифференциация сочетания автономии ИИ и человека на каждом этапе работы. Г. Хассельбальх с этой целью вводит понятия морального и этического агентства. ИИ может быть моральным агентом, но этическим — никогда. В российском этическом сообществе такого рода дифференциации непопулярны, а коллектив исследователей под руководством Вадима Перова, который в настоящий момент занимается проблематикой морального агентства, склоняется к принципиальному выводу о том, что моральным агентом может быть только человек, а любым нон-антропным объектам (ИИ, животным, коллективным агентам) это не свойственно 9.
Впрочем, это скорее спор о терминах, поскольку, согласно Г. Хассельбальх, отличительной чертой этического агентства является ответственность, а морально ответственным может быть лишь человек. При этом она не исключает возможности привлечения ИИ к юридической ответственности, хотя европейский законодатель не торопится наделять ИИ правосубъектностью, отдавая предпочтение институтам страхования и компенсации причинения вреда, причиненного ИИ [Nevejans, 2016], который интерпретируется как инструмент, используемый человеком 10.
Итак, если в социотехнических инфраструктурах искусственного интеллекта и больших данных наблюдается распределенная моральная агентность (distributed moral agencies), где формирование морального опыта происходит при взаимодействии людей и нон-антропных агентов, но при этом ответственность всегда возлагается только на человека, неизбежно возникает вопрос: на кого именно?
В юридической литературе в качестве наиболее вероятных субъектов ответственности фигурируют пользователи или владельцы систем ИИ (что соответству-
8 Кодекс этики в сфере ИИ. URL: https://ethics.a-ai.ru/ (дата обращения: 25.10.2023).
9 Карточка проекта, поддержанного Российским научным фондом. «Трансформации морального агентства: этико-философский анализ» // Российский научный фонд. URL: https://rscf.ru/prjcard_int?22-28-00379 (дата обращения: 25.10.2023).
10 European Parliament Resolution of 20 October 2020 with Recommendations to the Commission on a Framework of Ethical Aspects of Artificial Intelligence, Robotics and Related Technologies (2020/2012(INL)) // European Parliament. URL: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.pdf (дата обращения: 25.10.2023); European Parliament Resolution of 20 October 2020 with Recommendations to the Commission on a Civil Liability Regime for Artificial Intelligence (2020/2014(INL)) // European Parliament. URL: https://www.europarl.europa.eu/doceo/document/ TA-9-2020-0276_EN.html (дата обращения: 25.10.2023).
ет логике интерпретации ИИ как инструмента), разработчики, лица, занимающиеся его внедрением, и пр. Однако пространство переговоров еще долго будет открытым, поскольку на текущий момент непонятно, как устанавливать степень автономии принятия решения системой ИИ; следует ли привлекать к ответственности тех, кто отбирал, аннотировал или генерировал данные для обучения ИИ, если удастся придумать способ дифференциации решений, принятых ИИ на основе (до)обучения и самообучения, и пр.
Рассуждая о степени автономии ИИ и распределенной моральной агентности, автор монографии ссылается на Бруно Латура, склоняющегося к тому, что технологические артефакты вполне могут быть нравственными, поскольку человек делегирует им нравственность и законопослушность, закладывает их на этапе кодирования. Он приводит в пример ситуацию, когда водитель не может поехать, не пристегнув ремень безопасности, поскольку поступить правильно его побуждает звуковой сигнал: «Стало логически — нет, социологически — невозможно водить машину, не пристегнув ремень. Я больше не могу быть плохим» [Latour, 1992: 226]. Если такая простая технологическая комбинация, как ремень и раздражающий звуковой сигнал может подталкивать к нормативному поведению, то на что способны, например, большие языковые модели или голосовые помощники, которые могут общаться на естественном языке и демонстрировать эмпатию?
Гиперподталкивание к добру, казалось бы, должно способствовать приросту общего блага и, следовательно, вызывать восхищение, а не беспокойство. Однако понятие добра, закладываемое в ИИ разработчиком, начиная с момента отбора данных для обучения машины, не может быть ценностно нейтральным. Если Б. Латур прав и человек делегирует машине моральные ценности, то именно эти ценности и будут потом влиять на «моральные факторы социальной среды» [Hasselbalch, 2021: 80]. В условиях правовой неопределенности (законодатели явно не успевают за развитием технологий) степени свободы разработчиков в выборе ценностей, делегируемых машине, повышают их роль в системе распределения власти. На этапе выбора и аннотирования данных для обучения ИИ разработчик имеет возможность оказать существенное влияние на социальную среду, в которой будут функционировать AISTIs.
Г. Хассельбальх полагает, что в социотехнических системах больших данных и искусственного интеллекта принципиальное значение имеют не процессы перевода социальных норм и ценностей «в цифру», а особенности трансформации таких норм и ценностей в системах распределенной агентности. Следовательно, разработчикам, пользователям, субъектам нормотворческой деятельности необходимо заниматься не столько формулировкой правил, сколько созданием среды, в которой можно контролировать и оценивать решения, принятые машиной. Должное поведение поощряется, поэтому машина обучается оперативно реагировать на любые изменения «этической среды человека» [ibid.: 81]. К сожалению, такой подход на практике не вполне себя оправдывает. Машина, запрограммированная на получение поощрения за должное поведение, может принимать решения, выходящие за пределы человеческой этики и здравого смысла. Например, Такер Гамильтон, глава отдела испытаний и операций искусственного интеллекта ВВС США, в рамках доклада на оборонной конференции «Future Combat Air & Space
Capabilities Summit» в Великобритании рассказал о неожиданных результатах тестирования военного дрона с ИИ, натренированного на поиск и поражение зенитных ракетных комплексов: когда оператор-человек отдал приказ не поражать цель и тем самым лишил систему поощрения, ИИ принял решение атаковать оператора 11. Принцип предосторожности требует отдать приоритет проработке правил и внедрению системы контроля применения технологий перед их масштабированием для массового использования, даже если это потребует постоянного мониторинга данных, которые обрабатывает ИИ, и дообучения модели при условии изменения социальных норм и практик.
На руку принципу справедливости сыграла бы организация доступа пользователей и будущих пользователей систем ИИ к дизайну данных работающей модели [ibid.: 8], однако в настоящий момент IT-гиганты не торопятся открывать подобного рода информацию, и закон, защищающий коммерческую тайну, на их стороне. Г. Хассельбальх отмечает, что вопрос о работе с большими данными на этапе проектирования ИИ — это вопрос распределения власти [ibid.: 90]. Различные стейкхолдеры (государство, бизнес, пользователи, ученые, отраслевые ассоциации, профессиональные сообщества) представляют в пространстве переговоров разные культуры данных. Морально обоснованные аргументы озвучиваются как сторонниками роста больших данных, так и апологетами сокращения сбора данных, хотя бы персональных, которые требуют дополнительной защиты. От того, чья партия победит, зависит, каким будет разрабатываемый ИИ, какие моральные ценности ему будут делегированы и на какой конкретно образ (или образы) будущего он будет работать.
В пространстве переговоров идет своеобразная игра, где участвующие лица озвучивают свои контекстуально зависимые интересы. Для победы в переговорах нужно учитывать контекст на микро- и макроуровнях. Например, такой интерес, как конфиденциальность на микроуровне предстает ценностью для пользователей, журналистов, гражданских активистов, а на макроуровне опирается на идеологию прав человека, законы, направленные на защиту частной жизни, политику компаний, которые обязаны тратить ресурсы на защиту данных и обеспечение их конфиденциальности. В разных контекстах один и тот же интерес может требовать разных действий акторов, участвующих в перераспределении власти. Различные интересы могут вступать в конфликты, которые встраиваются в технологии и порождают новые моральные дилеммы или усугубляют существующие.
Особое внимание Г. Хассельбальх уделяет интересам, связанным с данными (data interests): политическим, коммерческим, научным, интересам ИИ как нон-антропного агента, заинтересованности отдельных лиц в своих личных данных [ibid.: 97]. Для того чтобы устранить конфликт интересов, требуются нетривиальные социально-политические решения, позволяющие выстроить систему сдержек и противовесов, в которой власть распределяется настолько справедливо, чтобы технология развивалась в условиях компромисса интересов. В качестве примера такого решения автор обсуждаемой книги приводит политику умного города, реализуемую в Барселоне: данные позиционируются как общее благо; горожа-
11 «Военный ИИ на основе нейросети атаковал собственного оператора во время учений?» Давайте разберемся // Habr.com. 2023. 11 июня. URL: https://habr.com/ru/companies/ruvds/articles/741116/ (дата обращения: 25.10.2023).
не могут решать, кому, когда и на каких условиях предоставить данные; система выстроена таким образом, что для получения удобных инструментов умного города необходимо открывать данные, в том числе малому и среднему бизнесу, включенному в предпринимательскую экосистему.
Совсем иначе выстроена система CityBrain в китайском Ханчжоу, функционал которой состоит в предотвращении пробок, аварий, отслеживании незаконной парковки и проч. Горожане не могут влиять на ее работу, контролировать, делать свой вклад в виде передачи данных [ibid.: 98]. Впрочем, это не значит, что система CityBrain сконструирована несправедливо — просто на этапе ее проектирования был выбран вид властных отношений, который лучше вписывается в систему государственной власти КНР, социальные структуры и культурную специфику.
В Евросоюзе культура 12 работы с данными основана на концепции прав человека. Это обязывает вести переговоры по поводу конфликта интересов не между группами стейкхолдеров, а между акторами, придерживающимися определенных ценностей. Поскольку в одной группе могут быть выразители и апологеты разных культур данных, необходимо учитывать права и законные интересы всех членов группы. Такой подход ставит во главу угла в работе с данными достоинство человека и неприкосновенность частной жизни.
Если в основе европейского подхода к разработке новых технологий лежат права человека, а в Китае ориентируются на социалистические идеалы, то какие ценности должны быть положены в основу российского ИИ? В отсутствие государственной идеологии вопрос о ценностях и власти в системах с распределенной агентностью становится отнюдь не праздным.
Для расширения властных возможностей владельцам ИИ необходимо еще на этапе проектирования интегрировать такой культурный компонент, который позволит работать структуре AISTIs без сбоев. Запрос на культурный компонент российской социотехнической инфраструктуры искусственного интеллекта еще требует своего изучения, но в качестве показательного примера можно сослаться на критику нейросети Kandinsky 2.1 от «Сбера». Ряд пользователей обнаружили, что на запросы «патриот», «русский патриот», «молодой ученый-патриот» нейросеть выдает изображения с элементами американского флага и другой символики, слабо коррелирующей с отечественными представлениями о патриотизме 13. Вероятно, это связано с выбором данных для обучения нейросети. Однако, как отмечает Г. Хассельбальх, «данные не имеют значения вне культурной системы» [ibid.: 121]. К слову, в версии Kandinsky 2.2 вне зависимости от того, какого патриота просит изобразить пользователь, система выдает улыбающихся детей с букетом цветов. И это также можно интерпретировать как отражение определенной культуры данных 14.
12 Под культурой понимаются «общие концептуальные и материальные рамки для развития социотехнических систем» [Hasselbalch, 2021: 113].
13 См., напр.: Нейросеть от Сбера Kandinsky 2.1 при запросе «патриот» генерирует американский флаг // Дзен. 2023. 26 апреля. URL: https://dzen.rU/a/ZEyHdZdn3ZFwXcz (дата обращения: 25.10.2023); Миронов попросил Генпрокуратуру проверить нейросеть «Сбера» Kandinsky из-за антироссийского контента // Коммерсантъ. 2023. 26 апреля. URL: https://www.kommersant.ru/doc/5954264.
14 Под культурой данных Г. Хассельбальх понимает «культурно закодированные концептуальные карты инженеров, специалистов по данным, проектировщиков, разработчиков, законодателей и пользователей систем данных» [ibid.: 120].
Акторы, обладающие властью, вряд ли могут игнорировать процессы производства культурных смыслов и значений, которые Стюарт Холл описывает в терминах «кодирование/декодирование» [Hall, 1993]. Интеграция культурного кода в BDSTIs и AISTIs, желательно уже на этапе проектирования технологии,—это ключ к власти. В противном случае критика социотехнических инфраструктур может существенно усложнить их функционирование. Так, например, Г. Хассель-бальх описывает влияние феминистской критики науки о данных, направленной на недопущение угнетения групп меньшинств и воспроизводства практик, при которых технологии разрабатываются определенными людьми для таких же, как они [Hasselbalch, 2021: 118].
Мышление в духе больших данных обязывает заботиться о подготовке данных еще на этапе проектирования ИИ, а не после того, как на этапе эксплуатации будут выявлены существенные недочеты (как это, например, произошло с системой распознавания лиц компании Google, поставившей тег «гориллы» фотографии чернокожих людей). Для решения подобного рода проблем представляются перспективными проекты привлечения пользователей к разработке технологий, например, использование краудсорсинга в машинном обучении. В этом случае обычные люди получают возможность влиять на культурное кодирование BDSTIs и AISTIs и хотя бы номинально включиться в систему распределения власти.
Власть и человек, живущий в эпоху больших данных
Рассуждая о месте человека в системе распределения власти, формирующейся в эпоху больших данных, Г. Хассельбальх, как отмечалось выше, дифференцирует понятия «человекоцентричный подход» (human-centric/centered approach) и «человечный подход» (human approach). Отличие последнего в том, что речь идет не о власти отдельного человека (индивидуализации), а о включении в систему распределения власти человека как этического, то есть морально ответственного существа [ibid.: 4—5]. В рамках человекоцентричного подхода принято, как правило, противопоставлять интересы ИИ и человека. Однако в системах с распределенной агентностью требуется дополнительная концептуализация такого подхода, поскольку не вполне корректно говорить об автономном ИИ, вступающем в борьбу за власть без какого-либо участия человека.
Более правдоподобно выглядит модель взаимодействия человека и искусственного агента в рамках решения той или иной задачи (human-in-the-loop), включая вопросы распределения власти. Согласно «человечному подходу» субъектом моральной ответственности может быть только человек, но в системах с распределенной агентностью не всегда возможно разделить человеческих и нечеловеческих агентов и их участие в конкретном кейсе. Это оказывает влияние на законодательство, моральное нормотворчество и касающиеся технологий политические решения.
Человечный подход весьма строг в отношении этических стандартов: если устанавливаются определенные нормы взаимодействия с технологиями, нельзя их отменять в силу каких бы то ни было обстоятельств. Так, например, в период пандемии COVID-19 обострилась полемика о допустимости ограничения конфиденциальности ради обеспечения безопасности. Но специфика моральных норм
и убеждений такова, что они обесцениваются, если ими начинают манипулировать, вводить или отменять тогда, когда это удобно. Как справедливо отмечает Г. Хассельбальх, этика данных должна принять форму культуры, быть способом существования в мире [ibid.: 130]. Фактически речь идет не о нормах и стандартах, а об определенных практиках, которые воспроизводятся в системах с распределенной агентностью и обеспечивают устойчивость и развитие этих систем, а также «хорошего общества» 15.
Г. Хассельбальх в рамках человечного подхода разрабатывает трехкомпонент-ную структуру этики власти, основанной на данных: онтология, практика и открытое общество. Этика предстает здесь способом существования в мире, условием обеспечения «пространства переговоров» и «критических культурных моментов», моделью распределения власти, характерной для «хорошего общества» [ibid.: 132]. В качестве теоретического фрейма исследовательница использует онтологию и этику Анри Бергсона. Особый этический потенциал человека, способность к героизму, жизненному порыву—то, что принципиально отличает его от нон-антроп-ных агентов. Власть человека, включенного в BDSTIs и AISTIs,—это в первую очередь его ответственность за существование социотехнических систем.
Можно соглашаться или нет с Г. Хассельбальх в выборе критериев отличия человека от искусственного агента, но в том, что такие критерии необходимы, сложно сомневаться. Данной позиции придерживаются и отечественные исследователи искусственной социальности А. Резаев и Н. Трегубова: «...люди и вычислительные машины/алгоритмы — принципиально разные сущности, и понять их взаимодействие и его результаты в принципе можно, только если помнить об этой разнице и понимать ее» [Резаев, Трегубова, 2023: 5].
Ориентация на динамическую мораль, абсолютную бескорыстную любовь, которая распространяется не только на все человечество, но и на «.животных, растения, на всю природу» [Бергсон, 1994: 39], которую проповедует А. Бергсон, выглядит несколько утопично. Однако его концепция сочетания статического и динамического вполне успешно используется Г. Хассельбальх, чтобы показать, почему искусственные агенты могут выполнять задачи в соответствии с закодированными нормами и стандартами, но никогда не могут следовать «человеческой морали» как образу жизни [Hasselbalch, 2021: 138].
Нон-антропным агентам присваивают обладание искусственным интеллектом, но об искусственной интуиции речи не идет. А. Бергсон в духе процессуальной онтологии связывает интуицию со способностью человека мыслить движение и воспринимать длительность. Отсутствие такой способности у ИИ Г. Хассельбальх демонстрирует на примере несоответствия прогнозов, сделанных нейросетями на основе больших данных в 2019 г., поскольку события 2020 г. оказались слишком непредсказуемы и мобильны [ibid.: 140—141].
Наряду с интуицией в качестве отличительной характеристики человека Г. Хассельбальх рассматривает способность сомневаться. И эта способность находится под угрозой, поскольку люди привыкают излишне доверять технологиям, объективности решений, принятых алгоритмом на основе анализа больших данных:
15 Понятие «открытое общество» Г. Хассельбальх использует в книге как синоним «хорошего общества».
«Я больше всего опасаюсь, что именно эта потеря человеческой критической способности обретет форму в наших социотехнических реалиях, если мы не остановим и не перенаправим текущие разработки BDSTI и AISTI» [ibid.: 166]. ИИ работает с вероятностями и, в отличие от человека, не колеблется в процессе принятия решений. Но даже если наши критические способности не выдержат испытание искусственной агентностью, останется основной сугубо человеческий атрибут — ответственность.
Данный тезис Г. Хассельбальх можно проиллюстрировать проблемой признания авторства за большими языковыми моделями. Ряд издательств принимают к публикации рукописи, где одним из авторов числится нейросеть (см., например, [Томас, Ван, GPT-3, 2023]). Однако нормы публикационной этики обязывают авторов нести ответственность за все этапы проведения исследования, подготовки рукописи к публикации и постпубликационной коммуникации. ИИ не может нести ответственность и, следовательно, не соответствует критериям авторства.
Международный комитет редакторов медицинских журналов (International Committee of Médical Journal Editors, ICMJE) в мае 2023 г. обновил рекомендации авторам касательно использования ИИ в исследовании и подготовке к публикации. Там, в частности, указано: «Чат-боты (такие как ChatGPT) не должны быть указаны в качестве авторов, поскольку они не могут нести ответственность за точность, добросовестность и оригинальность работы, а эти обязательства необходимы для признания авторства» 16. Аналогичной позиции придерживается и Комитет по этике публикаций (Committee on Publication Ethics, COPE) 17. Таким образом, в сфере авторства научных работ такой критерий «человечности», как ответственность, прошел проверку практикой. Интерес представляет проверка корректности этого критерия и в других сферах деятельности, в которых участвуют системы с распределенной агентностью.
Культурные дебаты и человеческая интерпретация смыслов не могут сводиться к автоматизированной обработке больших данных. Технологии встраиваются в «социально упорядоченные культурные системы смыслообразования» [Hassel-balch, 2021: 146], могут их трансформировать и даже бросать вызов существующей системе власти, но только человек, обладающий «агентностью безусловной любви» [ibid.: 148], может строить открытое общество и организовывать пространство переговоров для защиты своих прав и законных интересов в борьбе за власть.
Г. Хассельбальх показывает, как это работает, на примере конфиденциальности. Право на неприкосновенность частной жизни — одна из фундаментальных европейских ценностей, но слежка, основанная на технологиях БД и ИИ, нарушает это право и, более того, подвергает сомнению его ценностное обоснование (необходимость пожертвовать конфиденциальностью объясняется заботой о безопасности). Если конфиденциальность защищается нормами права и воспринимается только как моральное обязательство, ее можно «отменить», когда
16 Defining the Role of Authors and Contributors // International Committee of Medical Journal Editors. URL: https://icmje. org/recommendations/browse/roles-and-responsibilities/defining-the-role-of-authors-and-contributors.html#four (дата обращения: 25.10.2023).
17 Authorship and AI Tools // Committee on Publication Ethics. 2023. February 13. URL: https://publicationethics.org/ cope-position-statements/ai-author (дата обращения: 25.10.2023).
того требуют интересы носителей власти. Однако если конфиденциальность становится стилем жизни, она «должна выйти за пределы спора о технологиях и присутствовать в борьбе за власть и ее перераспределение» [ibid.: 150].
Г. Хассельбальх с сожалением пишет о том, что, по крайней мере, по состоянию на 2020 г. в Евросоюзе нормативные положения этики данных закреплялись в очередных стратегических документах, стандартах, руководствах, но она так и не стала образом или стилем жизни европейцев. Чтобы изменить ситуацию, автор предлагает переосмыслить этику данных в контексте прав человека, а также и сами эти права. Они должны восприниматься не как щит от внешних угроз и вызовов, а как расширение возможностей человека внутри BDSTIs и AISTIs [ibid.: 151—153].
В российском обществе официальная риторика, касающаяся больших данных, пока развивается только в экономическом контексте. Так, например, была анонсирована разработка до конца 2023 г. нового национального проекта «Экономика данных», цель которого — перейти в ряде социально значимых сфер к управлению на основе данных 18. Предполагается, что по итогам нацпроекта улучшится качество жизни граждан, однако анонс основных положений, касающихся сбора, обработки, хранения, обеспечения безопасности данных, содержит акцент на цифровом суверенитете (нужны российские облачные платформы, сервера, нейросети), а не на правах и интересах граждан. Конечно, цифровой суверенитет— важная составляющая национальной безопасности, а говорить об универсальной этике данных и гомогенизации культур в текущих условиях, как минимум, странно, однако имеется потребность в российском пространстве переговоров о перспективах расширяющихся возможностей человека внутри социотехнических инфраструктур. Что, помимо высокотехнологичных услуг, получит рядовой российский пользователь от нацпроекта «Экономика данных»? Данные станут более открытыми, а системы управления данными — прозрачными? Появятся дополнительные гарантии защиты конфиденциальности? Изменятся параметры управления обществом? Расширятся способы управления своими данными? Вероятно, ответы на эти вопросы будут получены в ближайшем будущем. Впрочем, и технологические инициативы правительства, и новые механизмы защиты прав и законных интересов не всегда могут быть востребованы населением. Так, например, пользователи «умных» колонок мало беспокоятся о конфиденциальности, хотя понимают, что голосовой помощник может собирать и передавать персональную информацию о тех, кто находится в его «поле зрения» [Ушкин, Коваль, 2023]. Но если пользователи несильно озабочены этой проблемой, зачем бизнесу и государству тратить ресурсы на ее решение?
Г. Хассельбальх подчеркивает необходимость организации критического пространства переговоров по вопросам этики данных, чтобы сделать более прозрачными процессы перераспределения власти в социотехнических инфраструктурах. Чтобы власть стала видимой, ценности и интересы всех стейкхолдеров также должны быть видимыми. Это можно и нужно делать на всех трех уровнях: на микроуровне следует анализировать дизайн системы данных; на мезоуровне — по-
18 В России появится новый нацпроект—«Экономика данных» // Министерство цифрового развития, связи и массовых коммуникаций РФ. 2023. 13 июля. URL: https://digital.gov.ru/ru/events/45686/ (дата обращения: 25.10.2023).
литические стратегии, дебаты законодателей и пр.; на макроуровне—динамику власти и глобальных культурных паттернов [Hasselbalch, 2021: 156].
За пространственные аспекты существования социотехнических систем — в том числе и за пространство переговоров — отвечают BDSTIs, а на AISTIs возлагается решение проблем, связанных со временем. Одна из таких проблем — обеспечение превалирования интересов человека в социотехнических системах в так называемые «критические культурные моменты». Но если приоритет останется за искусственными агентами, если люди привыкнут излишне полагаться на прогностические способности ИИ и верить в то, что воплотится именно предсказанный ИИ образ будущего, то можно никогда не выбраться из порочного круга несправедливости и дискриминации, которые «высечены в камне, алгоритмах и системах данных» [ibid.: 157].
Книга Г. Хассельбальх заканчивается на довольно оптимистической ноте — она формулирует ряд задач, которые помогут приблизиться к «хорошему обществу» в эпоху больших данных:
— необходима новая культура данных, в рамках которой БД и ИИ — полезные инструменты, помогающие человеку принимать этичные решения;
— технологии должны развиваться так, чтобы усиливать критические способности людей;
— чтобы люди могли осмысленно взаимодействовать с БД и ИИ, необходимо системно повышать уровень социотехнической информационной грамотности;
— требуются изменения законодательства, направленные на обеспечение человеческого контроля на всех этапах разработки и внедрения BDSTIs и AISTIs;
— необходимы критические исследования данных, учитывающих культурные особенности социального контекста, в котором разворачиваются BDSTIs и AISTIs;
— нужно создать условия для появления класса этических регуляторов (ethical governors), которые бы критически оценивали моральные дилеммы и конфликты ценностей, возникающие на микро-, мезо- и макроуровнях. На эту роль Г. Хассельбальх рекомендует гражданское общество и неправительственные организации, которые на практике показали себя как приверженцев интересам человека. Им следует дать больше знаний и власти, и они в отличие от государства и бизнеса смогут бескорыстно заботиться именно об интересах человека в эпоху больших данных.
Заключение
Итак, основная мысль книги Г. Хассельбальх, которую она последовательно проводит от начала до самого конца — БД и ИИ являются эффективными инструментами воспроизводства открытого и справедливого общества при условии реализации человечного подхода. Иными словами, миром правят любовь и большие данные. Этот тезис может вызывать скептическое отношение, но книга содержит множество дискуссионных моментов, побуждающих читателя задаваться вопросами, о которых, возможно, прежде думать не приходилось.
Иметь возможность выбирать, предоставлять или не предоставлять данные, отзывать их, запрещать использовать определенным образом, работать с доступными наборами данными любыми законными способами, а также проектирова-
ние и формирование социотехнических инфраструктур — все это атрибуты участия в системе распределения власти в эпоху больших данных. Поэтому наряду с государством значимую роль играют IT-гиганты. Но есть ли место в системе власти гражданам, некоммерческим организациям, гражданскому обществу? Может ли на что-то претендовать ИИ, будучи неотъемлемой частью систем с распределенной агентностью? Какой тип социального порядка воспроизводится в BDSTIs и AISTIs? Каковы атрибуты «хорошего общества» в эпоху больших данных, если прежде к таковым относились в первую очередь достижимость и пригодность для проживания, позволяющие отличить его от утопии и антиутопии [Коваль, Ушкин, 2018: 137]? Г. Хассельбальх дает развернутые ответы далеко не на все озвученные выше вопросы, но ее книга может быть полезна как для поиска ответов, так и для постановки других вопросов, характерных для той культуры данных, в которой мы живем сейчас, и помогающих осознать, какими бы нам хотелось видеть социотехнические инфраструктуры будущего.
Список литературы (References)
Бергсон А. Два источника морали и религии. М. : Канон, 1994.
Bergson H. (1994) The Two Sources of Morality and Religion. Moscow: Kanon. (In Russ.)
Платон. Избранные диалоги. М. : Художественная литература, 1965.
Plato (1965) Selected Dialogues. Moscow: Khudozhestvennaya Literatura. (In Russ.)
Коваль Е. А., Ушкин С. Г. Пути России в будущее. Готово ли наше общество стать «хорошим»? // Социологические исследования. 2018. № 2. С. 136—145. https:// doi.org/10.7868/s0132162518020149.
Koval E. A., Ushkin S. G. (2018) Russia's Paths in the Future: Is Our Society Ready to Become a "Good Society"? Sociological Studies. No. 2. P. 136-145. https://doi.org/ 10.7868/s0132162518020149. (In Russ.)
Резаев А. В., Трегубова Н. Д. «Искусственный интеллект», «онлайн-культура», «искусственная социальность»: определение понятий // Мониторинг общественного мнения: Экономические и социальные перемены. 2019. № 6. С. 35—47. https:// doi.org/10.14515/monitoring.2019.6.03.
Rezaev A. V., Tregubova N. D. (2019) Artificial Intelligence, On-line Culture, Artificial Sociality: Definition of the Terms. Monitoring of Public Opinion: Economic and Social Changes. No. 6. P. 35-47. https://doi.org/10.14515/monitoring.2019.6.03. (In Russ.)
Резаев А. В., Трегубова Н. Д. От социологии алгоритмов к социальной аналитике искусственной социальности: анализ кейсов API и ChatGPT // Мониторинг общественного мнения: экономические и социальные перемены. 2023. № 3. С. 3—22. https://doi.org/10.14515/monitoring.2023.3.2384.
Rezaev A. V., Tregubova N. D. (2023) From the Sociology of Algorithms to Social Analytics of Artificial Sociality: Reflecting on the Cases of API and ChatGPT. Monitoring of Public Opinion: Economic and Social Changes. No. 3. P. 3-22. https://doi.org/10.14515/ monitoring.2023.3.2384. (In Russ.)
Томас И. С., Ван Ж., GPT-3. Искусственный интеллект отвечает на величайшие вопросы человечества. Что делает нас людьми? М. : АСТ, 2023. Thomas I. S., Wang J., GPT-3 (2023) What Makes Us Human: An Artificial Intelligence Answers Life's Biggest Questions. Moscow: AST. (In Russ.)
Ушкин С. Г., Коваль Е. А. Алиса, ты следишь за мной? Восприятие конфиденциальности в нарративах пользователей «умных» колонок // Мониторинг общественного мнения: экономические и социальные перемены. 2023. № 3. С. 23—40. https:// doi.org/10.14515/monitoring.2023.3.2314.
Ushkin S. G., Koval E. A. (2023) Alice, Are You Following Me? Perception of Confidentiality in the Narratives of Smart Speaker Users. Monitoring of Public Opinion: Economic and Social Changes. No. 3. P. 23-40. https://doi.org/10.14515/monitoring.2023.3.2314. (In Russ.)
Balmer A. (2023) A Sociological Conversation with ChatGPT about AI Ethics, Affect and Reflexivity. Sociology. Vol. 57. No. 5. P. 1249-1258. https://doi.org/10.1177/ 00380385231169676.
Hall S. (1993) Encoding/Decoding. In: During S. (ed.) The Cultural Studies Reader. London: Routledge. P. 90-103.
Latour B. (1992) Where are the Missing Masses? The Sociology of a Few Mundane Artifacts. In: Bijker W. E., Law J. (ed.) Shaping Technology/ Building Society: Studies in Sociotechnical Change. Cambridge, MA: MIT Press. P. 225-258.
Nevejans N. (2016) European Civil Law Rules in Robotics: Study for the JURI Committee. Brussels: European Union Publications Office.