Научная статья на тему 'СОЦИАЛЬНОЕ НЕРАВЕНСТВО В ЭПОХУ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ОТ ЦИФРОВОГО К АЛГОРИТМИЧЕСКОМУ РАЗРЫВУ'

СОЦИАЛЬНОЕ НЕРАВЕНСТВО В ЭПОХУ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ОТ ЦИФРОВОГО К АЛГОРИТМИЧЕСКОМУ РАЗРЫВУ Текст научной статьи по специальности «Социологические науки»

CC BY
2204
504
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СОЦИАЛЬНОЕ НЕРАВЕНСТВО / ЦИФРОВИЗАЦИЯ / ЦИФРОВОЕ / НЕРАВЕНСТВО / АЛГОРИТМЫ / АЛГОРИТМИЗАЦИЯ / ЦИФРОВОЙ РАЗРЫВ

Аннотация научной статьи по социологическим наукам, автор научной работы — Мартыненко Т. С., Добринская Д. Е.

Статья посвящена анализу проблемы социального неравенства в эпоху алгоритмов, которые являются одним из элементов технологической инфраструктуры цифрового общества. Социологический интерес к алгоритмам объясняется их активным использованием в процессах коммуникации, принятия решений, управления, контроля и в конечном итоге их ролью в создании ландшафта искусственной социальной среды. Последствия внедрения алгоритмов находят отражение в разных сферах общественной жизни. Негативные эффекты алгоритмизации рассматриваются с точки зрения неравенства возможностей и социально значимых результатов. Скрытый характер воздействия алгоритмов, непрозрачность их работы, нелинейность, непредсказуемость в принятии решений определяют их влияние на систему социального неравенства. В статье анализируются связанные с функционированием алгоритмов механизмы этого явления (системы социального ранжирования, пузыри фильтров, неравный доступ к алгоритмической осведомленности) и рассматриваются вопросы методологического характера, связанные с концептуализацией понятия «социальное неравенство» в эпоху алгоритмов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SOCIAL INEQUALITY IN THE AGE OF ALGORITHMS: FROM DIGITAL TO ALGORITHMIC DIVIDE

The article analyses social inequality in the age of algorithms integral to digital society’s technological infrastructure. Algorithms are of interest to sociologists due to their essential role in communication processes, decision-making, management, control, and consequently in creating a landscape of the artificial social environment. The introduction of algorithms affects various aspects of social life. Negative impacts are considered in terms of inequality of opportunities and socially important results. The latent character of the effects, lack of transparency, non-linear nature, and indeterminism in decision-making define the influence of algorithms on the system of social inequality. The article describes algorithm-related mechanisms (system of social ranking, filter bubbles, unequal access to algorithmic awareness).

Текст научной работы на тему «СОЦИАЛЬНОЕ НЕРАВЕНСТВО В ЭПОХУ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ОТ ЦИФРОВОГО К АЛГОРИТМИЧЕСКОМУ РАЗРЫВУ»

ЦИФРОВИЗАЦИЯ

DOI: 10.14515/monitoring.2021.1.1807

Т. C. Мартыненко, Д. Е. Добринская

СОЦИАЛЬНОЕ НЕРАВЕНСТВО В ЭПОХУ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ОТ ЦИФРОВОГО К АЛГОРИТМИЧЕСКОМУ РАЗРЫВУ

Правильная ссылка на статью:

Мартыненко Т. C., Добринская Д. Е. Социальное неравенство в эпоху искусственного интеллекта: от цифрового к алгоритмическому разрыву//Мониторинг общественного мнения: экономические и социальные перемены. 2021. № 1. С. 171—192. https://doi.org/ 10.14515/monitoring.2021.1.1807. For citation:

Martynenko T. S., Dobrinskaya D. E. (2021) Social Inequality in the Age of Algorithms: From Digital to Algorithmic Divide. Monitoring of Public Opinion: Economic and Social Changes. No. 1. P. 171-192. https://doi.org/10.14515/monitoring.2021.1.1807. (In Russ.)

СОЦИАЛЬНОЕ НЕРАВЕНСТВО В ЭПОХУ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ОТ ЦИФРОВОГО К АЛГОРИТМИЧЕСКОМУ РАЗРЫВУ

МАРТЫНЕНКО Татьяна Сергеевна — кандидат социологических наук, старший преподаватель кафедры современной социологии социологического факультета, МГУ имени М. В. Ломоносова, Москва, Россия E-MAIL: [email protected] https://orcid.org/0000-0002-5101-2381

ДОБРИНСКАЯ Дарья Егоровна — кандидат социологических наук, доцент кафедры современной социологии социологического факультета, МГУ имени М. В. Ломоносова, Москва, Россия E-MAIL: [email protected] https://orcid.org/0000-0002-8691-9637

Аннотация. Статья посвящена анализу проблемы социального неравенства в эпоху алгоритмов, которые являются одним из элементов технологической инфраструктуры цифрового общества. Социологический интерес к алгоритмам объясняется их активным использованием в процессах коммуникации, принятия решений, управления, контроля и в конечном итоге их ролью в создании ландшафта искусственной социальной среды. Последствия внедрения алгоритмов находят отражение в разных сферах общественной жизни. Негативные эффекты алгоритмизации рассматриваются с точки зрения неравенства возможностей и социально значимых результатов. Скрытый характер воздействия алгоритмов, непрозрачность их работы, нелинейность, непредсказуемость в принятии решений определяют их влияние на систе-

SOCIAL INEQUALITY IN THE AGE OF ALGORITHMS: FROM DIGITAL TO ALGORITHMIC DIVIDE

Tatiana S. MARTYNENKO1 — Cand. Sci. (Soc.), Senior Lecturer at the Department of Modern Sociology, Faculty of Sociology E-MAIL: [email protected] https://orcid.org/0000-0002-5101-2381

Daria E. DOBRINSKAYA1 — Cand. Sci. (Soc.), Associate Professor at the Department of Modern Sociology, Faculty of Sociology

E-MAIL: [email protected] https://orcid.org/0000-0002-8691-9637

1 Lomonosov Moscow State University, Moscow, Russia

Abstract. The article analyses social inequality in the age of algorithms integral to digital society's technological infrastructure. Algorithms are of interest to sociologists due to their essential role in communication processes, decision-making, management, control, and consequently in creating a landscape of the artificial social environment. The introduction of algorithms affects various aspects of social life. Negative impacts are considered in terms of inequality of opportunities and socially important results. The latent character of the effects, lack of transparency, non-linear nature, and indeterminism in decision-making define the influence of algorithms on the system of social inequality. The article describes algorithm-related mechanisms (system of social ranking, filter bubbles, unequal access to algorithmic awareness).

му социального неравенства. В статье анализируются связанные с функционированием алгоритмов механизмы этого явления (системы социального ранжирования, пузыри фильтров, неравный доступ к алгоритмической осведомленности) и рассматриваются вопросы методологического характера, связанные с концептуализацией понятия «социальное неравенство» в эпоху алгоритмов.

Ключевые слова: социальное неравенство, цифровизация, цифровое неравенство, алгоритмы, алгоритмизация, цифровой разрыв

Keywords: social inequality, digitaliza-tion, digital inequality, algorithms, algo-rithmization, digital divide

Влияние технологий на общество — «горячая» тема большого числа исследований в области социальных наук. Никогда еще в человеческой истории социальный порядок не был в такой зависимости от технологического прогресса 1. Многие повседневные практики сегодня воспроизводятся и регулируются посредством технических устройств, функционирующих на базе программного обеспечения. С помощью алгоритмов навигационного приложения на смартфоне возможно проложить оптимальный маршрут из точки А в точку Б, выбрать музыку для спортивной тренировки или найти подходящий ресторан для романтического ужина. Все эти тенденции не только трансформируют социальные отношения, предполагая новые формы взаимодействия, трудовой деятельности, участия в управлении и многое другое, но и формируют в научном дискурсе новое междисциплинарное поле, где разворачиваются серьезные методологические дискуссии, в центре которых стоит вопрос «что происходит на пересечении собственно социальных и технологических изменений?» [Резаев, Стариков, Трегубова, 2020: 8].

Цифровизация и датификация создали условия для оформления искусственной социальной среды цифрового общества [Резаев, Стариков, Трегубова, 2020; Резаев, Трегубова, 2019], где значимую роль играют алгоритмические системы, коммуникационные сети, платформы и технологии больших данных. Цифровые устройства и сетевые системы, которые, как правило, функционируют на базе алгоритмов, стали частью рутинизированного опыта большинства 2, а способность алгоритмов выносить четкие и последовательные решения на основе больших массивов данных делает их «новыми посредниками власти в обществе» [Diakopoulos, 2013: 2].

1 СоциоДиггер. 2020. Т. 1. Вып. 3 «Цифровизация и искусственный интеллект». М. : ВЦИОМ. URL: https://wciom.ru/ fileadmin/file/nauka/podborka/wciom_sociodigger_102020.pdf (дата обращения: 11.02.2021).

2 Это утверждение справедливо по отношению к населению тех государств, где активно идут процессы компьютеризации, информатизации и цифровизации. К сожалению, более 40 % населения Земли все еще не имеют выхода в сеть, что свидетельствует о серьезной проблеме цифрового разрыва в доступе к информационно-коммуникационным технологиям и о цифровом неравенстве в целом.

В последние годы алгоритмы проникают во все сферы жизни и находятся в фокусе внимания не только ученых, но и общественности. Европейское исследование, опубликованное в начале 2019 г., показывает, что население Европы достаточно плохо знакомо с работой алгоритмов: около 48 % до сих пор не знают, что такое алгоритмы, и примерно такая же доля опрошенных не осведомлена о том, что алгоритмы уже активно используются в жизненно важных сферах — например, при принятии решений о выдаче кредита, при выборе кандидата работодателем или в медицинской диагностике. Около 46 % европейцев положительно оценивают работу алгоритмов, и только 20 % озабочены негативными последствиями алгоритмического управления и принятия решений [Grzymek, Puntschuh, 2019]. В российском обществе ситуация аналогичная. По результатам опроса ВЦИОМ, проводившегося в том же 2019 г., большинство граждан (75 %) слышали о технологии искусственного интеллекта (далее — ИИ), однако только 29 % от общего числа опрошенных смогли объяснить, что такое ИИ. Большая доля россиян положительно (48 %) или, по крайней мере, нейтрально (31 %) относятся к распространению технологий искусственного интеллекта: 68 % не опасаются замещения технологиями ИИ специалистов своей профессии, а 87 % считают, что государство должно способствовать развитию этих технологий 3. Мы видим достаточно низкий уровень осведомленности россиян о современных технологиях, специфике их работы и последствиях распространения. Объяснением может служить как недостаточное освещение данного вопроса в российских СМИ и научных публикациях, так и все еще не столь интенсивное и очевидное их воздействие на общественные процессы. Кроме того, причина может быть в том, что в общественном мнении отсутствует понимание угроз и негативных последствий внедрения технологий, в том числе алгоритмов, в повседневную жизнь.

Несмотря на такой технологический оптимизм [Нестик, 2019: 13], алгоритмы, становясь важной частью общественных отношений, оказывают все большее влияние на нашу жизнь, не только делая ее комфортнее, но и создавая новые риски и угрозы. Парадоксальным образом технологический прогресс, который, как казалось когда-то, сможет ликвидировать или, по крайней мере, сгладить многие социальные проблемы, на деле их только усиливает. Так, цифровизация, датифи-кация и алгоритмизация качественно преобразовывают существующую систему социального неравенства. Новые его формы, источником которых в том числе являются неодинаковый доступ и разные возможности использования цифровых технологий, не существуют обособленно, но «накладываются» на традиционные (например, экономическое, гендерное и др. неравенства).

Негативные последствия распространения алгоритмов необходимо изучать в перспективе общей ситуации усиления социального неравенства. Обычно влияние технологий на социальное неравенство рассматривается как проблема цифрового разрыва. В социологической литературе [Dobrinskaya, Martynenko, 2019; Добринская, Мартыненко, 2020] принято трехуровневое членение цифрового разрыва: первый связан с наличием или отсутствием доступа к цифровым технологиям, второй — результат дифференциации во владении цифровыми навыками,

3 Искусственный интеллект: угроза или возможность? // ВЦИОМ. Аналитический обзор. 2020. 27 января. URL: https://wciom.ru/index.php?id=236&uid=10132 (дата обращения: 12.02.2021).

а третий разрыв свидетельствует о неравных возможностях и жизненных шансах как результате отсутствующего или затрудненного доступа индивидов к цифровым технологиям, а также низкого уровня цифровых навыков. Третий уровень цифрового разрыва фиксирует не только проявление социальной дифференциации, но и возникновение новой формы социального неравенства, получившего названия цифрового. Эта новая форма проявления неравенства ограничивает возможности осуществления определенной жизненной стратегии индивида, полноценного участия в жизни цифрового общества, реализации своих гражданских прав и свобод, успешного карьерного продвижения, личностного роста и расширения социальных связей и отношений, а также демократического участия. Довольно часто влияние алгоритмов на социальное неравенство описывается как следующий уровень цифрового разрыва. Некоторые исследователи предлагают рассматривать его как «алгоритмический разрыв» в контексте проявления нового цифрового неравенства [Ragnedda, 2020], другие называют его «четвертым цифровым разрывом» [Stefanija, 2017] или «новым цифровым разрывом» [Gran, Booth, Bucher, 2020].

При всем многообразии позиций по вопросу влияния алгоритмов на общество, систематических исследований о проявлении социального неравенства в эпоху алгоритмизации пока еще не так много. В данной статье делается попытка очертить контуры этой проблемы, отталкиваясь от общего понимания социального неравенства как «разницы между неравным распределением желаемых результатов жизни (таких как здоровье, счастье, успех в образовании или материальные блага) и неравным распределением возможностей (доступ к власти и жизненным шансам, которые способствуют достижению желаемых результатов)» [Carter, Reardon, 2014: 3]. Влияние алгоритмов на социальное неравенство будет рассматриваться здесь с точки зрения неравного распределения возможностей и желаемых результатов. Мы обозначим основные подходы к определению алгоритмов, а также представим те факторы и механизмы, которые, на наш взгляд, оказывают наибольшее влияние на рост социального неравенства. В отношении неравенства возможностей внимание будет уделено доступу к информации, ее поиску, проблеме социального ранжирования, а также роли цифровых навыков в алгоритмической осведомленности [Gran, Booth, Bucher, 2020]. При обсуждении неравенства желаемых результатов будут затронуты трудовая сфера, сфера политического и гражданского участия, а также дискриминация и маргинализация отдельных индивидов и социально-демографических групп. В заключении обсудим некоторые методологические вопросы, связанные с изучением социального неравенства в условиях алгоритмизации.

Что такое алгоритмы?

Алгоритмы имеют доступ к данным по финансовым операциям, банковским вкладам, страховым взносам и пенсионным счетам. Уже сегодня они могут оказывать влияние на то, кому будет сделан телефонный звонок, каковы шансы человека на пересадку жизненно важных органов, и даже могут помочь в принятии решения о выборе будущего супруга или супруги [Steiner, 2012].

В самом общем виде алгоритм представляет собой набор шагов, организованных специальным образом, чтобы обработать инструкции или данные для

достижения определенной цели. Как пишет ирландский исследователь Р. Китчин, с развитием технологий понятие алгоритма эволюционирует, отражая технический, вычислительный, математический, политический, культурный, экономический, контекстуальный, материальный, философский, этический аспекты работы алгоритмов [Kitchin, 2017: 16]. Комплексный характер их функционирования объясняет и различные варианты использования термина «алгоритм» техническими специалистами, социальными исследователями и обычными пользователями [Gillespie, 2014a].

С технологической точки зрения речь идет о специфике решения конкретной задачи. В таком контексте алгоритм представляет собой совокупность программируемых этапов, приводящих к определенному результату работы технической системы.

В социальных науках алгоритм рассматривается как сложная система, возникающая в результате взаимодействия технологии и человека. Социальная значимость алгоритмов раскрывается через описание социальных явлений и процессов, движущей силой которых являются алгоритмические системы. Эти системы включают в себя не только сами алгоритмы, но и вычислительные сети, в которых они функционируют, людей, которые их проектируют и используют, данные (и пользователей), на которых они воздействуют, а также субъектов (индивидуальных и корпоративных), которые предоставляют услуги с помощью алгоритмов. Здесь на первый план выходят вопросы ответственности за разработку и внедрение алгоритмов, а также проблема контроля над результатами их работы, зачастую непреднамеренными и заранее непрогнозируемыми [Willson, 2017]. С социологической точки зрения интерес представляет изучение особенностей коммуникации с алгоритмическими системами, а также анализ социального контекста и его роли при программировании эффективных социальных алгоритмов [Esposito, 2017: 250] в условиях искусственной социальности 4.

Рядовые пользователи, как правило, убеждены в объективности и беспристрастности алгоритмических систем 5. Результаты, получаемые с помощью алгоритмов, обладают иной легитимностью (нечто сравнимое с научным методом, здравым смыслом или Божьим словом [Gillespie 2014b: 168]), нежели субъективная легитимность отдельного эксперта. Доверие человека автоматизированным расчетам и статистическим данным наделяет алгоритмы особым культурным авторитетом, что приводит к распространению метрической культуры [Beer, 2016].

Алгоритмы становятся новыми социальными агентами [Esposito, 2017], выступая партнерами по коммуникации (боты, голосовые помощники и т. п.). Будучи способными создавать и переносить информацию, алгоритмы также продуцируют искусственную коммуникацию. В качестве партнера по коммуникации алгоритм не понимает содержания, смысла сообщений и не способен к их интерпретации [Esposito, 2017]. И здесь мы снова возвращаемся к вопросу о социальной ответ-

4 В качестве рабочего определения искусственной социальности мы используем предложенное А. В. Резаевым и Н. Д. Трегубовой: «Искусственная социальность представляет собой эмпирический факт участия агентов ИИ в социальных взаимодействиях в качестве активных посредников или участников этих взаимодействий» [Резаев, Трегубова, 2019: 43].

5 Logg J. M., Minson J. A., Moore D. A. Do People Trust Algorithms More Than Companies Realize? Harvard Bussiness Review. 2018. 16 October. URL: https://hbr.org/2018/10/do-people-trust-algorithms-more-than-companies-realize (дата обращения: 14.02.2021).

ственности за результаты работы алгоритмов в случае их возможной поломки или ошибок в принятии решений. Эффекты алгоритмов не всегда однозначны и предсказуемы. Как полагает Т. Гиллеспи, это происходит по нескольким причинам. Во-первых, алгоритмы включены в более широкую сеть отношений, которые так или иначе опосредуют и трансформируют их работу (например, в результате плохого качества исходных данных). Во-вторых, работа алгоритмов может иметь побочные эффекты и непредвиденные последствия, а отсутствие контроля или наблюдения за их работой чревато неожиданными и не всегда предсказуемыми действиями с их стороны. В-третьих, алгоритмы могут быть «предвзятыми» или допускать ошибки из-за неправильного кодирования или погрешностей при их программировании. Наконец, они могут изменяться в результате адаптации их функционирования под запросы пользователей. Поэтому алгоритмы — результат работы и программистов, и пользователей [Gillespie, 2014b].

Алгоритмы разрабатываются и внедряются для создания дополнительной ценности и увеличения капитала; для регулирования поведения индивидов и формирования их предпочтений; для определения, ранжирования и классификации индивидов по заданным критериям [Kitchin, 2017]. Именно поэтому их нельзя рассматривать как объективную и беспристрастную форму знания или как нейтрального и независимого агента действия. Это позволяет говорить о возникновении так называемого алгоритмического управления [Katzenbach, Ulbricht, 2019]. Вопрос в том, в чьих руках находится эта власть алгоритмов и кто принимает решение о ее реализации. Выделяют три группы субъектов алгоритмической власти. Во-первых, это создатели программного кода алгоритма (программисты и другие технические специалисты). Во-вторых, это заказчики, для которых специалисты создают алгоритмы (как правило, это частные компании). В-третьих, это те, кто участвует в работе алгоритма [Mau, 2019]. Можно наблюдать две противоположные тенденции в управлении: с одной стороны, алгоритмы делают его более мощным, агрессивным и всеобъемлющим — и здесь мы сталкиваемся с проблемой тотального контроля. С другой стороны, управленческие механизмы становятся более инклюзивными, что позволяет обеспечить большее социальное разнообразие, а также персонализированный подход к управлению [Katzenbach, Ulbricht, 2019].

Посредством механизмов алгоритмического управления формируется иная картина мира, где реализуются новые властные и дисциплинарные возможности, создаются дополнительные механизмы принуждения и контроля. В ее основе лежат системы программного обеспечения, функционирование которых имеет глубокие социальные последствия [Kitchin, Dodge, 2011]. Алгоритмы производят культурные объекты и проявляют все большую активность в создании смыслов и интерпретации культуры, что наиболее заметно в работе поисковых систем [Roberge, Melangon, 2017]. Алгоритмы влияют на различные сферы общественной жизни, реконструируют целые отрасли, полностью изменяя их организацию и функционирование, а также и весь рынок труда (к примеру, когда в результате автоматизации происходит массовая потеря рабочих мест) [Kitchin, 2017]. При этом, как правило, отсутствует понимание того, каким образом и посредством чего алгоритмы принимают то или иное решение. Именно поэтому получил распространение термин «общество черного ящика» (black box society) [Pasquale, 2015].

Насущной социальной дилеммой становится вопрос о принятии побочных эффектов алгоритмизации, усиливающей непрозрачность многих социальных процессов. Алгоритмы также изменяют способы идентификации, отслеживания, профилирования или оценивания индивидов, осуществляя эти процедуры, как правило, без ведома пользователя в режиме реального времени. Автоматизированные алгоритмические системы фиксируют поведение человека, осуществляют скрининг его эмоций, а также оценивают состояние здоровья. Особенность социальных механизмов алгоритмических систем в том, что они, в отличие от традиционных механизмов социализации и социального контроля, невидимы и сложно определяемы в качестве участников взаимодействия, как сложно определяема и нормативная база их функционирования. Несомненно, эти процессы бросают вызов понятию «непохожести» и индивидуальности, поскольку одна из основных функций алгоритмов — категоризация и типизация поступающих к ним данных по определенным признакам. При этом возникает вопрос о возможности существования реального публичного пространства, где доступно выражение разных мнений и противоположных позиций [Broadbent, Lobet-Maris, 2015: 114].

Люди повсюду контактируют с алгоритмами, благодаря которым внедряются новые формы управления и создаются возможности для новых форм накопления капитала. Распространенность, социальные эффекты и все больший объем полномочий автономных и автоматизированных алгоритмических решений требуют углубленного изучения последствий проявления этих тенденций, а основные характеристики алгоритмов, такие как непрозрачность, непредсказуемость, нелинейность, скрытый характер воздействия и наличие сопутствующих эффектов, определяют их влияние на проблему социального неравенства.

Влияние алгоритмов на неравенство возможностей

Доступ к информации как фактор неравенства возможностей

В последние месяцы 2020 г. все чаще появлялась информация о связанных с крупными медиакомпаниями судебных разбирательствах в США. Так, представленные в недавнем докладе [Nadler, Cicilline, 2020] результаты расследования конгресса США в отношении деятельности крупнейших технологических корпораций (Amazon, Apple, Google, Facebook) показали, что эти компании занимают монопольное положение в ключевых сегментах рынка и злоупотребляют своим доминированием. Негативные последствия этого доминирования ощущают на себе обычные пользователи, для которых алгоритмы ограничивают выбор информации и снижают качество поиска, попутно собирая данные о характеристиках самих пользователей 6.

Одним из механизмов социального неравенства в условиях алгоритмизации становятся так называемые пузыри фильтров [Паризер, 2012]. Алгоритмы сайтов поисковиков определяют, какая информация была бы интересна для конкретного пользователя, на основании данных о его месторасположении, истории

6 Amazon, Apple, Google и Facebook обладают монопольной властью — расследование конгресса США // Digital Russia. 2020. 7 октября. URL: https://d-russia.ru/amazon-apple-google-i-facebook-obladajut-monopolnoj-vlastju-rassledovanie-kongressa-ssha.html (дата обращения: 20.10.2020).

предыдущих поисковых запросов, перемещениях мыши по экрану, длительности посещения веб-страниц других сайтов и т. п. В результате пользователь получает только ту информацию, которая согласуется с его или ее прошлым опытом, а нерелевантная не отображается. И если раньше речь шла преимущественно о барьерах в доступе, связанных с физическим пространством [Вершинина, 2018], то сегодня они в большом количестве возникают и в пространстве цифровом.

Пузыри фильтров создают для пользователя персонализированную среду, состоящую только из «близкого неизвестного» — «мелких фактов из спортивной жизни или политических знаков препинания, которые на самом деле не потрясают до основания наши схемы, а лишь ощущаются как новая информация» [Паризер, 2012: 96]. Эта среда «способна понять, кто вы, что вам нравится и чего вы хотите» [там же: 236], но не дает возможности узнать то, что находится вне вашего поля зрения. Алгоритмическая персонализация в большинстве своем невидима и неподконтрольна пользователям. Например, большинство американцев (74 %) уверены, что контент в социальных сетях не дает адекватного представления о том, как в обществе воспринимаются важнейшие социальные проблемы, и только четверть опрошенных убеждены в обратном. Причина состоит в модерации контента с помощью алгоритмов платформ социальных медиа 7.

Рассмотренный ранее пример работы поисковых систем показывает, что именно от алгоритмов, которые ранжируют наиболее востребованные поисковые запросы, в конечном счете зависит то, какие источники для пользователей более важны и полезны. Поэтому результаты поисковых запросов рассматриваются не просто как «информация», но и как «социальные данные» [Lupton, 2014]. Более того, совершенствование способности алгоритмов обрабатывать текстовую информацию, которую содержат поисковые запросы, расширяет возможности для использования цифровых следов пользователей [О'Нил, 2018: 107]. Речь идет не только об ограничении поиска и доступности информации, но и о дискриминации посредством механизма ранжирования результатов поиска. В настоящее время предпринимаются попытки создать более справедливую систему функционирования поисковых запросов и представления пользователям информации. Основная задача этой технологии сводится к необходимости преодолеть «эффект Матфея» [Morik, 2020], когда наиболее популярные результаты поиска становятся еще более востребованными, а новые или непопулярные сайты фактически не отображаются у большинства пользователей. Этот эффект связан с тем, что алгоритмы нацелены на упрощение поиска и получение пользователем максимально быстрого ответа на свой запрос, но фактически это приводит к неравным возможностям не только в поиске информации, но и при позиционировании себя и своей деятельности в интернете. Несмотря на то, что эта технология только разрабатывается, уже сегодня очевидно, что она может дать новые возможности пользователям в сети. Но это не гарантирует, что не появятся новые механизмы, которые позволят каким-то группам или индивидам занимать более привилегированное положение.

7 Smith A. Public Attitudes Toward Computer Algorithms // Pew Research Center. 2018. 16 November. URL: https://www. pewresearch.org/internet/2018/11/16/public-attitudes-toward-computer-algorithms/ (дата обращения: 12.02.2021).

Социальные рейтинги и системы социального ранжирования как фактор неравенства возможностей

Технологии Web 2.0 укрепили веру в возможности «цифровой демократии»: считалось, что многочисленные отзывы и комментарии пользователей способны выделить среди всего многообразия товаров и услуг лучшие, а голос каждого будет услышан. Однако функционирование алгоритмов ранжирования не полностью объективно, поскольку в них изначально заложена человеческая предвзятость [Hassan, 2020: 166].

Механизмы социального ранжирования и социальных рейтингов определяются процессом квантификации. Квантификация включает в себя распространение, разработку и внедрение новых показателей, использование различных механизмов оценивания (например, скоринговые системы), а также практик самоизмерения — селф-трекинга. Социальные отношения, социальный статус, поведение и даже эмоции оцениваются количественно. Подобная «объективность» делает весьма проблематичными любые попытки оспорить имеющиеся показатели. Получая в свое распоряжение все большие объемы данных, общество приближается к тому, чтобы стать полностью «управляемым данными», иными словами, «обществом мониторинга, контроля и оценки, которое больше не верит ни во что, если это не выражается количественно» [Mau, 2019: 24]. С социологической точки зрения количественные самоописания такого рода не просто отражают существовавшую ранее социальную реальность, а могут рассматриваться как генерирующий метод конструирования социальных различий с помощью новых механизмов (лайков, звезд, рекомендаций, отзывов, рейтингов и т. п.). Эти системы социального ранжирования, возникающие в связи с действием алгоритмов, существуют не только в цифровой среде, но и выходят за ее пределы. Как отмечают социологи, «широкое внедрение таких алгоритмов приводит к изменению реальности, в частности формированию поведения, нацеленного именно на получение высоких оценок, или неявного ограничения доступности источников информации из-за особенностей их ранжирования» [Суворова..., 2019: 105—106]. Распространение получают репутационные системы, поощряющие определенное поведение индивида, а также многочисленные рейтинговые механизмы, внедряемые на разных уровнях (рейтинг водителя такси, интернет-магазинов, отелей и др.).

В этой связи важно обратить внимание на три социально значимых аспекта квантификации социального в новом «метрическом обществе» [Mau, 2019: 6]. Во-первых, язык чисел меняет привычные представления о социальной ценности и социальном статусе. Количественные измерения, или метрики, институционализируют определенные «порядки ценности», которые создают ориентиры и обосновывают выставляемые оценки, внедряя новые нормативные принципы и установки. Этот аспект отчетливо проявляется в различных рейтингах образовательных учреждений, системе наукометрических показателей, рейтингов стран, регионов, городов по различным показателям и т. п.

Во-вторых, квантификация социального стимулирует конкуренцию, поскольку наличие количественной информации усиливает тенденцию к сравнению и, как следствие, к соперничеству [Mau, 2019]. С социальной точки зрения сравнения, как правило, более эффективны и убедительны, когда они выходят за границы

субъективного восприятия и индивидуальной интерпретации и основаны на объективных критериях (или критериях, которые считаются таковыми).

В-третьих, наблюдается тенденция ко все большей социальной иерархизации, когда представления в виде таблиц, графиков, ранжированных списков или оценок способны перевести качественные различия в количественные неравенства, подвергая то, что ранее было несопоставимым, единой системе оценивания.

Важен не только сам акт квантификации, но и то, каким образом происходит оценивание, а также кто осуществляет оценку. Если традиционно ключевую роль в процессах оценки играли эксперты и институты, то сейчас любой член метрического общества может быть экспертом, поскольку любое суждение, основанное на цифрах и числовых показателях, представляется более объективным и потому сложно оспоримым. Ценность в данном контексте рассматривается как «социально производимое», а не «внутренне присущее». Именно поэтому «квантификацию» следует рассматривать как стратегию «переописания мира» с помощью языка чисел [Mau, 2019]. Единственный способ оставаться за пределами квантификации — не оставлять цифровых следов, что подразумевает добровольный выход из соответствующих контекстов цифровых коммуникаций и сетевого взаимодействия [Mau, 2020], который могут себе позволить далеко не все. Глубокая медиатизация социальной жизни [Couldry, Hepp, 2017] сформировала новую «нормальность», где индивиды по умолчанию готовы делиться большими объемами информации о себе [Neff, Nafus, 2016]. Более того, логика оптимизации, рационализации и повышения производительности, которую неолиберализм навязал практически каждому аспекту жизни, ведет к борьбе за лучшие показатели [Espeland, Stevens, 2008; Mennicken, Espeland, 2019]. Квантификация социальной жизни стимулирует появление новых форм социального неравенства, где все подвергаются сравнению, социальному ранжированию и оценке, а индивиды стремятся продемонстрировать лучшие показатели.

Алгоритмическая (не)осведомленность как фактор неравенства возможностей

Алгоритмы приводят в действие механизм «ловушки бедности». С одной стороны, они углубляют социальный разрыв, основывающийся на присущих индивидам социально-демографических (например, возраст, уровень образования, наличие социальных связей) и социально-экономических характеристиках. С другой стороны, создают новые формы неравенства, обусловленные необходимостью владеть специфическими алгоритмическими навыками, доступ к получению которых ограничен.

Возможности индивидов понимать особенности функционирования алгоритмов и социальные последствия их влияния тесно связаны с наличием или отсутствием у них цифровых навыков. Цифровой разрыв в настоящее время — результат мощных и зачастую невидимых процессов ранжирования и маргинализации, которые осуществляют алгоритмические системы. Некоторые ошибочно полагают, что алгоритмы снижают роль информационных, коммуникативных, даже стратегических навыков, а также навыков создания контента, но фактически они требуют дополнительных алгоритмических навыков. Получается, что отсутствие навыков алгоритмической осведомленности [Gran, Booth, Bucher, 2020] делает работу ал-

горитмов непрозрачной и зачастую предвзятой для пользователей. В результате цифровые медиа и интернет вещей посредством внедрения алгоритмических систем усиливают существующее неравенство [van Dijk, 2020].

Непонимание того, как работают алгоритмы, исследователи определяют как новый цифровой разрыв [ibidem] 8. В этой связи предлагается пересмотр определения цифровой грамотности, которая сегодня представляет собой понимание и прогнозирование последствий постоянного подключения к сети 9. Алгоритмические системы — своего рода «черные ящики» не только для пользователей, но даже для самих разработчиков, что как раз и объясняется отсутствием соответствующих цифровых навыков 10. Поэтому на повестке дня стоит вопрос нормативного регулирования прозрачности работы алгоритмических систем. Так, в рамках недавно утвержденного в Европейском союзе «Генерального регламента ЕС о защите персональных данных» люди имеют «право на объяснение» критериев, которые алгоритмы используют в своих решениях относительно обработки персональных данных 11. Однако прозрачность может быть полезна только пользователям, достаточно хорошо разбирающимся в технической специфике работы алгоритмов 12.

Роль алгоритмов сегодня необходимо учитывать не только в отношении работы с поисковыми системами, но и при использовании социальных сетей, сайтов интернет-магазинов, новостных агрегаторов и других сервисов. Те, кто понимает, что алгоритмы определяют, какой контент они видят, могут как скорректировать свои ожидания, так и использовать стратегии поиска контента таким образом, чтобы обойти ограничения, налагаемые платформами и алгоритмическими программами. Те же, кому не хватает специальных знаний и понимания роли алгоритмов, больше всего подвергаются манипуляциям и зависят от того, какие сайты доступны им в первую очередь [Hargittai, Micheli, 2019]. Следовательно, их картину мира формируют алгоритмы. Все чаще социологи подчеркивают, что для работы с алгоритмами необходимы специфические «алгоритмические навыки» и обладание алгоритмической осведомленностью, которые позволили бы выявлять последствия их воздействия.

Таким образом, основными механизмами, усиливающими социальное неравенство в условиях алгоритмизации, становятся пузыри фильтров, системы социального ранжирования и социальных рейтингов, а также неравная алгоритмическая осведомленность. Эти механизмы влияют на возможности отдельных индивидов

8 См. также Susarla A. The New Digital Divide Is Between People Who Opt Out of Algorithms and People Who Don't. Fast Company. 2019. 18 April. URL: https://www.fastcompany.com/90336381/the-new-digital-divide-is-between-people-who-opt-out-of-algorithms-and-people-who-dont (дата обращения: 13.02.2021).

9 Ibidem, см. также: Rainie L., Anderson J. Code Dependent: Pros and Cons of the Algorithm Age // Pew Research Center. 2017. 8 February. URL: https://www.pewresearch.org/internet/2017/02/08/code-dependent-pros-and-cons-of-the-algorithm-age/ (дата обращения: 12.02.2021).

10 Susarla A. The New Digital Divide Is Between People Who Opt Out of Algorithms and People Who Don't. Fast Company. 2019. 18 April. URL: https://www.fastcompany.com/90336381/the-new-digital-divide-is-between-people-who-opt-out-of-algorithms-and-people-who-dont (дата обращения: 13.02.2021).

11 Генеральный регламент о защите персональных данных // Европейская служба внешних связей. 2019. 23 мая. URL: https://eeas.europa.eu/headquarters/headquarters-homepage_ru/45073/ (дата обращения: 12.02.2021).

12 Susarla A. The New Digital Divide Is Between People Who Opt Out of Algorithms and People Who Don't. Fast Company. 2019. 18 April. URL: https://www.fastcompany.com/90336381/the-new-digital-divide-is-between-people-who-opt-out-of-algorithms-and-people-who-dont (дата обращения: 13.02.2021).

и целых социально-демографических групп получать выгоды и преимущества в различных сферах общественной жизни. Действие этих механизмов определяется рядом социально-демографических характеристик, среди которых возраст (у старших возрастных групп обычно ниже алгоритмическая осведомленность и уровень владения цифровыми навыками), образование (в зависимости от уровня и специализации), место жительства (развитость инфраструктуры в городе и сельской местности, а также разных регионах и странах), специфика профессиональной деятельности и др. Способность эффективно использовать эти механизмы создает возможности карьерного роста, экономического благополучия, реализации гражданских и политических прав и свобод, а также накопления социального капитала.

Роль алгоритмов в неравенстве социальных результатов

В настоящее время алгоритмы не только существенно ограничивают возможности, но и оказывают влияние на распределение конкретных желаемых результатов, затрагивая фактически все сферы общественной жизни. В качестве неравенства желаемых социальных результатов производится анализ проблем неравного доступа к образованию, рабочим местам, услугам, а также гражданскому и политическому участию.

В последние годы наиболее заметным становится использование алгоритмов в экономической сфере. Так, функционирование алгоритмов сегодня включено во многие аспекты трудовой деятельности: от подбора персонала до контроля на рабочем месте. Для коммерческих организаций использование алгоритмов создает возможности извлечения прибыли посредством автоматизации, оптимизации и рационализации бизнес-процессов. Зачастую наемные работники попадают в уязвимое положение, которое связано с возможной потерей рабочих мест, усилением контроля и предвзятого отношения со стороны работодателя.

Сегодня многие компании активно используют алгоритмы в процессе подбора персонала, особенно на этапе первичного собеседования с кандидатом. Согласно данным опроса компании HeadHunter, проводившимся в 2018 г., около трети представителей российских предприятий убеждены в изменении роли HR-служб в связи с распространением технологий ИИ и роботизации. При этом более 60 % респондентов предполагают, что к 2050 г. подбор персонала будут осуществлять роботы, а 47 % опрошенных заявили, что ИИ займется привлечением соискателей 13. При использовании алгоритмов для подбора персонала возникает вопрос о допустимости подобного отбора. Согласно одному из свойств алгоритмов, они с необходимостью упрощают все многообразие атрибутов, присущих человеку.

В зарубежной практике периодически возникают ситуации непреднамеренного расизма или национализма, когда соискателю отказывают в рабочем месте из-за особенностей его фамилии (К. О'Нил описывает на примере США случаи исключения из списка соискателей всех претендентов латиноамериканского происхождения вне зависимости от их образования или квалификации [О'Нил, 2018]). Выявить причины отказов фактически невозможно из-за непрозрачности алго-

13 Как искусственный интеллект изменит HR? Презентация Headhunter. 2018. URL: https://hhcdn.ru/file/16676170. pdf (дата обращения: 12.02.2021).

ритмов. Коммерческие организации не открывают программные коды, объясняя это уязвимостью своих алгоритмических систем перед манипуляциями со стороны хакеров, конкурентов и т. п. Пользователи же, которые знают об их существовании, могут применять стратегии, направленные на устранение некоторых ограничений, создаваемых этими системами.

Исследовательский центр Пью (США) в отчете о проведенном в 2017 г. опросе о влиянии алгоритмов показывает серьезную обеспокоенность людей по поводу использования алгоритмов для конкретных целей. 57 % респондентов в США высказали такие же опасения по поводу автоматизированного просмотра резюме кадровыми агентствами и отделов по набору персонала внутри организаций 14. По данным HeadHunter, в России каждая третья компания использует автоматизированные системы по подбору персонала. При этом лишь 8 % респондентов считают, что алгоритм может принимать окончательное решение о найме сотрудника 15. Неравные возможности доступа к информации об особенностях функционирования алгоритмов приводят к неравенству социальных позиций, например работодателя и работника, крупных компаний и субъектов малого предпринимательства и др.

Вся повседневная деятельность человека в цифровой среде становится для технологических гигантов источником важнейшей информации, которая в дальнейшем не только подвергается коммерциализации, но и позволяет влиять на большие группы людей, корректируя их вкусы, интересы и убеждения [Hassan, 2020]. Однако сбор этих поведенческих данных, их анализ и использование доступны далеко не всем. Как следствие, в условиях новой искусственной социальности в привилегированном положении оказываются обладающие соответствующими техническими или материальными возможностями.

Неравенство возможностей преобразуется в экономической сфере в конкретные проявления неравного распределения желаемых социальных результатов: дохода, доступа к рабочим местам и др. Система социального ранжирования и создания рейтингов постепенно монополизирует высокий статус одних продавцов товаров и услуг, вытесняя остальных и оставляя им лишь незначительную долю покупателей. Агентам малого бизнеса не удается преодолеть пузыри фильтров при продвижении товара или услуги. Тем самым алгоритмы воспроизводят существующие отношения социального неравенства и создают новые барьеры для наименее защищенных групп населения.

Другой сферой, в функционирование которой активно внедряются алгоритмы, стало пространство гражданского участия. Здесь действия алгоритмов подрывают представления о демократических основах цифрового пространства, серьезно ограничивая информационное поле пользователей. Свобода слова и самовыражения находится под контролем алгоритмов, часто дискриминирующих пользователей по расовому и гендерному принципу [Noble, 2018]. Модерирование

14 Rainie L., Anderson J. Code Dependent: Pros and Cons of the Algorithm Age // Pew Research Center. 2017. 8 February. URL: https://www.pewresearch.org/internet/2017/02/08/code-dependent-pros-and-cons-of-the-algorithm-age/ (дата обращения: 12.02.2021).

15 «Не так страшен черт, как его малюют», или что сейчас происходит с автоматизацией подбора персонала? Презентация HeadHunter. 2019. URL: https://hhcdn.ru/file/16861694.pdf (дата обращения: 12.02.2021).

контента, в котором обвиняют сегодня крупные медиакомпании16, приводит к тому, что получение полной картины социальной реальности становится невозможным. Компании, разрабатывающие алгоритмы, фактически становятся своего рода «привратниками» («gatekeepers»), сортирующими и отбирающими специфическую информацию.

В некотором смысле алгоритмы начинают выступать как «этикополитические существа», поскольку отдают предпочтение одним свойствам перед другими и переопределяют границы добра и зла, хорошего и плохого [Amoore 2020: 5]. При этом с учетом возможности алгоритма к изменению возникает необходимость постоянного мониторинга их деятельности для своевременного выявления ошибок, а также подробного анализа того, как именно они учатся действовать, что лежит в основе их решений и как формируется их представление о мире на основе полученных ими данных.

Следует рассмотреть и то, как алгоритмы становятся источником дискриминации и маргинализации отдельных социально-демографических групп. Эти процессы базируются на цифровых следах пользователей и их атрибутивных характеристиках. В первом случае непрерывный сбор информации позволяет алгоритмам принимать персонализированные решения о стоимости товаров, услуг и др. Их результатом уже сегодня становится дифференцированная система страхования, включающая, помимо стандартных, большое количество дополнительных критериев, на основе которых используется индивидуализированное формирование стоимости страховки и процентной ставки по кредиту.

Во втором случае речь идет о ситуациях, когда отношение к индивиду выстраивается на основе, например, его/ее местоположения. Так, в США проживание в неблагополучном районе приводит к тому, что алгоритм требует от полицейского более тщательного досмотра, а от судьи — вынесения более серьезного наказания даже за незначительные правонарушения. В то же время жители элитных районов фактически остаются вне поля зрения. «В результате мы криминализировали бедность, полагая, что инструменты, которые мы при этом использовали,—не только научные, но и справедливые» [О'Нил, 2018: 126]. Для обозначения совокупности всех этих последствий используется понятие «алгоритмическая дискриминация» [Winter, 2015]. В связи с утратой анонимности в интернет-пространстве пользователи регулярно сталкиваются с проявлениями дискриминации, но ее очень сложно выявить. В этом отношении действия алгоритмов иногда лишь отражают социальную реальность, когда речь идет о расовой, гендерной или национальной дискриминации.

Постепенно алгоритмы внедряются и в систему образования, затрагивая следующие аспекты: поступление в учебные заведения, проведение экзаменов учащихся и аттестации учителей. В августе 2020 г. широко обсуждался скандал в британских школах, связанный с использованием алгоритмов для подсчета итоговых оценок. Предполагалось, что с помощью набора критериев, заложенных в алгоритм оценки, будет решена задача максимальной точности и объективности

16 Amazon, Apple, Google и Facebook обладают монопольной властью — расследование конгресса США // Digital Russia. 2020. 7 октября. URL: https://d-russia.ru/amazon-apple-google-i-facebook-obladajut-monopolnoj-vlastju-rassledovanie-kongressa-ssha.html (дата обращения: 14.02.2021).

оценивания. Однако особенности работы этих алгоритмов привели к тому, что около 40 % школьников посчитали свои оценки заниженными, что спровоцировало массовые выступления против результатов экзаменов. Связано это было с тем, что при выставлении оценок учитывался в том числе средний уровень успеваемости в школе и ее образовательный рейтинг 17.

Кроме того, алгоритмы используются и для составления рейтингов абитуриентов высших учебных заведений. Эти системы учитывают не только объективные данные о школьной успеваемости или достижениях в спорте, но и на основе других критериев определяют вероятность поступления. Доступ к информации об этих дополнительных критериях становится важным ресурсом для поступления. В итоге «образовательная система в основном обслуживает привилегированные слои» [О'Нил, 2018: 98].

Рассмотренные выше проявления неравенства возможностей (ранжирование и система рейтингов, неравный доступ к информации и алгоритмической осведомленности) становятся механизмами воспроизводства социального неравенства, которые встречаются сегодня фактически во всех сферах общественной жизни. Алгоритмы используются сегодня для принятия решений полицией, вынесения судебных решений, при трудоустройстве, приеме в учебные заведения, при предоставлении различных социальных услуг [Eubanks, 2018; Noble, 2018; О'Нил, 2018].

Алгоритмы и социальное неравенство: новые направления научного поиска

Проведенный анализ позволяет сделать ряд выводов и поставить новые вопросы для исследователей неравенства. Налицо усиление влияния технологий на проблему цифрового неравенства. Схема трехуровневого членения цифрового разрыва не способна в полной мере отразить и учесть: 1) все технологическое разнообразие современных средств, обеспечивающих цифровое присутствие; 2) репертуар цифровых навыков и компетенций, которые варьируются в зависимости от целей использования цифровых технологий; 3) все потенциальные возможности и жизненные шансы, отражающие включение в процессы цифро-визации через доступ и навыки применения.

Как следствие работы пузырей фильтров, социального ранжирования и неравных возможностей повышения алгоритмической осведомленности, возникают новые проявления дискриминации и маргинализации во многих сферах, ограничиваются возможности политического и гражданского участия, эффективной экономической деятельности и т. п. Автоматизированное принятие решений алгоритмическими системами обычно благоприятствует людям и коллективам, которые уже находятся в привилегированном положении, дискриминируя маргинализи-рованных людей [Noble, 2018], что действительно представляет собой серьезную проблему, с которой в процессе растущей автоматизации общества необходимо бороться. Тем не менее это явление нельзя назвать новым, и не только алгоритм в нем виноват — предвзятые наборы данных и алгоритмические правила приня-

17 Алгоритм не сработал: как школьники добились отмены несправедливой системы оценок. Коммерсант United Kingdom. 2020. 17 августа. URL: https://www.kommersant.uk/articles/algoritm-ne-srabotal-kak-shkolniki-dobilis-otmeny-nespravedlivoy-sistemy-otsenok (дата обращения: 12.02.2021).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

тия решений также порождают дискриминацию. Скорее, можно говорить о том, что любая технологическая и бюрократическая процедура материализует такие классификации, как пол, социальный класс, географическое пространство, раса. Они не берут свое начало в этих системах, они просто отражают преобладающие в обществе предрассудки и стереотипы [Katzenbach, Ulbricht, 2019].

Возникает вопрос, является ли все то, что было описано выше, новым, четвертым уровнем цифрового разрыва? Будучи непрозрачными, не поддающимися контролю и пониманию, алгоритмы управляют нашей жизнью, составляя профили пользователей, собирая данные, принимая решения о том, предоставить ли доступ или нет к информации, услугам и т. п. [Stefanija, 2017]. Создают ли пузыри фильтров, механизмы социальных рейтингов и ранжирования алгоритмический разрыв?

Безусловно, технологии делают проблему социального неравенства в целом и цифрового неравенства в частности более комплексной. Однако будет ли обоснованным и методологически верным вводить новые понятия для каждой новой технологии, учитывая скорость их разработки и внедрения? Одним из выходов могла бы стать продуктивная кодификация уже имеющихся понятий и категорий по проблематике цифрового разрыва и цифрового неравенства.

Попытка решения данной методологической проблемы представлена в концепции стека цифрового неравенства [Robinson et al., 2020a]. Метафора стека (термин, используемый в программировании и обозначающий многоуровневое взаимосвязанное представление данных), по мнению авторов концепции, способна отразить всю сложность множественных проявлений цифровых неравенств на разных уровнях. В результате конструируется стек цифрового неравенства, где каждый слой — доступа (1), навыков (2) и использования (3) содержит ряд компонентов, одновременно влияя и находясь под влиянием других слоев стека. Например, доступ как базовый слой всего стека объединяет подключенность к сети, доступ к цифровым устройствам и программному обеспечению, а каждый из этих компонентов, в свою очередь, охватывает множество других показателей (например, подключение рассматривается с точки зрения качества, продолжительности, устойчивости соединения и т. д.).

Авторы подчеркивают комплексный характер стека, включая в него и влияние множества социально-демографических характеристик. Но наиболее важна возможность данной концепции отразить масштабы влияния технологий на воспроизводство социальных различий. В результате социальная поляризация постоянно воспроизводится и увеличивается [Осипова, 2019; Полякова, 2018]. На примере функционирования платформ, больших данных, алгоритмов, автоматизации, киберпреступности и т. д. концептуальная схема стека цифрового неравенства фиксирует возникновение новых его проявлений. Некоторые из них свидетельствуют о радикальных сокращениях роли отдельных пользователей и усилении власти технологических гигантов и создателей технологий как наиболее сильных социальных акторов [Robinson et al., 2020b]. Тем не менее сильные стороны концепции стека — комплексность и всеохватывающий характер — превращаются в основные ее недостатки: применить эту концепцию на практике представляется весьма затруднительным в силу необходимости одновременного учета большого числа переменных на разных уровнях анализа (от отдельного индивида до обще-

ства в целом). Поэтому вопрос о методологии изучения социального неравенства в условиях алгоритмизации остается открытым.

В заключение обратим внимание и на другой аспект проявления цифрового неравенства в эпоху алгоритмов. Возможно, отказ от алгоритмического вмешательства станет роскошью и символом изобилия, доступной лишь немногим избранным 18. Проблема состоит в том, насколько серьезные последствия ожидают людей, которые находятся не на той стороне цифрового разрыва.

Список литературы (References)

Вершинина И. А. Репрезентация власти в городском пространстве: концепция Йорана Терборна // Вестник Российского университета дружбы народов. Серия Социология. 2018. Т. 18. № 2. С. 226—237. https://doi.org/10.22363/2313-2272-2018-18-2-226-237.

Vershinina I. A. (2018) Representation of Power in the Urban Space: Goran Therborn's Theory. RUDN Journal of Sociology. Vol. 18. No. 2. P. 226—237. https://doi.org/10.22363/ 2313-2272-2018-18-2-226-237. (In Russ.)

Добринская Д. Е., Мартыненко Т. С. Возможно ли цифровое равенство? (о книге Я. ван Дейка «Цифровой разрыв») // Социологические исследования. 2020. № 10. С. 158—164. https://doi.org/10.31857/S013216250009459-7. Dobrinskaya D. E., Martynenko T. S. (2020) Is Digital Equality Possible? (On the Book "The Digital Divide" by J. van Dijk). Sociological Studies. No. 10. P. 158—164. https:// doi.org/10.31857/S013216250009459-7. (In Russ.)

Нестик Т. А. Перспективы психологических исследований внедрения технологий искусственного интеллекта // Цифровое обществе в культурно-исторической парадигме / под ред. Марцинковской Т. Д., Орестовой В. Р., Гавриченко В. Р. М. : МПГУ, 2019. С. 13—22.

Nestik T. A. (2019) Perspectives of Psychological Research of Artificial Intelligence Technologies Implementation. In: Marzinkovskaya T. D., Orestova V. R., Gavrichenko V. R. (eds.) Digital Society in Cultural-Historical Paradigm. Moscow: MPGU. P. 13—22. (In Russ.).

О'Нил К. Убийственные большие данные. Как математика превратилась в оружие массового поражения. М. : АСТ, 2018.

O'Neil C. (2018) Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Moscow: AST. (In Russ.)

Осипова Н. Г. Социальное неравенство в современном мире // Вестник Московского университета. Серия 18. Социология и политология. 2019. Т. 25. № 4. С. 124—153. https://doi.org/10.24290/1029-3736-2019-25-4-124-153. Osipova N. G. (2019) Social Inequality in the Modern World. Moscow State University Bulletin. Series 18. Sociology and Political Science. Vol. 25. No. 4. P. 124—153. https:// doi.org/10.24290/1029-3736-2019-25-4-124-153. (In Russ.)

18 Susarla A. The New Digital Divide Is Between People Who Opt Out of Algorithms and People Who Don't. Fast Company. 2019. 18 April. URL: https://www.fastcompany.com/90336381/the-new-digital-divide-is-between-people-who-opt-out-of-algorithms-and-people-who-dont (дата обращения: 13.02.2021).

Паризер Э. За стеной фильтров. Что Интернет скрывает от вас? М. : Альпина Бизнес Букс, 2012.

Pariser E. (2012) The Filter Bubble: What the Internet is Hiding from You. Moscow: Alpina Business Books. (In Russ.)

Полякова Н. Л. Оформление социального неравенства в практиках повседневности: историческая перспектива // Вестник Московского университета. Серия 18. Социология и политология. 2018. Т. 24. № 4. С. 7—25. https://doi.org/10.24290/ 1029-3736-2018-24-4-7-25.

Polyakova N. L. (2018) The Formation of Social Inequality in the Everyday Practices: The Historical Perspective. Moscow State University Bulletin. Series 18. Sociology and Political Science. Vol. 24. No. 4. P. 7—25. https://doi.org/10.24290/1029-3736-2018-24-4-7-25. (In Russ.)

Резаев А. В., Стариков В. С., Трегубова Н. Д. Социология в эпоху «искусственной социальности»: поиск новых оснований // Социологические исследования. 2020. № 2. С. 3—12. https://doi.org/10.31857/S013216250008489-0. Rezaev A. V., Starikov V. S., Tregubova N. D. (2020) Sociology in the Age of "Artificial Socialit"': Search of New Bases. Sociological Studies. No. 2. P. 3—12. https:// doi.org/10.31857/S013216250008489-0. (In Russ.)

Резаев А. В., Трегубова Н. В. «Искусственный интеллект», «онлайн-культура», «искусственная социальность»: определение понятий // Мониторинг общественного мнения: экономические и социальные перемены. 2019. № 6. С. 35—47. https:// doi.org/10.14515/monitoring.2019.6.03.

Rezaev A. V., Tregubova N. D. (2019) Artificial Intelligence, On-line Culture, Artificial Sociality: Definition of the Terms. Monitoring of Public Opinion: Economic and Social Changes Journal. No. 6. P. 35—47. https://doi.org/10.14515/monitoring.2019.6.03. (In Russ.)

Суворова А. В., Бахитова А. А., Кузнецова А. Д., Гуляев П. Р. Социальные алгоритмы онлайн-сообществ: аналитический обзор // Информационное Общество. № 4—5. 2019. С. 105—112. URL: http://infosoc.iis.ru/article/view/109 (дата обращения: 12.02.2021)

Suvorova A. V., Bakhitova A. A., Kuznetsova A. D., Gulyaev P. R. (2019) Social Algorithms for Online Communities: An Analytical Review. Information Society. No. 4—5. P. 105— 112. URL: http://infosoc.iis.ru/article/view/109 (accessed: 12.02.2021). (In Russ.)

Amoore L. (2020) Cloud Ethics: Algorithms and the Attributes of Ourselves and Others. Durham: Duke University Press. https://doi.org/10.2307/j.ctv11g97wm.

Beer D. (2016) Metric Power. London: Palgrave Macmillan. https://doi.org/10.1057/ 978-1-137-55649-3.

Broadbent S., Lobet-Maris C. (2015) Towards a Grey Ecology. In: Floridi L. (ed.) The Onlife Manifesto. Cham: Springer International Publishing. P. 111—124. https:// doi.org/10.1007/978-3-319-04093-6_15.

Carter P. L., Reardon S. F. (2014) Inequality Matters. William T. Grant Foundation Inequality Paper. URL: https://ed.stanford.edu/sites/default/files/inequalitymatters. pdf. (accessed: 13.02.2021).

Diakopoulos N. (2013) Algorithmic Accountability Reporting: on the Investigation of Black Boxes. Columbia Journalism School. Tow Center for Digital Journalism. https:// doi.org/10.7916/D8ZK5TW2.

Dobrinskaya D. E., Martynenko T. S. (2019) Defining the Digital Divide in Russia: Key Features and Trends. Monitoring of Public Opinion: Economic and Social Changes Journal. No. 5. P. 100—119. https://doi.org/10.14515/monitoring.2019.5.06.

Espeland W. N., Stevens M. L. (2008) A Sociology of Quantification. European Journal of Sociology. Vol. 49. No. 3. P. 401—436. https://doi.org/10.1017/ S0003975609000150.

Esposito E. (2017) Artificial Communication? The Production of Contingency by Algorithms. Zeitschrift fur Soziologie. Vol. 46. No. 4. P. 249—265. https://doi.org/ 10.1515/zfsoz-2017-1014.

Gillespie T. (2014a) Algorithm [draft] [#digitalkeyword]. Culture Digitally. URL: http:// culturedigitally.org/2014/06/algorithm-draft-digitalkeyword/ (accessed: 12.02.2021).

Gillespie T. (2014b) The Relevance of Algorithms. In: Gillespie T., Boczkowski P. J., Foot K. A. (eds.) Media Technologies: Essays on Communication, Materiality, and Society. Cambridge, MA: MIT Press. P. 167—194. https://doi.org/10.7551/mitpress/ 9780262525374.003.0009.

Gran A. B., Booth P., Bucher T. (2020) To Be or Not to Be Algorithm Aware: A Question of a New Digital Divide? Information, Communication & Society. https://doi.org/10.1080/ 1369118X.2020.1736124.

Grzymek V., Puntschuh M. (2019) What Europe Knows and Thinks about Algorithms. Results of a Representation Survey. Discussion Paper Ethics of Algorithms. No. 10. P. 1—37. URL: http://aei.pitt.edu/102582/1/WhatEuropeKnowsAndThinkAbout Algorithm.pdf (accessed: 14.02.2021).

Hargittai E., Micheli M. (2019) Internet Skills and Why They Matter. In: Graham M., Dutton W. H. (eds.) Society and the Internet: How Networks of Information and Communication Are Changing Our Lives. Oxford: Oxford University Press. P. 109—124. https://doi.org/10.1093/oso/9780198843498.003.0007.

Hassan R. (2020) The Condition of Digitality: A Post-Modern Marxism for the Practice of Digital Life. London: University of Westminster Press.

Katzenbach C., Ulbricht, L. (2019) Algorithmic Governance. Internet Policy Review. Vol. 8. No. 4. P. 1—18. https://doi.org/10.14763/2019.4.1424.

Kitchin R. (2017) Thinking Critically About and Researching Algorithms. Information, Communication & Society. Vol. 20. No. 1. P. 14—29. https://doi.org/10.1080/1369 118X.2016.1154087.

Kitchin R., Dodge M. (2011) Code/Space: Software and Everyday Life. Cambridge, MA: MIT Press.

Lupton D. (2014) Digital Sociology. Abingdon, Oxon.: Routledge.

Mau S. (2019) The Metric Society on the Quantification of the Social. Cambridge; Medford, MA: Polity Press.

Mau S. (2020) Numbers matter! The society of indicators, scores and ratings. International Studies in Sociology of Education. Vol. 29. No. 1—2. P. 19—37. https://doi.org/ 10.1080/09620214.2019.1668287.

Mennicken A., Espeland W. N. (2019) What's New With Numbers? Sociological Approaches to the Study of Quantification. Annual Review of Sociology. Vol. 45. No. 1. P. 223—245. https://doi.org/10.1146/annurev-soc-073117-041343.

Morik M., Singh A., Hong J., Joachims T. (2020) Controlling Fairness and Bias in Dynamic Learning-to-Rank. SIGIR'20: Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. July 2020. P. 429—438. https://doi.org/10.1145/3397271.3401100.

Neff G., Nafus D. (2016) Self-Tracking. Cambridge, MA: MIT Press.

Noble S. U. (2018) Algorithms of Oppression: How Search Engines Reinforce Racism. New York, NY: New York University Press.

Pasquale F. (2015) The Black Box Society. Cambridge, MA: Harvard University Press.

Ragnedda M. (2020) Enhancing Digital Equity. Connecting the Digital Underclass. Cham: Palgrave Macmillan.

Roberge J., Melangon L. (2017) Being the King Kong of Algorithmic Culture Is a Tough Job After All: Google's Regimes of Justification and the Meanings of Glass. Convergence. Vol. 23. No. 3. P. 306—324. https://doi.org/10.1177/1354856515592506.

Robinson L. Schulz J., Blank G., Ragnedda M., Ono H., Hogan B., Mesch G. S., Cotten S. R., Kretchmer S. B., Hale T. M., DrabowiczT., Yan P., Wellman B., Harper M.-G., Quan-Haase A., Dunn H. S., Casilli A. A., Tubaro P., Carvath R., Chen W., Wiest J. B., Dodel M., Stern M. J., Ball C., Huang K.-T., Khilnani A. (2020a) Digital inequalities 2.0: Legacy inequalities in the information age. First Monday. Vol. 25. No. 7. https:// doi.org/10.5210/fm.v25i7.10842.

Robinson L., Schulz J., Dunn H. S., Casilli A. A., Tubaro P., Carvath R., Chen W., Wiest J. B., Dodel M., Stern M. J., Ball C., Huang K.-T., Blank G., Ragnedda M., Ono H., Hoga B., Mesch G. S., Cotten S. R., Kretchmer S. B., Hale T. M., Drabowicz T., Yan P., Wellman B., Harper M.-G., Quan-Haase A., Khilnani A. (2020b) Digital Inequalities 3.0: Emergent Inequalities in the Information Age. First Monday. Vol. 25. No. 7. https:// doi.org/10.5210/fm.v25i7.10844.

Stefanija A. P. (2017) The Fourth Digital Divide-Divide by Algorithm? On the Algorithms-Mediated Society and What to Do Next. URL: http://popstefanija.com/the-fourth-digital-divide-divide-by-algorithm/ (accessed: 12.02.2021).

Steiner C. (2012) Automate This: How Algorithms Took Over Our Markets, Our Jobs, and the World. New York, NY: Portfolio/Penguin.

Nadler J., Cicilline D. N. (2020) Investigation of Competition in Digital Markets: Majority Staff Report and Recommendations. Washington, DC: Subcommittee on Antitrust, Commercial and Administrative Law of the Committee on the Judiciary. URL: https:// judiciary.house.gov/uploadedfiles/competition_in_digital_markets.pdf?utm_cam-paign=4493-519 (accessed: 13.02.2021).

van Dijk J. (2020) The Digital Divide. Cambridge, Medford, MA: Polity Press.

Willson M. (2017) Algorithms (and the) Everyday. Information, Communication and Society. Vol. 20. No. 1. P. 137—150. https://doi.org/10.1080/1369118X.2016. 1200645.

Winter J. (2015) Algorithmic Discrimination: Big Data Analytics and the Future of the Internet. In: Winter J., Ono R. (eds.) The Future Internet. Public Administration and Information Technology. Vol. 17. Cham: Springer International Publishing. P. 125—140. https://doi.org/10.1007/978-3-319-22994-2_8.

i Надоели баннеры? Вы всегда можете отключить рекламу.