Научная статья на тему 'ЭВОЛЮЦИЯ АЛГОРИТМОВ: НА ПУТИ К ТЕХНОКРАТИИ?'

ЭВОЛЮЦИЯ АЛГОРИТМОВ: НА ПУТИ К ТЕХНОКРАТИИ? Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY-NC-ND
24
11
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «ЭВОЛЮЦИЯ АЛГОРИТМОВ: НА ПУТИ К ТЕХНОКРАТИИ?»

Шибаршина С. В. Эволюция алгоритмов: на пути к технократии? // Философия. Журнал Высшей школы экономики. — 2023. — Т. 7, № 3. — С. 228-235.

Светлана Шибаршина*

Эволюция алгоритмов:

на пути к технократии?**

DOI: 10.17323/2587-8719-2023-3-228-235.

Рассматриваемая статья В. А. Бажанова посвящена различным аспектам использования технологий больших данных (Big Data), алгоритмов искусственного интеллекта (AI) в политических процессах. Валентин Александрович задается вопросом о том, может ли все человечество на глобальном уровне выиграть от прогресса информационных технологий (Бажанов, 2023).

Поставленная им проблема более чем актуальна, поскольку алгоритмы AI постепенно становятся основой управления нашим обществом по мере возрастания цифровизации различных его сфер. Важные решения относительно нас, людей, все чаще оказываются связаны с использованием технологий AI. Типичные примеры можно обнаружить в управлении дорожным движением, городской средой (т.н. «умные города»). Алгоритмы используются для выявления мошенничества (например, в налоговых декларациях), идентификации людей на фотографиях, обнаружения правонарушений при видеонаблюдении, выдачи различных разрешений, подготовки предвыборных кампаний и т.д. Мы наблюдаем эволюцию социальных алгоритмов, которые оценивают нас, наши желания и потребности (Janssen & Kuk, 2016). Далеко не всегда мы знаем об использовании алгоритмов в нашей повседневной жизни, между тем как они все больше опутывают наше общество.

Последствия развития алгоритмов могут быть как положительными, так и отрицательными, о чем, собственно, и пишет В. А. Бажанов.

* Шибаршина Светлана Викторовна, к. филос. н., исследователь, Межрегиональная общественная организация «Русское общество истории и философии науки» (Москва), svet.shib®gmail.com, ORCID: 0000-0002-6741-8909.

**© Шибаршина, С. В. © Философия. Журнал Высшей школы экономики.

Благодарности: исследование выполнено при финансовой поддержке РНФ, проект №21—18—00428 «Политическая субъектность современной науки: междисциплинарный анализ на перекрестье философии науки и философии политики» в Русском обществе истории и философии науки.

Они представляют собой вызов для различных сфер нашей жизни и становятся объектом критики — от умеренной до алармистской. В ходе дискуссий исследователи затрагивают такие проблемы, как сбор данных граждан без их согласия; неравномерное распределение информации; приватизация данных и потеря гражданами прав на свои данные; предубеждения и предвзятости, встроенные в систему работы алгоритмов; непрозрачность и даже порой неизвестность принципов их функционирования; алгоритмическое насилие, а также фундирующая все эти уязвимости проблема цифровой «геометрии власти» (см., напр. Lekan & Rogers, 2020; Safransky, 2019; Костина, 2020 и др.). Один из относительно радикальных вариантов критики, связанной с использованием алгоритмов в социальной, политической и др. сферах, — усмотрение интересов крупнейших IT-корпораций, расширяющих инфраструктуру по сбору и монетизации больших данных (см., напр. Soderström et al., 2014).

В целом же, если не уходить в крайности, можно выделить одно из базовых положений критики: не сами большие данные, а определенное использование алгоритмов для обработки данных видится «реальной скрытой опасностью» (Janssen & Kuk, 2016). В алгоритме некий интеллект манипулирует определенными данными, что приводит к тому или иному результату, не всегда предсказуемому. Более того, в своей эволюции алгоритмы становятся все более автономными и невидимыми для общественности.

В. А. Бажанов упоминает о цифровом авторитаризме, говоря о «вкрапленных» в алгоритмы установках, чреватых дискриминацией. Частично подобные уязвимости могут быть связаны с тем, что алгоритмы динамично развиваются вместе с данными, системами и людьми в рамках сложной социотехнической системы (ibid.). Изучая закономерности в данных, получаемых при исследовании природного и социального мира, они также поглощают предубеждения в них. Неудивительно, что интеллектуальный анализ данных зачастую выявляет различные человеческие предпочтения и дискриминационные практики, а также укоренившееся социальное неравенство. Некоторые из систематических погрешностей унаследованы от исторических баз данных, которые использует алгоритм, в то время как другие непреднамеренно вводятся разработчиками или возникают из-за изменений в системах и ландшафте данных (ibid.).

В. А. Бажанов отмечает, что «экспансия AI и Big Data открывает в буквальном смысле невиданные перспективы в управлении общественными процессами» (Бажанов, 2023). Для минимизации негативных

последствий необходимо, с его точки зрения, осознание пределов валид-ности методологии алгоритмоцентризма. Также желательно создание «машинерии, существенно минимизирующей негативные аспекты их (AI и Big Data. — С.Ш.) функционирования» (Бажанов, 2023). Однако в его исследовании недостаточно, на наш взгляд, затронута проблема власти, которая является одним из центральных вопросов в использовании алгоритмов для управления обществом.

Речь в данном случае идет не о власти нечеловеческих акторов, а о контроле одних человеческих акторов над массами других. Контроль над алгоритмами AI как техносубъектами в обозримой перспективе представляет, скорее всего, проблему научно-техническую, которая при этом, безусловно, включает вопросы техноэтики и законодательства. Нам же хочется обратить внимание на то, как общество могло бы влиять на процесс использования алгоритмов: возможно ли создание здесь полноценной системы сдержек и противовесов? И ограничивается ли эта система только техническими, методологическими и юридическими вопросами? Не находятся ли «алгоритмократы», связанные с ними властные структуры и владельцы технологических гигантов в своего рода башне из слоновой кости по отношению к массе простых пользователей?

В интернет-пространстве появляется все больше публикаций на тему цифрового контроля со стороны транснациональных технологических корпораций и других социальных агентов. Использование алгоритмов фактически позволяет их владельцам и другим лицам получать сконструированные AI цифровые портреты пользователей сети и таким образом воздействовать на их поведение, навязывать им предпочтения, формировать их мировоззрение, в значительной степени влиять на исход выборов и т. д.

Исследования М. Косински (Kosinski, 2021) и подобных ему специалистов позволяют предположить, что наше поведение в интернет-пространстве позволяет воссоздавать с помощью специальных алгоритмов повторяемые модели поведения с очень тонкими штрихами. Каждым своим действием в сети — лайком, перепостом, покупкой (в том числе предпочтением конкретных брендов), просмотренной книгой, фильмом и проч. — пользователь добавляет штрих к собственному цифровому портрету. При этом ничего из этого он не сообщает компании добровольно: выводы делает AI, основываясь на поисковых запросах. В итоге алгоритмы могут многое сказать о пользователе. Как отметил

Дж. Урри, личность в эпоху мобильностей распределена по гигантским базам данных; это необратимо и чревато не всегда учитываемыми последствиями (Урри, Лазарев, 2012: 477).

На наш взгляд, недооценка проблемы контроля за теми, кто использует алгоритмы, может повлечь за собой развертывание негативных сторон технократического мышления. Оговоримся, что в научной литературе понятие «технократия» употребляется в разных контекстах и может обозначать различные социальные явления и концепции. Зачастую под ним подразумевается активное участие во власти представителей научно-технического знания (технократия как частный случай элитаризма). В этом смысле стоит согласиться с исследователями в том, что технократия так и «не стала оформленной политической силой», хотя и играет существенную роль, особенно при выработке хозяйственно-политических решений (Николаев, 2018: 92). Если же не отождествлять данное понятие с элитаризмом, то можно выделить ряд сущностных признаков технократии как концепции, включающих утверждение о том, что рациональное управление развитием сложных систем с помощью технологий AI или ему подобных вполне возможно (Ломаев и Ломаева, 2022: 183). Технократическое управление, таким образом, предполагает, что сложные социальные проблемы могут быть превращены в четко определенные, структурированные проблемы, которые возможно решить алгоритмически (Janssen & Kuk, 2016). И в этом смысле в некоторой степени технократия уже реализуется.

Один из примеров технократического управления — концепция «умного города», основанная на предпосылке о том, что «все аспекты города можно измерять, контролировать и рассматривать как технические проблемы» (Kitchin, 2014: 9), решаемые алгоритмически. При этом политические и социальные решения играют меньшую роль, поскольку и правящие, и управляемые подчиняются контролю технологий. Это представляет собой новую форму технологического детерминизма (Janssen & Kuk, 2016). Технократическое управление описывается как нейтральное: минимизируя решения, принимаемые людьми с их предубеждениями и предпочтениями, мы полагаемся на социально, политически и культурно нейтральную алгоритмическую автоматизацию.

Однако, как было указано выше, алгоритмы непрозрачны и имеют запрограммированные предвзятости, поэтому говорить об их полностью нейтральной природе не приходится. Алгоритмы могут быть открытыми для злоупотреблений со стороны как управленцев, так и мошенников. Анализ подобных предубеждений может затрудняться тем, что детали

создания алгоритма часто считаются запатентованной и, соответственно, тщательно охраняемой информацией. В более сложных случаях алгоритмы настолько комплексны, что даже создатели не знают точно, как они работают (проблема «черного ящика»).

Один из способов решения проблемы прозрачности алгоритмов — создание и совершенствование механизмов проверки их справедливости, использование внутренних симуляций. Этика—тоже важное условие того, как используются алгоритмы для обеспечения функционирования общества. Необходимо взаимодействие пользователей с данными и алгоритмами для обеспечения прозрачности и подотчетности. Такое взаимодействие будет включать в себя предоставление пользователям возможности включать и исключать данные, которыми они делятся, выбирать, с кем они делятся, какую структуру принимают эти данные и т.д. (Janssen & Kuk, 2016).

Вместе с тем Валентин Александрович справедливо заметил, что

неупорядоченное и не вполне рациональное оглашение в духе полной открытости и использование результатов работы AI и Big Data может создавать «информационную какофонию» (Бажанов, 2023),

поэтому идея о том, что использование алгоритмов должно быть прозрачно и подотчетно общественности, вызывает много вопросов. Схожая ситуация возникла с проблемой участия общественности в оценке научно-технического знания и инноваций в целом. В итоге получается непростая дилемма: мы не совсем доверяем создателям алгоритмов, а также техногигантам и властным структурам, которые будут их использовать в своих целях, однако, будучи профанами, без помощи экспертов вряд ли сможем однозначно выиграть от прозрачности алгоритмов и подотчетности их использования.

Между тем контроль над эволюцией технологий AI важен. Алгоритм далеко не всегда политически нейтрален, свободен от человеческого вмешательства и предубеждений. Он предназначен для определенной цели, которую перед ним ставят, а результаты его работы во многом зависят от входных данных. В итоге его использование зависит от тех людей, которые за всем этим стоят.

Действительно, как отмечает В. А. Бажанов, с одной стороны, Big Data и AI могут существенно помочь в налаживании более рационального функционирования различных процессов. С другой же, алгоритмы могут стать основой для т. н. «цифрового паноптикона» —существующей

на уровне планеты интегрированной автоматической системы, о чем Валентин Александрович также вскользь упоминает. Повторимся: многое здесь зависит от того, кто будет «архитектором».

В заключении В. А. Бажанов замечает, что «дальнейшее развитие AI и технологий Big Data не остановить», и здесь сложно не согласиться. Общество на уровне всей человеческой цивилизации явно движется в направлении технологического детерминизма и технократического мышления. Последнее же по определению решает узкие задачи развития «своего проекта», не учитывая всей совокупности многогранных проблем (Кулюткин, 2005: 62). Честно говоря, перспективы развития цивилизации в духе ноосферы В. И. Вернадского, а не паноптикона Дж. Оруэлла кажутся довольно туманными без продуманной системы социального контроля за использованием цифровых технологий и экспансией технолого-надзирательного мышления.

Литература

Бажанов В. А. Искусственный интеллект, технологии Big Data (больших данных) и особенности современного политического процесса // Философия : Журнал Высшей школы экономики. — 2023. — Т. 7, № 3. Костина А. О. Платформенный урбанизм : новая топология городского пространства // Цифровой ученый : лаборатория философа. — 2020. — Т. 3, № 3. — С. 25—37.

Кулюткин Ю. Н. Технократия и гуманизм // Человек и образование. — 2005. — № 2. — С. 61—65.

Ломаев С. Л., Ломаева Н. С. Технократический нарратив о рациональном управлении в контексте развития технологий искусственного интеллекта // Дискурс-Пи. — 2022. — Т. 19, № 4. — С. 178—19. Николаев А. Н. Становление и трансформация советской технократической элиты // Вестник Пермского национального исследовательского политехнического университета. Культура, история, философия, право. — 2018. — Т. 273, № 2. — С. 83—95.

Урри Д. / пер. с англ. Мобильности. — Праксис : М., 2012. Janssen M., Kuk G. The Challenges and Limits of Big Data Algorithms in Technocratic Governance // Government Information Quarterly : An International Journal of Information Technology Management, Policies, and Practices. — 2016. — Vol. 33, no. 3. — P. 371-377. Kitchin R. The Real-Time City? Big Data and Smart Urbanism // GeoJournal. —

2014. — Vol. 79, no. 1. — P. 1-14. Kosinski M. Facial Recognition Technology Can Expose Political Orientation from Naturalistic Facial Images // Scientific Reports by Nature. — 2021. — No. 11.

Lekan M., Rogers H. A. Digitally Enabled Diverse Economies : Exploring Socially Inclusive Access to the Circular Economy in the City // Urban Geography. — 2020. — Vol. 41, no. 3. — P. 462-468.

Safransky S. Geographies of Algorithmic Violence : Redlining the Smart City // International Journal of Urban and Regional Researchy. — 2019. — Vol. 44, no. 5. — P. 1-19.

Soderstrom O., Paasche T., Klauser F. Smart Cities as Corporate Storytelling // City : Analysis of Urban Trends, Culture, Theory, Policy, Action. — 2014. — Vol. 18, no. 3. — P. 307-320.

Shibarshina, S.V. 2023. "Evolyutsiya algoritmov: na puti k tekhnokratii? [The Evolution of Algorithms: On the Way to Technocracy?]" [in Russian]. Filosofiya. Zhurnal Vysshey shkoly ekonomiki [Philosophy. Journal of the Higher School of Economics] 7 (3), 228-235.

Svetlana Shibarshina

PhD in Philosophy, Researcher Russian Society for the History and Philosophy of Science (Moscow, Russia); orcid: 0000-0002-6741-8909

The Evolution of Algorithms: On the Way to Technocracy?

DOI: 10.17323/2587-8719-2023-3-228-235.

REFERENCES

Bazhanov, V. A. 2023. "Iskusstvennyy intellekt, tekhnologii Big Data (bol'shikh dannykh) i osobennosti sovremennogo politicheskogo protsessa [Artificial Intelligence, Big Data Technologies, and Features of Modern Politics]" [in Russian]. Filosofiya [Philosophy]: Zhurnal Vysshey shkoly ekonomiki [Journal of the Higher School of Economics] 7 (3).

Janssen, M., and G. Kuk. 2016. "The Challenges and Limits of Big Data Algorithms in Technocratic Governance." Government Information Quarterly: An International Journal of Information Technology Management, Policies, and Practices 33 (3): 371-377.

Kitchin, R. 2014. "The Real-Time City? Big Data and Smart Urbanism." GeoJournal 79 (1): 1-14.

Kosinski, M. 2021. "Facial Recognition Technology Can Expose Political Orientation from Naturalistic Facial Images." Scientific Reports by Nature, no. 11.

Kostina, A.O. 2020. "Platformennyy urbanizm [Platform Urbanism]: novaya topologiya go-rodskogo prostranstva [New Topology of Urban Space]" [in Russian]. Tsifrovoy uchenyy [The Digital Scholar]: laboratoriya filosofa [Philosopher's Lab] 3 (3): 25-37.

Kulyutkin, Yu. N. 2005. "Tekhnokratiya i gumanizm [Technocracy and Humanism]" [in Russian]. Chelovek i obrazovaniye [Human and Education], no. 2, 61-65.

Lekan, M., and H.A. Rogers. 2020. "Digitally Enabled Diverse Economies: Exploring Socially Inclusive Access to the Circular Economy in the City." Urban Geography 41 (3): 462-468.

Lomayev, S.L., and N.S. Lomayeva. 2022. "Tekhnokraticheskiy narrativ o ratsional'nom upravlenii v kontekste razvitiya tekhnologiy iskusstvennogo intellekta [Technocratic Nar-

rative on Rational Management in the Context of the Development of AI Technologies]" [in Russian]. Diskurs-Pi [Discourse-P] 19 (4): 178-19.

Nikolayev, A. N. 2018. "Stanovleniye i transformatsiya sovet-skoy tekhnokraticheskoy elity [Formation and Transformation of the Soviet Technocratic Elite]" [in Russian]. Vestnik Permskogo natsional'nogo issledovatel'skogo politekhnicheskogo universiteta. Kul'tura, istoriya, filosofiya, pravo [Bulletin of PNRPU. Culture. History. Philosophy. Law] 273 (2): 83-95.

Safransky, S. 2019. "Geographies of Algorithmic Violence: Redlining the Smart City." International Journal of Urban and Regional Researchy 44 (5): 1-19.

Soderstrom, O., T. Paasche, and F. Klauser. 2014. "Smart Cities as Corporate Storytelling." City: Analysis of Urban Trends, Culture, Theory, Policy, Action 18 (3): 307-320.

Urry, J. 2012. [in Russian]. Trans. from the English by A.V. Lazarev. Praksis: M.

i Надоели баннеры? Вы всегда можете отключить рекламу.