Дедюлина Марина Анатольевна
СОЦИАЛЬНО-ЭТИЧЕСКИЕ ПРОБЛЕМЫ АЛГОРИТМОВ В ИНФОРМАЦИОННОМ ОБЩЕСТВЕ
В данной работе проводится анализ внедрения алгоритмов в человеческую жизнедеятельность. С возрастанием их роли в обществе появляются новые формы алгоритмической мощности, которые перестраивают работу социальных, политических, экономических и культурных систем. В любой сфере применения алгоритмы могут быть как созидательными, так и деструктивными. В исследовании будет изучено отрицательное воздействие алгоритмов на человека, так как мы пока находимся на стадии интегрирования этих технологий в современную культуру.
Адрес статьи: www.gramota.net/materials/3/2017/12-4714.html
Источник
Исторические, философские, политические и юридические науки, культурология и искусствоведение. Вопросы теории и практики
Тамбов: Грамота, 2017. № 12(86): в 5-ти ч. Ч. 4. C. 57-59. ISSN 1997-292X.
Адрес журнала: www.gramota.net/editions/3.html
Содержание данного номера журнала: www .gramota.net/mate rials/3/2017/12-4/
© Издательство "Грамота"
Информация о возможности публикации статей в журнале размещена на Интернет сайте издательства: www.gramota.net Вопросы, связанные с публикациями научных материалов, редакция просит направлять на адрес: hist@gramota.net
УДК 004.6:179 Философские науки
В данной работе проводится анализ внедрения алгоритмов в человеческую жизнедеятельность. С возрастанием их роли в обществе появляются новые формы алгоритмической мощности, которые перестраивают работу социальных, политических, экономических и культурных систем. В любой сфере применения алгоритмы могут быть как созидательными, так и деструктивными. В исследовании будет изучено отрицательное воздействие алгоритмов на человека, так как мы пока находимся на стадии интегрирования этих технологий в современную культуру.
Ключевые слова и фразы: алгоритмы; Большие Данные; этика; алгоритмическая культура; датаизм; «общество черного ящика».
Дедюлина Марина Анатольевна, к. филос. н., доцент
Южный федеральный университет, г. Ростов-на-Дону Dedyulina72@mail. ru
СОЦИАЛЬНО-ЭТИЧЕСКИЕ ПРОБЛЕМЫ АЛГОРИТМОВ В ИНФОРМАЦИОННОМ ОБЩЕСТВЕ
Повсеместное использование информационно-коммуникативных технологий в социуме приводит к тому, что мы все больше и больше окружаем себя алгоритмами. «Мы живем в мире, где алгоритмы решают все... Алгоритмы, управляемые Большими Данными, являются новыми брокерами власти в обществе» [4].
Алгоритмы становятся экспертами практически во всех сферах жизнедеятельности человека. Так, по мнению американского аналитика А. Аниш, на смену бюрократии в сферу управления в скором будущем вполне может прийти алгократия [2]. А на смену современному капитализму в сфере экономики, по утверждению Ш. Зубофф, приходит «эпиднадзор капитализм», т.е. «подглядывающий капитализм». Проанализировав экономическую деятельность интернет-холдинга Alphabet, она приходит к выводу, что данная разновидность капитализма уже не опирается на теорию спроса и предложения, а успешно функционирует в Интернете, где эта теория уже не используется [14, p. 30]. Основное предназначение «эпиднадзор капитализма» - предугадывать возможное поведение людей в сети для того, чтобы в последующем получить прибыль.
Погружаясь в мир цифровой экономики, мы сталкиваемся с тем, что алгоритмы самостоятельно, без участия людей, способны принимать важные решения, распределять товары и услуги, типологизировать людей (потенциальный партнер, клиент, преступник), обнаруживать террористов и т.д. Фактически те функции, которые раньше в экономической деятельности выполняли люди, сегодня в цифровой экономике выполняют алгоритмы.
В философском плане в связи с вышеперечисленным возникают вопросы о том, смогут ли в будущем эти алгоритмы контролировать свои действия, а также могут ли в будущем появиться моральные алгоритмы.
В последнее время появляется множество философских исследований, которые с разных позиций пытаются осмыслить данное явление. Так, в недавно опубликованной статье «Человек мертв - давно жив алгоритм! Че-ловеко-алгоритмические ансамбли и либеральная субъективность» [10] немецкого философа Т. Мацнера прослеживается идея, что те многочисленные действия, которые совершает человек в сети, чаще всего контролируются, подсказываются и выполняются алгоритмами. Современные алгоритмы в Интернете навязывают своим пользователям определенный тип поведения. Так, например, специалисты в сфере когнитивной психологии Б. Кристиан и Т. Гриффитс описывают, каким образом идеи компьютерных алгоритмов могут быть применены в жизнедеятельности людей. Они показывают, как алгоритмы помогают современному человеку разрешать многие проблемы: как общаться с другими людьми, как найти спутника жизни, как быстро припарковать машину и т.д. Сегодня практически каждый пользователь сети обращается к алгоритмам за помощью как в личных целях, так и в профессиональной и образовательной деятельности [1, с. 25-31].
Получается, с одной стороны, современные алгоритмы оказывают миллионам людей помощь в различных ситуациях, а с другой стороны, они, осуществляя те или иные действия, помогают извлекать выгоды своим владельцам, которые, получая информацию о клиентах, могут ее использовать по своему усмотрению.
Особенно вызывает опасение предсказание футуролога Ю. Харари о том, что в скором будущем будет возрастать роль «датаизма» (Dataism) - новой универсальной веры в силу алгоритмов. Датаизм, по его словам, поможет людям понять мир, управляемый машинами [6]. «Датаизм заявляет, что Вселенная состоит из потоков данных, а значение любого явления или объекта определяется его вкладом в обработку данных» [Ibidem, р. 367]. Поэтому основная задача датаизма - максимизировать поток информации, подключаясь к большему количеству Big Data, чтобы создавать и использовать больше контента.
Другой философской проблемой в связи с повсеместным использованием алгоритмов является активное распространение алгоритмического мышления. В данной работе мы будем придерживаться идеи К. Мадсбьер-га о том, что в мире, наводненном алгоритмическим мышлением, важно не забывать вводить ограничения [9]. Ученый-практик утверждает, что, поставив технологию выше людей, мы прекращаем синтезировать данные
58
Издательство ГРАМОТА
www.gramota.net
из других источников. Мы упускаем устойчивую эффективность, которая исходит из целостного мышления, ведь в мире невозможно все подвергнуть оптимизации.
Так, в рассуждениях Б. Гейтса и С. Джобса, посвященных философии бизнеса, прослеживается идея о том, что успешный человек в сфере информационных технологий в своих действиях и поступках должен руководствоваться не только алгоритмическим мышлением, но и уметь критически оценивать их. Мы должны научиться использовать алгоритмы, чтобы помочь выявить наши предубеждения и учитывать их при принятии решений.
В этой связи возникает необходимость ввести определение «алгоритма», под которым мы будем понимать последовательность инструкций, формально описывающих простые этапы вычислений. Данная дефиниция позволяет понять, как работает алгоритм. Однако внутреннее содержание действий алгоритма остается «черным ящиком» [4]. Так, например, чтобы иметь возможность узнать потребности людей, Facebook и другие платформы отслеживают желания посредством кодирования отношений между людьми, вещами и идеями в алгоритмы [5, p. 12].
Под алгоритмической культурой мы будем понимать вычислительные процессы, которые используются для организации человеческой культуры. Новыми лидерами в интернет-пространстве сегодня можно по праву назвать Facebook, Google, Netflix и Amazon. Именно они в сети, используя свои алгоритмически генерируемые каналы передачи информации, формируют новые нормы морали, которые получают выражение в новой форме сетевой свободы. Целью алгоритмической культуры является формирование «новой элиты». Деятельность «новой элиты» будут контролировать медиа-платформы. Но обыкновенный пользователь никогда не сможет узнать, чьи интересы он поддерживает, когда принимает решения, обращаясь к помощи навязчивых алгоритмов. Скорее всего, он даже не задумывается о том, что доверяет алгоритмам, которые отражают стратегические и коммерческие интересы медиа-платформ. Т. Стрифас предупреждает, что «то, что поставлено на карту в алгоритмической культуре, - это постепенное прекращение публичной культуры и, следовательно, появление новой породы элитной культуры, являющейся ее противоположностью» [13, p. 396], т.е. приватной культуры.
Таким образом, в социальных сетях формируется алгоритмическая реальность, которая не имеет прямого контакта с миром. Новые технологии расширяют границы алгоритмических возможностей.
Одной из малоизученных философских проблем считается проблема непрозрачности алгоритмов. Так, Дж. Баррелл выделяет несколько источников алгоритмической непрозрачности: во-первых, аудит; во-вторых, способность понимать алгоритмы; в-третьих, алгоритмы, имеющие социальное и культурное значение, включая те, которые формируют поток информации в социальных сетях, распределяют результаты поиска в поисковых системах и составляют рекомендации в онлайн-розничной торговле [3]. С одной стороны, алгоритмы делают нашу жизнь проще и продуктивнее, и мы, конечно, не хотим терять такие возможности. Но, с другой стороны, они не являются морально нейтральными.
Ирландский профессор Р. Китчин полагает, что именно такие алгоритмы заложены в технологиях Big Data. Эти технологии позволяют анализировать «цифровые следы», которые пользователь оставляет в сети, и дают возможность предугадывать медиа-платформам возможное поведение человека [7]. В алгоритмах изначально заложены предрассудки их создателей. А цели создателей (предприятий, либо правительств) могут не совпадать с целями пользователей. Создатели алгоритмов должны научиться следовать моральным нормам, существующим в обществе, при написании программных приложений.
Сегодня алгоритмы встроены в социальные практики. Например, прогностические алгоритмы могут воздействовать на пользователя при принятии решения о выборе работы, покупки, электронном голосовании [8, p. 441]. Поэтому не случайно в недавно вышедшей книге Ф. Паскуале описывается современное общество как «общество черного ящика». Под обществом черного ящика подразумевается социум, в котором люди находятся под бдительным контролем правительств и учреждений. Члены этого общества полностью доверяют учреждениям, в которых работают и с которыми сотрудничают, и не осознают, сколько информации о них собирается, как она используется и каковы последствия этого процесса [12, р. 3]. В исследовании ученый описывает способы, с помощью которых информация о людях собирается, агрегируется, распределяется, анализируется и используется в торговле, занятости, здравоохранении, правоохранительной деятельности и безопасности.
Одним из наглядных примеров сбора данных о людях является кредитное бюро. Основная деятельность таких бюро сводится к сбору информации о людях из разных источников, чтобы с помощью проприетарных алгоритмов рассчитать кредитный балл, который нужен для того, чтобы выяснить кредитоспособность человека, желающего взять кредит в банке. Заметим, что информацией о клиенте могут воспользоваться и другие организации, и даже частные лица. Хотя такие нарушения приватности сами по себе не могут стать «черными коробочками», но склонность людей доверять алгоритмам может привести к скрытой дискриминации. Поэтому применение алгоритмов, созданных с хорошими намерениями, приводит к непредсказуемым последствиям.
Можно согласиться с утверждением К. О'Нил, что сегодня нужно как можно быстрее сформировать общественные организации, которые смогут вести борьбу с такими алгоритмами при помощи права и этики. В качестве примера К. О'Нил берет работника, трудовую деятельность которого контролирует программное обеспечение по планированию рабочего графика. Ему сообщают, в какие часы он должен выйти на работу, но зачастую сообщают об этом в последний момент. Нестабильный и непредсказуемый график работы не позволяет этому человеку планировать другие виды деятельности: уход за ребёнком, другую работу или обучение. Такого
рода алгоритм существует потому, что он приносит прибыль компании, при этом он совершенно не учитывает такие факторы, как качество жизни сотрудника, а график работы контролирует, исходя из того, что у работников нет никакой власти. В этом и проявляется предвзятое отношение: алгоритм ставит прибыль выше счастья работника [11, р. 127]. Но чтобы научиться оценивать влияние алгоритмов на социум, мы должны понять, для какой цели они были разработаны.
Итак, исследование алгоритмов в философском плане позволяет сделать следующие выводы: во-первых, с активным применением алгоритмов во всех сферах деятельности человек начинает утрачивать навыки критического мышления, а все свои действия и поступки пытается формализовать. Однако не все проблемы, с которыми сталкиваются люди, можно решить алгоритмическим путем. Во-вторых, с развитием цифровой экономики общество начинает погружаться в пространство информационного паноптикума. В-третьих, одной из насущных проблем, которую нужно решить современному обществу, - это сформировать карту этики, которую можно будет использовать при разработке алгоритмов. Все вышеперечисленное заставляет общество задуматься о создании общественных организаций, которые будут контролировать воздействие алгоритмов на жизнь социума.
Список источников
1. Кристиан Б., Гриффитс Т. Алгоритмы для жизни. Простые способы принимать верные решения. М.: Альпина Паблишер, 2017. 372 с.
2. Aneesh A. Global Labor: Algocratic Modes of Organization // Sociological Theory. 2009. Vol. 27. Iss. 4. P. 347-370.
3. Burrell J. How the Machine 'Thinks': Understanding Opacity in Machine Learning Algorithms // Big Data and Society. 2016. Vol. 3. Issue 1. P. 1-12.
4. Diakopoulos N. Algorithmic Accountability Reporting: On the Investigation of Black Boxes [Электронный ресурс]. URL: https://towcenter.org/research/algorithmic-accountability-on-the-investigation-of-black-boxes-2/ (дата обращения: 11.11.2017).
5. Dijck J. van. The Culture of Connectivity: A Critical History of Social Media. Oxford: Oxford University Press, 2013. 240 p.
6. Harari Y. N. Homo Deus: a Brief History of Tomorrow. N. Y.: McClelland & Stewart; Penguin Random House Company,
2016. 449 p.
7. Kitchin R. The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. Thousand Oaks: Sage Publications, 2014. 222 р.
8. Mackenzie A. The Production of Prediction: What Does Machine Learning Want? // European Journal of Cultural Studies. 2015. Vol. 18. Issue 4-5. P. 429-445.
9. Madsbjerg Ch. Sensemaking: The Power of the Humanities in the Age of the Algorithm. N. Y.: Hachette Books Hardcover,
2017. 240 p.
10. Matzner T. The Human is Dead - Long Live the Algorithm! Human-Algorithmic Ensembles and Liberal Subjectivity [Электронный ресурс] // Preprint - Forthcoming in Theory, Culture & Society. URL: http://www.tobiasmatzner.de/wp-content/uploads/2017/04/preprint_human_is_dead.pdf (дата обращения: 15.11.2017).
11. O'Neil C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. N. Y.: Crown Publishing Group/Penguin Random House, 2016. 259 p.
12. Pasquale F. The Black Box Society: The Secret Algorithms that Control Money and Information. Cambridge: Harvard University Press, 2015. 320 p.
13. Striphas T. Algorithmic Culture // European Journal of Cultural Studies. 2015. Vol. 18. Issue 4-5. P. 395-412.
14. Zuboff Sh. Big Other: Surveillance Capitalism and the Prospects of an Information Civilization // Journal of Information Technology. 2015. Vol. 4. P. 30-89.
SOCIAL-ETHICAL PROBLEMS OF ALGORITHMS IN THE INFORMATION SOCIETY
Dedyulina Marina Anatol'evna, Ph. D. in Philosophy, Associate Professor Southern Federal University, Rostov-on-Don Dedyulina72@mail. ru
The article conducts an analysis of the introduction of algorithms into the human life. With the growth of their role in the society new forms of algorithmic power are emerging that rebuild the work of social, political, economic and cultural systems. The algorithms can be either creative or destructive in any sphere of application. In the aspect of the research the author studies the negative impact of algorithms on humans, since we are at the stage of integrating these technologies into our culture.
Key words and phrases: algorithms; Great Data; ethics; algorithmic culture; dataism; "The Black Box Society".