Научная статья на тему 'СОЦИАЛЬНОЕ ИСКЛЮЧЕНИЕ КАК ПОБОЧНЫЙ ЭФФЕКТ МЕХАНИЗМОВ НЕЙРООБУЧЕНИЯ'

СОЦИАЛЬНОЕ ИСКЛЮЧЕНИЕ КАК ПОБОЧНЫЙ ЭФФЕКТ МЕХАНИЗМОВ НЕЙРООБУЧЕНИЯ Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
59
14
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СОЦИАЛЬНОЕ НЕРАВЕНСТВО / ЭКСКЛЮЗИЯ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / НЕЙРОННЫЕ СЕТИ / ДИСКРИМИНАЦИЯ / БОЛЬШИЕ ДАННЫЕ / АЛГОРИТМЫ / СМЕЩЕНИЕ ДАННЫХ

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Тертышникова А. Г., Павлова У. О., Цимбал М. В.

В условиях развития нейросетевых технологий и внедрения их в процессы принятия решений на уровне таких значимых социальных институтов, как здравоохранение, образование, трудоустройство и других, встает вопрос о корректности использования искусственного интеллекта в подобной деятельности. Основная цель работы - рассмотреть возникновение и воспроизводство социального исключения, неравенства и дискриминации в обществе как результат процесса нейрообучения. Под нейрообучением понимаются принципы обучения любых нейронных сетей. Социальная эксклюзия и вытекающая из нее дискриминация в решениях, принимаемых искусственным интеллектом, рассматривается как последствие принципов обработки больших данных. Обозреваются теории зарубежных и российских авторов, затрагивающие влияние искусственного интеллекта на укрепление существующего социального порядка, а также проблемы с обработкой и интерпретированием данных для обучения на них компьютерных систем. Кроме того, приводятся реальные ситуации, в которых специфика самих данных и их интерпретация привели к усилению неравенства и эксклюзии. В связи со схожестью функционирования естественных и искусственных нейросетей делается вывод об источниках социального исключения и стигматизации в обществе. Высказывается предположение, что именно принципы нейрообучения в «естественном» обществе ведут не только к дискриминации на макроуровне, но и обусловливают негативные реакции по отношению к представителям эксклюзированных групп, например, межнациональную ненависть, гомофобию, сексизм и прочее. Поднимается вопрос о возможности изучения «естественного» общества в сравнении с «искусственным».

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по СМИ (медиа) и массовым коммуникациям , автор научной работы — Тертышникова А. Г., Павлова У. О., Цимбал М. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SOCIAL EXCLUSION AS A SIDE EFFECT OF MACHINE LEARNING MECHANISMS

The development of neural network technologies leads to their integration in decision-making processes at the level of such important social institutions as healthcare, education, employment, etc. This situation brings up the question of the correctness of artificial intelligence decisions and their consequences. The aim of this work is to consider the origin and replication of social exclusion, inequality and discrimination in society as a result of neurotraining. Neurotraining understood as the principles of any neural networks’ training. Social exclusion and the resulting discrimination in decisions made by artificial intelligence is considered as a consequence of the big data processing principles. The authors review the theories of foreign and Russian authors concerning the impact of artificial intelligence on strengthening the existing social order, as well as problems with processing and interpreting data for training computer systems on them. Real situations of the specifics of the data itself and its processing that have led to increased inequality and exclusion are also given. The conclusion about the sources of social exclusion and stigmatization in society is made due to the similarity between natural and artificial neural networks functioning. The authors suggest that it is the principles of neurotraining in a “natural” society that lead not only to discrimination at the macro level, but also cause vivid negative reactions towards representatives of the exclusive groups, for example, interethnic hatred, homophobia, sexism, etc. The question about the possibility of studying “natural” society in comparison with “artificial” one is raised.

Текст научной работы на тему «СОЦИАЛЬНОЕ ИСКЛЮЧЕНИЕ КАК ПОБОЧНЫЙ ЭФФЕКТ МЕХАНИЗМОВ НЕЙРООБУЧЕНИЯ»

Социальное исключение как побочный эффект механизмов нейрообучения

УДК 316.455 DOI 10.26425/2658-347X-2022-5-4-23-30 Получено 13.09.2022 Доработано после рецензирования

Тертышникова Анастасия Геннадьевна

Канд. социол. наук, ст. преп. каф. социологии Российский университет дружбы народов, г. Москва, Россия ORCID: 0000-0001-5873-9850 E-mail: [email protected]

Павлова Ульяна Олеговна

Студент

Российский университет дружбы народов, г. Москва, Россия ORCID: 0000-0003-0437-6438 E-mail: [email protected]

10.2022 Принято 27.10.2022

Цимбал Мария Владимировна

Студент

Российский университет дружбы народов, г. Москва, Россия ORCID: 0000-0002-2028-0930 E-mail: [email protected]

13.

АННОТАЦИЯ

В условиях развития нейросетевых технологий и внедрения их в процессы принятия решений на уровне таких значимых социальных институтов, как здравоохранение, образование, трудоустройство и других, встает вопрос о корректности использования искусственного интеллекта в подобной деятельности. Основная цель работы - рассмотреть возникновение и воспроизводство социального исключения, неравенства и дискриминации в обществе как результат процесса нейрообучения. Под нейрообучением понимаются принципы обучения любых нейронных сетей. Социальная эксклюзия и вытекающая из нее дискриминация в решениях, принимаемых искусственным интеллектом, рассматривается как последствие принципов обработки больших данных. Обозреваются теории зарубежных и российских авторов, затрагивающие влияние искусственного интеллекта на укрепление существующего социального

Ключевые слова

порядка, а также проблемы с обработкой и интерпретированием данных для обучения на них компьютерных систем. Кроме того, приводятся реальные ситуации, в которых специфика самих данных и их интерпретация привели к усилению неравенства и эксклюзии. В связи со схожестью функционирования естественных и искусственных нейросетей делается вывод об источниках социального исключения и стигматизации в обществе. Высказывается предположение, что именно принципы нейрообучения в «естественном» обществе ведут не только к дискриминации на макроуровне, но и обусловливают негативные реакции по отношению к представителям эксклюзированных групп, например, межнациональную ненависть, гомофобию, сек-сизм и прочее. Поднимается вопрос о возможности изучения «естественного» общества в сравнении с «искусственным».

Социальное неравенство, эксклюзия, искусственный интеллект, нейронные сети, дискриминация, большие данные, алгоритмы, смещение данных

Для цитирования

Тертышникова А.Г., Павлова У.О., Цимбал М.В. Социальное исключение как побочный эффект механизмов нейрообучения / / Цифровая социология. 2022. Т. 5, № 4. С. 23-30.

Благодарности

Статья подготовлена в рамках НИР № 100929-0-000 «Феномен эксклюзии в современном обществе (на основе мнений студентов московских вузов)»

© Тертышникова А.Г., Павлова У.О., Цимбал М.В., 2022.

Статья доступна по лицензии Creative Commons «Attribution» («Атрибуция») 4.0. всемирная (http://creativecommons.org/licenses/by/4.0/).

Social exclusion as a side effect of machine learning mechanisms

Received 13.09.2022

Revised 13.10.2022

Accepted 27.10.2022

Anastasiya G. Tertyshnikova

Cand. Sci. (Sociol.), Senior Lecturer at the Sociology Department RUDN university, Moscow, Russia

ORCID: 0000-0001-5873-9850

E-mail: [email protected]

Ul'yana O. Pavlova

Student

RUDN university, Moscow, Russia ORCID: 0000-0003-0437-6438 E-mail: [email protected]

Mariya V. Cimbal

Student

RUDN university, Moscow, Russia ORCID: 0000-0002-2028-0930 E-mail: [email protected]

ABSTRACT

The development of neural network technologies leads to their integration in decision-making processes at the level of such important social institutions as healthcare, education, employment, etc. This situation brings up the question of the correctness of artificial intelligence decisions and their consequences. The aim of this work is to consider the origin and replication of social exclusion, inequality and discrimination in society as a result of neurotraining. Neurotraining understood as the principles of any neural networks' training. Social exclusion and the resulting discrimination in decisions made by artificial intelligence is considered as a consequence of the big data processing principles. The authors review the theories of foreign and Russian authors concerning the impact of artificial intelligence on strengthening the existing social order, as well

Keywords

as problems with processing and interpreting data for training computer systems on them. Real situations of the specifics of the data itself and its processing that have led to increased inequality and exclusion are also given. The conclusion about the sources of social exclusion and stigmatization in society is made due to the similarity between natural and artificial neural networks functioning. The authors suggest that it is the principles of neurotraining in a "natural" society that lead not only to discrimination at the macro level, but also cause vivid negative reactions towards representatives of the exclusive groups, for example, interethnic hatred, homophobia, sexism, etc. The question about the possibility of studying "natural" society in comparison with "artificial" one is raised.

Social inequality, exclusion, artificial intelligence, neural networks, discrimination, big data, algorithms, data bias

For citation

Tertyshnikova A.G., Pavlova U.O., Cimbal M.V. (2022) Social exclusion as a side effect of machine learning mechanisms, Digital Sociology, vol. 5, no. 4, pp. 23-30. DOI: 10.26425/2658-347X-2021-5-4-23-30

Acknowledgements

The article is a part of research work No. 100929-0-000 "The phenomenon of exclusion in modern society (based on the opinions of students of Moscow universities)".

© Tertyshnikova A.G., Pavlova U.O., Cimbal M.V., 2022.

This is an open access article under the CC BY 4.0 license (http://creativecommons.org/licenses/by/4.0/).

ВВЕДЕНИЕ / INTRODUCTION

Неравенство - одна из старейших проблем социальных наук и, в частности, социологии. Понятие неравенства включает в себя множество иерархических систем, влияющих друг на друга, а также на социальные институты и на отдельно взятых индивидов в контексте всего общества. Частные и институциональные случаи неравенства становятся причиной социальных конфликтов, ведущих к изменениям различного масштаба. Часто на вопрос о том, возможно ли общество без неравенства, дается отрицательный ответ.

Неравенство, как правило, подкрепляется негативными эмоциями, которые, в свою очередь, на индивидуальном уровне связаны с макроуров-невыми стигматизацией и дискриминацией. Можно предположить, что такого рода эмоции по отношению к представителям определенной социальной группы (как правило, отличной от той, к которой принадлежит субъект эмоциональной реакции) - своего рода механизм закрепления макросистемы на уровне микровзаимодействий.

Однако сама причина возникновения негативных реакций по отношению к той или иной группе далеко не всегда очевидна. Во-первых, социальное неравенство как способ упорядочения социальных систем само по себе не требует эмоционального подкрепления. Во-вторых, формирование негативных эмоций требует от индивидов определенного опыта научения, даже если эта реакция в целом иррациональна. Таким образом, мы подходим к теме социальной эксклюзии.

ЭКСКЛЮЗИЯ КАК ОБРАЗ МЫШЛЕНИЯ, ВОСПРОИЗВОДИМЫЙ ДОМИНАНТНОЙ ГРУППОЙ / EXCLUSION AS A WAY OF THINKING, REPRODUCED BY THE DOMINANT GROUP

На момент возникновения термин «эксклю-зия» определял широкий круг различных категорий людей, не вписывающихся в стереотип «правильного» члена общества: психически больные, инвалиды, беспризорные дети и дети-сироты, алко- и наркозависимые, правонарушители, родители-одиночки, маргинальные асоциальные и социальные лица и прочие. Обоснованием для включения этих и других групп в список исключенных часто являлось финансовое положение, возможность доступа к материальным ресурсам [Rodgers, Gore, 1994].

Со временем, однако, термин стал обозначать общий процесс социальной дезинтеграции, характеризующийся разрывом отношений между

личностью или группой и обществом. Связано это, в основном, с неприятием социумом групп, которые как-либо отклоняются от действующей нормы.

Эксклюзия не тождественна дискриминации и стигматизации, однако все экслкюзированные группы воспринимаются так или иначе обобщенно: каждый индивид, относящийся к исключенной группе, будет ассоциироваться прежде всего именно с ней.

Группы, владеющие большей частью ресурсов (будучи большинством или по каким-либо другим причинам), имеют возможность конструировать понятие общесоциальной нормы. Явления, образы, паттерны поведения, свойственные большинству, постоянно перевоспроизводятся и попадают в поле зрения индивидов, что приводит к маркировке их как «нормальных» из-за постоянного присутствия в информационном пространстве большинства [Иванова, 2011].

Соответственно, отраженные в культуре нормы и общности знакомы индивидам более подробно. Такие элементы достаточно привычны, гуманизированы: индивиды в них чаще воспринимаются как отдельные и уникальные личности. В свою очередь то, что оказывается исключено из инфопо-ля преимущественно или целиком, воспринимается как однородное, абнормальное, нежелательное.

Группы, не репрезентованные в доминирующей культуре как нормальные, стигматизируются - подвергаются своего рода «клеймлению», навешиванию ярлыков. Индивидуальные качества членов таких групп для удобства восприятия большинством упрощаются до набора предрассудков [Ярская-Смирнова, 1997].

Представитель эксклюзированной группы, в первую очередь, воспринимается именно как часть этого общего - воплощение набора ярлыков и предубеждений, с этой группой связанных. Это определенным образом влияет на поведение индивидов, относящихся к меньшинству, так как каждый отдельно взятый воспринимается доминирующей культурой как репрезентация всей эксклюзированной общности целиком, а значит и все его действия, в особенности оцениваемые обществом как негативные и порицаемые, закрепляются как свойственные всем представителям этой группы [Гофман, 1963].

Свою роль играет эффект предвзятости подтверждения, из-за которого в том случае, если индивид соответствует стереотипу об эксклюзи-рованной группе, это воспринимается как подтверждение правомерности стереотипа, а если индивид не соответствует заданным ожиданиям, то его поведение и характеристики считаются исключением, подтверждающим правило.

Не имея достаточного количества ресурса, чтобы самостоятельно репрезентовать себя в доминантной культуре в качестве равноценной общности, «абнормальная» группа и ее представители становятся исключены из доминирующей культуры - эксклюзированы.

Соответственно, эксклюзия - своего рода устойчивый образ мышления, воспроизводимый доминантной культурой. При этом такое положение вещей возникает естественным образом. Социальное исключение - продукт ежедневной жизнедеятельности общества и индивидов в нем. Выражение субъективного опыта членов доминантной группы постепенно становится подавляющим, институционализируется и приобретает характер нормы, вытесняя альтернативные интерпретации социальной реальности. Так как человек считает нормальным и безопасным то, что постоянно воспринимает, и считает неправильным и отталкивающим то, с чем сталкивается изредка, последнее в этом случае начинает восприниматься как девиантное.

Итак, речь идет о том, что человеческая психика учится воспринимать социальную реальность определенным образом в соответствии с доступными ей данными и принципами обучения, что приводит к конкретным эмоциональным реакциям на те или иные социальные явления. В таком случае, эксклюзия должна будет воспроизводиться и в других системах со схожими принципами обучения. Такой системой является так называемый искусственный интеллект (далее - ИИ).

ТЕОРЕТИЧЕСКИЙ АСПЕКТ ФУНКЦИОНИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СОЦИОТЕХНИЧЕСКИХ СИСТЕМАХ / THEORETICAL ASPECT OF THE ARTIFICIAL INTELLIGENCE FUNCTIONING IN SOCIOTECHNICAL SYSTEMS Нейронная сеть или искусственная нейро-сеть - электронно-вычислительная машина пятого поколения, функционирующая сходно естественной нервной системе и способная благодаря этому имитировать мышление, из-за чего иногда также называется искусственным интеллектом [Васенков, 2007].

Изучение специфики работы искусственных нейросетей позволило сделать выводы и об особенностях функционирования нервной системы животных, в том числе и человеческого мозга. На настоящий момент подобные системы стали предметом исследования ряда социальных и гуманитарных наук, в том числе в сферах антропологии, коммуникации, социологии и права.

ИИ представляет собой алгоритм, который с высокой точностью обобщает данные. На основе выявленных закономерностей он может самостоятельно анализировать и принимать решения. Однако он не способен оценивать и корректировать результаты с точки зрения норм морали: принимаемые решения зависят исключительно от тех числовых массивов, на которых проводилось обучение нейросети.

В свою очередь, социологический взгляд на данные в целом подразумевает гуманистическое их восприятие: понимание того, что за ними скрываются множественные социальные явления, процессы, субъективные значения и смыслы. Соответственно, и решения, принимаемые на их основе, будут иметь реальные социальные последствия, формировать социальную реальность и жизнедеятельность индивидов в ней.

Социологическое понимание такого рода поливалентности числовых массивов важно, поскольку некорректное их использование в алгоритмических системах может привести к воспроизводству и, возможно, даже усилению ранее существовавшего социального неравенства.

Исследования показали, что системы данных не представляют собой нейтральный числовой массив, в них содержатся смыслы, включенные в их конструкции. Это привело к тому, что фундаментальная объективность, которую приписывали алгоритмам, стала рассматриваться как спорная [Wajcman, 2017]. Данный факт способствовал повышению числа исследований в области ИИ. Сейчас можно сделать вывод о том, что ИИ, обучающийся на данных, которые содержат в себе неравенство и стигматизацию, укрепляет их институциональный статус и усиливает эксклюзию.

Так, С. Ноубл одной из первых сосредоточилась на структурных, интерсекциональных измерениях неравенства и алгоритмов [Noble, 2018]. Она опиралась на исследование феминистского движения, чтобы показать, как поисковая система Google воссоздает сексизм и расизм, присущие повседневной жизни. Социолог продемонстрировала, что точка зрения сотрудников Google влияет на их решения о том, что считать расистским или сексистским.

Исследователь отметила, что Google уделяет приоритетное внимание ранжированию информации и поисковым системам, создавая то, что получило название «технологическая красная черта». Данная концепция иллюстрирует, что расизм, из-за которого банки обращаются с темнокожими клиентами иначе, чем с другими, все еще повсеместно воспроизводится на практике,

хотя и в новых формах, в том числе посредством ИИ. Так, в отличие от предполагаемой нейтральности результатов поиска Google, угнетение и неравенство замешаны и усиливаются в решениях, которые их производят.

Обращая внимание на структурные, глобальные аспекты ИИ, Т. Макмиллан Коттом утверждал, что платформенный капитализм - это расовый капитализм, в котором программное обеспечение составляет социально-политические режимы, производящие новые формы валюты - данные -и новые формы обмена (например, криптова-люты), и структурирует новые организационные механизмы между владельцами, работниками и потребителями, которые выходят за рамки национальных границ [McMillan Cottom, 2020]. Хотя корпорации, производящие системы искусственного интеллекта, уверяют, что алгоритмы или пользователи платформ виноваты в создании расистских и сексистских результатов, эту информацию можно опровергнуть. Социологические исследования иллюстрируют, что именно разработчик по заказу компании принимает решения на каждом этапе процесса кодирования. Стремление корпораций держать процессы в секрете для защиты интеллектуальной собственности и отвлечения внимания в сочетании с отсутствием государственного и гражданского надзора позволяет принимать такие решения вне поля зрения общественности.

С другой стороны, проблема принятия решений состоит не только в «дискриминирующих» данных, но также затрагивает некорректное их использование и интерпретацию. Т. Круз в своих работах обратил внимание на то, что происходит, когда социальные и поведенческие факторы добавляются в истории болезни пациентов в крупной государственной больнице [Cruz, 2020]. Социолог доказывает, что такие домены как гендер, здоровье, раса, и пол связаны между собой, кроме того, они в совокупности являются частью понимания социальных детерминант состояния пациента. Автор разрушает идею о том, что «другие данные» об обществе, более качественные, приведут к более справедливому распределению ресурсов в области здравоохранения. Обращая внимание на необходимость структурных изменений помимо сбора данных, ученый пишет: «Чтобы действительно добиться справедливости, нам нужно больше чем «просто данные»: нам нужно противостоять фундаментальным условиям социального неравенства».

Российские социологи Т. Мартыненко и Д. Доб-ринская [2020] рассматривают алгоритм как сложную систему, возникающую в результате

взаимодействия технологии и человека. Социальная значимость алгоритмов раскрывается авторами через описание социальных явлений и процессов, движущей силой которых являются алгоритмические системы. Эти системы включают в себя не только сами алгоритмы, но и вычислительные сети, в которых они функционируют, людей, которые их проектируют и используют, данные (и пользователей), на которые они воздействуют, а также субъектов (индивидуальных и корпоративных), которые предоставляют услуги с помощью алгоритмов. Здесь на первый план выходят вопросы ответственности за разработку и внедрение алгоритмов, а также проблема контроля над результатами их работы, зачастую непреднамеренными и непрогнозируемыми.

РАССМОТРЕНИЕ НЕРАВЕНСТВА ЧЕРЕЗ ПРИЗМУ РЕАЛЬНОСТИ / CONSIDERING INEQUALITY THROUGH THE PRISM OF REALITY

Все чаще признается, что системы ИИ предвзяты, особенно это касается расовых и гендерных признаков. Так, недавняя разработка алгоритма Amazon для сортировки резюме продемонстрировала гендерные предубеждения, понизив в списках резюме, которые содержали слово «женщина» или ссылку на женские колледжи. Поскольку алгоритм был обучен на исторических данных и в компании работал большой процент мужчин, что объясняет дискриминацию, он в итоге не мог быть исправлен и должен был быть отброшен1.

Расовую предвзятость алгоритма можно также наблюдать в области здравоохранения. ИИ, который используется в медицинских центрах, лечащих более чем 200 млн граждан США, также продемонстрировал дискриминацию2. Алгоритм был разработан, чтобы предсказать, какие пациенты вероятнее будут нуждаться в дополнительной медицинской помощи, однако затем выяснилось, что он давал ошибочные результаты, которые советовали назначать лечение белокожим пациентам, обходя темнокожих. Разработчики алгоритма использовали базу расходов на здравоохранение за предыдущие годы в качестве базы данных, на которой происходило обучение. Это была неверная интерпретация

1 Dastin J. (Thursday 11 October 2018). Amazon scraps secret AI recruiting tool that showed bias against women // Reuters. Режим доступа: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G (дата обращения 10.09.2022).

2 Ledford H. (Thursday 24 October 2019). Millions of black people affected by racial bias in health-care algorithms // Nature. Режим доступа: https://www.nature.com/articles/d41586-019-03228-6 (дата обращения: 10.09.2022).

исторических данных, потому что доход и раса являются сильно коррелирующими показателями, и выводы, основанные только на одной переменной коррелированных показателей, привели к тому, что алгоритм предоставил неточные результаты.

Другой случай дискриминации - на этот раз в отрасли медиаплатформ - был зарегистрирован в социальной сети Facebook3. В 2019 г. платформа разрешила своим рекламодателям намеренно таргетировать рекламу в соответствии с полом, расой и религией. Например, женщинам показывали вакансии медсестер или секретарей, тогда как объявления о вакансиях для дворников и водителей такси в основном показывались мужчинам, в частности мужчинам из меньшинств. В результате, руководством Facebook было принято решение в дальнейшем не позволять работодателям указывать возраст, пол или расовый таргетинг в своих объявлениях4.

Некоторые проблемы, связанные с предвзятостью и расизмом, наблюдались и в уже упоминавшейся ранее корпорации Google. В 2015 г. алгоритм распознавания изображений предоставил результаты, в которых приложение идентифицировало африканцев как горилл. Google извинился за это и заявил, что технологии распознавания изображений все еще находятся на ранней стадии, но они решат проблему. Если у такой мощной и технологически продвинутой компании, как Google, могут возникать подобные проблемы, нетрудно представить сотни тысяч других предприятий, которые создают программное обеспечение и приложения на базе ИИ без такого опыта. Это хорошее напоминание о том, как трудно обучить программное обеспечение ИИ быть последовательным и надежным5.

Несмотря на явную ненадежность ИИ, за последние два десятилетия инструменты оценки риска прогнозирования использовались для определения судеб миллионов людей в системе уголовного правосудия. Решения о том, будет

3 Владелец социальной сети Facebook компания Meta внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности на территории Российской Федерации по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

4 Hao K. (Friday 5 April 2019). Facebook's ad-serving algorithm discriminates by gender and race // MIT Technology Review. Режим доступа: https://www.technologyreview.com/2019/04/05/1175/ facebook-algorithm-discriminates-ai-bias/ (дата обращения: 10.09.2022).

5 Mac R. (Friday 4 October 2021). Facebook Apologizes After A.I.

Puts 'Primates' Label on Video of Black Men // The New York Times. Режим доступа: https://www.nytimes.com/2021/09/ 03/ technology/ facebook-ai-race-primates.html (дата обращения: 10.09.2022).

ли обвиняемый задержан до суда или освобожден условно-досрочно, принимались на основе алгоритмического расчета риска. Технология была принята судами и политиками, а один законопроект Конгресса США зашел так далеко, что призвал к внедрению систем оценки рисков в каждой федеральной тюрьме. Однако в 2018 г. исследователи Д. Дрессель и Х. Фарид опубликовали свой отчет: широко используемый инструмент оценки риска под названием COMPAS показывал ошибочные результаты практически в половине случаев. Поскольку точность COMPAS всего на несколько процентных пунктов выше, чем у людей без предыдущего судебного опыта, некоторые судьи задавались вопросом, не будет ли правильнее отказаться от использования программы6.

Как можно заметить, и западные, и российские социологи говорят о высокой опасности искусственного интеллекта, о возможности усиления им социального неравенства или появления его новых форм. То же самое демонстрируют и практические ошибки при использовании искусственных нейросетей. Но важно понимать, что базовой, фундаментальной причиной является существующее социальное неравенство, которое укоренилось в обществе, а также проблемы в проектировании ИИ и ответственность разработчиков.

В мире, где повсеместно используются технологии ИИ, его изучение с точки зрения социальных дисциплин имеет практическое значение. Являясь ценным источником данных об опыте применения алгоритмов, существующие практики предоставляют материал для анализа последствий внедрения компьютерных систем.

Итак, приведенные выше примеры демонстрируют, что внедрение ИИ в социальные институты для регулирования протекающих в них процессов связано с рисками усиления неравенства, дискриминации и стигматизации. Тем не менее, источник проблемы кроется не в самом принципе работы нейросетей, а в тех данных, на которых они обучаются.

ЗАКЛЮЧЕНИЕ / CONCLUSION

Искусственная нейронная сеть обучается на больших данных об обществе. Схожесть функционирования искусственных нейронных систем с «естественной» нервной системой позволяет проводить параллели между процессами в обществе и аналитикой ИИ. Использование

6 Zhu M. (Friday 15 May 2020). An Algorithmic Jury: Using Artificial Intelligence to Predict Recidivism Rates / / Yale Scientific. Режим доступа: https://www.yalescientific.org/2020/05/ an-algorithmic-jury-using-artificial-intelligence-to-predict-recidivism-rates/ (дата обращения: 10.09.2022).

нейросетей приводит к воспроизводству ею устоявшихся социальных паттернов, в том числе дискриминации и исключению тех или иных групп.

Проблема заключается в том, что вопросы, касающиеся меньшинств, не учитываются ИИ при принятии решений, так как он опирается на статистически значимые данные. Соответственно, нейросети воспроизводят феномен эксклюзии сходно с тем, как его воспроизводят индивиды в обществе. Отличительной чертой является то, что ИИ по определению безоценочен и лишь игнорирует подобные «выбросы», тогда как люди, столкнувшись с незнакомым, склонны к негативным эмоциональным реакциям.

Эта проблема не имеет очевидного решения. Существующие данные о реальном обществе, очевидно, содержат в себе и данные о «негативных» с гуманистической точки зрения явлениях, которые усиливаются, когда ИИ принимает повторяющие их решения. Однако замена данных на более инклюзивные также не представляется возможной. Сложность заключается в том, что таких данных попросту не существует. Из чего следует, что, если мы хотим добиться от ИИ иных результатов, единственным вариантом является «фальсификация» больших данных, что,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

во-первых, само по себе достаточно сложно технически, во-вторых, не вполне этично. Безусловно, создание «исправленных» данных также повлечет за собой методические и практические проблемы, так как не до конца ясно, что конкретно должно быть изменено и к каким решениям это приведет. Роль сыграет также и то, кто конкретно будет решать, что необходимо изменить в данных. Еще более явным станет фактор субъективного влияния разработчиков и владельцев корпораций. Даже если предположить, что подобные искажения будут сведены к минимуму, в итоге решения о действиях в реальном обществе будут приниматься на основе общества в некотором смысле выдуманного, что автоматически ставит эти решения под сомнение.

Безусловно, человеческий мозг - система пока что непревзойденная в своей сложности, благодаря чему естественное общество и индивиды в нем по определению сложнее, чем паттерны, выводимые искусственным интеллектом. Однако развитие технологий в сфере искусственных нейронных сетей поднимает качественно новые вопросы и позволяет нам получить новые данные и построить новые, более глубокие теории о принципах функционирования общества.

СПИСОК ЛИТЕРАТУРЫ

Васенков Д.В. (2007). Методы обучения искусственных нейронных сетей // Компьютерные инструменты в образовании. № 1. С. 20-29.

Гофман И. (1963). Стигма: Заметки об управлении испорченной идентичностью. Пер. с англ. Добрякова М.С. Нью Йорк: Prentice Hall. 40с.

Добринская Д.Е., Мартыненко Т.С. (2020). Возможно ли цифровое равенство? (о книге Я. ван Дейка «Цифровой разрыв») // Социологические исследования. № 10. С. 158-164. https://doi.org/10.31857/S013216250009459-7

Иванова Н.А. (2011). Понятия «Габитус» и «Хабитуализация» в контексте социологических теорий // Вестник Томского государственного университета. Философия. Социология. Политология. №1 (13). С. 115-129.

Ярская-Смирнова Е.Р. (1997). Социокультурный анализ нетипичности. Саратов: Изд-во СарГТУ 271с.

Cruz T.M. (2020). Perils of data-driven equity: safety-net care and big data's elusive grasp on health inequality // Big Data & Society. V. 7, no. 1. https://doi.org/10.1177/2053951720928097

McMillan Cottom T. (2020). Where platform capitalism and racial capitalism meet: The sociology of race and racism in the digital society // Sociology of Race and Ethnicity. V. 6, no. 4. Pp. 441-449. https://doi.org/10.1177/2332649220949473

Noble S.U. (2018). Algorithms of oppression: How search engines reinforce racism // Ethnic and Racial Studies. V. 43, no. 3. Pp. 592-594. https://doi.org/10.1080/01419870.2019.1635260

Rodgers G., Gore Ch., Figueiredo J. (1994). Social Exclusion: Rhetoric Reality Responses / International Institute for labour studies. Geneva: United Nations development program. 102p.

Wajcman J. (2017). Automation: is it really different this time? // The British journal of sociology. V 68, no. 1. Pp. 119-127. https://doi.org/10.1111/1468-4446.12239

REFERENCES

Cruz T.M. (2020), "Perils of data-driven equity: safety-net care and big data's elusive grasp on health inequality", Big Data & Society, vol. 7, no. 1, https://doi.org/10.1177/2053951720928097

Dobrinskaya D.E., Martynenko T.S. (2020), "Is digital equality possible? (on the book "The Digital Divide" by J. van Dijk)", Sociological research, no. 10, pp. 158-164, https://doi.org/10.31857/S013216250009459-7

Goffman E. (1963), Stigma: Notes on the Management of Spoiled Identity, trans. from Eng. Dobryakova M.S., Prentice Hall, New York, US (in Russian).

Ivanova N.A. (2011), "The concepts of 'Habitus' and 'Habitualization' in the context of sociological theories", Tomsk State University Journal of Philosophy, Sociology and Political Science, no. 1(13), pp. 115-129.

McMillan Cottom T. (2020), "Where platform capitalism and racial capitalism meet: The sociology of race and racism in the digital society", Sociology of Race and Ethnicity, vol. 6, no. 4, pp. 441-449, https://doi.org/10.1177/2332649220949473

Noble S.U. (2018), "Algorithms of oppression: How search engines reinforce racism", Ethnic and Racial Studies, vol. 43, no. 3, pp. 592-594, https://doi.org/10.1080/01419870.2019.1635260

Rodgers G., Gore Ch., Figueiredo J. (1994), Social Exclusion: Rhetoric Reality Responses, International Institute for labour studies, United Nations development program, Geneva, Switzerland.

Vasenkov D.V. (2007), "Methods of teaching artificial neural networks", Computer tools in education, no. 1, pp. 20-29.

Wajcman J. (2017), "Automation: is it really different this time?", The British journal of sociology, vol. 68, no. 1, pp. 119-127, https://doi. org/10.1111/1468-4446.12239

Yarskaya-Smirnova E.R. (1997), Sociocultural analysis of atypical, Saratov State Tech University Publ. House, Saratov, Russia (in Russian).

i Надоели баннеры? Вы всегда можете отключить рекламу.