Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, ТЕХНОЛОГИИ BIG DATA (БОЛЬШИХ ДАННЫХ) И ОСОБЕННОСТИ СОВРЕМЕННОГО ПОЛИТИЧЕСКОГО ПРОЦЕССА'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, ТЕХНОЛОГИИ BIG DATA (БОЛЬШИХ ДАННЫХ) И ОСОБЕННОСТИ СОВРЕМЕННОГО ПОЛИТИЧЕСКОГО ПРОЦЕССА Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY-NC-ND
214
40
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
информационные технологии / естественный интеллект / искусственный интеллект / алгоритм / вепонизация информации / политика / Information Technologies / Natural Intelligence / Artificial Intelligence / Algorithm / Weaponization of Information / Politics

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Бажанов Валентин Александрович

В статье предпринимается попытка рассмотреть особенности современного этапа развития работ в области искусственного интеллекта (AI) и технологий больших данных (Big Data), их возможностей, а также оценить их принципиальные ограничения, связанные с алгоритмическим характером их функционала. Эти соображения преломляются по отношению к динамике политических процессов (предвыборные кампании Б. Обамы, Д. Трампа, Х. Клинтон, Э. Макрона), к специфике политической аргументации и к ее воздействию на избирателей. Высказывается мнение о наиболее предпочтительных методах и тактике электоральных кампаний, претендующих на эффективность. Обращается внимание на процесс вепонизации — использования в качестве своего рода оружия— информации, который стимулируется особенностями приложений функционала AI и Big Data. Обсуждаются вопросы о том, в какой мере легальны и/или легитимны решения, принятые на основе «подсказок» со стороны AI или технологий Big Data; насколько они способны придать политической активности более рациональный характер и сделать ее «продукты» не столько более приемлемыми для людей, сколько более желательными для всего общества в целом, а не лишь для каких-то его «избранных» страт; наконец, может ли все человечество, так сказать, на глобальном уровне выиграть от прогресса информационных технологий.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE, BIG DATA TECHNOLOGIES, AND FEATURES OF MODERN POLITICS

This articles goal is to review the peculiarities of the modern stage of development of artificial intelligence (AI) and Big Data technologies, their capabilities, and to assess their fundamental limitations, related to the algorithmic way of its functioning. These considerations are conceived in relation to the dynamics of political processes (election campaigns of B. Obama, D. Trump, E. Macron), the specificity of political argumentation and its possible impact upon voters. An opinion expressed concerning the most preferable methods and tactics of electoral campaigns, claiming to be effective. Attention is drawn to the process of weaponization of information which is caused by AI and Big Data results implementation. The questions discussed are to what extent are the decisions made on the basis of “cues” from AI or Big Data technologies legal and/or legitimate? To what extent can they give political activity a more rational character and make its “products” not so much more acceptable to people, but more desirable not only for some “selected” strata of society, but for society as a whole? Finally, can all of humanity, so to speak, at the global level benefit from the progress of information technology?

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, ТЕХНОЛОГИИ BIG DATA (БОЛЬШИХ ДАННЫХ) И ОСОБЕННОСТИ СОВРЕМЕННОГО ПОЛИТИЧЕСКОГО ПРОЦЕССА»

Бажанов В. А. Искусственный интеллект, технологии Big Data (больших данных) и особенности современного политического процесса // Философия. Журнал Высшей школы экономики. — 2023. — Т. 7, № 3. — С. 193-210.

Валентин Бажанов*

Искусственный интеллект, технологии Big Data (больших данных)

и особенности современного политического процесса**

Аннотация: В статье предпринимается попытка рассмотреть особенности современного этапа развития работ в области искусственного интеллекта (AI) и технологий больших данных (Big Data), их возможностей, а также оценить их принципиальные ограничения, связанные с алгоритмическим характером их функционала. Эти соображения преломляются по отношению к динамике политических процессов (предвыборные кампании Б. Обамы, Д. Трампа, Х. Клинтон, Э. Макрона), к специфике политической аргументации и к ее воздействию на избирателей. Высказывается мнение о наиболее предпочтительных методах и тактике электоральных кампаний, претендующих на эффективность. Обращается внимание на процесс вепонизации — использования в качестве своего рода оружия—информации, который стимулируется особенностями приложений функционала AI и Big Data. Обсуждаются вопросы о том, в какой мере легальны и/или легитимны решения, принятые на основе «подсказок» со стороны AI или технологий Big Data; насколько они способны придать политической активности более рациональный характер и сделать ее «продукты» не столько более приемлемыми для людей, сколько более желательными для всего общества в целом, а не лишь для каких-то его «избранных» страт; наконец, может ли все человечество, так сказать, на глобальном уровне выиграть от прогресса информационных технологий.

Ключевые слова: информационные технологии, естественный интеллект, искусственный интеллект, алгоритм, вепонизация информации, политика.

DOI: 10.17323/2587-8719-2023-3-193-210.

Бурное развитие информационных технологий в последние десятилетия не могло не оказать влияния на различные сферы жизни человека и человечества: коммуникацию, медицину, связь и т. п. Технологии

'Бажанов Валентин Александрович, д. филос.н., профессор; исследователь, Межрегиональная общественная организация «Русское общество истории и философии науки» (Москва), vbazhanov®yandex.ru, ORCID: 0000-0002-0336-9570.

**© Бажанов, В. А. © Философия. Журнал Высшей школы экономики.

Благодарности: исследование выполнено при финансовой поддержке РНФ проект №21—18—00428 «Политическая субъектность современной науки: междисциплинарный анализ на перекрестье философии науки и философии политики» в Русском обществе истории и философии науки.

блокчейн, методы Deep Learning (глубокого обучения), включая нейронные сети, совершенствуются на основе продвинутой современной математики, предлагающей процедуры самообучения, автоматической коррекции ошибок в обработке искусственным интеллектом громадных по своим объемам массивов эмпирических — фактуальных — данных (Gorban et al., 2023; Lila, 2023).

Такого рода технологии начали довольно активно использоваться в государственном управлении и в поиске наиболее выгодных, оптимальных решений тех или иных акторов в политических процессах. Только в 2019 г. в США анализ больших данных в целях развития бизнеса и военной аналитики был профинансирован в размере 194 миллиардов долларов. То обстоятельство, что в мировой финансовой сфере все больший объем трансакций занимает криптовалюта, говорит о росте актуальности исследований перспектив искусственного интеллекта (AI) и технологий Big Data (больших данных), которые уже в настоящее время готовы к решению некоторых задач, считающихся творческими (рисование, составление текстов, написание музыки), хотя применяемые здесь алгоритмы пока основаны на переборе множества аналогичных поставленным задачам ситуаций и предложении среднестатистического типа решения на основе этой базы. Между тем AI можно поставить в тупик и самым незамысловатым, «детским» вопросом, ответ на который не залит в массив данных или предполагает понимание метафорических выражений и действия с ними. При знакомстве с текстами и рисунками, произведенными AI, видно, что тексты «гладкие» и рисунки довольно интересные. Однако—особенно тексты—слишком, так сказать, «гладкие», а рисунки как бы формальные1: в них, по моему непрофес-

1Так, ресурс bot ChatGPT (Generative Pretrained Transformer), построенный на фундаменте AI, быстро завоевал популярность у многих пользователей Интернета. Однако он способен генерировать, по мнению специалистов, посредственные с точки зрения глубины содержания художественные тексты (mediocre essays), канцелярит по стилю, хотя диапазон приложений (юриспруденция, журналистика, программирование и т.д.) довольно широк, а компактные академические тексты иногда сложно отличить от тех, которые написаны человеком. Между тем, как показывает опыт, результаты работы чата GPT должны тщательно проверяться, т. к. в них отражаются устаревшие или, что еще хуже, ложные данные. Уже продумываются меры противодействия использованию ChatGPT в системах образования и науки (Else, 2023: 423), а ряд ведущих мировых банков (JPMorgan, Citigroup и др.) ограничивает своих сотрудников в пользовании GPT (Wall Street's ChatGPT..., 2023). Впрочем, наиболее правдоподобным выглядит предположение о том, что ChatGPT (и аналогичные продукты) в тактическом плане поможет упростить рутинную офисную работу, а в стратегическом—стать эффективным элементом в контексте иных информационных технологий. Тем более что возможности чата

сиональному мнению, не чувствуется наличия особого стиля, налета всякого рода субъективности, присутствующей в виде малозаметных элементов несовершенства, которые, однако, в определенных случаях возводят произведение в ранг совершенного. Хотя конструкторы AI предпочитают говорить о «понимании» AI посредством специальных алгоритмов предъявляемых им текстов, написанных на естественных (а не искусственных) языках, но термин «понимание», не говоря уже о понятии «глубокое понимание», используется в метафорическом смысле (Tamir & Shech, 2023: 2). Идея алгоритмоцентризма, как ключевая установка при осмыслении функционирования AI, привлекательна в качестве перспективной методологии, задающей основную мелодию эпохи становления господства информационных технологий, но в то же время опасна в плане безоглядного следования ее предписаниям без должного осознания пределов валидности данной методологии.

В определенном смысле допустимо говорить даже о проклятии алгоритмизации. Алгоритмы, задающие функции AI, являются довольно жестко объектно-ориентированными, связанными с определенными онтологиями (т.е. «хрупкими»), а значит, применение их к новым массивам объектов либо невозможно, либо чревато различными сбоями и ошибками. Эти алгоритмы трудно подвергать регулярному и скрупулезному человеческому контролю (как, впрочем, и работу всей системы, относящейся к AI). Оператор AI должен приобрести достаточный опыт работы с системой, хотя время его обучения обычно лимитировано. В любом случае его понимание данных, производимых AI, ограничено либо его квалификацией, относящейся к характеру данных, открытых для анализа, либо особенностями самого алгоритма и языком общения с информационной системой: если базисные алгоритмы AI составлены так, что в них оказываются «вкрапленными» какие-то предрассудки и подсознательные установки программистов, то эти алгоритмы могут выдавать не вполне корректные результаты. Проблема воспроизводимости результатов, полученных посредством вычислений на компьютерах, включая ситуации, требующие обращений к массивам Big Data и обработки их с помощью компьютерных программ, весьма актуальна (Coveney & Highfield, 2020; Cockburn et al., 2020: 73-75). Под углом

настолько быстро расширяются, что Б. Гейтс назвал эту технологию революционной (Bass, 2023), хотя Н. Чомски оценил надежды, связанные с GPT, как ложные (Chomsky et al., 2013). Программа Midjourney предлагает безусловно интересные изображения, но все-таки далекие в смысле эмоционального воздействия от тех, которые могут создать художники (Work Shift-Work Shift, 2023).

зрения традиционных философских понятий здесь можно говорить о трансцендентализме алгоритмического типа и необходимости выхода за рамки жесткого алгоритмического детерминизма на своего рода метауровень для того, чтобы оценить и понять возможности и перспективы развития AI (по крайней мере, на существующей элементной базе твердотельной микроэлектроники).

В потоке взаимодействия «человек (группа людей) — машина („информационная система")» кроется множество других подводных камней, немало из которых еще не идентифицировно. Возможности естественного интеллекта по-прежнему превышают возможности искусственного в гибкости, степени правдоподобности индуктивных умозаключений, нахождении противоречий, обучении на основе предшествующего опыта, событий с низкой степенью вероятности, распознавании (а не просто идентификации) образов, определении стратегий дальнейших действий. Искусственный интеллект превосходит естественный в скорости и точности вычислений, дедуктивных умозаключениях, способности одновременно решать несколько (множество) задач, причем делать это в экстремальных условиях (крайне сложных даже для человека с крепкой нервной системой), когда требуются длительные, монотонные операции, постепенное увеличение/уменьшение усилий, реакции на строго определенные стимулы, а также когда необходимо систематизировать большие массивы эмпирических данных, обнаружить и оценить причинно-следственные (а не только корреляционные) отношения и взаимосвязи и т. д. В некоторых случаях AI способен стимулировать математическую интуицию, которая «подсказывает» новые методы формулировки теорем и решения задач, например, в таком традиционном математическом разделе топологии, как теория узлов (Davies et al., 2021: 74).

Работа со своего рода большими организациями, занимающимися сбором статистических данных, ведется едва ли не с конца XIX столетия; в XXI веке из-за развития и стремительного распространения информационной техники и технологий ситуация с Big Data претерпела качественные изменения, не говоря о разработке AI, стартовавшей примерно в середине хх века. Следует заметить, что работы по созданию AI и соответственных приложений были в некоторой мере стимулированы интересами разработчиков к воспроизведению ряда психологических функций, хотя бихевиоризм к этому моменту все-таки не был полностью вытеснен развитием когнитивной психологии.

Возникают правомерные вопросы о том, в какой мере легальны и/или легитимны решения, принятые на основе «подсказок» со стороны AI или технологий Big Data. Способны ли они придать политической активности более рациональный характер и сделать ее «продукты» не столько более приемлемыми для людей, сколько более желательными для всего общества в целом, а не лишь для каких-то его избранных страт? Наконец, может ли все человечество, так сказать, на глобальном уровне выиграть от прогресса информационных технологий?

ДВА ШАГА ВПЕРЕД, ШАГ НАЗАД

Несмотря на внушительный массив литературы, посвященной технологиям AI и Big Data, равно как и последствиям их широкого распространения, динамика развития этого феномена ставит серьезные вопросы, требующие своевременного и глубокого осмысления, которое придало бы этому феномену статус «неизвестного в неизвестном» (DeBrabander, 2021).

На процесс экспансии применения в самых разных областях деятельности искусственного интеллекта и технологий больших данных фактически не влияет то обстоятельство, что общезначимого определения понятия «искусственный интеллект» не выработано (Efthymiou et al., 2020: 49)2, да и сколько-нибудь четких критериев того, что считать таковым, также не сформулировано, а представления о технологии больших данных и ее возможностях претерпевают быстрые изменения3. Между тем можно уверенно сказать, что в данном случае мы имеем дело с очередной революцией, которую переживает человечество за последние примерно двести-триста лет: если где-то ближе к концу xviii - началу XIX столетия разразилась индустриальная революция, вызванная открытием новых источников энергии, то к концу XIX - началу XX века революционные по своей сути технологии стали использовать электромагнитные явления, получил широкое распространение двигатель внутреннего сгорания, а еще век спустя (конец XX - начало xxi века), как мы знаем, произошла революция в виде повсеместного внедрения

2 Под искусственным интеллектом обычно принято понимать компьютеризованные устройства, которые призваны моделировать нетривиальные когнитивные функции человека (см., например: Cassenti et al., 2022: 653).

3При этом целесообразно различать ситуации, при которых управление осуществляется при помощи AI или же AI определяет контуры управления автономно без и помимо «вмешательства» человека (governance by AI—governance of AI; AI—сокращение от Artificial Intelligence; Erman & Furendal, 2022: 16).

компьютерной техники и появления Интернета. Старт новой революции, уже обусловленной успехами в области создания искусственного интеллекта, относится приблизительно к 2010 г. Причем темп ее нарастания носит едва ли не экспоненциальный характер. Если продолжит действовать закон Мура (согласно которому количество транзисторов на единицу площади в интегральных микросхемах удваивается каждые два года), то еще через несколько лет — ближе к концу десятилетия — количество транзисторов в интегральных микросхемах превысит количество нейронов в мозге человека (порядка 100 миллиардов).

Можно обратить внимание на неявно выраженную закономерность, связанную с развертыванием вслед за научными и научно-техническими революциями, о которых было упомянуто в предшествующем абзаце, социально-политических процессов, немного запаздывающих, начинавшихся с некоторым лагом. Так, с начала XIX века и до начала XX века. (1920-е гг.) образовалось примерно три десятка демократических государств, но в 1920-х гг. последовал своего рода откат (число демократических государств к середине 1940-х годов уменьшилось примерно до десяти-двенадцати). Волна демократизации продолжилась после завершения Второй мировой войны до начала 1960-х гг., но затем снова наблюдался некоторый откат примерно до середины 1970-х гг., когда процесс демократизации вновь стал доминировать, а продолжился он где-то до начала xxi века. Начало xxi столетия ознаменовалось новой обратной волной, которую иногда называют «дигитальным авторитаризмом» (Wright, 2019: 24), отчасти, по-видимому, связанным с распространением технологий больших данных и их активным использованием в политических целях. «Искусственный интеллект тихой сапой подавляет демократические тенденции», — считает турецко-британский аналитик Акин Юнвер (Akin Ünver, 2018: 1). Вовлечение алгоритмических процедур в подбор персонала чреват неявной дискриминацией определенных категорий претендентов на получение должностей и/или работы. Например, эти алгоритмы могут отдавать предпочтение представителям белой расы перед иными расами, молодым перед пожилыми, мужчинам перед женщинами и т.п. Такие случаи неявной дискриминации известны, скажем, в подборе персонала водителей компанией Uber (Cole et al., 2022: 8). Впрочем, колебательные режимы, как и едва ли не любые лиминальные процессы, часто сопровождаются сменами ритмов преобразований и неоднозначностью последствий.

ПЛЮСЫ И МИНУСЫ ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ

Экспансия AI и Big Data, с одной стороны, имела безусловно положительные эффекты на процесс управления обществом (об этом подробнее будет сказано ниже), но, с другой, повлекла за собой множество негативных эффектов в социальной жизни: укрепление тенденций к росту безработицы в результате замены «ручного» труда, снижение уровня конкуренции на рынках труда в силу укрепления монополий, таких как Amazon, Apple, IBM, Google, Facebook, Microsoft, Alibaba, Baidu, Tencent, WeChat и др., за счет поглощения ими мелких и даже средних предприятий и, следовательно, претензий на большую долю прибавочного продукта4, рост потребления энергии, более пристальное внимание и отслеживание со стороны государства особенностей жизни своих граждан и т.п. Там, где Big Data, там и большие, и все большие деньги, для трансакций с которыми разрабатываются новые технологии блокчейна, обеспечивающие надежность операций не только с валютами, но и с криптовалютами и выступающие новыми «технонаучными посредниками между различными субъектами социальной практики» (Jacobetty & Orton-Johnson, 2023: 12).

Переход к дигитальной демократии в действительности грозит потенциальными фальсификациями результатов электоральных процедур ввиду действия неконтролируемых со стороны общества алгоритмов обработки результатов этих процедур и распространения информации в духе постправды, формирования эхо-камер и эхо-пузырей, существенно ограничивающих рациональное восприятие действительности (Баженов, 2022). Алгоритмократия —т.е. сообщества программистов, обслуживающих властные структуры и средства массовой информации, — может существенно влиять на траектории общественного развития, что в конечном счете может привести к становлению политического режима, который также можно назвать «либеральным патернализмом», имея в виду решающую роль государства в контроле над обществом, или — имея в виду иные его особенности — «информационным колониализмом» (Mann & Daly, 2018); обозначенные режимы преднамеренно

4 В США поддержка правых партий на выборах 2016 г. (когда одержал победу Д. Трамп) была заметно выше в тех штатах, где доля роботизированного труда превосходила средний уровень по стране, причем эта тенденция характерна и для большинства развитых западноевропейских государств, в которых доминирует «экономика знаний» (Gallego & Kurer, 2022: 471, 473).

или непреднамеренно подрывают основания веры в достоинства демократии (Korner, 2019: 3). Big Data может эффективно культивировать становление, если использовать терминологию Дж. Оруэлла, феномена Big Brother («Большого Брата»). Кроме того, неупорядоченное и не вполне рациональное оглашение в духе полной открытости и использование результатов работы AI и Big Data может создавать своего рода «информационную какофонию» (Levy & Johns, 2016: 4), чреватую высоким уровнем информационной неопределенности и, следовательно, порождением значительного числа неоптимальных и/или просто ошибочных решений, которые могут иметь самые негативные последствия. Эта перспектива касается даже исследований в области наукометрии, проводимых методами Big Data издательством Elsevier посредством базы данных SCOPUS, когда создается «гармония иллюзий», «алгоритмически» сужающая многообразие подходов и результатов, которое реально представлено в массиве академических публикаций (Moessner, 2022: S864).

Широкое использование AI чревато усугублением экологических проблем, поскольку, как показывают прикидки, полноценное обучение лишь одной продвинутой модели AI в силу энергоемкости применяемых в этом процессе технологических процессов производит 300 тысяч килограммов углекислого газа (What Are the Disadvantages..., 2022).

ИНФОРМАЦИЯ как (обоюдоострое) оружие

Нельзя не обратить внимания на то, что происходит очевидная веп-онизация (от английского слова weapon —оружие) информационных средств и технологий, да и самой информации (Duberry, 2022: 158). Фактически эта разновидность «оружия» предполагает воздействие на человека на уровне подсознания. Формат воздействия при этом имеет силу как для гражданского населения, так и для военного контингента, причем данный канал влияния на армию серьезно занимает военных аналитиков (The New Dogs of War, 2017; NATO Decision-making., 2021). Считается, что основные точки военно-информационного противостояния между США и Китаем находятся именно в сфере использования Big Data (D. Levy, 2022). В российских средствах массовой информации даже есть понятие «инфобомба».

Если иметь в виду диапазон потенциального действия вепонизиро-ванной информации, то нельзя не вспомнить скандал, разразившийся в 2014 г., когда Cambridge Analytica—компания, занимавшаяся составлением психологических портретов различных слоев американских

избирателей для политических заказчиков, — допустила утечку 87 миллионов персональных данных. Объем утечки данных говорит о масштабах, которые относятся к потенциальному «предметному полю» специально подобранной информации, таргетированно избранной для продвижения в сторону определенных политических платформ и акторов, взыскующих высокие результаты в электоральных циклах. Еще на президентских выборах в США в 2016 г. пятая часть, а в голосовании по Брекзиту — треть всех рассылок, связанных с мотивами голосования за или против, были сделаны (автоматическими) ботами (Berkowitz, 2020). Кибернетические виды преступления каждый год наносят ущерб экономике не менее чем в 3-4 триллиона американских долларов. Это обстоятельство отнюдь не останавливает бурный прогресс кибернетических производств, включая информационные, и средств распространения информации, но требует настолько выверенных и осторожных стратегий, что, по оценке экспертов, в ближайшее десятилетие 40% из 500 крупнейших мировых компаний прекратят свою деятельность и возрастет уровень монополизации на социально-экономических рынках (Helbing et al., 2017). Такая перспектива наводит на мысль о том, что социальное и экономическое многообразие столь же важно, как и биологическое многообразие, сужение которого давно уже является предметом серьезных тревог со стороны как экологов, биологов, так и простых граждан. Уменьшение социального и экономического многообразия обычно идет параллельно с тенденциями к авторитарному правлению.

В то же время экспансия AI и Big Data открывает в буквальном смысле невиданные перспективы в управлении общественными процессами. Она (1) возводит их на новый уровень эффективности планирования, реализации и скорости исправления допущенных ошибок; (2) уменьшает риски совершить неверные шаги в планировании и прийти к искаженным оценкам результатов последствий предпринятых решений; (3) подводит к наиболее оптимальным экономическим решениям, которые могут не только касаться всего общества или отдельных групп граждан, но и быть персонифицированными; (4) значительно ускоряет обработку поступающей экономической, финансовой и другой информации; (5) улучшает и заметно ускоряет обслуживание населения и реагирование на поступающие с его стороны запросы; (6) позволяет оперативно выносить управленческие решения на основе более точного портрета состояния общества и его конкретных страт. Такого рода перспективы открываются как у западных, так и у восточных государств, хотя им-плементация всех этих механизмов будет различаться в зависимости

от доминирующей культуры и традиций управления (Zuiderwijk et al., 2021: 9). Здесь мы не упоминаем достижения AI и Big Data в сельском хозяйстве, медицине (например, в оценке рисков болезни Паркинсона в пожилом возрасте), логистике и т.д.

Прогресс в технологиях Big Data и AI ведет к некоторому расслоению того социального слоя, который принято называть средним классом: та его часть, работа которой непосредственно связана с обозначенными технологиями, выигрывает (ее доходы и социальный статус растут), а та часть, которая довольно далека от постоянного использования (и тем более разработки) информационных технологий, включая, кстати, даже некрупных производителей сельскохозяйственной продукции, проигрывает (ее доходы относительно первый группы снижаются, она теряет свой социальный статус, да и ее востребованность становится все более и более скромной).

Вполне естественно, что за последнее десятилетие технологии AI и Big Data нашли широкое применение у различных политических акторов. Так, если в ходе выборов президента США 2008 г. Б. Обама на кампанию с помощью информационных технологий потратил 643 тысячи долларов, то в кампании 2016 г., когда соперничали Д. Трамп от Республиканской партии и Х. Клинтон от Демократической партии, уже ушло 200 миллионов долларов. Х. Клинтон опиралась на стратегию, в формировании которой принимала участие программа Big Data «Ада». Однако база данных в этой программе была преимущественно сформирована на основе данных о сторонниках Б. Обамы; она оказалась не вполне полной и адекватной для выполнения новой задачи в новое время, поскольку вне поля ее зрения оказался довольно большой массив сельских жителей обычно консервативно голосующих штатов (Illing, 2017).

Предвыборные кампании Э. Макрона во Франции и в 2017 г., и в 2022 г. также в значительной степени основывались на информации, полученной посредством технологий Big Data. Так, Макрону рекомендовали придерживаться срединной идеологической позиции «ни правое, и ни левое», которая оказалась эффективной в плане привлечения избирателей, пришедших к урнам и отдавших свои голоса за него (Vallado, 2018: 19). Особенно продуктивной эта стратегия оказалась в обоих раундах президентских выборов (2017 и 2022 гг.), когда во втором туре Макрону противостояла М. Ле Пен, занимавшая крайне правый конец политического спектра. Акцент на центристской позиции позволил

Макрону привлечь на свою сторону тех избирателей, которые опасались скатывания страны в состояние нестабильности — если бы победил кандидат от крайне правых.

Таким образом, вырисовывается следующая наиболее предпочтительная и претендующая на эффективность тактика электоральной кампании (имеется в виду таргетированное и прежде всего психотарге-тированное воздействие): во-первых, максимальная мобилизация своих сторонников, стимуляция их прийти к урнам, а не отсидеться дома и, во-вторых, попытка привлечь на свою сторону неопределившихся и колеблющихся избирателей из «центра» и отчасти противоположного полюса, не придерживающихся крайних позиций в политическом спектре, и также убедить их проголосовать, а не проигнорировать выборы. Вовсе не обязательно добиваться поддержки 70-80% избирателей, когда построение таргетированной предвыборной кампании при помощи AI и Big Data позволит несколько сэкономить средства и набрать 51%, что достаточно для победы. В этом плане целесообразно кооптировать на свою сторону и людей, которые больше всего озабочены не политическими, а, например, экологическими проблемами, как это было в Западной Вирджинии в 2012 г., население которой было сильно озабочено состоянием «грязной» угольной промышленности и сочло Б. Обаму более предпочтительной фигурой для улучшения экологии (Nickerson & Rogers, 2014: 70).

В любом случае надо иметь в виду, что ситуация с привлечением людей на свою сторону и убеждением их в целесообразности определенных ценностей и следования некоторым установкам — это не линейный, «механический» процесс, а как бы наложение направленного магнитного поля на хаотическое броуновское движение множества взвешенных частиц, когда лишь какая-то их часть способна изменить траекторию в «нужном» направлении под воздействием магнитного поля.

Понятно, что здесь встают очень серьезные проблемы с так называемыми фейками (fake news, ложная информация), феноменом постправды и хакерами, способными взломать почтовые аккаунты. Иногда раздаются голоса в пользу того, что технототалитаризм и нелиберальная демократия, не гнушающиеся fake news, могут подмять под себя реальную демократию (Helbing et al., 2017). Эта проблема касается не только компьютерной безопасности, но и в более широком плане информационной безопасности как таковой. Ее гуманитарные аспекты оказываются едва ли не напрямую зависимыми от технических возможностей противодействия распространению фейков и активности хакеров.

Обсуждение деталей данной проблемы выходит за рамки данного материала, но следует заметить, что ее нельзя недооценивать. Так, популярную социальную сеть Facebook5 обвиняли в том, что в ней разжигались страсти, которые привели к геноциду в Мьянме, а в США и Эфиопии она подогревает настроения, связанные с насилием (Nyabola, 2023).

Все говорит в пользу того обстоятельства, что решения, минимизирующие негативные действия фейков, хакеров и т.п., должны быть предприняты без промедления, а последствия можно ожидать лишь в предположительно отдаленном будущем. Таким образом, здесь мы сталкиваемся с особенностями и границами (в плане осознания важности выводов) общезначимости заключений постнормальной науки, когда решения не терпят отлагательства и могут иметь весьма серьезные последствия, но будущее крайне неопределенно и результаты предпринятых действий можно предсказать только в самом общем плане, если это вообще оказывается возможным (Порус и Бажанов, 2021). Все это говорит о необходимости образования самых широких слоев населения с целью повышения уровня информационной грамотности.

ЗАКЛЮЧЕНИЕ

Дальнейшее развитие AI и технологий Big Data не остановить. Поэтому соответствующие методы, связанные с AI и технологиями Big Data, будут приобретать все большую легитимность, а значит, будет «подтягиваться» и легальная база, регулирующая их применение. Весьма вероятно, что какие-то кластеры социума, которые начинают занимать привилегированное положение уже сейчас, продолжат повышать свой статус, иные же—будут его терять. Социальный организм не может не претерпевать перманентных изменений. Человечество же в целом получает и в обозримом будущем будет получать несомненные дивиденды от процесса совершенствования AI и технологий Big Data, особенно если будет предложена машинерия, существенно минимизирующая негативные аспекты их функционирования. Вот только сможет ли он существенно продвинуться по направлению к формированию ноосферы в том виде, о котором рассуждал В. И. Вернадский?

5Деятельность компании Meta, владеющей социальной сетью Facebook, признана экстремистской на территории Российской Федерации.

Литература

Бажанов В. А. Особенности познавательных механизмов в информационную эпоху : «эхо-пузыри» и «эхо-камеры» // Философский журнал. — 2022. — Т. 15, № 4. — С. 152—164.

Порус В. Н., Бажанов В. А. Постнормальная наука : между Сциллой неопределенности и Харибдой политизации знания // Философия : Журнал Высшей школы экономики. — 2021. — Т. 5, № 4.

Akin Unver H. Artificial Intelligence, Authoritarianism and Future of Political Systems // Cyber Governance and Digital Democracy. — 2018. — No. 9.

Bass D. Bill Gates Sees GPT's AI as Revolutionary Tech Breakthrough / Bloomberg Technology. — 2023. — URL: https://www.bloomberg.com/news/articles/2023-03-21/bill-gates-sees-openai-s-gpt-technology-as-most-revolutionary-in-decades ?srnd=premium-europe (дата обр. 22 марта 2023).

Berkowitz J. The Evolving Role of Artificial Intelligence and Machine Learing in US Politics / Center for Strategic, International Studies. — 2020. — URL: https://www. csis.org/blogs/technology-policy-blog/evolving-role-artificial-intelligenc e-and-machine-learning-us-politics (дата обр. 21 дек. 2023).

Cassenti D. N., Veksler V. D., Ritter F. E. Cognition-Inspired Artificial Intelligence // Topics in Cognitive Science. — 2022. — Vol. 14. — P. 652-664.

Chomsky N., Roberts I., Watamull J. The False Promise of ChatGPT / New York Times. — 2013. — URL: https://www.nytimes.com/2023/03/08/opinion/noam-cho msky-chatgpt-ai.html (дата обр. 8 марта 2023).

Cockburn A., Dragicevic P., Besançon L. Threads of a Replication Crisis in Empirical Computer Science // Communications of the ACM, Association for Computing Machinery. — 2020. — Vol. 63, no. 80. — P. 70-79.

Cole M., Cant C., Ustek Spilda F. Politics by Automatic Means? A Critique of Artificial Intelligence Ethics at Work // Frontiers in Artificial Intelligence. — 2022. — Vol. 5.

Coveney P. V., Highfield R.R. When We Can Trust Computers (and When We Can't) // Philosophical Transactions A. — 2020. — Vol. 379.

Davies A., VeJickovic P., Buesing L. Advancing Mathematics by Guiding Human Intuition with AI // Nature. — 2021. — Vol. 600. — P. 70-81.

DeBrabander F. The Political Risks of Big Data Dominance / The New Statesman. UK Edition. — 2021. — URL: https://www.newstatesman.com/ideas/agora/2021/ 11/the-political-risks-of-big-data-dominance (дата обр. 21 нояб. 2023).

Duberry J. Artificial Intelligence and Democracy : Risks and Promises of AI-Mediated Citizen-Government Relations. — Cheltenham, UK : Edward Elgar Publishing, 2022.

Efthymiou I. P., Egleton T. W., Sidiropoulos S. Artificial Intelligence (AI) in Politics : Should Political AI be Controlled? // International Journal of Innovative Science and Research Technology. — 2020. — Vol. 5, no. 2. — P. 49-51.

Else H. Abstracts Written by ChatGPT Fool Scientists // Nature. — 2023. — Vol. 613. — P. 423.

Erman E, Furendal M. Artificial Intelligence and the Political Legitimacy of Global Governance / Political Studies. — 2022. — URL: https://doi.org/10. 1177/00323217221126665 (visited on Oct. 3, 2022).

Gallego A., Kurer T. Automation, Digitalization, and Artificial Intelligence in the Workplace : Implications for Political Behavior // Annual Review of Political Science. — 2022. — Vol. 25. — P. 463-484.

Gorban A., Grechuk B., Tyukin I. Stochastic Separation Theorems : How Geometry May Help to Correct AI Errors // Notices of American Mathematical Society. — 2023. — No. 1. — P. 25-33.

Helbing D., Frey B. S., Gigerenzer G. Will Democracy Survive Big Data and Artificial Intelligence? / Scientific American. — 2017. — URL: https://www.scientificamer ican.com/article/will-democracy-survive-big-data-and-artificial-intelligen ce/ (visited on Feb. 14, 2023).

Illing S. A Political Scientist Explains How Big Data Is Transforming Politics / Vox. — 2017. — URL: https://www.vox.com/conversations/2017Z3/16/14935336/big-data -politics-donald-trump-2016-elections-polarization (visited on Feb. 14, 2023).

Jacobet,ty P., Orton-Johnson K. Blockchain Imaginaries and Their Metaphors: Organizing Principles in Decentralized and Digital Technologies // Social Episte-mology. — 2023. — No. 1. — P. 1-14.

Korner K. Digital Politics. Artificial Intelligence, Big Data and the Future of Democracy. — Frankfurt am Main : Deutsche Bank AG, 2019.

Levy D. As Tension Between China and the US Heats Up, Big Data Is the First Battleground / CPO Magazine. — 2022. — URL: https://www.cpomagazine.com/cyber-security/as-tension-between-china-and-the-us-heats-up-big-data-is-the-firs t-battleground (visited on Feb. 14, 2023).

Levy K. E., Johns D. M. When Open Data Is a Trojan Horse : The Weaponization of Transparency in Science and Governance / Big Data & Society. — 2016. — URL: https://doi.org/10.1177/2053951715621568 (visited on Feb. 14, 2023).

Lila. A Unified Benchmark for Math Reasoning / GitHub. — 2023. — URL: https: //github.com/allenai/Lila (visited on Feb. 14, 2023).

Mann M., Daly A. (Big) Data and the North-in-South : Australia's Informational Imperialism and Digital Colonialism // Television and New Media. — 2018. — Vol. 20, no. 4.

Moessner N. Databases, Science Communication, and the Division of Epistemic Labour // Axiomates. — 2022. — Vol. 32. — S853-S870.

NATO Decision-making in the Age of Big Data and Artificial Intelligence / ed. by S. Lucatelli, A. Marrone, F. N. Moro. — Bologna : Universita di Bologna, 2021.

Nickerson D. W., Rogers T. Political campaigns and Big Data // Journal of Economic Perspectives. — 2014. — Vol. 28, no. 2. — P. 51-74.

Nyabola N. ChatGPT and the Sweatshops Powering the Digital Age / Al Jazeera. — 2023. — URL: https://www.aljazeera.com/opinions/2023/1/23/sweatshops-are -making-our-digital-age-work (visited on Feb. 14, 2023).

Tamir M., Shech E. Machine Understanding and Deep Learning Representation // Synthese. — 2023. — Vol. 201, no. 2. — P. 1-27.

The New Dogs of War : The Future of Weaponized Artificial Intelligence. — Arizona : Arizona State University, 2017.

Vallado A. G. A. Artificial Intelligence and Political Science. — OCP Policy Center, 2018.

Wall Street's ChatGPT Nightmare Is Over Before It Starts as Banks Crack Down / Bloomberg. — 2023. — URL: https://www.aljazeera.com/opinions/2023/1/23/sw eatshops-are-making-our-digital-age-work (visited on Feb. 14, 2023).

What Are the Disadvantages of Artificial Intelligence? / Liberties. — 2022. — URL: https://www.liberties.eu/en/stories/disadvantages-of-artificial-inte lligence/44289 (visited on Feb. 14, 2023).

Work Shift-Work Shift : Ringing in 2023 With ChatGPT / Bloomberg. — 2023. — URL: https://www.bloomberg.com/news/newsletters/2023-01-03/how-to-use-cha tgpt-ai-at-work-in-2023?srnd=premium-europe (visited on Feb. 14, 2023).

Wright N. Artificial Intelligence, China, Russia, and the Global Order : Technological, Political, Global, and Creative Perspectives. — Washington DC : Air University Press, 2019.

Zuiderwijk A., Chen Y.-C, Salem F. Implication of the Use of Artificial Intelligence in Public Governance : A Systematic Literature Review and a Research Agenda // Government Information Quarterly. — 2021. — Vol. 38.

Bazhanov, V. A. 2023. "Iskusstvennyy intellekt, tekhnologii Big Data (bol'shikh dannykh) i osobennosti sovremennogo politicheskogo protsessa [Artificial Intelligence, Big Data Technologies, and Features of Modern Politics]" [in Russian]. Filosofiya. Zhurnal Vysshey shkoly ekonomiki [Philosophy. Journal of the Higher School of Economics] 7 (3), 193-210.

Valentin Bazhanov

Doctor of Letters in Philosophy, Professor, Researcher Russian Society for the History and Philosophy of Science (Moscow, Russia); orcid: 0000-0002-0336-9570

Artificial Intelligence, Big Data Technologies, and Features of Modern Politics

Abstract: This articles goal is to review the peculiarities of the modern stage of development of artificial intelligence (AI) and Big Data technologies, their capabilities, and to assess their fundamental limitations, related to the algorithmic way of its functioning. These considerations are conceived in relation to the dynamics of political processes (election campaigns of

B. Obama, D. Trump, E. Macron), the specificity of political argumentation and its possible impact upon voters. An opinion expressed concerning the most preferable methods and tactics of electoral campaigns, claiming to be effective. Attention is drawn to the process of weaponization of information which is caused by AI and Big Data results implementation. The questions discussed are to what extent are the decisions made on the basis of "cues" from AI or Big Data technologies legal and/or legitimate? To what extent can they give political activity a more rational character and make its "products" not so much more acceptable to people, but more desirable not only for some "selected" strata of society, but for society as a whole? Finally, can all of humanity, so to speak, at the global level benefit from the progress of information technology?

Keywords: Information Technologies, Natural Intelligence, Artificial Intelligence, Algorithm, Weaponization of Information, Politics. DOI: 10.17323/2587-8719-2023-3-193-210.

REFERENCES

Akin Unver, H. 2018. "Artificial Intelligence, Authoritarianism and Future of Political Systems." Cyber Governance and Digital Democracy, no. 9.

Bass, D. 2023. "Bill Gates Sees GPT's AI as Revolutionary Tech Breakthrough." Bloomberg Technology. Accessed Mar. 22, 2023. https://www.bloomberg.com/news/articles/2023--03--21/ bill-gates-sees-openai-s-gpt-technology-as-most-revolutionary-in-decades?srnd=premium-europe.*/o!SC0PUS:Bass2022Bill!*/o!!

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Bazhanov, V. A. 2022. "Osobennosti poznavatel'nykh mekhanizmov v informatsionnuyu epo-khu [Cognitive Mechanisms in the Era of Information]: 'ekho-puzyri' i 'ekho-kamery' ['Echo-bubbles' and 'Echo-chamber']" [in Russian]. Filosofskiy zhurnal [Philosophy Journal]

15 (4): 152-164.

Berkowitz, J. 2020. "The Evolving Role of Artificial Intelligence and Machine Learing in US Politics." Center for Strategic and International Studies. Accessed Dec. 21, 2023. https://www. csis.org/blogs/technology-policy-blog/evolving-role-artificial-intelligence-and-machin e-learning-us-politics.yo!SC0PUS:Berkowitz2020Evolving!*/o!!

Cassenti, D.N., V. D. Veksler, and F. E. Ritter. 2022. "Cognition-Inspired Artificial Intelligence." Topics in Cognitive Science 14:652-664.

Chomsky, N., I. Roberts, and J. Watamull. 2013. "The False Promise of ChatGPT." New York Times. Accessed Mar. 8, 2023. https://www.nytimes.com/2023/03/08/opinion/noam-cho msky-chatgpt-ai.html.yo!SC0PUS:ChomskyRobertsWatamull2013False!*/o!!

Cockburn, A., P. Dragicevic, and L. Besançon. 2020. "Threads of a Replication Crisis in Empirical Computer Science." Communications of the ACM, Association for Computing Machinery 63 (80): 70-79. Cole, M., C. Cant, and F. Ustek Spilda. 2022. "Politics by Automatic Means? A Critique of

Artificial Intelligence Ethics at Work." Frontiers in Artificial Intelligence 5. Coveney, P. V., and R. R. Highfield. 2020. "When We Can Trust Computers (and When We

Can't)." Philosophical Transactions A 379. Davies, A., P. Velit-skoviT-s, and L. Buesing. 2021. "Advancing Mathematics by Guiding Human Intuition with AI." Nature 600:70-81.

DeBrabander, F. 2021. "The Political Risks of Big Data Dominance." The New Statesman. UK Edition. Accessed Nov. 21, 2023. https://www.newstatesman.com/ideas/agora/2021/11/th e-political-risks-of-big-data-dominance.*/o!SC0PUS:DeBrabander2021Political!*/„!! Duberry, J. 2022. Artificial Intelligence and Democracy: Risks and Promises of Al-Medi-ated Citizen-Government Relations. Cheltenham, UK: Edward Elgar Publishing.

Efthymiou, I. P., Th.W. Egleton, and S. Sidiropoulos. 2020. "Artificial Intelligence (AI) in Politics: Should Political AI be Controlled?" International Journal of Innovative Science and Research Technology 5 (2): 49-51.

Else, H. 2023. "Abstracts Written by ChatGPT Fool Scientists." Nature 613:423.

Erman, E., and M. Furendal. 2022. "Artificial Intelligence and the Political Legitimacy of Global Governance." Political Studies. Accessed Oct. 3, 2022. https://doi.org/10.1177/ 00323217221126665.

Gallego, A., and Th. Kurer. 2022. "Automation, Digitalization, and Artificial Intelligence in the Workplace: Implications for Political Behavior." Annual Review of Political Science 25:463-484.

Gorban, A., B. Grechuk, and I. Tyukin. 2023. "Stochastic Separation Theorems: How Geometry May Help to Correct AI Errors." Notices of American Mathematical Society, no. 1, 25-33.

Helbing, D., B.S. Frey, and G. Gigerenzer. 2017. "Will Democracy Survive Big Data and Artificial Intelligence?" Scientific American. Accessed Feb. 14, 2023. https://www.scientific american.com/article/will-democracy-survive-big-data-and-artificial-intelligence/.

Illing, S. 2017. "A Political Scientist Explains How Big Data Is Transforming Politics." Vox. Accessed Feb. 14, 2023. https://www.vox.com/conversations/2017/3/16/14935336/big-data -politics-donald-trump-2016-elections-polarization.

Jacobetty, P., and K. Orton-Johnson. 2023. "Blockchain Imaginaries and Their Metaphors: Organizing Principles in Decentralized and Digital Technologies." Social Epistemology, no. 1, 1-14.

Korner, K. 2019. Digital Politics. Artificial Intelligence, Big Data and the Future of Democracy. Frankfurt am Main: Deutsche Bank AG.

Levy, D. 2022. "As Tension Between China and the US Heats Up, Big Data Is the First Battleground." CPO Magazine. Accessed Feb. 14, 2023. https://www.cpomagazine.com/cyber-secu rity/as-tension-between-china-and-the-us-heats-up-big-data-is-the-first-battleground.

Levy, K.E., and D.M. Johns. 2016. "When Open Data Is a Trojan Horse: The Weaponization of Transparency in Science and Governance." Big Data & Society. Accessed Feb. 14, 2023. https://doi.org/10.1177/2053951715621568.

Lila. 2023. "A Unified Benchmark for Math Reasoning." GitHub. Accessed Feb. 14, 2023. https://github.com/allenai/Lila.

Lucatelli, S., A. Marrone, and F. N. Moro, eds. 2021. NATO Decision-making in the Age of Big Data and Artificial Intelligence. Bologna: Universita di Bologna.

Mann, M., and A. Daly. 2018. "(Big) Data and the North-in-South: Australia's Informational Imperialism and Digital Colonialism." Television and New Media 20 (4).

Moessner, N. 2022. "Databases, Science Communication, and the Division of Epistemic Labour." Axiomates 32:S853-S870.

Nickerson, D.W., and T. Rogers. 2014. "Political campaigns and Big Data." Journal of Economic Perspectives 28 (2): 51-74.

Nyabola, N. 2023. "ChatGPT and the Sweatshops Powering the Digital Age." Al Jazeera. Accessed Feb. 14, 2023. https://www.aljazeera.com/opinions/2023/1/23/sweatshops-are-mak ing-our-digital-age-work.

Porus, V. N., and V. A. Bazhanov. 2021. "Postnormal'naya nauka [Post-Normal Science]: mezh-du Stsilloy neopredelennosti i Kharibdoy politizatsii znaniya [Passing the Scylla of Uncertainty and the Charybdis of the Politicization of Knowledge]" [in Russian]. Filosofiya [Philosophy]: Zhurnal Vysshey shkoly ekonomiki [Journal of the Higher School of Economics] 5 (4).

Tamir, M., and E. Shech. 2023. "Machine Understanding and Deep Learning Representation."

Synthese 201 (2): 1-27. The New Dogs of War: The Future of Weaponized Artificial Intelligence. 2017. Arizona:

Arizona State University. Vallado, A.G.A. 2018. Artificial Intelligence and Political Science. OCP Policy Center. "Wall Street's ChatGPT Nightmare Is Over Before It Starts as Banks Crack Down." 2023. Bloomberg. Accessed Feb. 14, 2023. https://www.aljazeera.eom/opinions/2023/1/23/swea tshops-are-making-our-digital-age-work. "What Are the Disadvantages of Artificial Intelligence?" 2022. Liberties. Accessed Feb. 14, 2023.

https://www.liberties.eu/en/stories/disadvantages-of-artificial-intelligence/44289. "Work Shift-Work Shift: Ringing in 2023 With ChatGPT." 2023. Bloomberg. Accessed Feb. 14, 2023. https://www.bloomberg.com/news/newsletters/2023--01--03/how-to-use-chatgpt-ai-at-work-in-2023?srnd=premium-europe. Wright, N. 2019. Artificial Intelligence, China, Russia, and the Global Order: Technological, Political, Global, and Creative Perspectives. Washington DC: Air University Press. Zuiderwijk, A., Y.-C. Chen, and F. Salem. 2021. "Implication of the Use of Artificial Intelligence in Public Governance: A Systematic Literature Review and a Research Agenda." Government Information Quarterly 38.

i Надоели баннеры? Вы всегда можете отключить рекламу.