Научная статья на тему 'ПОЛИТИЧЕСКАЯ СУБЪЕКТНОСТЬ НАУКИ ПЕРЕД ВЫЗОВАМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

ПОЛИТИЧЕСКАЯ СУБЪЕКТНОСТЬ НАУКИ ПЕРЕД ВЫЗОВАМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY-NC-ND
15
5
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «ПОЛИТИЧЕСКАЯ СУБЪЕКТНОСТЬ НАУКИ ПЕРЕД ВЫЗОВАМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

Порус В. Н. Политическая субъектность науки перед вызовами искусственного интеллекта // Философия. Журнал Высшей школы экономики. — 2023. — Т. 7, № 3. — С. 211-217.

Владимир Порус*

Политическая субъектность науки

перед вызовами искусственного интеллекта**

DOI: 10.17323/2587-8719-2023-3-211-217.

Кто не слыхал расхожей остроты, что, дескать, по мере совершенствования искусственного интеллекта (AI) возможности естественного интеллекта (NI) неуклонно падают? Какова доля шутки в сей грустной шутке? Кстати ли вспомнить иронические пророчества Станислава Ле-ма о наступлении времен, когда человечество того и гляди потерпит фиаско в борьбе с «умными» машинами, не только превосходящими человеческий ум своими техническими параметрами, но и перенявшими у людей известные свойства психики, доведшими их до «машинного апогея» и тем сделавшись практически непобедимыми (Лем, 1991)?

В. А. Бажанов приводит информацию к размышлению—внушительный ряд фактов, свидетельствующих о том, что на нынешнем этапе развития исследований AI и технологий Big Data сложилась ситуация, в которой использование нейросетей для изготовления фальшивых студенческих курсовых работ и дипломов или «художественных», почти неотличимых от настоящих текстов и музыки может считаться безобидным развлечением по сравнению с реальными возможностями передачи «умным» машинам прерогативы планирования и моделирования глобальных экономических, политических и военных процессов. До сих пор в ходу успокоительные рассуждения о том, что решения, существенные для таких процессов, принимают все же люди, а машины остаются

* Порус Владимир Натанович, д. филос. н., профессор; исследователь, Межрегиональная общественная организация «Русское общество истории и философии науки» (Москва), vporus®rambler.ru, ORCID: 0000-0002-2958-2185.

**© Порус, В. Н. © Философия. Журнал Высшей школы экономики.

Благодарности: исследование выполнено при финансовой поддержке РНФ проект №21—18—00428 «Политическая субъектность современной науки: междисциплинарный анализ на перекрестье философии науки и философии политики» в Русском обществе истории и философии науки.

лишь инструментами и «советчиками». Эти успокоения устаревают тем быстрее, чем сильнее ускоряются сами процессы, а значит, сокращается до исчезающего минимума время их критического осмысления и выработки взвешенных решений неотложных проблем. Многоплановая зависимость человеческих решений от подсказок и даже императивов AI во многих случаях уже сегодня является критической, а завтра может стать вообще неизбежной.

Угрозы очевидны. Более тысячи экспертов поставили подписи под обращением к мировой общественности и правительствам, к которому присоединились глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Apple Стив Возняк, сооснователь Pinterest Эван Шарп и в котором, в частности, сказано:

Мы должны спросить себя: стоит ли нам позволить машинам заполонить наши информационные каналы пропагандой и ложью? Стоит ли нам автоматизировать все профессии, включая те, что приносят удовлетворение? Стоит ли нам разрабатывать разумные устройства, которые неподвластны человеку и которые могли бы в итоге превзойти нас численностью и интеллектом, сделать нас ненужными и заменить нас? Стоит ли нам рисковать потерей контроля над цивилизацией? [...] Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев испытания систем, мощнее GPT-41. Эта пауза должна быть публичной и действительной. [...] Если такая приостановка не может быть быстро сделана, правительства должны вмешаться и ввести мораторий (Pause Giant AI Experiments, 2023).

В. А. Бажанов указывает на некоторые проявления этой опасности, в том числе на возможные негативные последствия дефицита времени и опыта у людей, осуществляющих контроль за действиями систем AI. Может ли он быть компенсирован обращением к иным «умным» машинам, которым передается (в значимом объеме) функция контроля? Но ведь это только удлинило бы цепочку «действие — контроль за действием— контроль за контролем» etc. Она не может быть бесконечной, а в конце непременно должен быть «актант» — и не факт, что им окажется human being, если использовать термин Б. Латура (Латур, Полонская, 2014). Представим ситуацию, когда решение непременно должно быть принято, но human being не может его принять, скажем, по непреодолимым политическим, моральным или религиозным мотивам; тогда

1Языковая модель, которая может быть использована для производства дезинформа-ци, обладающей убедительной правдоподобностью.

за дело возьмется non-human being, воплощенный в системе AI, и уж этот-то «актант» не позволит вмешаться в его действия нерасторопному или нерешительному человеческому существу.

Можно подумать и о других, более тонких формах зависимости. Люди, глубоко интегрированные в сложную систему взаимодействий с AI, сами утрачивают (в известной мере) свое отличие от «умных» машин. Ведь это обоюдная зависимость: машины уподобляются человеческому интеллекту, превосходя его в том, в чем способны его превзойти по своей машинной природе, а люди уподобляются машинам, избавляясь при этом (к сожалению!) от природы человеческой, если она мешает уподоблению. Кстати сказать, для этой машинизации человеческого поведения натуралистически ориентированные мыслители находят теоретическое оправдание, выводя всякое сознательное действие человека из свойств и возможностей его нейросистемы, а так называемые духовные, моральные и эмоциональные факторы действия (или бездействия) вынося за скобки научного, рационального анализа.

Если зависимость такого рода стала необратимой или зашла слишком далеко, можно усомниться в действенности предупреждений экспертов. Они предлагают остановить исследования и разработки хотя бы на какой-то срок, чтобы успеть принять меры безопасности и удостовериться в их эффективности. Вспомним: нечто подобное происходило в 1974 г., когда группа генетиков (Р. Поллак, П. Берг, Д. Балтимор, Дж. Уотсон и др.) призвала к мораторию на исследования по рекомбинации ДНК и РНК ввиду их потенциальных рисков для человечества (Berg, 1974). Спустя полстолетия мир уже, кажется, вполне убедился в том, что процесс развития генной инженерии не только не был остановлен (разумеется, из самых благих и оптимистических намерений относительно будущего человечества), но и зашел так далеко, что никакой возврат или хотя бы задержка движения уже немыслимы, многообещающий прогресс очевиден, а человечество свыклось с рисками. Между тем загадка происхождения коронавируса SARS-CoV-2 до сих пор не решена, и есть основания предполагать, что не только по научным причинам. Вот и сегодня плохо верится в эффективность увещеваний современных специалистов в сфере AI. Основания недоверия коренятся не в научно-технической, а в социальной и культурной почве, на которой произрастает современная цивилизация.

В. А. Бажанов отмечает, что естественный интеллект кое в чем еще превосходит AI:

в гибкости, в степени правдоподобности индуктивных умозаключений, нахождении противоречий, обучении на основе предшествующего опыта, событий с низкой степенью вероятности, распознавании (а не просто идентификации) образов, определении стратегий дальнейших действий (Бажанов, 2023).

Скорее всего, так и есть, но о чем это говорит? Видимо, только о том, что перед создателями и разработчиками AI еще стоят нерешенные проблемы, которые, стоит надеяться, все же будут решены в не слишком отдаленном будущем с переходом к принципиальным технологическим новациям. И весьма вероятно, что это произойдет быстрее, чем вырастут возможности естественного интеллекта (если они вообще вырастут в каком-нибудь значимом смысле).

Способны ли эти перемены, продолжает В. А. Бажанов,

придать политической активности более рациональный характер и сделать ее «продукты» не столько более приемлемыми для людей, сколько более желательными для всего общества в целом, а не лишь для каких-то его избранных страт? (там же)

Иными словами, способно ли внедрение AI и соответствующих технологий Big Data в ткань политического процесса изменить его характер так, чтобы он лишился своих порицаемых черт (ангажированность политических действий корыстными интересами отдельных социальных групп, недальновидность решений, принимаемых без учета опасных последствий, подверженность влияниям иррациональных мотивов и пр.), но зато прибрел бы черты, одобряемые большинством людей как разумная и направленная к их благу деятельность? Что могло бы доказать эту способность? А будучи доказанной, не внесет ли эта способность существенные коррективы в наши представления о политической субъ-ектности науки?

Если рационализации (возможно, и гуманизации) политики мешает только недостаток данных, дефицит времени на обдумывание и принятие решений, преобладание эмоций над доводами, нервозность и «вульгарная субъективность» политических субъектов, то применение умных и сверхумных машин как помощников в этом деле, конечно, даст позитивные результаты и поможет избежать негативных. Но ведь проблема именно в этом «если». На деле же качество политических действий главным образом зависит от таких причин, которые не сводятся к перечисленным и подобным недостаткам и дефицитам. Главный драйв политики—борьба за власть, определяющая то или иное соотношение интересов политических субъектов. Поэтому участие умных машин

рационализирует не соотношение интересов, а способы, которыми эта борьба ведется. В этом смысле А1 является не арбитром, а инструментом борьбы, а значит, как и всякий инструмент, он нейтрален в столкновении борющихся сторон.

Были времена, когда сражающиеся воины убивали друг друга мечами и стрелами. В нынешних сражениях они делают то же самое дальнобойными управляемыми ракетами и авиабомбами. Неужели современные войны приобрели более рациональный или гуманный характер из-за того, что вооружения стали более совершенными? Можно пожать плечами.

Другое дело наука. Не так легко назвать ее только инструментом, с помощью которого изготавливаются другие инструменты — например системы А1, могущие стать оружием политической борьбы. Время иллюзий, когда в науке видели лишь бескорыстное и беззаветное служение Истине, а ответственность за применение ее результатов возлагали только на участников политических разборок, по-видимому, навсегда ушло. И сегодня можно не без оснований предполагать, что процесс создания и совершенствования систем А1 — специфическая часть процесса политического.

В чем эта специфика? Когда на заре атомного века ученые (кто по наивности, кто по инерции, кто равнодушно) верили, что атомная и ядерная энергии должны служить исключительно выживанию и развитию человечества в условиях неизбежного истощения природных энергетических запасов, у них еще не было опыта, который поставил бы под сомнение эту веру. Отрезвление наступило через несколько десятилетий. Кто-то восхищался красотой физики, наблюдая атомный гриб (Э. Ферми), кто-то в отчаянии вскрывал себе вены (О. Хан), кто-то посвятил остаток жизни борьбе за запрещение атомного и ядерного оружия (Н. Бор, А. Эйнштейн, Р. Оппенгеймер), кто-то увидел в сверхоружии мощное средство удержания от войны ввиду опасности взаимного уничтожения (Э. Теллер, К. Саган, А. Сахаров). Но уже почти никто не сомневался в том, что атомная и ядерная физика не может оставаться вне политики, какими бы декларациями она себя ни окружала.

Обладает ли физическая наука чертами политической субъектности? Такой вопрос выглядит слишком общим. Разумеется, ни отдельные ученые, ни научные сообщества никогда не ставили и не ставят доныне перед собой цели, связанные с захватом и удержанием политической власти. Но участие в политике и не предполагает непременной постановки такой цели. Субъекты политики могут преследовать иные, характерные именно для их специфического участия цели, понимая

при этом, что само это участие и достижение целей обусловлено общим ходом политического процесса.

Аналогичные рассуждения уместны при обсуждении вопроса о политической субъектности науки (и технологии), работающей над внедрением современных систем AI в наиболее значимые сферы социальной и культурной практики. В. А. Бажанов прав, называя это новой революцией с экспоненциальной траекторией развития. Но замечу, нынешние революционеры уже не могут сослаться на отсутствие исторического опыта, удерживая наивную веру, что ее плоды не несут в себе толики яда, опасного для будущего человечества. Пусть этот опыт заставит их трудиться над выработкой противоядий и не отставать от роста угроз, а тех, кто финансирует и организует такие усилия, поторопиться и не расслабляться. Но в том, что это политическая проблема, а не только дело специалистов по высоким технологиям, сегодня сомневаться уже просто не позволено самой реальностью.

Поэтому вопрос, поставленный В. А. Бажановым в конце статьи, сможет ли человечество (опять-таки с помощью «умных» машин) предотвратить или минимизировать негативные последствия новой революции и продвинуться к состоянию ноосферы в смысле В.И. Вернадского, т.е. стать разумным, а не только использующим «умные» машины человечеством,— этот вопрос звучит риторически. Напрашивается ответ: нет, не сможет, если станет доверять решение главных человеческих проблем машинам (или каким-то иным сверхчеловеческим силам).

Литература

Бажанов В. А. Искусственный интеллект, технологии Big Data (больших данных) и особенности современного политического процесса // Философия : Журнал Высшей школы экономики. — 2023. — Т. 7, № 3. Латур Б. Пересборка социального : введение в акторно-сетевую теорию / пер.

с англ. И. Полонской. — М. : Изд. дом Высшей школы экономики, 2014. Лем С. Мир на Земле : пер. с пол. // Мир на Земле. Фиаско : пер. с пол. —

М. : Прогресс, 1991. Berg P. Potential Hazards of Recombinant DNA Moleculess // Proceedings of the National Academy of Sciences of the USA. — 1974. — Vol. 71, no. 7. — P. 2593-2594. Pause Giant AI Experiments : An Open Letter / Future of Life Institute. — 2023. — URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments (visited on Mar. 30, 2023).

Porus, V. N. 2023. "Politicheskaya sub''yektnost' nauki pered vyzovami iskusstvennogo intel-lekta [Political Agency of Science in the Face of the Challenges of Artificial Intelligence]" [in Russian]. Filosofiya. Zhurnal Vysshey shkoly ekonomiki [Philosophy. Journal of the Higher School of Economics] 7 (3), 211-217.

Vladimir Porus

Doctor of Letters in Philosophy, Professor, Researcher Russian Society for the History and Philosophy of Science (Moscow, Russia); orcid: 0000-0002-2958-2185

Political Agency of Science in the Face of the Challenges of Artificial Intelligence

DOI: 10.17323/2587-8719-2023-3-211-217.

REFERENCES

Bazhanov, V. A. 2023. "Iskusstvennyy intellekt, tekhnologii Big Data (bol'shikh dannykh) i osobennosti sovremennogo politicheskogo protsessa [Artificial Intelligence, Big Data Technologies, and Features of Modern Politics]" [in Russian]. Filosofiya [Philosophy]: Zhurnal Vysshey shkoly ekonomiki [Journal of the Higher School of Economics] 7 (3).

Berg, P. 1974. "Potential Hazards of Recombinant DNA Moleculess." Proceedings of the National Academy of Sciences of the USA 71 (7): 2593-2594.

Latour, B. 2014. Peresborka sotsial'nogo [Reassembling the Social]: vvedeniye v aktor-no-setevuyu teoriyu [an Introduction to Actor-Network-Theory] [in Russian]. Trans. from the English by I. Polonskaya. Moskva [Moscow]: Izd. dom Vysshey shkoly ekonomiki.

Lem, S. 1991. "Mir na Zemle [Pokoj na Ziemi]" [in Russian]. In Mir na Zemle. Fiasko [Pokoj na Ziemi. Fiasko]. Moskva [Moscow]: Progress.

"Pause Giant AI Experiments: An Open Letter." 2023. Future of Life Institute. Accessed Mar. 30, 2023. https://futureoflife.org/open-letter/pause-giant-ai-experiments.

i Надоели баннеры? Вы всегда можете отключить рекламу.