Научная статья на тему 'КРИТИКА АРГУМЕНТА КИТАЙСКОЙ КОМНАТЫ ДЖ. СЁРЛА'

КРИТИКА АРГУМЕНТА КИТАЙСКОЙ КОМНАТЫ ДЖ. СЁРЛА Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
1072
112
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СИЛЬНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / СЛАБЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / КОГНИТИВНЫЕ СОСТОЯНИЯ / ИНТЕНЦИОНАЛЬНОСТЬ / БИХЕВИОРИЗМ / СИНТАКСИС / СЕМАНТИКА / STRONG ARTIFCIAL INTELLIGENCE / WEAK ARTIFCIAL INTELLIGENCE / COGNITIVE STATES / INTENTIONALITY / BEHAVIORISM / SYNTAX / SEMANTICS

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Коновалов Максим Анатольевич

Целью данной статьи является рассмотрение мысленного эксперимента Дж. Сёрла «Китайская комната» и аргументов его критиков, в частности таких, как Д. Чалмерс и Д. Деннет. Теоретическая значимость работы определяется возможностью более глубокого понимания данного мысленного эксперимента Сёрла, а также проблем, возникающих в ходе его проведения.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

CRITICISM OF THE CHINESE ROOM ARGUMENT OF J. SEARLE

The purpose of this article is to examine J. Searle’s Chinese Room thought experiment and arguments of its critics, in particular, such as D. Chalmers and D. Dennet. The theoretical importance of the work is determined by the possibility of the deeper understanding of J. Searle’s Chinese Room thought experiment, as well as the problems arising in the course of carrying out such experiment.

Текст научной работы на тему «КРИТИКА АРГУМЕНТА КИТАЙСКОЙ КОМНАТЫ ДЖ. СЁРЛА»

ВЕСТН. МОСК. УН-ТА. СЕР. 7. ФИЛОСОФИЯ. 2020. № 3

ИСТОРИЯ ФИЛОСОФИИ

м.А. Коновалов*

критика аргумента

О о »» М-М-

китаискои комнаты дж. серла

Целью данной статьи является рассмотрение мысленного эксперимента Дж. Сёрла «Китайская комната» и аргументов его критиков, в частности таких, как Д. Чалмерс и Д. Деннет. Теоретическая значимость работы определяется возможностью более глубокого понимания данного мысленного эксперимента Сёрла, а также проблем, возникающих в ходе его проведения.

Ключевые слова: сильный искусственный интеллект, слабый искусственный интеллект, когнитивные состояния, интенциональность, бихевиоризм, синтаксис, семантика.

M.A. K o n o v a l o v. Criticism of the Chinese room argument of J. Searle

The purpose of this article is to examine J. Searle's Chinese Room thought experiment and arguments of its critics, in particular, such as D. Chalmers and D. Dennet. The theoretical importance of the work is determined by the possibility of the deeper understanding of J. Searle's Chinese Room thought experiment, as well as the problems arising in the course of carrying out such experiment.

Key words: strong artificial intelligence, weak artificial intelligence, cognitive states, intentionality, behaviorism, syntax, semantics.

Трудности с проблемой определения сознания на фоне развития компьютерных технологий и особенно резкого скачка в этой области, пришедшихся на середину 80-х — начало 90-х гг. прошлого столетия, как показалось исследователям искусственного интеллекта, стали приобретать новые масштабы. Программное моделирование различного рода действий, присущих человеку, вызвало предположение, что мозг можно рассматривать как компьютер. На первый взгляд,

* Коновалов Максим Анатольевич — аспирант кафедры истории зарубежной философии философского факультета МГУ имени М.В. Ломоносова (119991, Ленинские горы, МГУ, учебно-научный корпус «Шуваловский», г. Москва, Россия), тел.: +7 (977) 463-03-17; e-mail: makskonovalov2012@yandex.ru

** Статья подготовлена в рамках деятельности Выдающейся научной школы МГУ имени М.В. Ломоносова «Трансформации культуры, общества и истории: философско-теоретическое осмысление».

сравнение человеческого мозга с компьютером может показаться весьма странным. Допустим, отождествление мыслительных процессов с вычислительными операциями можно представить и с точки зрения обыденного языка, в них можно заметить общий алгоритм выполняемых действий, но утверждать, что сконструированные по определенной схеме металлические предметы способны обладать ментальными состояниями, присущими человеку, — сильное утверждение.

Сознание стало представляться как инсталлированная программа в мозге. Оно перестало казаться непостижимым для ряда исследователей. Джон Сёрл не соглашается с возможностью создания «сознательных» компьютеров с ментальной внутренней жизнью, подобной человеческой. Он отвергает предположения, для которых характеры установки, что сознание есть результат действий вычислительной природы мозга, что аналогия между сознанием и программами состоит в способах актуализации информации. Сёрл считает, что сознательные состояния реальны, они каузально эффективны. Мое состояние жажды является причиной того, что я пью воду [/. Беагк, 2004, p. 114].

Однако на вопрос о том, может ли машина мыслить, многие исследователи области искусственного интеллекта середины ХХ в. отвечали положительно. Одним из таких исследователей является Алонзо Чёрч. Тезис, предложенный Чёрчем в 1936 г., гласил, что всякий процесс, носящий чисто механический характер, любой алгоритмический процесс, можно реализовать в рамках конкретной схемы, которую он определил как «лямбду исчисления». Он предлагает считать успешно сконструированный вход и выход машины, возможности которой позволяют выполнять задание за конечное время, в случае, если вычисление происходит рекурсивно. Рекурсивное вычисление предполагает существование конечного множества операций, которые применимы к заданному входу, впоследствии, чтобы их можно было применять многократно к вновь получаемым результатам для вычисления функции за ограниченное время. Подобное строение имеет машина Тьюринга, в более сильном варианте эксперимент Тьюринга направлен на доказательство возможности создания соответствующей программы для рекурсивно вычислительных процедур, впоследствии демонстрирующей любую систематическую совокупность ответов на произвольное воздействие внешней среды. Но тут возникает трудность в поиске этой «сложной функции, которая управляет ответными реакциями человека на воздействия со стороны внешней среды, а затем в написании программы (множество рекурсивно применимых правил), с помощью которой машина вычислит эту функцию» [Р. СкытМапй, Р. СкытМапй, 1990].

Попробуем сформулировать интересующий нас вопрос примерно так: следует ли рассматривать сознание как некую компьютерную программу? На такие и подобные вопросы, проскакивающие у сторонников возможности создания «искусственного интеллекта», Сёрл ответил бы со свойственной ему прямотой: «нет». Однако на вопрос о симуляции работы мозга на компьютере он отвечает положительно! Далее мы увидим, что из этого следует различение Сёрлом «сильного искусственного интеллекта» и «слабого искусственного интеллекта».

Стоит отметить, что Сёрл начинал свои философские исследования с философии языка. Он связывает речевые действия с возможностями человеческого мозга. Речевой акт не существует отдельно от субъекта, наделенного сознанием, «репрезентация» окружающего мира осуществляется субъектом. Скорее всего, это объясняет то, почему Сёрл рассматривает философию языка как ветвь философии сознания [J.R. Searle, 1983].

Итак, можно ли считать ментальные процессы, происходящие в мозге человека, вычислительными процессами? Если Сёрл отвергает тезис о том, что сознание есть компьютерная программа, то вопрос, касающийся сравнения ментальных и вычислительных процессов необходимо рассматривать детально, что, собственно, Сёрл и делает в созданном им мысленном эксперименте «Китайская комната».

В данной статье мы рассмотрим мысленный эксперимент «Китайская комната» и аргументы основных ее критиков, ведущих философов сознания западной философии — Д. Деннета и Д. Чалмерса, которые во многом повлияли на интерес к исследованиям данного эксперимента, а также на последующие дискуссии и возражения, связанные с его проведением.

Следует отметить, что в настоящее время в русскоязычной литературе мало источников, в которых подробно рассматривается данный вопрос. Мы постараемся проанализировать возражения на аргумент Сёрла, что позволит продвинуться вперед в изучении данной области. Прежде всего, обратимся к работам В.В. Васильева, которые на данный момент содержат самую подробную критику эксперимента «Китайская комната» в русскоязычной литературе.

Мысленный эксперимент «Китайская комната», изложенный Сёрлом в его программной статье «Сознание, мозги и программы» ("Minds, brains, and programs" [J. Searle, 1980]), направлен на разрушение аналогий между программами и сознанием. Этот аргумент сразу подхватили сторонники искусственного интеллекта и стали пытаться опровергнуть его положения. Чтобы понять, почему так произошло, необходимо рассмотреть сам мысленный эксперимент.

В статье «Сознание, мозги и программы» ("Minds, brains, and programs" [ibid.]), говоря об искусственном интеллекте, Сёрл считает

необходимым отличать «сильный» (strong) AI от «слабого» (cautious) AI. Согласно теории сильного искусственного интеллекта, компьютер, запрограммированный подходящим образом, есть некое сознание в том смысле, что, можно сказать, наличие подходящей программы способствует возникновению понимания. Таким образом, «снабженный программой компьютер обладает когнитивными состояниями, программы — не просто средства, позволяющие нам проверять психологические объяснения, сами программы суть объяснения» [ibid.]. Согласно слабому искусственному интеллекту, компьютер используется человеком в качестве «мощного инструмента», к примеру для проверки каких-либо гипотез, для расчета строгих вычислительных операций. В данной статье, по замыслу Сёрла, должна была быть показана несостоятельность сильного AI в двух основных пунктах: (1) запрограммированный компьютер обладает когнитивными состояниями; (2) программы служат объяснению человеческого познания.

Собственно, Сёрла на сам эксперимент натолкнула программа Роджера Шенка, основной целью которой стало моделирование человеческой способности понимать рассказы. Почему бы то, что «для способности людей понимать рассказы характерно, что они способны отвечать на вопросы о данном рассказе даже в тех случаях, когда выданная ими информация не выражена в рассказе в явном виде», не перенести на машину? Пример рассказа с гамбургером в ресторане показывает возможные варианты исхода ситуации при его посещении человеком: в случае, когда гостя все устроило, он оставит чаевые за обед, но если что-либо не удовлетворит его, он может уйти из ресторана, не оставив чаевых. Как в таком случае определить машине, оставил ли посетитель чаевые или нет? Вообще возможно ли машине это сделать так, как это делает человек? Ведь человеческая способность использования контекстуальных данных уникальным образом отлична от структурных характеристик программы. Однако, выступая на защиту сильного ИИ, сторонники данных установок утверждают, что машина способна это сделать. Кроме того, она поймет весь рассказ, а само действие машины в таком случае объясняет способность человека понимать такой же рассказ и отвечать на подобные вопросы.

Критикуя позиции сторонников сильного AI, а также программу Шенка, Сёрл предлагает нам представить себе для своего мысленного эксперимента некую комнату, куда будет помещен человек. При описании этого эксперимента Сёрл «помещает» себя в Китайскую комнату в качестве участника, который заранее не знает, что будет происходить. В комнате будет лежать рукопись на китайском языке (собственно, поэтому за экспериментом закрепилось название «Китайская комната»), но участник абсолютно ничего не должен

понимать по-китайски. В комнате будут также находиться правила на родном языке испытуемого, необходимые ему для сопоставления одних символов с другими, дополнительно будет дан третий текст на родном языке, который будет содержать инструкцию для ответов на вопросы. Сёрл обращает внимание, что в эксперименте «символы, которые выдаются в ответ на третий текст, — ответы на вопросы, а набор правил на английском языке — программа» [ibid.]. В ходе эксперимента должно создаваться впечатление, что испытуемый владеет китайским языком. Не случайно, кстати, Сёрл выбрал именно китайский язык — он один из самых сложных языков в мире.

В процессе повторения задач эксперимента испытуемый может «набить руку» в манипуляции формальными символами до такой степени, что его ответы буду неотличимы от настоящего носителя китайского языка. В эксперименте, употребляя слово «формальный» в отношении символов, Сёрл подразумевает их распознавание по форме. Так что же получается: подобно компьютерным данным на входе и выходе представляется формальная работа человека с иероглифами, а результатом такой работы является понимание китайского языка или всего лишь внешняя видимость понимания? Справедливо ли считать, что и программированный компьютер понимает рассказы, а сама программа в некотором смысле будет объяснять понимание, характерное для человека? Сёрл категорически не соглашается с подобными утверждениями: «...мои входы и выходы неотличимы от входов и выходов носителя китайского языка, и я могу формально обладать какой угодно программой, и все же я ничего не понимаю» [ibid.].

Ситуация меняется, когда вопросы задаются участнику на родном языке. В силу того, что происходит некое внутреннее понимание и осмысление вопросов, Сёрл это замечает и говорит, что, несомненно, случай понимания с китайским языком никак не подлежит сравнению со случаем понимания вопросов, заданных на родном языке. Приписывать понимание человеку, который не знает китайского языка, подобно атрибутированию «понимания» градусникам, микроволновым печам, автомобилям, калькуляторам, считает Сёрл.

Человек в Китайской комнате может успешно проходить тест Тьюринга [A. Turing, 1950], но этот тест, по мнению Сёрла, «бессовестно бихевиористичен». Внешне мы можем и не отличить ответы компьютера от ответов человека в комнате, но, как и компьютерные данные на входе и выходе представляют собой формальную работу, так и работа человека, не знающего китайский язык, является формальной. «Понимания» в привычном значении слова не будет. Сёрл этим показывает, что исполнение программы, эмулирующей один из аспектов человеческого интеллекта, лингвистическую компе-

тентность, не сопровождается человеческим осознанным пониманием [В.В. Васильев, 2006, с. 86]. Как мы можем сказать, резюмируя основную идею, против сильного искусственного интеллекта Сёрл выдвигает как минимум следующее:

- синтаксис не определяет семантику;

- работа человеческого разума зависит от происходящих процессов в мозге.

Дж. Сёрл, следуя традициям аналитической философии, начинает разбор критических возражений в самой статье. Одно из первых возражений на аргумент Сёрла — «системное» возражение. Заключается оно в том, что если участник эксперимента в «комнате» не понимает китайского языка, то его может понять вся «комната» в целом. «Комнатой» в данном случае является вся система, включая правила, иероглифы и самого человека. Сторонники данного подхода считают, что возникновение понимания китайского языка возможно путем комплексного действия компонентов в «комнате».

Можно рассматривать как минимум две группы ответов по типу «системного». Первая заключается в том, что комплексное действие всех компонентов в «комнате» в итоге поспособствует возникновению определенного понимания китайского языка у участника1. Вторая группа ответов заключается в том, что «комната» не пройдет тест Тьюринга2. Сёрл, однако, настаивает на том, что это, даже в случае если участник эксперимента выучит все правила наизусть и, таким образом, станет «воплощать в себе всю систему», никаким образом не вызовет понимания китайского языка всей системой. Поскольку участник будет являться частью системы, в ней не возникнет понимания китайского языка. Приписывание понимания системе, состоящей из набора данных, а точнее, из стопок бумаги, чернил и набора китайских символов, — весьма странное занятие, по мнению Сёрла. По его мнению, мы даже можем изменить условия эксперимента, представив себе, что индивид находится под открытым небом, «все равно он абсолютно не понимает китайский язык и тем более его не понимает система, ибо в системе нет ничего, чего не было бы в нем» []. Searle, 1980].

Используя и в этом случае терминологию программистов, Сёрл, иронизируя, обобщает, что допущение возникновения у человека «понимания» на основании наличия входа и выхода с определенной программой доводит выводы «системщиков» до абсурда. В конце концов, все некогнитивные подсистемы станут когнитивными, к примеру желудок, сердце, печень.

1 Эта позиция близка Д. Деннету.

2 К примеру, так полагает В.В. Васильев.

Интересной представляется позиция критиков из Йельского университета, которые утверждают, что компьютер при помещении его внутрь робота наряду с работой на входе и выходе с формальными символами руководил бы и роботом в прямом смысле, тем самым способствуя появлению у него «понимания». С точки зрения физического строения, робот имел бы сходное строение с человеческим телом. Также робот смог бы делать повседневные вещи, которые каждый день делает человек. Таким образом, он обладал бы «пониманием» и прочими ментальными состояниями, характерными для субъекта.

Отвечая на данное критическое замечание, Сёрл вновь обращает внимание на то, что манипуляции с формальными символами ни в коей мере не вызовет «понимания», он даже предлагает вместо компьютера поместить себя внутрь робота, но это не изменит ситуации, понимания не возникнет. Но тут можно зацепиться за одну деталь. В условиях вопроса сказано, что у робота есть встроенная телекамера для опознания внешнего мира. Возможно, чисто формальные операции перевода одних символов в другие «понимания» не вызовут, но сама передача данных из телекамеры к роботу может заключать скрытые от человека значения.

На критический вопрос, заключающийся в возможности «моделирования работы мозга» на основе созданной программы, моделирующей действительную последовательность возбуждения нейронов в синапсах мозга настоящих носителей китайского языка, Сёрл отвечает встречным вопросом о понимании идеи сильного AI. По его мнению, исследователи Беркли и Массачусетского технологического института упускают из виду, что «идея сильного AI заключается в том, что для того, что бы знать, как работает сознание, нам не нужно знать, как работает мозг» [ibid.].

Дж. Сёрл считает, что исследователи, задавшие данный вопрос, просто пытаются смоделировать в работе мозга не то, что нужно на самом деле. Поскольку моделируется только формальная структура последовательности нейронных возбуждений в синапсах, то не моделируется та сторона функционирования мозга, которая как раз и имеет значение, каузальные свойства мозга, его способность продуцировать интенциональные состояния [ibid.].

Рассмотренные по отдельности предыдущие критические замечания в отношении Китайской комнаты Сёрла с лёгкостью им отбрасываются. Как может показаться на первый взгляд, критический вопрос, заключающийся в «комбинированном» виде на основе ранее заданных вопросов, тоже отбрасывается Сёрлом, но, возможно, не так удачно, как предыдущие. Критика аргумента Китайской комнаты в данном случае заключается в объединении предыдущих «нападок» в одну общую стену. Предлагается представить себе робота, у которого

в черепной полости есть встроенный по форме мозга компьютер, который запрограммирован синапсами человеческого мозга, а поведение робота неотличимо от поведения человека. Если рассмотреть этого робота в качестве единой системы, не акцентируя внимания на компьютерных входах и выходах, то можно считать, что эта система обладает интенциональностью.

Ответ Сёрла главным образом сосредоточен на поведенческой стороне действий робота. Допуская наличие человека внутри робота, оперирующего формальными символами, поступающими от встроенных сенсорных рецепторов робота, Сёрл не считает возможным приписывание интенциональности системе. Сидящий в роботе человек кроме манипуляции символами входа и выхода ничего не знает о роботе. Но в условии сказано, что у робота имеется встроенная телекамера, посылающая определенные данные в схемы системы, и вот эти данные в силу недоступности человеку могут быть решающими в вопросе о возможном «понимании» у системы. Отрицая всякое приписывание интенциональности «хитроумно сконструированной кукле», Сёрл не рассматривает подробно в таком ключе данный критический вопрос, возможно, это его некое упущение.

К примеру, ответ на вопрос, адресованный роботу с встроенной телекамерой, находящемуся внутри человека, о том, сколько сейчас времени, который заранее не будет прописан в системе, в равной степени может быть дан или может вообще отсутствовать. Получив записанные китайские символы, человек отсылает все роботу, который, определив их, направляет телекамеру на часы, находящиеся в комнате, затем идентифицирует данные и отправляет их человеку. В этом примере хорошо просматривается наличие собственной программы у робота, не известной человеку. Но в условиях, которые задал Сёрл в «комнате» изначально, предполагалось, что человеку известна вся программа «от и до». Программа у робота имеет «весьма специфический, квазисемантический характер... в этой программе должны быть прописаны не только соотношения между иероглифами, но и отношения иероглифов к определенным неиероглифическим физическим данным, получаемым его телекамерой» [В.В. Васильев, 2006, с. 86]. Получается, что неизвестность этого блока робота как раз и порождает тайну, связанную с возможностью внутренних состояний у робота. Вероятно, на такое возражение Сёрл вновь отвечал бы указанием на то, что синтаксиса будет недостаточно для семантических возможностей, если не принимать во внимание «квазисемантический блок».

Итак, какова основная цель эксперимента с Китайской комнатой? Сёрл неоднократно на протяжении всей статьи «Сознание, мозги и программы» повторяет в различных формулировках свое возражение

сторонникам сильного AI. Манипуляция формальными символами сама по себе не обладает никакой интенциональностью; она лишена смысла; она не является манипуляцией символами, ибо эти символы ничего даже не символизируют [/. Searle, 1980].

Главная цель Китайской комнаты, по мнению Сёрла, сосредоточена на опровержении сильного AI. В первую очередь это обращение исследователей на то, что «интенциональность, которой, как кажется, обладает компьютер, существует единственно в мозгах тех людей, которые запрограммировали и используют его, посылают нечто на вход и интерпретируют то, что появляется на выходе» [ibid.].

Несомненно, Сёрлу удалось вызвать резонанс в научном сообществе исследователей «искусственного интеллекта», его резкая критика сторонников сильного AI вызвала ответную реакцию. Мы рассмотрели некоторые вопросы, касающиеся критики эксперимента, данные в самой статье. Теперь переходим к рассмотрению позиций некоторых критиков эксперимента «Китайская комната» и прежде всего аргументов Д. Деннета.

В книге Дэниеля Деннета "Intuition pumps and other tools for thinking" [D. Dennet, 2013] рассмотрению Китайской комнаты отведен отдельный параграф. Деннет справедливо замечает, что статья Сёр-ла «Сознание, мозги и программы», а вместе с ней и его Китайская комната, несмотря на прошедшие тридцать лет со дня появления в печати, не потеряла актуальности. Она активно используется для примера в лекциях в студенческой аудитории, в том числе и им самим, а также в полемиках среди последователей области «искусственного интеллекта». Заранее предупредив читателя, что постарается «сделать горькую пилюлю переносимой насколько это возможно» [ibid., p. 341], Деннет представляет серию критических аргументов против Китайской комнаты.

Вспоминая знаменитый тест Тьюринга, Деннет говорит, что Сёрл поспешил с объявлением его несостоятельности. Проще говоря, Сёрл, недооценивает возможности программы в компьютере. Сравнивая себя, манипулирующего символами, записанными на бумаге в «комнатных» условиях, с программой компьютера, он забывает о сильных вычислительных компьютерных способностях. Деннет говорит, к примеру, что «центральный процессор в ноутбуке может ничего и не знать о шахматах, но в случае, когда работает шахматная программа, вполне вероятно, что вы будете побеждены» [ibid., p. 342].

Интересным выглядит предположение Деннета, что программу можно обучить тем же методом Сократа, путем задавания вопросов. Пример такого обучения связан с положениями квантовой физики, система с течением времени будет все лучше и лучше справляться с посылаемыми задачами. И ошибка Сёрла заключается в том, что

он считал программу простой кучей правил, записанных на бумаге, возможно, он не умышленно скрыл всю сложность программы, но проигнорировал последствия такого сложного строения [ibid.].

Подобные выводы можно наблюдать в более ранних работах Деннета (к примеру: Hofstadter D., DennetD. The Mind's I. 1981). После сёрловской статьи там представлена позиция авторов, касающаяся его мысленного эксперимента «Китайская комната». Читатели словно одурманены простотой аргументации Сёрла, они сами, того не замечая, попадаются в некую ловушку, в результате этого неправильно понимают отношения между разумом и манипуляцией символов, пишет Деннет. Ловушка заключается в упомянутом нами ранее упрощенном понимании вычислительных действий программы на компьютере. Для человека имитация вручную программы в Китайской комнате или любой другой существующей программы искусственного разума потребовала бы несколько дней, если не недель или месяцев, чудовищно скрупулезного труда. Тем не менее демон в комнате Сёрла должен легко запомнить наизусть весь материал, представленный на «нескольких клочках бумаги», однако при всем желании невозможно вообразить, что человек способен это проделать [Д. Хофштадтер, Д. Деннет, 2009, с. 332]!

Недостаток позиции Сёрла, по мнению Деннета, состоит в том, что он, в зависимости от случая, может приписывать определенной системе интециональность, а может категорически отвергать ее наличие. Причем в некоторых случаях имеет значение материал, из которого сделана система, различие между синтаксисом и семантикой, т.е. лингвистической составляющей в системе.

Критикуя позицию Сёрла, авторы представляют аргумент Китайской комнаты с помощью «ручек настройки». Всего выделяется пять «ручек настройки», каждая отвечает за тот или иной аспект мысленного эксперимента. И в соответствии с этим эксперимент Сёрла можно представить следующим образом.

Ручка 1. Бумага и символы.

Ручка 2. Концепции и идеи.

Ручка 3. Размер комнаты.

Ручка 4. Демон человеческого размера.

Ручка 5. Низкая скорость (одна операция каждые несколько секунд).

Вслед за этим Деннет и Хофштадтер предлагают видоизменить начальные данные о Китайской комнате, они предполагают, что симуляцией знания китайского языка будет женщина, а демоны — мужчины, если они одушевлены. С этим допущением появляется выбор между точкой зрения системы и точкой зрения демона. Сёрл стал бы настаивать, что имеет смысл рассматривать эксперимент с точки

зрения демона. Соглашаясь с Сёрлом, мы тем самым и оказываемся в затруднительном положении. Сёрл может выбраться из этого, как ему кажется, с помощью утверждения, что «понимание», которое приписывают неживой системе, — это не настоящее понимание, а «псевдопонимание», не сопровождающееся интенциональностью и обделенное каузальной мощью, характерной для мозга.

Как мы уже заметили, Деннет не принимает такую точку зрения. Он отвечает следующим образом: разум существует в мозге и может возникнуть в запрограммированной машине. Когда (и если) подобные машины будут созданы, их каузальная мощь будет зависеть не от материала, из которого они будут сделаны, но от их конструкции и от действующей в них программы. Мы узнаем о том, что у них есть каузальная мощь, если будем с ними разговаривать и внимательно выслушаем то, что они нам скажут [там же, с. 332]. В этом и состоит основная критика Деннета в отношении эксперимента «Китайская комната».

Следующим критиком Китайской комнаты, которого мы рассмотрим, будет Дэвид Чалмерс. Чалмерс приобрел мировую известность после выступления в 1994 г. на конференции в Туссане.

Приступая к критике Сёрла в книге «Сознающий ум: В поисках фундаментальной теории» [Д. Чалмерс, 2013], Чалмерс обращает внимание на следующие моменты. Китайская комната олицетворяет вид одного из «внутренних» возражений против сильного искусственного интеллекта, который показывает, что «компьютеры могли бы симулировать человеческое поведение, но не воспроизводить ментальность... в лучшем случае были бы наделены пустыми оболочками ментального [там же, с. 390]. Наряду с «внутренними» возражениями существуют «внешние» возражения, поясняет Чалмерс. Они связаны с поведенческими аспектами систем, человек, в соответствии с «внешними возражениями», в отличие от компьютеров, обладает уникальными функциональными способностями.

Защищая позиции сторонников сильного искусственного интеллекта, Чалмерс представляет нам принцип «организационной инвариантности». В соответствии с этим принципом всякая система с соответствующим типом функциональной организации будет обладать сознанием, причем на обладание сознанием никак не повлияет материал, из которого она сделана. Такая физическая система будет реализовывать функциональную организацию, если она может быть разделена на соответствующее множество физических компонентов, каждый из которых обладает множеством состояний. Функциональная организация может варьироваться в зависимости от заданного уровня. Для случая с когнитивными системами нам понадобится функциональная организация высокого уровня. Чалмерс считает,

что «сознательный опыт порождается высокодетализированной функциональной организацией» [там же, с. 311].

Связующим звеном в отношениях между интересующим нас физическим объектом и задаваемыми вычислениями является понятие «имплементация». Имплементация описана Чалмерсом как отношение, возникающее в процессе реализации физической системой вычисления. Как правило, вычисления имплементируются на цифровых компьютерах, но это не значит, что их не может имплементировать человеческий мозг. Непоследовательность Сёрла, по мнению Чалмер-са, как раз заключается в том, что он не рассмотрел под таким углом отношение имплементации. Представляя себе имплементацию как нечто зависимое от наблюдателя, он не уделил внимания объективной стороне этого явления. Получается, что критика Сёрла сильного искусственного интеллекта изначально лишена этого важного аспекта. Тезис о сильном ИИ выражен в вычислительных терминах и говорит о том, что имплементация надлежащего вычисления достаточна для сознания [там же, с. 392].

Рассматривая имплементацию вычисления, следует обратить внимание на тот класс вычислений, о котором пойдет речь, так как существует немало подобных классов. Для примера имплементации Чалмерс выбирает имплементацию для формализма КоА. «Комбинаторные автоматы» специфицируются заданием конечного набора данных на входе, структурированного набора внутренних состояний, конечного набора данных на выходе. Имплементация для КоА может быть перенесена на другие классы формализмов в силу достаточной абстрактности этих автоматов. КоА детерминируется специфицированием набора векторов внутренних состояний и векторов данных на входе и на выходе и специфицированием набора правил перехода от состояния к состоянию, определяющих изменение состояния КоА во времени [там же, с. 394].

Формальный критерий имплементации КоА представляется Чалмерсом следующим образом:

«Физическая система Р имплементирует КоА М, если можно разложить внутренние состоянияР на компоненты [51,..., 5я] иустановить соответствие / между подсостояниями 5 и соответствующими подсостояниями $ в М, а также произвести сходную операцию разложения и установления соответствия для данных на входе и на выходе так, что для каждого правила перехода от состоянию к состоянию

([Р,..., 1к], [51,..., 5"]) —> ([51,..., $"], [О1,..., Ог])

в М: если Р находится во внутреннем состоянии [52,.5я] и получает на входе [г1..., гп], соответствующие формальному состоянию и данным на входе [51,..., 5я] и [I1,., 1к], то это каузальным образом с неизбежностью приводит

к тому, что она переходит к такому внутреннему состоянию и порождает такие данные на выходе, которые надлежащим образом соответствуют [Б'1,..., 5'"] и [О1,..., Ог]» [там же, с. 395].

Имплементация КоА, в силу структуры внутренних элементов, может передавать каузальные организации какой-либо системы с высокой степенью детализации. Возвращаясь к вопросу о зависимости вычислительных процессов от стороннего наблюдателя, мы можем констатировать, что по большому счету данная зависимость минимальна. Утверждение о том, что физическая система импле-ментирует комплексное вычисление Р, равносильно нетривиальному утверждению о каузальной структуре всей этой системы, которое может быть полезным для когнитивных объяснений, а также, быть может, и для понимания основы сознания [там же, с. 397]. Это достаточно весомый аргумент Чалмерса в защиту сильного искусственного интеллекта, не исключено, что в любом компьютере существует каузальное напряжение различных соединений, подобно каузальности между нейронами мозга у человека.

По мнению Чалмерса, Китайская комната иллюстрирует систему, которая имплементирует программу, но при этой имплементации отсутствует сознательный опыт. Как уже упоминалось, Сёрл придерживается утверждения о недостаточности программы для возникновения сознания. Китайская комната и все, что в ней, включая человека (демона в случае с примером Чалмерса), не создадут в совокупности осознанного понимания. Но если мы представим себе, что «комнатная» программа — не что иное, как комбинаторный автомат, то существо, находящееся в комнате, будет имплементировать данный комбинаторный автомат с помощью банков данных на бумаге. В этом случае Чалмерс просит обратить внимание в первую очередь на то, что существо, находящееся в комнате, имеет второстепенную значимость в появлении сознательного опыта. В «клочках бумаги» сосредоточена основная роль возможного появления сознательного опыта в «комнатном» варианте. Существо лишь совершает определенные алгоритмические процессы, которые, кстати, можно автоматизировать. Аргумент Сёрла интуитивно впечатляет нас из-за причудливости программной имплементации, затемняющей реализацию релевантной каузальной динамики [там же, с. 404]. Но при избавлении от образов, навеваемых присутствием нерелевантного демона и медлительностью перетасовки символов, мы увидим, что каузальная динамика в комнате в точности отражает каузальную динамику в черепной коробке [там же].

Как нами было уже отмечено, Деннет считает невозможным запоминание человеком в Китайской комнате прописанных на бумаге

правил, выражаясь языком Сёрла, «интериоризование всей системы». Чалмерс в таком же ключе констатирует недостаток этой части аргумента Китайской комнаты, обращая внимание на ограниченные способности человеческой памяти. И тем самым «клочки бумаги», находящиеся в комнате, являются не просто формальными данными, «они образуют конкретную динамическую систему, каузальная организация которой прямо соответствует организации исходного мозга [там же].

В отличие от человеческого «понимания» китайского текста, в Китайской комнате может возникнуть лишь синтаксис, но не семантика, пишет Сёрл, компьютерная программа сугубо синтаксич-на. С тем, что программа синтаксична, спорить не стоит, по своей природе она — абстрактный вычислительный объект. Когда речь заходит об имплементации программ, то мы уже имеем в виду соответствующую систему с каузальной динамикой, и утверждать, что в этом случае тоже имеет место лишь синтаксис, будет заблуждением. Сёрл оказался под влиянием такого заблуждения.

Для опровержения тезиса о недостаточности имплементации программы для сознания Чалмерс создает пародию на аргумент Сёрла.

1. Рецепты синтаксичны.

2. Синтаксис недостаточен для рассыпчатости.

3. Пирожные рассыпчаты.

4. Значит, имплементации рецепта недостаточно для пирожного.

«В таком виде указанный дефект бросается в глаза. Аргумент не проводит различия между рецептами, являющимися синтаксическими объектами, и имплементацией рецептов, полноценными физическими системами в реальном мире. Вся работа, опять-таки, проделывается отношением имплементации, соотносящим области абстрактного и конкретного» [там же, с. 406]. Получается, что им-плементация программ будет способствовать появлению интенцио-нальности.

Критикуя позицию Сёрла относительно возможности сильного искусственного интеллекта, Чалмерс считает его выводы по большей части не состоявшимися. Заманчиво представлять компьютер просто как устройство с входом и выходом, между которыми есть место лишь для формальных математических манипуляций [там же, с. 399].

Если мы принимаем точку зрения, согласно которой высокоде-тализированная функциональная организация способна породить сознательный опыт, то основная загвоздка на пути к сильному искусственному интеллекту оказывается устраненной. Достаточно станет определить соответствующий класс вычислений, который будет

способен воспроизвести ментальные процессы, и тогда Китайская комната окажется отброшенной. Чалмерс надеется, что со временем это с неизбежностью произойдет.

Российский философ В.В. Васильев подробно рассматривает аргумент Китайской комнаты Джона Сёрла, критикуя его. На наш взгляд, в русскоязычной литературе это пример самой подробной критики Китайской комнаты.

В статье «Кока-кола и секрет Китайской комнаты» [В.В. Васильев, 2007] Васильев для того, чтобы показать недостаточную проработанность позиции признания «слабого ИИ» наряду с исключением «сильного ИИ», предлагает перед «комнатным» экспериментом Сёрла принести банку кока-колы и установить ее на стол перед участником эксперимента. Заранее никто об этом знать не мог, так как это внезапное решение в программу соответствующих изменений не вносилось. Простейший вопрос: «что перед Вами?» сразу разрушает иллюзию возможности реализации «слабого искусственного интеллекта» исключительно синтаксическими средствами [там же]. Представим себе, что в комнате есть видеокамера, которая может распознать предмет с помощью программы и соответствующей команды. При фокусировании камеры на банке с колой испытуемый сможет выдать ответ, когда получит информацию в виде символов, иероглифов от устройства. В итоге можно рассматривать систему, которая будет в комнате прототипом робота. Возникает вопрос о возникновении понимания у системы, в которую может быть интегрирован робот. Поскольку возможности Китайской комнаты в аутентичном виде не так велики, не стоит сбрасывать со счетов, что усовершенствованная система покажет слабый результат в эмуляции понимания. Одним словом, Китайская комната показывает безальтернативность сильного ИИ [там же]. Конечно, это не то, что хотел доказать Сёрл, используя мысленный эксперимент.

С одной стороны, Васильев не считает позицию Сёрла ошибочной, по крайне мере, ошибочной полностью, с другой стороны, он рекомендует рассматривать и детально изучать отдельные ее части, о которых мы сказали ранее. Несомненно, позиция Сёрла, которая не противоречит здравому смыслу, достаточно устойчивая, может быть, это одно из ее достоинств, но это не значит, что необходимость изучения отдельных аспектов получившейся теории исчезает.

Таким образом, мы рассмотрели мысленный эксперимент «Китайская комната» и направленную на него критику. Джона Сёрла можно считать по большей части приверженцем «здравого смысла» в философском анализе. Как мы отметили вначале, данный подход не есть нечто неправильное или неприемлемое. Однако судя по той волне критики, которая обрушилась на Китайскую комнату букваль-

но с момента ее создания, нам определенно есть о чем задуматься. Наш обзор критики — лишь небольшая часть той нахлынувшей волны, которая до сих пор продолжается. Рассмотрев опубликованную вместе со статьей вопросно-ответную критику эксперимента, мы также осуществили обзор таких критиков эксперимента «Китайская комната», как Д. Деннет и Д. Чалмерс.

Китайская комната Джона Сёрла, несмотря на все критические выпады, не разрушена, положения эксперимента и по сей день являются точкой опоры для исследователей, не принимающих компьютерную метафору сознания. Критики Сёрла в основном обращают внимание на игнорирование им в эксперименте функциональных возможностей компьютеров (прежде всего Чалмерс). С развитием информационных технологий казавшиеся невероятными до начала 2000-х гг. вещи стали реальностью, к примеру создание роботов-андроидов, которые в ближайшем будущем станут неотъемлемыми помощниками во многих сферах человеческой жизни, а вслед за этим все острее ставится вопрос о возможности появления сознательности у машин.

На сегодняшний момент проблема соотношения сознания и тела не является окончательно решенной, поэтому, вероятно, интерес к ней не только не угасает, а наоборот, набирает новые и новые обороты.

СПИСОК ЛИТЕРАТУРЫ

Васильев В.В. Кока-кола и секрет Китайской комнаты // Философия сознания: классика и современность. 2007. С. 86-94.

Васильев В.В. Трудная проблема сознания. М., 2009.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Сёрл Дж. Открывая сознание заново. М., 2002.

Сёрл Дж. Как можно решить проблему «сознание — тело»? // Лекции зарубежных профессоров на философском факультете МГУ имени М.В. Ломоносова. М., 2014.

Хофштадтер Д., Деннет Д. Глаз разума. Самара, 2009.

Чалмерс Д. Сознающий ум: В поисках фундаментальной теории. М., 2013.

Churchland P., Churchland P. Could a machine think? // Scientific American. 1990. 262 (1). P. 32-37.

Dennet D. Intuition pumps and other tools for thinking. N.Y., 2013.

Searle J. Minds, brains and programs // Behavioral and Brain Sciences. Cambridge, 1980. Vol. 3.

Searle J.R. Intentionality: An essay in the philosophy of mind. Cambridge,

1983.

Searle J.R. Mind: A brief introduction. Oxford, 2004.

Turing A. Computing machinery and intelligence» // Mind. 1950. Vol. 59. P. 433-460.

i Надоели баннеры? Вы всегда можете отключить рекламу.