Научная статья на тему 'В защиту аргумента китайской комнаты Д. Серла'

В защиту аргумента китайской комнаты Д. Серла Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
1404
197
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АРГУМЕНТ КИТАЙСКОЙ КОМНАТЫ / СОЗНАНИЕ / ФУНКЦИОНАЛИЗМ / ЭЛИМИНАТИВИЗМ / КОНЦЕПЦИЯ СИЛЬНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / CHINESE ROOM ARGUMENT / CONSCIOUSNESS / FUNCTIONALISM / ELIMINATIVISM / THE CONCEPT OF STRONG ARTIFICIAL INTELLIGENCE

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Черепанов Игорь Владимирович

В статье анализируется аргумент китайской комнаты Д. Серла. Рассматриваются основные философские возражения против аргумента китайской комнаты и показывается их логическая несостоятельность. Опровергается концепция сильного искусственного интеллекта и доказывается нередуцируемость сознания к процессам физического свойства.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

In Defense of J. Searle’s Chinese Room Argument

This article is devoted to the analysis of J. Searle’s Chinese room argument. The author focuses on the main philosophical objections to the said argument making their logical inconsistency evident, disproving the concept of strong artificial intelligence and manifesting the impossibility of reducing consciousness to physical processes.

Текст научной работы на тему «В защиту аргумента китайской комнаты Д. Серла»

УДК 130.3 : 159.9.016.5

И. В. Черепанов В защиту аргумента китайской комнаты Д. Серла

В статье анализируется аргумент китайской комнаты Д. Серла. Рассматриваются основные философские возражения против аргумента китайской комнаты и показывается их логическая несостоятельность. Опровергается концепция сильного искусственного интеллекта и доказывается нередуцируе-мость сознания к процессам физического свойства.

Ключевые слова: аргумент китайской комнаты, сознание, функционализм, элиминативизм, концепция сильного искусственного интеллекта.

This article is devoted to the analysis of J. Searle's Chinese room argument. The author focuses on the main philosophical objections to the said argument making their logical inconsistency evident, disproving the concept of strong artificial intelligence and manifesting the impossibility of reducing consciousness to physical processes.

Key words: Chinese room argument, consciousness, functionalism, eliminativism, the concept of strong artificial intelligence.

Аргумент китайской комнаты, придуманный Д. Серлом в 1980 г. и остающийся по сей день предметом неутихающих споров, доказывает, что мышление человека во всей своей полноте ни при каких условиях не может воспроизводиться кибернетическим механизмом и что последний опять-таки ни при каких условиях не может обладать сознанием, подобным сознанию человека. Другими словами, аргумент китайской комнаты направлен против концепции сильного искусственного интеллекта и вместе с тем против таких философских концепций сознания, как функционализм, элиминативизм, теория тождества, логический и эмпирический бихевиоризм.

Суть этого аргумента сводится к тому, что если мы не владеем китайским языком, но знаем программу, благодаря которой можем общаться с носителями китайского языка, то такое знание еще не позволяет нам понимать смысл общения, а следовательно, робот, наделенный искусственным разумом, каким бы совершенным он ни был, принципиально не способен понимать и осознавать так, как это характерно для человека. Действительно, человек может выучить

© Черепанов И. В., 2014

программу, которая одним китайским иероглифам ставит в соответствие другие китайские иероглифы таким образом, что в итоге получается синтаксически правильно структурированная коммуникация, имеющая к тому же еще и смысл для носителя китайского языка. Однако Д. Серл утверждает, что в подобном мысленном эксперименте человек, владеющий программой для разговора на китайском языке, будет общаться на нем неосознанно, механически, не понимая действительного смысла общения [4]. А следовательно, знание программы еще не дает понимания того, что именно эта программа делает. И значит, мышление человека принципиально отличается от мышления робота, ибо робот лишь реализует определенные программы и алгоритмы, но не осознает собственных действий, осуществляемых в соответствии с этими программами и алгоритмами, тогда как человек в отличие от робота и осознает собственные действия, и понимает их смысл. Так, например, робот может говорить на разных языках мира, но при этом он не будет понимать эти языки подобно тому, как их понимают люди, являющиеся носителями данных языков, ибо будет говорить на них неосознанно и механически. И поэтому коммуникация робота носит чисто синтаксический характер, тогда как в коммуникации человека присутствует также еще и семантическая составляющая, т. е. робот лишь оперирует знаками, в то время как человек наполняет эти знаки определенного рода смыслом, который сам по себе не может быть редуцирован к простой знаковой структуре, поскольку знак - это конвенционально принятый формальный указатель на другие знаки, а смысл - это его содержательное наполнение, которое как таковое, со своей стороны, уже не имеет никакой знаковой функции, ибо ни на что другое, кроме себя самого, не указывает. Можно сказать, что знак сам по себе интенционален и внутренне пуст, в то время как смысл имеет внутреннее содержание, которое раскрывается имманентно самому этому смыслу.

Поэтому для опровержения аргумента китайской комнаты Д. Серла следует доказать либо то, что семантическое содержание может быть полностью редуцировано к формально-синтаксическим структурам языка, либо то, что семантическая составляющая языка с необходимостью порождается его определенной синтаксической активностью. Первый путь опровержения назовем негативным, второй - позитивным. И соответственно на сегодняшний день из наиболее известных опровержений аргумента китайской комнаты можно выделить два негативных контраргумента - функционалист-ский и операционалистский, а также два позитивных контраргумен-

та - системный и генеративный. Далее рассмотрим каждый из них в отдельности и вскроем как их сильные, так и слабые стороны.

Начнем с функционалистского контраргумента. Суть его сводится к тому, что работа человеческого мозга подобна работе компьютера, и в этом отношении можно провести параллели, с одной стороны, между органическим составом мозга и техническим устройством компьютера, а, с другой - между психическими способностями мозга (такими, например, как мышление, восприятие и память) и программным обеспечением компьютера. Компьютер не порождает никакой семантики, а просто реализует определенную функцию (например, функцию счета), и по аналогии с этим всякая психическая способность человека также представляет собой определенную функцию, которая, вообще говоря, может быть реализована и на неорганическом носителе, откуда, в частности, следует истинность концепции сильного искусственного интеллекта, в соответствии с которой при определенном уровне научно-технического прогресса компьютер может обладать всеми психическими способностями, присущими человеку. Таким образом, смысл какого-то знака редуцируется к его лингвистической функции, и никакого смыслового содержания как именно некой наполненности, обладающей бытием независимо от того, как она может быть использована в языковой среде, не существует. А следовательно, у человека, как и у робота, нет и не может быть никакого понимания в том смысле, в каком это слово используется в рамках аргумента китайской комнаты, что и доказывает его ложность.

Поэтому сильной стороной функционалистского контраргумента является то, что действительно очень сложно найти логическое отличие психических способностей человека от функциональных возможностей компьютера, поскольку всякая психическая способность (будь то, например, мышление, восприятие или память) может быть непротиворечивым образом, по крайней мере теоретически, представлена в виде определенной программы или функции. Слабой же стороной такого контраргумента является то, что нам интуитивно ясно, что мы не просто говорим на родном языке, а именно понимаем его и что при этом осознанное понимание принципиально отличается от бессознательной реализации какой-то программы или функции.

Однако в любом случае, если развивать функционалистский контраргумент последовательно и логически, то необходимо признать, что сознания как онтологической сущности не существует, поскольку в противном случае оно должно быть противопоставлено

бессознательному, а это с неизбежностью приводит к логическому противоречию. Действительно, с одной стороны, все бессознательное есть функциональное, ибо функционалистский подход редуцирует все психическое к программам и функциям, а, с другой стороны, все функциональное есть бессознательное, ибо любая функция, как и любая программа, реализуется автоматически, и даже если предположить, что существует функция самого сознания или программа, отвечающая за сознательный опыт, то реализация такой функции или осуществление такой программы также будет протекать автоматически, т. е. бессознательно. Но говорить о бессознательном сознании в логическом отношении настолько же бессмысленно, насколько и говорить, скажем, о нематериальной материи. И, таким образом, в итоге мы с необходимостью приходим к концепции элиминативизма (развиваемой, например, Д. Денне-том [2] и С. Пристом [3]), согласно которой сознания как именно противоположности бессознательному вообще не существует. Однако элиминативистская точка зрения, во-первых, противоречит здравому смыслу, ибо каждый человек может с уверенностью констатировать тот факт, что он, по крайней мере, в определенное время осознает свои действия и происходящие с ним события, а во-вторых, приводит к абсурдной ситуации, когда сам опыт осознания признается бессознательным опытом.

Операционалистский контраргумент основывается на том, что смысл какого-то знака - это алгоритм его использования во взаимоотношении с другими знаками. Действительно, смысл какого-то слова мы узнаем либо с помощью логического определения, заглядывая в справочник или получая знаковую информацию из какого-то другого источника, либо с помощью остенсивного определения, когда нам показывают сам объект, обозначаемый данным словом.

В первом случае дефиниция слова, раскрывающая его смысл, сводится к сопоставлению этого слова с упорядоченным набором других слов, т. е. фактически к алгоритму перевода одного знака в последовательность других знаков. И если мы захотим дать такую же логическую дефиницию тем знакам, которые входят в последовательность, определяющую исходный знак, то получим новые последовательности знаков. И так будет продолжаться, пока мы либо упремся в знаки, которые будут определяться уже не логически, а остенсивно, либо логический круг замкнется и некоторые знаки будут определяться друг через друга, образуя скрытую или явную тавтологию.

Во втором случае дефиниция слова, раскрывающая его смысл, сводится к сопоставлению этого слова с каким-то чувственным образом, представленным в определенной модальности (например, визуальной, аудиальной или кинестетической), т. е. с каким-то упорядоченным набором сенсорных данных. Однако каждое сенсорное данное, со своей стороны, также представляет собой некий знак, который в совокупности с другими знаками того же логического порядка (т.е. с другими сенсорными данными) образует синтаксическую структуру, нуждающуюся в прояснении собственного смысла, который может быть раскрыт опять-таки либо посредством сопоставления целостного образа (совокупности сенсорных данных, обладающих предметным единством) и какого-то слова (или последовательности слов), либо за счет отсылки к другому целостному образу, смысл которого уже известен. Но как в первом, так и во втором случае мы снова имеем дело с сопоставлением одного знака (целостного образа) с последовательностью других знаков (соответственно, слов или других целостных образов).

В конечном итоге последовательность дефиниций логического или остенсивного характера с необходимостью замыкается в скрытую или явную тавтологию, которая сводится либо к взаимному определению слов, либо к взаимному определению образов, либо к взаимному определению слов через образы, а образов - через слова.

И значит, никакого смысла как некоего содержания, которое приплюсовывается к знаку, не существует, а под смыслом некоего знака следует понимать лишь алгоритм перевода этого знака в последовательность других знаков - либо гомогенных ему в логическом отношении (т. е. принадлежащих тому же самому, что и сам осмысляемый знак, логическому уровню бытия), либо гетерогенных (т. е. соответственно принадлежащих иному логическому уровню бытия, нежели сам осмысляемый знак).

Сильной стороной операционалистского контраргумента является то, что, действительно, операция означивания как логического, так и остенсивного характера с необходимостью не заключает в себе ничего такого, что выходило бы за рамки самой формальной процедуры сопоставления знаков и представляло бы собой некое неформальное смысловое содержание. Слабой же стороной такого контраргумента является то, что он исключает возможность внеязы-кового сознания, ибо вообще любое осознание чего-то предполагает обозначение этого чего-то посредством определенного логического алгоритма. А следовательно, сознание неотделимо от мышления, в то время как мышление отделимо от сознания, ибо очевидным обра-

зом можно говорить о бессознательном мышлении. И тогда, в частности, разоблачаются все восточные медитативные практики, направленные, с одной стороны, на элиминацию мышления (как абстрактного, так и образного), а с другой - на усиление сознания, что в результате должно привести к схватыванию реальности как таковой без искажающего воздействия репрезентативных конструкций ума, ибо, как оказывается, сознание неотделимо от мышления и является формой его психической активности.

В конечном итоге неотделимость сознания от мышления и его редукция к мыслительной активности делает его формой существования бессознательного, т. е. сознание в своей онтологической основе оказывается бессознательным. И поэтому, если в рамках предыдущего контраргумента мы приходим к логическому тождеству сознательного и бессознательного, то здесь мы устанавливаем их онтологическое тождество, т. е. фактически принимаем философскую теорию тождества (развиваемую, например, Ю. Плейсом, Д. Смартом и Д. Армстронгом [3, с. 127-130]), согласно которой ментальное есть физическое, а сознательное есть бессознательное. Однако тождество ментального и физического означает также и тождество субъективного и объективного, причем речь здесь идет не о диалектическом тождестве, когда субъект отражает объект, а объект отражается в субъекте, но о полном совпадении ментального и физического т. е. о том, что ментальное и есть физическое, а значит, субъективное и есть объективное. Но субъективное, очевидно, не есть объективное, а ментальное, очевидно, не есть физическое, поскольку ментальный образ как именно образ не тождественен сопровождающим его нейрофизиологическим процессам (если, например, человеку снится голубое небо, то сколько бы мы при этом ни сканировали его мозг на физическом уровне, не обнаружим никакого голубого неба).

Таким образом, если мы не признаем ни элиминативизм, ни теорию тождества, то мы, как следствие, должны отказаться в рамках опровержения аргумента китайской комнаты и от негативно построенных контраргументов, основанных на том, что семантическое содержание психических актов может быть полностью редуцировано к формально-синтаксическим структурам языка.

Теперь рассмотрим основные контраргументы (системный и генеративный) позитивного характера, которые основываются на том, что смысловое содержание не редуцируется к последовательности формальных знаков, но порождается синтаксическими структурами языка.

Системный контраргумент заключается в том, что тест Тьюринга (т. е. тест на наличие человеческой психики) выдерживает не сам человек, запертый в китайской комнате, а целостная система, состоящая из: 1) комнаты как специфической среды, открывающей определенные возможности взаимодействия с окружающим миром; 2) запертого в ней человека; 3) набора алгоритмов, в соответствии с которыми человек общается на китайском языке. Другими словами, целостная система, состоящая из комнаты, человека и списка алгоритмов, является разумной и, в частности, понимает китайский язык.

Однако в данном мысленном эксперименте можно заменить живого человека бездушным роботом, который с не меньшим успехом, подобно человеку, будет следовать набору определенных алгоритмов, отвечающих за общение на китайском языке. Но тогда сама комната в целом вместе с действующим внутри нее роботом и списком алгоритмов может быть представлена как единое кибернетиче-

с ^ о *

ское устройство, знающее китайский язык. А следовательно, разумным оказывается бездушный автомат, который, как мы видели при рассмотрении функционалистского контраргумента, сознанием не обладает и никакие смыслы не продуцирует, а лишь исполняет функции и реализует программы. В итоге от позитивного контраргумента мы с необходимостью приходим к его негативной форме, что означает либо то, что системный контраргумент сводится в своей сущности к функционалистскому, либо то, что системный контраргумент заключает в себе самом внутреннее логическое противоречие.

Поэтому сильные стороны системного контраргумента принадлежат рассмотренному выше функционалистскому контраргументу, а слабые стороны вскрываются сразу же, как только мы пытаемся сохранить за ним статус позитивного, т. е. не элиминирующего смысловое содержание в качестве иллюзорного эффекта активности синтаксических структур языка.

И наконец, генеративный контраргумент, который является, пожалуй, наиболее сильным среди прочих контраргументов, опровергающих аргумент китайской комнаты, сводится к тому, что знание алгоритма китайского языка автоматически влечет за собой и его осознанное понимание. Действительно, представим себе, что китаец, участвующий в тесте Тьюринга, демонстрирует мобильный телефон и спрашивает, что это такое. Если испытуемый, не знающий китайского языка и проходящий тест Тьюринга, сам непосредственно видит демонстрируемый предмет, а затем, следуя

алгоритму, выдает необходимый иероглиф, то в этом случае он уже начинает обучаться китайскому языку на сознательном уровне, ибо легко может сопоставить найденный иероглиф с его вещественно-предметным значением. Если же испытуемый не видит демонстрируемого предмета, в то время как последний сканируется с помощью телекамер специальным китайским роботом, который оказывает соответствующее воздействие на список алгоритмов, ведущих к поиску нужного иероглифа, то тогда, дабы аргумент китайской комнаты сохранил свою логическую силу, испытуемому в дополнение к вышеупомянутому списку алгоритмов должны быть известны еще и все программы, посредством которых управляется сам китайский робот. А отсюда, как заявляют сторонники генеративного контраргумента, с необходимостью вытекает и то, что знание этих программ автоматически приведет и к пониманию китайского языка, ибо эти программы будут сопоставлять конкретный визуальный образ с конкретным иероглифом, благодаря чему значение иероглифа будет проясняться остенсивным способом. В частности, В.В. Васильев в своей статье «Кока-кола и секрет Китайской комнаты» утверждает, что если испытуемый, запертый в китайской комнате, «знал бы всю программу или совокупность программ, позволяющих эмулировать осмысленную китайскую речь, он начал бы понимать по-китайски» [1, с. 90].

Но все оказывается не столь однозначным, если поставить следующий вопрос: каким образом китайский робот распознает конкретную вещь, попадающую в фокус телекамер? И здесь, прежде всего, необходимо заметить, что робот воспринимает окружающий мир в виде распределения пикселей различного цвета. Причем каждый цвет закодирован в виде определенной последовательности цифр. Можно сказать, что робот, в действительности, не видит никаких цветов, а оперирует с цифрами, которые этим цветам соответствуют. В памяти робота хранятся определенные соотношения между распределенными в пространстве пикселями, и если одно из таких соотношений с определенной погрешностью соответствует цифровому соотношению, полученному в результате обработки телеметрической информации, то это считается достаточным, чтобы отождествить воспринимаемую вещь с помощью телекамер и некую другую вещь, извлеченную из памяти робота в виде, опять-таки, определенной последовательности цифр и соответствующую в силу

__^ __С __А

вышеописанной процедуры той вещи, которая воспринимается. А значит, робот на самом деле ничего не воспринимает постольку, поскольку у него отсутствуют какие бы то ни было ментальные обра-

зы. Он лишь оперирует последовательностью цифр, которым мы, существа, имеющие ментальный опыт, ставим в соответствие определенные цвета. И знание кода, с помощью которого передается информация об определенном цвете, еще вовсе не дает знания о восприятии самого этого цвета, ибо в рамках восприятия цвет есть феномен психического, а не физического порядка. Действительно, если даже сопоставить каждому психически воспринимаемому цвету определенную частоту физически существующей электромагнитной волны, то сам цвет как именно психический образ к этой волне не редуцируется хотя бы уже потому, что может быть получен нефизическим способом, когда, например, наложение двух цветовых кругов дает восприятие третьего, отсутствующего физически цвета.

Поэтому если даже испытуемый, запертый в китайской комнате, будет знать программу, посредством которой управляется распознающий предметы китайский робот, то это, тем не менее, ему никак не позволит понять, на что именно направлены телекамеры. Основная ошибка генеративного контраргумента, который утверждает, что знание развернутой программы китайского языка сразу же дает и его автоматическое понимание, если задействуются сущности неиероглифического характера (например, физические вещи), заключается в допущении, что китайский робот воспринимает окружающий мир с помощью телекамер точно так же, как его воспринимает обладающий сознанием человек с помощью глаз и мозга. Но такое допущение фактически тождественно допущению, что телекамеры получают предметный образ окружающего мира, тогда как в действительности они никакого предметного образа не получают, а получают лишь закодированную информацию, для расшифровки которой в виде ментального опыта уже недостаточно никаких функционально-технических средств, а требуется присутствие сознания. Робот может лишь имплицировать одну последовательность цифр посредством другой последовательности цифр, которые существуют в виде определенных физических процессов (например, в виде наличия или отсутствия электрического сигнала), тогда как ментальный опыт предполагает нечто нефизическое и нецифровое, т. е. нечто такое, что, с одной стороны, не существует как энергия (т. е. как реальная вещь), а с другой - не существует и как информация (т. е. как функциональный код).

И поэтому в самой китайской комнате никакого понимания не существует, но оно может присутствовать в ментальном опыте того, кто о ней думает. Другими словами, робот, совершая определенные

мыслительные операции, ничего не понимает, но человек, интерпретирующий действия робота, может спроецировать на него собственное понимание, которое в действительности роботу не присуще. По аналогии с этим мы проецируем на животных собственные эмоции и приписываем им, например, радость, печаль, тоску, злорадство или ревность, в то время как соответствующие этим эмоциям поведенческие реакции еще не свидетельствуют с необходимостью об их ментальном бытии. К тому же, животные не обладают способностью вербального отчета о своем внутреннем ментальном состоянии, чтобы подтвердить или опровергнуть наши косвенные догадки. Но даже и наличие такого вербального отчета, строго говоря, еще не дает нам право с уверенностью заявлять о существовании предполагаемых эмоций, поскольку вербальный отчет может оказаться со стороны самого отчитывающегося существа чисто механической и семантически пустой процедурой. Таким образом, следует проводить четкую демаркационную линию между понимающим сознанием человека и непонимающей бессознательностью робота при демонстрации схожих паттернов поведения, что, в частности, указывает на невозможность создания сильного искусственного интеллекта.

Список литературы

1. Васильев В. Кока-кола и секрет Китайской комнаты // Философия сознания. Классика и современность: Вторые Грязновские чт. - М., 2007. -С. 480.

2. Деннет Д. Виды психики. М.: Идея-Пресс, 2004. - 184 с.

3. Прист С. Теории сознания. - М.: Идея-Пресс, Дом интеллектуальной книги, 2000. - 288 с.

4. Серл Д. Открывая сознание заново. - М.: Идея-Пресс, 2002. - 256 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.