Научная статья на тему 'ИССЛЕДОВАТЕЛЬСКОЕ ПОВЕДЕНИЕ: ОГРАНИЧЕННО РАЦИОНАЛЬНОЕ ПРОИЗВОДСТВО РАЦИОНАЛЬНОГО НАУЧНОГО ЗНАНИЯ'

ИССЛЕДОВАТЕЛЬСКОЕ ПОВЕДЕНИЕ: ОГРАНИЧЕННО РАЦИОНАЛЬНОЕ ПРОИЗВОДСТВО РАЦИОНАЛЬНОГО НАУЧНОГО ЗНАНИЯ Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
53
19
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИССЛЕДОВАТЕЛЬСКОЕ ПОВЕДЕНИЕ / ОГРАНИЧЕННАЯ РАЦИОНАЛЬНОСТЬ / КОГНИТИВНЫЙ УКЛОН / ЭВРИСТИКА / САМОКОРРЕКЦИЯ НАУКИ

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Тамбовцев Виталий Леонидович

Люди сильно разнятся между собой по познавательным способностям, однако у всех них эти способности ограничены, начиная от возможностей восприятия окружающей реальности и кончая осуществлением математических расчётов и логических выводов из сделанных посылок. Если полностью рациональный индивид не только обладает полной информацией о мире, но и неограниченными возможностями совершать расчёты и делать логические выводы, то реальные люди, включая профессиональных исследователей, лишь ограниченно рациональны. Тем не менее научные знания, производимые учёными, близки к полностью рациональным. В статье рассматриваются компоненты ограниченной рациональности и те механизмы внутри науки, которые позволяют совершать такой переход. Ведущая роль среди этих механизмов принадлежит научной коммуникации, одной из функций которой является коррекция непроизвольных и неосознаваемых ошибок, совершаемых ограниченно рациональными исследователями. Показано, что выполнение этой функции сталкивается с определёнными сложностями, которые важно исследовать для улучшения процесса корректировки ошибок.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по философии, этике, религиоведению , автор научной работы — Тамбовцев Виталий Леонидович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SCHOLARLY BEHAVIOR: BOUNDED RATIONAL PRODUCTION OF RATIONAL SCIENTIFIC KNOWLEDGE

People differ greatly in cognitive abilities, but all of them have limited abilities, ranging from the ability to perceive the surrounding reality and ending with the implementation of mathematical calculations and logical conclusions from the premises made. If a fully rational individual not only has complete information about the world, but also unlimited possibilities to make calculations and draw logical conclusions, then real people, including professional researchers, are only bounded rational. However, the scientific knowledge produced by scientists is close to completely rational. The article discusses the components of bounded rationality and those mechanisms within science that allow such a transition to be made. The leading role among these mechanisms belongs to scholarly communication, one of the functions of which is the correction of involuntary and unconscious errors made by bounded rational researchers. It is shown that the execution of this function faces certain difficulties, which are important to investigate in order to improve the error correction process.

Текст научной работы на тему «ИССЛЕДОВАТЕЛЬСКОЕ ПОВЕДЕНИЕ: ОГРАНИЧЕННО РАЦИОНАЛЬНОЕ ПРОИЗВОДСТВО РАЦИОНАЛЬНОГО НАУЧНОГО ЗНАНИЯ»

КУЛЬТУРНО-ИСТОРИЧЕСКИЙ КОНТЕКСТ И СТРАТЕГИИ НАУЧНО-ТЕХНОЛОГИЧЕСКОГО РАЗВИТИЯ

ИССЛЕДОВАТЕЛЬСКОЕ ПОВЕДЕНИЕ: ОГРАНИЧЕННО РАЦИОНАЛЬНОЕ ПРОИЗВОДСТВО РАЦИОНАЛЬНОГО НАУЧНОГО ЗНАНИЯ

Для цитирования: Тамбовцев В. Л. Исследовательское поведение: ограниченно рациональное производство рационального научного знания // Управление наукой: теория и практика. 2023. Т. 5, № 1. С. 185-203. РО! 10.19181/эт*р.2023.5.1.11. ЕРЫ ЭОМТРР

АННОТАЦИЯ

Люди сильно разнятся между собой по познавательным способностям, однако у всех них эти способности ограничены, начиная от возможностей восприятия окружающей реальности и кончая осуществлением математических расчётов и логических выводов из сделанных посылок. Если полностью рациональный индивид не только обладает полной информацией о мире, но и неограниченными возможностями совершать расчёты и делать логические выводы, то реальные люди, включая профессиональных исследователей, лишь ограниченно рациональны. Тем не менее научные знания, производимые учёными, близки к полностью рациональным. В статье рассматриваются компоненты ограниченной рациональности и те механизмы внутри науки, которые позволяют совершать такой переход. Ведущая роль среди этих механизмов принадлежит научной коммуникации, одной из функций которой является коррекция непроизвольных и неосознаваемых ошибок, совершаемых ограниченно рациональными исследователями. Показано, что выполнение этой функции сталкивается с определёнными сложностями, которые важно исследовать для улучшения процесса корректировки ошибок.

КЛЮЧЕВЫЕ СЛОВА:

исследовательское поведение, ограниченная рациональность, когнитивный уклон, эвристика, самокоррекция науки

ВВЕДЕНИЕ

Общепринято1, что наука является сферой человеческой деятельности, в которой ведущая роль принадлежит рациональности. Как писал У. Ньютон-Смит, «образ, который научному сообществу хотелось бы проектировать на себя и который большинство из нас действительно принимает для этого сообщества, — это в полном смысле слова рациональность. Научное сообщество видит себя как саму парадигму институционализированной рациональности. Им кое-что принято во владение, — научный метод, который служит источником "логики подтверждения" ('logic of justification'). То есть, он обеспечивает технологию для объективной оценки достоинств научных теорий. Кроме того, оно даже заявляет некоторым, что научный метод включает "логику открытия" ('logic of discovery'), про которую говорят, что она обеспечивает устройство для поддержки учёного в открытии новых теорий» [1, p. 1].

Вместе с тем как широкой публике, так и части исследователей давно и хорошо известно, что многие решения и поступки людей трудно назвать разумными, продуманными и тем самым рациональными: иррациональность поведения является общей чертой людей, независимо от их профессии. Разумеется, она проявляется далеко не постоянно, однако предугадать, когда человек поведёт себя разумно, а когда - нет, весьма затруднительно.

Сопоставляя житейскую мудрость всеобщности иррациональности с общепринятой рациональностью науки, мы сталкиваемся с необходимостью выбора: либо надо признать, что наукой занимаются особые люди, с которыми не случаются иррациональные поступки (опыт многих людей явно скажет, что это не так), либо в рамках исследовательских действий люди ведут себя так, чтобы избежать проявлений иррациональности (однако теперь уже опыт самих исследователей напомнит, что и они, и их коллеги совершали различные неразумные действия в ходе их профессиональной работы).

и и

С нашей точки зрения, очерченный парадокс имеет другое решение: хотя каждый отдельный исследователь в своей профессиональной деятельности вполне может и принимает нерациональные решения, в ходе научной коммуникации их последствия с высокой вероятностью обнаруживаются другими исследователями, в результате чего корпус научных знаний составляется уже из исправленных текстов, отражающих рациональное научное знание2. Другими словами, индивидуальное отступление от рациональности компенсируется другими индивидами: действует механизм само-корректировки науки через коммуникации внутри научного сообщества, посредством критики проведённых исследований и полученных результатов. Обсуждение этого способа разрешения противоречия между нерациональностью учёных и рациональностью науки и составляет предмет данной статьи.

Концепция самокоррекции науки была введена достаточно давно [2], однако темой её обсуждения в последнее время преимущественно высту-

1 По крайней мере, среди самих исследователей и широкой публики; ряд философов науки и, прежде всего, методологов и философов социальных наук имеют другую точку зрения.

2 Разумеется, рациональность научного знания не тождественна его истинности: то, что было истинным в один период времени, может перестать быть таковым вследствие развития науки.

пает недобросовестное поведение некоторых исследователей. Вместе с тем недобросовестные практики нельзя считать нерациональным поведением: напротив, это обычно вполне сознательные действия, направляемые на получение выгоды в ситуациях, когда добросовестно её получить в созданных условиях функционирования науки представляется исследователю практически невозможным. Компенсация этим механизмом ограниченной рациональности исследователей может расширить наши представления о его роли в росте научного знания.

РАЦИОНАЛЬНОСТЬ, ОГРАНИЧЕННАЯ РАЦИОНАЛЬНОСТЬ И НАУЧНАЯ РАЦИОНАЛЬНОСТЬ

Вопрос о том, что представляет собой рациональность, давно занимает многих исследователей, однако говорить о выработке общего, разделяемого всеми содержания этого понятия, до настоящего времени не приходится. Более того, можно сказать, что в разных отраслях науки сложилась своя трактовка рациональности, которая, однако, обычно достаточно широка и разнообразна. Обсуждение этих различий выходит далеко за рамки данной статьи, задачи которой имеют гораздо более частный и конкретный характер.

По нашему мнению, поскольку принятие решений составляет неотъемлемую часть процесса любого научного исследования, а изучение принятия решений — также неотъемлемая часть экономической науки, представляется вполне корректным рассмотрение исследовательского поведения в рамках концепции ограниченной рациональности [3]. Поскольку ограниченная рациональность и (полная) рациональность не могут существовать друг без друга [4], нам необходимо также ясно определить, что мы будем далее понимать под рациональностью. Применительно к процессам принятия решений их рациональность — «это логически ожидаемое достижение оптимального результата, обеспечиваемого точной (accurate) оценкой лицом, принимающим решения, предпочтений ценности и риска» [5, p. 478]. Другими словами, если лицо, принимающее решения (далее — ЛПР), точно определило, чего оно хочет и чего опасается, то решение будет рациональным, если позволяет достичь наилучшего для ЛПР результата3, логически вытекая при этом из сделанных оценок.

Хотя приведённое определение достаточно широко разделяется в литературе, с нашей точки зрения, оно не полностью отражает значимые компоненты принятия решений, относя к ним в явном виде только ценности (цели) и риски их достижения. Поэтому более точным будет следующее определение рационального решения: это способ действий, осуществимый, по мнению ЛПР, доступными ему ресурсами, который позволяет получить желаемый результат и логически следует из известных ЛПР связей между вариантами использования ресурсов и получаемыми результатами.

3 Подчеркнём, что наилучший для индивида результат решения - вовсе не обязательно исключительно эгоистический результат. В зависимости от того, как устроены их предпочтения, люди вполне могут принимать (и принимают) решения, ведущие к положительным последствиям для других, даже в ущерб непосредственной выгоде для себя.

Это определение, очевидно, более громоздко, чем определение М. Базер-мана и Д. Мессика, однако охватывает все три компонента ситуации принятия решений: цель, ресурсы и связи между способами использования ресурсов и получаемыми результатами. Подчеркнём также ещё один важный момент: предлагаемое определение включает знания ЛПР, исходя из которых он и делает свой рациональный выбор, обеспечиваемый логической связью между некоторой комбинацией всех трёх компонентов. Это означает, что мы говорим о субъективной рациональности, характеризующей, согласно Г. Саймону, поведение, «которое рационально при данных предпосылках восприятия и оценивания субъекта» [6, р. 271], отличаясь от объективно рационального поведения, «которое рационально с точки зрения исследователя» [Там же]. Саймон говорит здесь о позиции исследователя (experimenter), хотя более точно было бы сказать о позиции всезнающего и умеющего всё рассчитывать «лапласовского наблюдателя», которого, как известно, в природе не существует. Ведь именно из противостояния такой идеальной позиции Г. Саймон и ввёл понятие ограниченной рациональности, фактически совпадающее с субъективной.

Надо отметить, что последнее понятие получило впоследствии несколько иные трактовки. По мнению Р. Будона, «чтобы быть субъективно рациональным, действие не должно производить хороший результат, оно должно только быть реализованным по соображениям, рассматриваемым как хорошие его актором» [7, р. 173]. Согласно [8, р. 936], «говорят, что агент субъективно рационален, когда его решения соответствуют доступным фактам, а если они отсутствуют - то его собственным субъективным оценкам». В работе [9, р. 755] выбор называется «объективно рациональным, если ЛПР может убедить других, что он сделан правильно», и «субъективно рациональным, если другие не могут убедить ЛПР в его неправильности» [9, p. 756]. Легко видеть, что, различаясь сделанными акцентами, эти трактовки не меняют содержания понятия субъективной рациональности: это те решения или действия, которые представляются правильными их субъекту. Тем самым субъективная рациональность является одним из видов ограниченной рациональности.

Вводя понятие последней, Г. Саймон подчёркивал три основных её черты: во-первых, альтернативы, из числа которых делается выбор, не являются кем-то заданными, они последовательно отыскиваются ЛПР в собственной памяти или во внешних источниках информации; во-вторых, поскольку такой поиск требует затрат времени и усилий (а также и других ресурсов), он заканчивается ЛПР тогда, когда позволяет найти не наилучший (оптимальный с точки зрения «лапласовского наблюдателя»), а приемлемый (или удовлетворительный, satisficing) вариант; в-третьих, уровень приемлемости не является заранее заданным, он меняется вместе с изменением притязаний (aspiration) относительно результата: если поиск не приносит вариантов дей-

4 «Ум, которому были бы известны для какого-либо данного момента все силы, одушевляющие природу, и относительное положение всех её составных частей, если бы вдобавок оказался достаточно обширным, чтобы подчинить эти данные анализу, обнял бы в одной формуле движения величайших тел вселенной наравне с движениями легчайших атомов: не осталось бы ничего, что было бы для него недостоверно, и будущее, так же как и прошедшее, предстало бы перед его взором» (Лаплас П. С. Опыт философии теории вероятностей. М.: Книжный дом «ЛИБРОКОМ», 2011. С. 9).

ствий, обеспечивающих получение исходных притязаний, они снижаются, т. е. происходит их адаптация к возможностям реализации [3]. К этим основным характеристикам ограниченной рациональности впоследствии были добавлены и другие: неподконтрольность влияющих на выбор эмоций, которые в состоянии «преодолеть» логику выбора [10]; влияние формы описания альтернатив на их оценку [11]; ограниченность силы воли или самоконтроля [12]; некорректный учёт вероятностей при выборе в условиях риска [11] и др. - см., напр., [13].

Хотя в повседневной жизни мы прекрасно понимаем, что многие решения, в том числе и наши собственные, далеки от того, чтобы быть наилучшими, в сфере социальных наук концепция ограниченной рациональности имела во многом характер революционного изменения (см., напр.: [14]). Между тем действительно революционной она была только для тогдашней неоклассической экономической теории, в которой для обеспечения доказуемости ряда утверждений было введено предположение о том, что экономические агенты обладают полным знанием о рынке, - свойствах всех товаров и разнообразии их цен, - а также обладают неограниченными возможностями производить все необходимые для принятия оптимальных решений вычис-ления5. Достоинство подхода Г. Саймона, реализованные как им самим, так и его последователями, заключалось при этом не в критике этого предположения, очевидно далёкого от реальности, а в том, что очень широкие и размытые понятия нерациональности и иррациональности были заменены хорошо структурированным понятием ограниченной рациональности, содержание которой получало операциональное определение, свойственное многим, если не всем, научным понятиям, и предоставляло возможность моделировать её, что в экономической теории считается несомненно положительным качеством.

Упомянутые выше расширения и обобщения понятия ограниченной рациональности привели исследователей к тому, что оно включает не только неполную информацию и ограниченные возможности её обработки, но и порождённые этим механизмы упрощённого восприятия внешнего мира, оценки его феноменов и принятия на этой основе решений о действиях. Эти механизмы упрощения работают, очевидно, как компенсации неадекватности когнитивных способностей людей реальной сложности их природной и

и и т^

социальной внешней среды. В состав таких механизмов входят эвристики и когнитивные уклоны (cognitive biases).

Эвристика — это эмпирическое правило, связывающее цели индивида, воспринимаемую им ситуацию и действия, которые надо совершить для достижения этой цели. Данная формулировка является попыткой обобщения тех разнообразных характеристик смысла этого понятия, которые можно найти в литературе. Так, в математике, согласно [16], эвристиками именуют недостаточно обоснованные или даже не вполне корректные алгоритмы, которые тем не менее демонстрируют свою полезность для решения тех или иных расчётных задач. В [17] эвристики — это простые, но полезные методы решения проблем, принятия решений и проведения исследований (discovery).

5 Что делало её, по выражению Р. Коуза, «экономической теорией классной доски» [15], а не теорией реальной экономики.

Многие исследователи понимают эвристики как «короткие пути» (shortcuts или rules-of-thumb), используемые для сокращения времени принятия решений. Важно отметить существование эвристик, применяемых как осознанно, так и неосознанно (как часто говорят, подсознательно) (см., напр.: [18; 19; 20]). Все исследователи сходятся в том, что эвристики порождены ограниченными когнитивными способностями человека, т. е. его ограниченной рациональностью6. При этом в последнее время появились работы, в которых показано, что они могут быть следствием оптимизации использования ограниченных познавательных ресурсов мозга [21; 22].

Когнитивным уклоном принято называть систематические отклонения от рациональных (обоснованных) оценочных суждений или решений [23; 24; 25]. В результате таких ошибок «индивиды, исходя из восприятия ситуаций, создают свою собственную "субъективную социальную реальность"» [26]. Их наличие и влияние на людей некоторые исследователи называют «трагедией познания» [27], а другие относят некоторые из них к каменному веку [28]. Однако в [29] приводятся значимые свидетельства того, что эволюция закрепила в мозге человека когнитивные механизмы, содействующие выживанию в период возникновения человеческого вида, которые в изменившихся условиях часто вступают в противоречие этим условиям, порождая различные уклоны.

Нельзя не отметить, что значимость влияния ошибок, уклонов и само-ис-полняющихся пророчеств на принятие решений и поведение была поставлена под сомнение в [30]. Исходя из представленных данных, Л. Джассим пришёл к выводу, что, хотя социальное восприятие и оценки бывают подвержены уклонам и ошибкам, в среднем последние достаточно слабы, хрупки и преходящи, а оценки и восприятия, напротив, весьма рациональны и точны. Широкое обсуждение этих утверждений исследователями, работающими в разных науках, отражённое в [31], показало, что упомянутый вывод опирается на целый ряд методических неточностей, что резко снижает его обоснованность.

Соотношение названных механизмов и их влияние на «преодоление» ограниченной рациональности трактуется исследователями неоднозначно. А. Тверски и Д. Канеман, анализируя их взаимодействие для ряда конкретных случаев, пришли к выводу, что именно эвристики порождают когнитивные уклоны, препятствуя тем самым объективному восприятию и изучению природной и социальной реальности [23; 32], и их последователи применяют эти выводы при решении самых различных задач [33; 34; 35; 36]. Сторонники противоположной точки зрения, опираясь на эмпирические и экспериментальные данные [16; 37; 38; 39], полагают, что эвристики образуют основу исследовательских процессов: «Логика, вероятность и эвристики - три центральных идеи в интеллектуальной истории разума» [40, p. 20]. При этом в самих эвристиках на передний план выдвигается такая их черта, как опора на неполную информацию, даже из числа доступной: «Эвристики - это действенные когнитивные процессы, сознательные и бессознательные, которые

6 Заметим, что в статье [3], на которую иногда ссылаются, говоря о возникновении интереса к изучению эвристик, этот термин не используется Г. Саймоном ни разу.

игнорируют часть информации... например, в условиях низкой предсказуемости и небольших выборок игнорирование части информации может вести к более точным суждениям, чем те, которые основаны на взвешивании и суммировании всей информации» [41, р. 451].

Приведённые кратко характеристики ограниченной рациональности позволяют обсудить завершающий момент этого раздела: понятие научной рациональности. Как и все другие обсуждённые выше понятия, оно имеет большое разнообразие трактовок, сколько-нибудь детальное сопоставление которых уведёт нас далеко в сторону от задач этой статьи: ведь понятие рациональности «столь расплывчато в обычном употреблении и столь принципиально различно (disparately) используется разными философами и учёными социальных наук, что имеет незначительную полезность» [42, р. 27]. Поэтому отметим только некоторые результаты давно длящейся в литературе дискуссии о научной рациональности, которые если и не являются объектами полного консенсуса, то признаются многими исследователями. Во-первых, научная рациональность динамична, она меняется вместе с ростом научного знания и сдвигами в понимании того, что является наукой, а что ею не является (см., напр. [43; 44]). Во-вторых, среди практикующих «предметных» учёных, интересующихся общенаучной тематикой, всё большее распространение получает позиция, согласно которой вопрос о рациональности в различных областях и сферах науки должен решаться самими исследователями, а не профессиональными философами и методологами науки. Основы такой позиции были заложены ещё П. Фейерабендом, который писал: «попытка сделать науку более "рациональной" и более систематичной (precise) направлена на её уничтожение» [45, p. 179], цит. по [46, р. 1], понимая под этой попыткой стремление добиться соответствия науки «методологическим правилам», разрабатываемым профессиональными философами науки. Тем самым Фейерабенд, несмотря на название его книги, выступил не против любой методологии, а против философской методологии как нормативной, которой якобы должны следовать практикующие предметные учёные. Между тем следование правилам исследований, выработанным самим предметным научным сообществом, а не теми, кто пытается «методологически управлять» им, как раз и понимается Фейерабендом как научная рациональность7. В-третьих, на сегодняшний день сформировалось достаточно ясное разграничение рациональности естественных и общественных наук: это соответствие выводов логике и проверяемость гипотез практикой, включая эксперименты - для первых и логичность выводов - для вто-рых8. В-четвёртых, наконец, научная рациональность много ближе к идеалу «полной» рациональности, чем рациональность решений, принимаемых в повседневной жизни [47].

7 Заметим, что практикующие экономисты уже достаточно давно поняли это и просто не обращают внимания на то, что пишут философы-методологи экономической науки. Вместе с тем экономисты весьма внимательны к исследовательской методологии - тому, как они и их коллеги изучают экономические процессы и явления, какие методы они применяют для получения интересных и обоснованных результатов и т. п.

8 При этом часть обществоведов считает, что рациональность в социальных науках - это демонстрация понимания происходящих социальных процессов и явлений [48].

РАЗНООБРАЗИЕ ОБЪЕКТОВ И МЕХАНИЗМОВ САМОКОРРЕКЦИИ

Исходя из сказанного, мы может выстроить следующие «схемы рациональности» применительно к поведению в повседневной жизни и к исследовательскому поведению.

И в той, и в другой сфере принятие решения предполагает наличие у ЛПР: (1) представлений о желаемом результате; (2) знаний о доступной совокупности ресурсов; (3) знания вариантов использования сочетаний ресурсов; (4) известных связей между разными сочетаниями ресурсов и результатами их использования; (5) оценок издержек и выгод от использования вариантов сочетаний ресурсов с учётом связей между ними. Характеристики этих типов информации и способов её получения в названных сферах имеют определённые различия. Поскольку, как следует из приведённых положений, полностью рациональных решений, наличие которых предполагается в неоклассической экономической теории, в действительности просто не существует, в дальнейшем для краткости мы не будем везде употреблять выражение «ограниченно рациональные», заменяя его на «рациональные», но помня при этом, что речь идёт не о полной рациональности всезнающих «лапласовских наблюдателях».

Повседневные рациональные решения:

(1) желаемые результаты определяются жизненными потребностями индивида и редко касаются чего-то принципиально нового, выходящего за пределы жизненного опыта;

(2) совокупности ресурсов, включая как имеющиеся, так и доступные с помощью других людей, обычно достаточно ясны и определённы, хотя и необязательно верны;

(3) варианты использования ресурсов, т. е. варианты действия, достаточно ограничены: что именно купить, попросить, взять в аренду или в долг и т. п.;

(4) знания о связях действий и их последствий являются в основном результатами непосредственного опыта и следствиями статистического научения, осуществляемого мозгом без участия сознания [49], а также социального научения, т. е. знаний об опыте других людей [50];

(5) оценки как издержек, так и выгод основаны на том, что «видит» индивид, т. е. на опыте и результатах статистического и социального научения; в этой связи важно следующее положение Г. Беккера: «Когда очевидно выгодная возможность фирмы, работника или домашнего хозяйства не используется, экономический подход не укрывается под общепринятую иррациональность, удовлетворённость уже нажитым богатством или подходящим ad hoc сдвигом в ценностях (т. е. предпочтениях). Скорее, он постулирует существование денежных или психологических издержек использования этой возможности, элиминирующих её выгодность, - издержек, которые могут быть просто не видны стороннему наблюдателю» [51, p. 7].

Важно отметить, что все упомянутые виды знаний могут быть следствиями различных когнитивных уклонов.

Исследовательские рациональные решения:

(1) цели решений не связаны с повседневным опытом, они вытекают из логики проводимого исследования, но, как правило, включают производство новых знаний;

(2) ресурсами выступают знания исследователя о методах и доступные инструменты исследования;

(3) варианты действий — это направления применений инструментов исследования;

(4) знания о связях действий и их ожидаемых результатах — следствия их выявления посредством различных научных методов, а также с помощью воспитанных опытом и профессиональным обучением правил проведения исследований;

(5) издержки и выгоды действий при проведении исследования определяются как опытом, так и упомянутыми правилами, вытекающими из успешных практик исследования, распространяемым через научные коммуникации; основные выгоды — это новые научные знания, а издержки — это объём усилий, необходимых для применения того или иного инструментария исследования.

Завершая этот раздел, остановимся на моменте, который далеко не всегда учитывается в дискуссиях о научной рациональности: это разграничение (1) рациональности процесса получения нового научного знания и (2) рациональности формируемого научного знания как совокупности результатов многих исследований в той или иной предметной области.

В процессе получения знания естественным образом выделяются три этапа:

■ до проведения исследования (выбор объекта изучения, первоначальное определение методологии, изучение уже сделанного в этой области и т. п.);

■ собственно проведение исследования (осуществление различных исследовательских действий, как индивидуальных, так и коллективных);

■ после проведения исследования (что включать в его описание, как описывать результаты, как их распространять, где публиковать и т. д.).

На всех трёх этапах вполне возможны как рациональные, так и нерациональные, а также просто ошибочные решения. Последние могут быть как поправимыми, так и непоправимыми для конкретного исследователя в определённый период времени (например, вследствие исчерпания доступных исследовательских ресурсов, полученных для выполнения данного проекта). При этом собственно научное знание — т. е. знание, признанное и принятое исследовательским сообществом как научное, — появляется только после того, как завершён третий этап, и полученная информация вошла в систему научной коммуникации, в которой хотя бы некоторая часть сообщества уделила внимание сообщению и положительно восприняло его содержание.

Таким образом, можно утверждать, что научная коммуникация — это механизм обеспечения роста научного знания посредством трансформации ограниченной рациональности процесса исследования, включающего иррациональность (отсутствие логических оснований и т. п.) и ошибочность

решений, в рациональность научного знания как его результата. Другими словами, научная коммуникация обеспечивает самокоррекцию науки по отношению к ошибкам, допускаемым в ходе тех или иных исследований.

Концепция науки как социальной системы, включающей в себя механизм самоконтроля качества производимой продукции, — научного знания, — была предложена Р. Мертоном в его статье 1942 года [52], где среди «идеальных» норм, регулирующих движение этой системы, он назвал и нормы бескорыстия и организованного скептицизма. Первая из них предполагала, что учёные должны быть движимы только поиском истины и лишены уклонов в сторону иных мотивов, включая личную выгоду и власть. Вторая норма требовала проявления постоянного сомнения в истинности произведенного знания, т. е. проверки корректности как способов его получения, так и его самого. Если первая из этих норм характеризовала индивидуальное исследовательское поведение, то вторая охватывала взаимодействие исследователей, распространяя бескорыстие также и на отношения между учёными, на перекрёстную критику и проверку правильности высказываемых утверждений независимо от их авторства. Иначе говоря, бескорыстие — это способ преодоления (некоторых) когнитивных уклонов, а организованный скептицизм — путь подтверждения продуктивности исследовательских эвристик.

Разумеется, в реальности нормы Мертона исполняются в науке не всегда, поскольку она отделима от других социальных и социально-экономических систем лишь в идеале, что отражено в ряде публикаций, ставящих под сомнение способность науки к самокоррекции [53; 54; 55; 56]. При этом в исследованиях самокоррекции последних двух десятилетий упор делается на преодоление последствий недобросовестного поведения учёных [57; 58; 59; 60; 61], проявления которого ощутимо участились в связи с повсеместным распространением в управлении наукой неолиберальной политики, связывающей благосостояние исследователей и преподавателей университетов с необходимостью достижения ими различных устанавливаемых сверху «целевых» наукометрических показателей [62; 63].

В целом надо заметить, что если некорректности применения статистических методов и оценок в исследовательских практиках отмечаются уже давно [64], то изучение когнитивных и иных сдвигов у исследователей началось сравнительно недавно [65], учёные сконцентрировались на таких феноменах, как идеологически предвзятое рассуждение (motivated reasoning) [66; 67] и связь высокого IQ и психологических характеристик личности [68; 69]. Круг охвата различных уклонов в такого рода исследованиях интенсивно расширяется [70; 71; 72; 73].

Разнообразие когнитивных и иных сдвигов, упоминаемых в литературе, доходит почти до двух сотен, что исключает возможность рассмотреть их сколько-нибудь полно и детально. Поэтому мы остановимся только на двух, имеющих самое непосредственное отношение к процессу научного исследования.

Уклон подтверждения (confirmation bias), названный в [74] «повсеместным феноменом во многих обличьях», заключается в том, что при наличии какого-то убеждения или гипотезы человек обращает внимание только на ту информацию, которая им соответствует, как бы не замечая ту, которая

содержит сведения, им противоречащие. Понятно, что в исследованиях, как теоретических, так и эмпирических, пренебрежение учётом этого уклона может сработать самым негативным способом: факты, на которые учёный не обратил должного внимания, вполне могут быть использованы его коллегами для обоснованной критики полученных им результатов, нанеся ощутимый урон его репутации. Поэтому так важен максимально полный анализ существующей литературы, включая ту, где высказываются иные точки зрения и подходы: ведь только их детальный анализ даёт возможность обосновать корректность собственных убеждений или значимость полученных эмпирических фактов по сравнению с теми, на которых основываются альтернативные выводы. В этой связи важно отметить, что уклон подтверждения стал в последние годы объектом пристального внимания по отношению к различным наукам [75; 76; 77; 78], включая криминалистику [79], где, очевидно, пренебрежение фактами, противоречащими высказанным предположениям, может иметь самые разрушительные последствия.

Другой уклон, который важно упомянуть, получил название «причинная иллюзия». Он состоит в том, что люди иногда видят причинную связь различных событий или факторов там, где в действительности имеет место их случайное совпадение. В принципе, как показывают многочисленные эксперимент психологов [80; 81], люди оценивают причинные зависимости достаточно точно, однако при определённых обстоятельствах эта точность может сильно уменьшиться, и результаты статистического научения, осуществляемого мозгом независимо от нашего сознания, связавшие то, что на деле не связано, могут стать воспринятыми сознательно как настоящая причинная связь [82]. Одна из типичных ситуаций, порождающих причинную иллюзию, — множественность причин, из которых наблюдаемой является лишь часть, либо даже один фактор (событие). Поскольку вся совокупность причин не воспринимается, т. е. может быть обнаружена только в результате специального исследования, наличие связи наблюдаемых «причины» и следствия представляется вполне обоснованной (или очевидной).

Чем выше уровень сложности и системности объекта изучения, тем выше вероятность того, что происходящие в нем процессы и явления будут иметь множество причин. Именно таков объект исследований в социальных науках, где тем самым вполне возможно проявление причинной иллюзии. Как представляется, проявлениями последней можно объяснить наличие в этих науках значительного числа «странных» теорий и концепций, вызывающих недоумение у неспециалистов9. Сложность и многопричинность социально-экономических явлений не всегда учитывается, например, представителями естественных наук, выражающих недоумение в связи с тем, что возможности прогнозирования (точнее — точного предсказания времени начала) экономических кризисов в экономической науке фактически отсутствуют. Вместе с тем никого не удивляет, что сейсмология и вулканология не в состоянии в точности предсказать изучаемые ими катастрофические события, хотя их возможности наблюдать и измерять свой объекты несопоставимо более высоки, чем возможности экономистов наблюдать за действиями и решениями

9 Именно причинная иллюзия, как считают исследователи, лежит в основе различных псевдонаук [86; 87].

экономических агентов и политических деятелей, которые в определённом сочетании и порождают экономические кризисы. Тем самым можно утверждать, что в основе упомянутого недоумения низкими предсказательными способностями экономической науки лежит причинная иллюзия: люди видят причину в «недоразвитости» этой науки, а не в сложности её объекта и невозможности наблюдения за всеми его элементами.

По-видимому, наиболее надёжный способ «преодоления» проявлений когнитивных уклонов — это повышение уровня научной рациональности посредством обеспечения высококачественного образования [83; 84]. Ведь чем более человек образован, тем больше у него возможностей самостоятельно опознать, поступает ли он рационально либо оказывается под влиянием того или иного уклона, — особенно, если их изучение было составной частью полученного им образования. Однако, если те или иные уклоны проявились, единственный способ их корректировки — это взаимодействие с коллегами, вхождение в систему научной коммуникации. Прямое обсуждение хода и результатов исследовательского процесса составляет его непосредственную часть, если соответствующее поведение имеет коллективный характер. Разумеется, и в нём возможны ситуации, когда коллективное мнение оказывается совпадающим с мнением учёного, в работе которого проявился какой-то когнитивный уклон, либо применённая им эвристика не была продуктивной. Такое вполне возможно, если этот учёный обладает высоким авторитетом в коллективе, является в нём лидером и умеет убеждать коллег. Возможно также, что кто-то из них обнаруживает некорректность лидера, но по той или иной причине не хочет публично (и даже в личной беседе) заявлять о своей «находке». Причин такого молчания может быть много — от боязни последующих действий раскритикованного коллеги до стремления «подсидеть» его и повысить свой статус, когда ошибка проявится в публичном пространстве.

Поэтому ultima ratio корректировки исследовательского поведения - это критическая реакция коллег на публикацию. Однако в действии этого механизма имеются свои ограничения. Ещё в далёком 1968 году Р. Мертон обратил внимание на действие в науке «эффекта Матфея» [85], проявляющегося, в частности, в том, что чтение и цитирование публикаций характеризуется высокой степенью асимметрии: небольшое их число цитируется очень широко, а куда большее — цитируется низко либо вообще не цитируется. С появлением электронных баз данных, фиксирующих цитирование включённых в них публикаций, были проведены многочисленные исследования, вполне подтверждающие существование этого эффекта. Уже в 1992 году расчёты, представленные в [88], показали, что 15% журнальных статей собирают 50% всех цитирований, а наиболее цитируемая половина из них — почти 90% всех цитирований. В [89] было выявлено, что 55% статей не получает даже одного цитирования в течение пяти лет после публикации, а в [90] — что в социальных науках эта доля составляет 75%, в то время как в гуманитарных — 98%. Эти цифры были весьма впечатляющими, однако более тонкий анализ показал их низкую валидность: расчёты велись по всем материалам, опубликованным в журналах, включая те, на которые обычно не ссылаются (обзоры книг и конференций, редакционные статьи, письма и некрологи).

Доля только научных статей, остававшихся без цитирования, составила для естественных наук 22%, для социальных — 48%, а для гуманитарных — 93% [91]. Недавний анализ 39 миллионов статей во всех научных дисциплинах, опубликованных в период с 1900 по конец 2015 года и зафиксированных в Web of Science, представленный в [92], показал, что 21% из них не был процитирован ни разу.

На первый взгляд, эти данные ясно говорят о том, что результаты, отражённые в статьях, оказавшихся не процитированными, фактически выпали из процессов научной коммуникации, не внеся тем самым какого-либо вклада ни в рост научного знания, ни в повышение уровня научной рациональности. Однако, как справедливо отмечено в [93, р. 756], «ясно, что авторы не могут цитировать все использованные работы, когда их число велико... или когда объём статьи ограничен. Тем самым они выбирают отдельные статьи в зависимости от личных предпочтений». Детальный анализ, проведённый для такой отрасли науки как биогеография, показал наличие нецитируемых или слабоцитируемых работ, которые тем не менее фактически оказывают воздействие на проводимые исследования [94].

В заключение краткого обзора механизмов самокоррекции ненамеренных ошибок в научных исследованиях заметим, что все они, к сожалению, способны лишь в малой степени препятствовать совершению намеренных искажений в исследовательском поведении. Однако эта тема слишком важна и обширна, чтобы вскользь коснуться её в этой статье.

ВЫВОДЫ

Как показывает представленный выше анализ, исследовательское поведение, как основной способ производства научного знания, стало объектом изучения науки сравнительно недавно. Его очевидная междисциплинарность отнюдь не упрощает его исследование, поскольку требует постоянного преодоления стандартных трудностей, связанных с различиями понятийных аппаратов и языков далеких научных дисциплин. Между тем изучение исследовательского поведения, выявление присущих ему особенностей и регулярностей, в непростых современных условиях развития науки может стать значимым способом их преодоления за счёт повышения действенности применяемых эвристик, а также повышения качества образования будущих исследователей путём включения в него обязательных курсов, обучающих преодолению когнитивных уклонов. Хочется надеяться, что представленные здесь результаты анализа уже проведённых исследований привлекут внимание к изучению тех сторон исследовательского поведения, которые остались пока вне сферы внимания науковедов.

ЛИТЕРАТУРА / REFERENCES

1. Newton-Smith, W. H. (1981). The Rationality of Science. London: Routledge.

2. Merton, R. K. (1942). Science and technology in a democratic order. Journal of Legal and Political Sociology. Vol. 1. P. 115-126.

3. Simon, H. A. (1955). A behavioral model of rational choice. Quarterly Journal of Economics. Vol. 69, no. 1. P. 99-118.

4. Sent, E.-M. (2018). Rationality and bounded rationality: you can't have one without the other. European Journal of the History of Economic Thought. Vol. 25, is. 6. P. 13701386.

5. Bazerman, M. H. and Messick, D. M. (1998). On the power of a clear definition of rationality. Business Ethics Quarterly, Vol. 8, is. 3. P. 477-480.

6. Simon, H. A. (1956). A Comparison of Game Theory and Learning Theory. Psychometrika. Vol. 21, is. 3. P. 267-272.

7. Boudon, R. (1989). Subjective Rationality and the Explanation of Social Behavior. Rationality and Society. Vol. 1, is 2. P. 173-196.

8. Ryall, M. D. (2003). Subjective Rationality, Self-Confirming Equilibrium, and Corporate Strategy. Management Science. Vol. 49, no. 7. P. 936-949.

9. Gilboa, I., Maccheroni, F., Marinacci, M. and Schmeidler, D. (2010). Objective and subjective rationality in a multiple prior model. Econometrica. Vol. 78, no. 2. P. 755-770.

10. Loewenstein, G. (1996). Out of Control: Visceral Influences on Behavior. Organizational Behavior and Human Decision Processes. Vol. 65, no. 3. P. 272-292.

11. Kahneman, D. and Tversky, A. (1984). Choices, values, and frames. American Psychologist. Vol. 39, no. 4. P. 341-350.

12. Thaler, R. H. (1991). Quasi Rational Economics. New York: Russell Sage Found.

13. Kahneman, D. (2003). Maps of Bounded Rationality: Psychology for Behavioral Economics. American Economic Review. Vol. 93, is. 5. P. 1449-1475.

14. Jones, B. D. (1999). Bounded rationality. Annual Review of Political Science. Vol. 2, is. 1. P. 297-321.

15. Coase, R. (1992). The Institutional Structure of Production. American Economic Review. Vol. 82, is. 4. P. 713-719.

16. Polya, G. (1954). Mathematics and Plausible Reasoning. Vol. I&II. Princeton, NJ: Princeton University Press.

17. Hertwig, R. and Pachur, T. (2015). Heuristics, History of. In: Wright J. (Ed.) International Encyclopedia of the Social & Behavioral Sciences, 2nd ed., Vol. 10. P. 879835. Oxford: Elsevier.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

18. Reber, A. S. (1992). The cognitive unconscious: An evolutionary perspective. Consciousness and Cognition. Vol. 1, is. 2. P. 93-133.

19. Greenwald, A. G. and Ganaji, M. R. (1995). Implicit Social Cognition: Attitudes, Self-Esteem, and Stereotypes. Psychological Review. Vol. 102, is. 1. P. 4-27.

20. Casarett, D. (2016). The Science of Choosing Wisely - Overcoming the Therapeutic Illusion. New England Journal of Medicine. Vol. 374, no. 13. P. 1203-1205.

21. Lieder, F. and Griffiths, T. L. (2020). Resource-rational analysis: Understanding human cognition as the optimal use of limited computational resources. Behavioral and Brain Sciences. Vol. 43, article e1; DOI 10.1017/S0140525X1900061X.

22. Hahna, M., Futrell, R., Levy, R. and Gibson, E. (2022). A resource-rational model of human processing of recursive linguistic structure. PNAS: Psychological and Cognitive Sciences. Vol. 119, no. 43, article e2122602119.

23. Tversky, A. and Kahneman, D. (1974). Judgment under Uncertainty: Heuristics and Biases. Science. New Series. Vol. 185, no. 4157. P. 1124-1131.

24. Taylor, R. N. (1975). Psychological determinants of bounded rationality: Implications for decision-making strategies. Decision Sciences. Vol. 6, is. 3. P. 409-429.

25. Caverni, J.-P., Fabre, J.-M. and Gonzalez, M. (1990). Cognitive Biases: Their Contribution for Understanding Human Cognitive Processes. Advances in Psychology. Vol. 68. P. 7-12.

26. Byyny, R. L. (2017). Cognitive bias: Recognizing and managing our unconscious biases. The Pharos. No. Winter. P. 2-6.

27. Johnson, D. and Levin, S. (2009). The tragedy of cognition: psychological biases and environmental inaction. Current Science. Vol. 97, no. 11. P. 1593-1603.

28. Van Vugt, M., Griskevicius, V. and Schultz, P. W. (2014). Naturally Green: Harnessing Stone Age Psychological Biases to Foster Environmental Behavior. Social Issues and Policy Review. Vol. 8, is. 1. P. 1-32.

29. Haselton, M. G., Bryant, G. A., Wilke, A., Frederick, D. A., Galperin, A., Frankenhuis, W. E. and Moore, T. (2009). Adaptive rationality: An evolutionary perspective on cognitive bias. Socia1 Cognition. Vol. 27, no. 5. P. 733-763.

30. Jussim, L. (2012). Social perception and social reality: Why accuracy dominates bias and self-fulfilling prophecy. New York: Oxford University Press.

31. Jussim, L. (2017). Précis of Social Perception and Social Reality: Why accuracy dominates bias and self-fulfilling prophecy. Behavioral and Brain Sciences. Vol. 40, article e1 D0I:10.1017/S0140525X1500062X.

32. Kahneman, D. and Tversky, A. (1996). On the Reality of Cognitive Illusions. Psychological Review. Vol. 103, no. 3. P. 582-591.

33. Samuelson, W., Zeckhauser, R. (1988). Status quo bias in decision making. Journal of Risk and Uncertainty. Vol. 1, is.1. P. 7-59.

34. Barberis, N., Shleifer, A. and Vishny, R. (1998). A model of investor sentiment. Journal of Financial Economics. Vol. 49, is. 3. P. 307-343.

35. Gifford, R. (2011). The dragons of inaction: Psychological barriers that limit climate change mitigation and adaptation. American Psychologist. Vol. 66, no. 4. P. 290-302.

36. Chu, J. S. G. and Evans, J. A. (2021). Slowed canonical progress in large fields of science. Proceedings of the National Academy of Sciences (PNAS). Vol. 118, no. 41, article e2021636118.

37. Gigerenzer, G. (1991). How to make cognitive illusions disappear: Beyond "heuristics and biases". In: Stroebe W. & Hewstone M. (Eds.). European Review of Social Psychology. (Vol. 2. P. 83-115). Chichester, UK: Wiley.

38. Gigerenzer, G and Brighton, H. (2009). Homo heuristicus: Why biased minds make better inferences. Topics in Cognitive Science. Vol. 1, is. 1. P. 107-143.

39. Grandori, A. and Cholakova, M. (2013). Unbounding bounded rationality: Heuristics as the logic of economic discovery. International Journal of Organization Theory & Behavior. Vol. 16, no. 3. P. 368-392.

40. Gigerenzer, G. (2008). Why heuristics work. Perspectives on Psychological Science. Vol. 3, is.1. P. 20-29.

41. Gigerenzer, G. and Gaissmaier, W. (2011). Heuristic Decision Making. Annual Review of Psychology, Vol. 62. P. 451-82.

42. Goldman, A. (1986). Epistemology and Cognition. Cambridge, MA: Harvard University Press.

43. Wible, J. R. (1997). Towards an evolutionary conception of rationality in science and economics. In: Wible, J. R. The Economics of Science: Methodology and Epistemology as if Economics Really Mattered. London: Routledge. P. 190-202.

44. Liebenberg, L. (2021). The Origin of Science: The Evolutionary Roots of Scientific Reasoning and its Implications for Tracking Science. 2nd ed. Cape Town: CyberTracker.

45. Feyerabend, P. (1975). Against Method: Outline of an Anarchistic Theory of Knowledge. London: Verso.

46. Bergstrom, L. (1980). Some Remarks Concerning Rationality in Science. In: Hilpinen R. (Ed.) Rationality in Science Dordrecht: Springer. P. 1-11.

47. Szollosi, A. and Newell, B. R. (2020). People as intuitive scientists: Reconsidering statistical explanations of decision making. Trends in Cognitive Sciences. Vol. 24, is. 12. P. 1008-1018.

48. Viktoruk, E. N. and Chernyeva, A. S. (2010). Understanding Horizons in Methodology of Socially-Humanitarian Cognition. Journal of Siberian Federal University: Humanities & Social Sciences. Vol. 5, no. 3. P. 776-784.

49. Turk-Browne, N. B., Junge, J. A. and Scholl, B. J. (2005). The Automaticity of Visual Statistical Learning. Journal of Experimental Psychology: General. Vol. 134, no. 4. P. 552-564.

50. Bandura, A. (1977). Social Learning Theory. Englewood Cliffs, NJ: Prentice Hall.

51. Becker, G. S. (1976). The economic approach to human behavior. In: Becker, G. S. The Economic Approach to Human Behavior Chicago: University of Chicago Press. P. 3-14.

52. Merton, R. K. (1942). A note on science and democracy. Journal of Legal and Political Sociology. Vol. 1. P. 115-126.

53. Ioannidis, J. P. A. (2012). Why Science Is Not Necessarily Self-Correcting. Perspectives on Psychological Science. Vol. 7, is. 6. P. 645-654.

54. Stroebe, W., Postmes, T. and Spears, R. (2012). Scientific Misconduct and the Myth of Self-Correction in Science. Perspectives on Psychological Science. Vol. 7, no. 6. P. 670-688.

55. Allchin, D. (2015). Correcting the "self-correcting" mythos of science. Filosofia e História da Biologia. Vol. 10, is. 1. P. 19-35.

56. Romero, F. (2016). Can the Behavioral Sciences Self-Correct? A Social Epistemic Study. Studies In History and Philosophy of Science Part A. Vol. 60, is.1. P. 55-69.

57. De Vries, R., Anderson, M. S. and Martinson, B. C. (2006). Normal Misbehavior: Scientists Talk about the Ethics of Research. Journal of Empirical Research on Human Research Ethics. Vol. 1, is.1. P. 43-50.

58. Necker, S. (2014). Scientific misbehavior in economics. Research Policy. Vol. 43, is. 10. P. 1747-1759.

59. Hesselmann, F., Graf, V., Schmidt, M. and Reinhart, M. (2017). The visibility of scientific misconduct: A review of the literature on retracted journal articles. Current Sociology Review. Vol. 65, no. 6. P. 814-845.

60. Bruner, J. P. and Holman, B. (2019). Self-correction in science: Meta-analysis, bias and social structure. Studies in History and Philosophy of Science. Part A. Vol. 78. P. 93-97.

61. Tourish, D., Craig, R. (2020). Research Misconduct in Business and Management Studies: Causes, Consequences and Possible Remedies. Journal of Management Inquiry. Vol. 29, is. 2. P. 174-187.

62. Chubin, D. E. (1985). Misconduct in Research: An Issue of Science Policy and Practice. Minerva. Vol. 23, no. 2. P. 175-202.

63. Biagioli, M., Kenney, M., Martin, B. and Walsh, J. P. (2019). Academic misconduct, misrepresentation and gaming: A reassessment. Research Policy. Vol. 48, is. 2. P. 401-413.

64. Ioannidis, J. P. (2005). Why most published research findings are false. PLoS Medicine. Vol. 2, is. 8, article e124; DOI: 10.1371/journal.pmed.0020124.

65. Wilholt, T. (2009). Bias and values in scientific research. Studies in History and Philosophy of Science. Vol. 40, is.1. P. 92-101.

66. Ditto, P. H. (2009). Passion, reason, and necessity: A quantity-of-processing view of motivated reasoning. In: Bayne, T. & Fernández, J. (Eds.). Delusion and Self-Deception: Affective and Motivational Influences on Belief Formation New York: Psychology Press. P. 23-53.

67. Berggren, N., Jordahl, H. and Stern, C. (2009). The political opinions of Swedish social scientists. Finnish Economical Papers. Vol. 22, no. 2. P. 75-88.

68. Charlton, B. G. (2009). Clever sillies: Why high IQ people tend to be deficient in common sense. Medical Hypotheses. Vol. 73, no. 6. P. 867-70.

69. Woodley, M. A. (2010). Are high-IQ individuals deficient in common sense? A critical examination of the 'clever sillies' hypothesis. Intelligence. Vol. 38. P. 471-80.

70. Franco, A., Malhotra, N. and Simonovits, G. (2014). Publication bias in the social sciences: Unlocking the file drawer. Science. Vol. 345, no. 6203. P. 1502-1505.

71. Fanelli, D., Costas, R. and Ioannidis, J. P. A. (2017). Meta-assessment of bias in science. Proceedings of the National Academy of Sciences. Vol. 114, no. 14. P. 3714-3719.

72. Peterson, E. L. (2019). Can scientific knowledge sift the wheat from the tares? A brief history of bias (and fears about bias) in science. In: McCain, K. & Kampourakis, K. (Eds.). What is Scientific Knowledge? An Introduction to Contemporary Epistemology of Science London: Routledge. P. 195-211.

73. May, J. (2021). Bias in Science: Natural and Social. Synthese. Vol. 199, is. 1-2. P. 3345-3366.

74. Nickerson, R. S. (1998). Confirmation Bias: A Ubiquitous Phenomenon in Many Guises. Review of General Psychology. Vol. 2, no. 2. P. 175-220.

75. Kappes, A., Harvey, A. H., Lohrenz, T., Montague, P. R. and Sharot, T. (2020). Confirmation bias in the utilization of others' opinion strength. Nature Neuroscience. Vol. 23, is. 1. P. 130-137.

76. Schumm, W. R. (2021). Confirmation bias and methodology in social science: An editorial. Marriage & Family Review. Vol. 57, is. 4. P. 285-293.

77. McSweeney, B. (2021). Fooling ourselves and others: confirmation bias and the trustworthiness of qualitative research - Part 1 (the threats). Journal of Organizational Change Management. Vol. 34, no. 5. P. 1063-1075.

78. Fine, M. A. (2022). Distinctions between Scientific Misconduct and Bias in Social Science: Avoidable versus Unavoidable Deviations from Best Practices in Research. Marriage & Family Review. Vol. 58, is. 1. P. 89-100.

79. Moser, S. (2013). Confirmation Bias: The Pitfall of Forensic Science. Themis: Research Journal of Justice Studies and Forensic Science. Vol. 1, is. 1. P. 71-80.

80. Jenkins, H. M. and Ward, W. C. (1965). Judgment of contingency between responses and outcomes. Psychological Monographs. Vol. 79, is. 1. P. 1-17.

81. Shanks, D. R. and Dickinson, A. (1987). Associative accounts of causality judgment. In: Bower, G. H. (Ed.). The Psychology of Learning and Motivation San Diego, CA: Academic Press. P. 229-261.

82. Matute, H., Blanco, F., Yarritu, I., Díaz-Lago, M., Vadillo, M. A. and Barberia, I. (2015). Illusions of causality: How they bias our everyday thinking and how they could be reduced. Frontiers in Psychology. Vol. 6. article 888. DOI: 10.3389/fpsyg.2015.00888.

83. Moshman, D. (1990). Rationality as a Goal of Education. Educational Psychology Review. Vol. 2, no. 4. P. 335-364.

84. Park, P. S. (2022). The evolution of cognitive biases in human learning. Journal of Theoretical Biology. Vol. 541, article 111031.

85. Merton, R. K. (1968). The Matthew Effect in Science. Science. Vol. 159, no. 3810. P. 56-63.

86. Matute, H., Yarritu, I. and Vadillo, M. A. (2011). Illusions of causality at the heart of pseudoscience. British Journal of Psychology. Vol. 102, no. 3. P. 392-405.

87. Torres, M. N., Barberia, I. and Rodríguez-Ferreiro, J. (2020). Causal illusion as a cognitive basis of pseudoscientific beliefs. British Journal of Psychology. Vol. 111, no. 4. P. 840-852.

88. Seglen, P. O. (1992). The skewness of science. Journal of the American Society for Information Science. Vol. 43, is. 9. P. 628-638.

89. Hamilton, D. P. (1990). Publishing by - and for? - the Numbers. Science. Vol. 250, no. 4986. P. 1331-1332.

90. Hamilton, D. P. (1991). Research Papers: Who's Uncited Now. Science. Vol. 251, no. 4989. P. 25.

91. Schwartz, C. A. (1997). The rise and fall of uncitedness. College & Research Libraries. Vol. 58, no. 1. P. 19-29.

92. Van Noorden, R. (2017). The science that's never been cited. Nature. Vol. 552, no. 7684. P. 162-164.

93. Camacho-Minano, M. and Nunez-Nickel, M. (2009). The multilayered nature of reference selection. Journal of the American Society for Information Science and Technology. Vol. 60, is. 4. P. 754-777.

94. MacRoberts, M. H. and MacRoberts, B. R. (2010). Problems of citation analysis: A study of uncited and seldom-cited influences. Journal of the American Society for Information Science and Technology. Vol. 61, is. 1. P. 1-12.

Статья поступила в редакцию 10.01.2023.

Одобрена после рецензирования 22.02.2023. Принята к публикации 28.02.2023.

СВЕДЕНИЯ ОБ АВТОРЕ

Тамбовцев Виталий Леонидович vitalytambovtsev@gmail.com

Доктор экономических наук, профессор, МГУ им. М. В. Ломоносова, Москва, Россия

АиМогЮ РИНЦ: 1371

ОЯСЮ Ю: 0000-0002-0667-3391

DOI: 10.19181/smtp.2023.5.1.11

SCHOLARLY BEHAVIOR: BOUNDED RATIONAL PRODUCTION OF RATIONAL SCIENTIFIC KNOWLEDGE

Vitaly L. Tambovtsev1

1 Lomonosov Moscow State University, Moscow, Russia

For citation: Tambovtsev, V. L. (2023). Scholarly Behavior: Bounded Rational Production of Rational Scientific Knowledge. Science Management: Theory and Practice. Vol. 5, no. 1. P. 185203. DOI 10.19181/smtp.2023.5.1.11

Abstract. People differ greatly in cognitive abilities, but all of them have limited abilities, ranging from the ability to perceive the surrounding reality and ending with the implementation of mathematical calculations and logical conclusions from the premises made. If a fully rational individual not only has complete information about the world, but also unlimited possibilities to make calculations and draw logical conclusions, then real people, including profession-

al researchers, are only bounded rational. However, the scientific knowledge produced by scientists is close to completely rational. The article discusses the components of bounded rationality and those mechanisms within science that allow such a transition to be made. The leading role among these mechanisms belongs to scholarly communication, one of the functions of which is the correction of involuntary and unconscious errors made by bounded rational researchers. It is shown that the execution of this function faces certain difficulties, which are important to investigate in order to improve the error correction process.

Keywords: research behavior, bounded rationality, cognitive bias, heuristics, science's self-correction

The article was submitted on 10.01.2023.

Approved after reviewing 22.02.2023. Accepted for publication 28.02.2023.

INFORMATION ABOUT THE AUTHOR

Tambovtsev Vitaly vitalytambovtsev@gmail.com

Doctor of Economics, Professor, Lomonosov Moscow State University, Moscow, Russia

AuthorlD RSCI: 1371

ORCID ID: 0000-0002-0667-3391

i Надоели баннеры? Вы всегда можете отключить рекламу.