Научная статья на тему 'ДЕЙСТВЕННОСТЬ МЕР РОССИЙСКОЙ НАУЧНОЙ ПОЛИТИКИ: ЧТО ГОВОРИТ МИРОВОЙ ОПЫТ'

ДЕЙСТВЕННОСТЬ МЕР РОССИЙСКОЙ НАУЧНОЙ ПОЛИТИКИ: ЧТО ГОВОРИТ МИРОВОЙ ОПЫТ Текст научной статьи по специальности «Экономика и бизнес»

CC BY
242
34
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НАУЧНАЯ ПОЛИТИКА / НАУЧНАЯ ОБОСНОВАННОСТЬ ПОЛИТИКИ / ПОДОТЧЁТНОСТЬ ОБЩЕСТВУ / БИБЛИОМЕТРИЧЕСКИЕ ИНДИКАТОРЫ / ПРОДУКТИВНОСТЬ НАУЧНЫХ ИССЛЕДОВАНИЙ / SCIENCE POLICY / POLICY'S SCIENTIFIC VALIDITY / PUBLIC ACCOUNTABILITY / BIBLIOMETRICS INDICATORS / RESEARCH EFFICACY

Аннотация научной статьи по экономике и бизнесу, автор научной работы — Тамбовцев Виталий Леонидович

В тексте использованы материалы публикаций: Тамбовцев В. Л. О научной обоснованности научной политики в РФ // Вопросы экономики. 2018. № 2. С. 5-32. Исходя из анализа большого числа эмпирических исследований, выявляющих последствия мер научных политик, проводимых во многих странах мира, в статье показано, что проводимая в России государственная научная политика включает инструменты, которые на самом деле препятствуют достижению продекларированных в ней целей. Установлено, что лишены научных оснований такие компоненты отечественной научной политики, как включённые в неё механизмы повышения публичной подотчётности науки, намерения финансировать исследования в основном на конкурсной основе, стремления развивать науку преимущественно в университетах (причём силами преподавателей), а также реализуемый на практике тренд на укрупнение исследовательских организаций. Приводимые результаты эмпирических исследований, проведённых во многих странах, показывают, что подотчётность обществу в действительности превращена в подотчётность чиновникам органов государственного управления. Финансирование исследований на конкурсной основе снижает вероятность проведения принципиально новых исследований. Принуждение всех преподавателей публиковать научные статьи, притом в высокоцитируемых журналах, заставляет сокращать время на повышение качества учебных занятий, а укрупнение учебных и научных организаций увеличивает издержки координации и не приводит к получению более значительных научных результатов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

VALIDITY OF RUSSIAN SCIENCE POLICY’S INSTRUMENTS: WHAT THE WORLD’S EXPERIENCE SAYS

Basing on the analysis of large number of studies revealing the mainstream science policy’s consequences the paper shows that Russian state science policy includes the instruments preventing achieving the pronounced goals. It is established that at least following components are scientifically groundless: chosen mechanisms for increase public accountability of science; intentions to apply competitive research funding ubiquitously; tendency to concentrate research at the universities, and perform it mainly by efforts of professors; trend to amalgamate research organizations. The results of empiric research from different countries shows that in reality society’s accountability is bureaucrats’ accountability. Competitive research funding decrease probability of innovative researches that are far from mainstreams. Coercion of all academics to publish research papers especially in high-sited journals decrease time for increase lectures quality. Amalgamation of research organizations increase coordination costs, and not results to higher value scientific results.

Текст научной работы на тему «ДЕЙСТВЕННОСТЬ МЕР РОССИЙСКОЙ НАУЧНОЙ ПОЛИТИКИ: ЧТО ГОВОРИТ МИРОВОЙ ОПЫТ»

НАУЧНО-ТЕХНОЛОГИЧЕСКАЯ ПОЛИТИКА

ДЕЙСТВЕННОСТЬ МЕР РОССИЙСКОЙ НАУЧНОЙ ПОЛИТИКИ: ЧТО ГОВОРИТ МИРОВОЙ ОПЫТ<

Тамбовцев Виталий Леонидович

МГУ им. М. В. Ломоносова, Москва, Россия

vitalytambovtsev@gmail.com DOI: 10.19181^^^.2020.2.1.1

В тексте использованы материалы публикаций: Тамбовцев В. Л. О научной обоснованности научной политики в РФ // Вопросы экономики. 2018. № 2. С. 5-32.

АННОТАЦИЯ

Исходя из анализа большого числа эмпирических исследований, выявляющих последствия мер научных политик, проводимых во многих странах мира, в статье показано, что проводимая в России государственная научная политика включает инструменты, которые на самом деле препятствуют достижению продекларированных в ней целей. Установлено, что лишены научных оснований такие компоненты отечественной научной политики, как включённые в неё механизмы повышения публичной подотчётности науки, намерения финансировать исследования в основном на конкурсной основе, стремления развивать науку преимущественно в университетах (причём силами преподавателей), а также реализуемый на практике тренд на укрупнение исследовательских организаций. Приводимые результаты эмпирических исследований, проведённых во многих странах, показывают, что подотчётность обществу в действительности превращена в подотчётность чиновникам органов государственного управления. Финансирование исследований на конкурсной основе снижает вероятность проведения принципиально новых исследований. Принуждение всех преподавателей публиковать научные статьи, притом в высокоцитируемых журналах, заставляет сокращать время на повышение качества учебных занятий, а укрупнение учебных и научных организаций увеличивает издержки координации и не приводит к получению более значительных научных результатов.

КЛЮЧЕВЫЕ СЛОВА:

научная политика; научная обоснованность политики; подотчётность обществу; библиометрические индикаторы; продуктивность научных исследований.

ДЛЯ ЦИТИРОВАНИЯ:

Тамбовцев В. Л. Действенность мер российской научной политики: что говорит мировой опыт // Управление наукой: теория и практика. 2020. Т. 2. № 1. С. 15-39. йО!: 10.19181/Бт^р.2020.2.1.1

В последнее десятилетие в Российской Федерации проводится научная политика, принципиально не отличающаяся от той, которую пару десятилетий назад начали проводить в большинстве экономически развитых стран мира. Это означает, что приобретённый в них опыт может быть полезен и для нашей страны с учётом различий в структуре, размерах и устройстве экономики.

НАУЧНАЯ ПОЛИТИКА И ЕЁ ОБОСНОВАННОСТЬ

Понятие «научная политика» (НП) в настоящее время не имеет общепринятого толкования. Более того, исследователи сегодня используют несколько терминов, между которыми трудно провести строгие границы: научная, исследовательская, научно-техническая политика.

Как нам представляется, наиболее корректным можно считать определение НП, которое используют Б. Дёрн и К. Стоуни: это «...утверждения о целях и намерениях по отношению к исследованиям, науке, технике и инновациям, ...изложенные ("enunciated") и обсуждённые... правительством различными способами на мириадах дискуссионных площадок. Такая политика использует все ключевые инструменты налогообложения, расходов, регулирования и убеждения» [1, p. 8 - цит. по 2, p. 158]. Это понимание близко нашему определению политики, введённому в середине 1980-х годов. Мы охарактеризовали политику как совокупность намерений некоторого субъекта относительно состояния и/или динамики определённой социально-экономической системы (СЭС) и предпочтительных (выбранных им) способов реализации этих намерений [3, с. 589, 4, с. 401]. Соответственно, научная политика - это совокупность намерений некоторого субъекта относительно будущего состояния и динамики науки (как социально-экономической системы) и выбранных им средств (инструментов политики), применение которых, по его мнению, обеспечит реализацию его намерений.

Субъектами научной политики могут выступать разные индивиды. Это могут быть лидеры неформальных научных школ; руководители исследовательских организаций; владельцы частных и государственных благотворительных организаций, выдающих исследовательские гранты; руководители крупных корпораций, осуществляющие как коммерческое, так и некоммерческое финансирование исследователей; руководители государственных агентств разного типа, распределяющие бюджетные средства между исследовательскими организациями. Такие агентства проводят государственную научную политику в форме как прямых указаний принадлежащим государству исследовательским организациям, в каких направлениях и для каких целей следует вести научную деятельность, так и путём установки приоритетов финансирования различных грантовых программ.

Нужно отметить, что государственная научная политика (ГНП) — явление сравнительно недавнего времени, во всяком случае, в демократических стра-

нах1. Правительства многих стран активно влияли на научные исследования в период Второй мировой войны, однако по её окончании на протяжении двух-трёх десятилетий в отношениях государства и науки фактически возобладал подход М. Полани, который утверждал, что «попытка направить научные исследования к цели, отличной от их собственных, — это попытка отклонить их от научного прогресса» [5, р. 62.]. Исключение составляли научные исследования в оборонной сфере, активно проводившиеся в течение всего периода холодной войны. В остальных областях науки в экономически развитых странах действовало обычно значительное число частных благотворительных фондов и корпоративных исследовательских подразделений, которые и осуществляли финансирование основной части «необоронных» исследований, давая возможность проводить разработки по выбору самих учёных.

Однако в последние десятилетия отношения правительств и научных организаций ощутимо изменились. Многие правительства стали требовать более непосредственного участия науки в решении экономических и социальных проблем. С одной стороны, они стали настаивать на активизации усилий университетов и научных институтов по коммерциализации результатов их работы, а с другой стороны, — вводить различные системы оценки этих результатов [6, р. 45—46]. Вторая тенденция при этом публично оправдывалась необходимостью усиления подотчётности науки обществу.

В принципе, такое требование представляется неоспоримым с позиций развития демократии, однако практика его реализации практически во всех странах вызывает большие сомнения. Дело в том, что эта установка на деле замедляет проведение фундаментальных исследований, тем самым создавая трудности для будущих прикладных исследований, которые только и обеспечивают решение экономических и социальных проблем. Очевидно, эта установка была порождена текущими трудностями правительств, при этом, однако, мешала решению долгосрочных задач развития обществ [7, 8, 9].

Является ли подобная политика научно обоснованной? С нашей точки зрения, некоторая политика научно обоснована, если на момент её формулирования не существует научно доказанных фактов о связях и зависимостях, которые бы свидетельствовали или (1) о принципиальной недостижимости её целей, или (2) о неадекватности выбранных средств (т. е. о недостижимости выбранных целей с помощью выбранных средств), или (3) и о том, и другом одновременно [10].

Намерения (цели) политики можно считать научно обоснованными в трёх разных аспектах, если они: (а) достижимы в принципе, т. е. нет закономерностей, говорящих о нереализуемости желаемого состояния/динамики СЭС; (б) достижимы посредством использования выбранных типов средств; (в) их достижение не приведёт к снижению уровня полезности субъекта политики. Они могут быть научно обоснованными как во всех трёх, так и только в каком-то одном или двух указанных аспектах.

Средства политики можно считать научно обоснованными, если они: (а) могут быть применены в рамках ресурсных ограничений (в широком

В СССР и его сателлитах ГНП существовала и активно проводилась на протяжении практически всего времени их существования.

смысле слова, включая институциональные); (б) способствуют реализации намерений субъекта политики; (в) их применение не приводит к снижению уровня полезности этого субъекта. Как и в случае намерений, аспекты научной обоснованности средств не зависят друг от друга.

Научно доказанные факты, лежащие в основе научно обоснованной политики, существуют в научной литературе (статьях, книгах, отчётах). Их существование не означает, разумеется, что они известны субъекту политики. Более того, даже в случае известности они могут игнорироваться субъектом политики, если противоречат его уже сложившемуся мнению о «правильной политике» по отношению к некоторой СЭС [11].

Разработка научно обоснованной политики предполагает привлечение широкого круга источников научных знаний, включая противостоящие научные направления и школы, проведение дискуссий относительно фактов, противоречащих друг другу [12]. Ведь доказанность факта (не его интерпретации!) может быть выявлена в ходе научного анализа процесса его доказательства, а не по решению политика, выбравшего как доказательства те факты, которые ему удобны (выгодны).

Отметим в заключение этого раздела, что научно обоснованная политика — не то же, что «хорошая» политика, приносящая благо большинству членов общества: цели научно обоснованной политики могут быть таковы, что их достижение наносит ущерб значительному числу граждан, принося выгоду только субъекту политики или какой-то узкой группе граждан. Это характерная черта так называемых «хищнических» государств [13].

НАУЧНАЯ ОБОСНОВАННОСТЬ ИНСТРУМЕНТОВ НАУЧНОЙ ПОЛИТИКИ РОССИЙСКОЙ ФЕДЕРАЦИИ

Программа фундаментальных научных исследований в Российской Федерации на долгосрочный период (2013-2020 годы), которая является документом, отражающим научную политику Российской Федерации, утверждает: «Сегодня основной задачей науки является научное обеспечение социально-экономического развития страны. Только создав конкурентоспособную экономику, возможно добиться и конкурентоспособности науки. При этом особое внимание должно уделяться обеспечению национальной безопасности страны. В связи с этим тезис о повышении конкурентоспособности науки должен рассматриваться исключительно в этом контексте» 2. Целью этой Программы (иначе говоря, намерениями политики) выступает «...формирование с учётом институциональных преобразований сбалансированного и устойчиво развивающегося сектора фундаментальных исследований, обеспечение расширенного воспроизводства знаний., ускорение интеграционных процессов российской науки и образования, повышение

2 Программа фундаментальных научных исследований в Российской Федерации на долгосрочный период (2013-2020 годы) утверждена Распоряжением Правительства Российской Федерации от 27.12.2012 № 2538-р (ред. от 20.07.2016) «Об утверждении Программы фундаментальных научных исследований в Российской Федерации на долгосрочный период (2013-2020 годы)»

эффективности исследований и их использования для разработки перспективных технологий, необходимых для реализации стратегических задач социально-экономического развития страны».

Эти цели, безусловно, являются научно обоснованными3 в аспектах (а) и (в), однако их обоснованность в аспекте (б)4, исходя из текста Программы, оценить затруднительно, поскольку средства (инструменты) научной политики в нём в явном виде не зафиксированы.

Отсюда следует, что определить научную обоснованность инструментов политики можно, лишь выявив их на практике: только наблюдения за действиями различных ведомств позволяют выявить некоторые из типов средств, используемых для реализации явно сформулированных намерений. Ограниченные размеры статьи не позволяют проанализировать всё разнообразие применяемых инструментов, поэтому мы остановимся лишь на некоторых из них.

УСИЛЕНИЕ ПОДОТЧЁТНОСТИ

Одним из намерений НП, которая начала проводиться в большинстве стран ОЭСР по окончании холодной войны, было стремление установить «демократический контроль над технологиями и институтами, которые глубоко влияют на повседневную жизнь» [14, p. 30].5

Как отмечает М. Боуэнс, подотчётность обществу ("public accountability") — «слово, вызывающее воодушевление ("hurrah-word"), подобно словам "обучение", "ответственность" или "солидарность", относительно которых никто не будет против» [15, p. 182]. Подотчётность трактуется им как «социальное отношение, в котором актор чувствует обязанность объяснить и оправдать своё поведение некоторому значимому другому» [там же, p. 184]. Ответственность существует во множестве различных форм, реализуясь через широкое разнообразие механизмов [16], порождая при этом некоторые устойчивые убеждения, далеко не всегда соответствующие реальности [17, p. 367-377]. Одно из таких убеждений тесно связывает подотчётность и порождаемую ею эффективность подотчётного. Однако, как показывает и теоретический, и эмпирический анализ [18, 19, 20], такая связь существует не всегда, и притом она не всегда положительна.

Рассмотрим отношение подотчётности между наукой и обществом. Прежде всего, нужно подчеркнуть, оба актора не являются индивидами, в силу чего сразу возникает вопрос: кто именно кому именно подотчётен (или должен стать более подотчётным)? Без ответа на него невозможно говорить

Одновременно нужно отметить, что они полностью соответствуют целям научной политики в странах ОЭСР, где также подчеркивается нацеленность науки на повышение конкурентоспособности национальных экономик, усиление связи с производством, создание новых технологий и т. п.

То есть они достижимы в принципе, и их достижение не ухудшит ситуацию для субъекта политики; неясно, можно ли достичь эти цели выбранными инструментами.

В текстах, подобных приведённому, негативные последствия непродуманного использования научных знаний демагогически приписывались собственно науке, а не тем, кто использовал в своих интересах её результаты.

3

4

о действенности усиления подотчётности, её влиянии на эффективность науки и т. п. По мнению Дж. Р. Франсиса, обострение внимания к вопросам подотчётности и ответственности науки является следствием расширения «неправильных» практик поведения учёных (подтасовки и фальсификации данных, сознательного искажения интерпретаций результатов, плагиата и т. п.). Однако такие практики неотделимы от внутреннего устройства самой науки, в силу чего они должны связываться не только с отдельными исследователями, но и «с социальными единицами, которые определяют и контролируют структуру научных практик: лабораториями, НИИ, научными обществами и журналами, а также с финансирующими агентствами» [21, р. 5]. С такой постановкой вопроса можно согласиться в части определения круга подотчётных «единиц»6. Однако подотчётность науки трактуется шире, включая также «достаточность» позитивных практик и их результатов для развития экономики и решения социальных проблем. Всё это подводит к вопросу - кому должна быть «более подотчётна» наука?

В «мире нирваны» Г. Демсеца [22] и в политической демагогии ответ на этот вопрос прост: наука подотчётна обществу. На практике это, однако, означает не более чем подотчётность правительственным бюрократическим организациям (финансирующим агентствам) для исследовательских единиц и отдельных учёных и подотчётность правительству для самих финансирующих агентств. Правительства, в свою очередь, подотчётны (в демократических странах) избирателям. Интересно отметить, что последние в основном одобряют и поддерживают государственные расходы на науку [23, 24], причём даже в период экономического кризиса [25]. Иными словами, «общество», - в форме общественного мнения, - как ранее, так и в настоящее время признаёт науку и полагает производство научных знаний полезным для себя. Откуда же тогда проистекает нужда в повышении подотчётности, о которой говорят правительства?

Как представляется, политики и бюрократы сочувственно отнеслись к призыву усилить подотчётность науки, поскольку увидели в нём возможность установить контроль над ещё одной СЭС, которая до того развивалась относительно автономно (если исключить её зависимость от государственного финансирования).

У «усиления подотчётности обществу» в его практическом исполнении есть как минимум два варианта. Во-первых, правительства могут пытаться непосредственно устанавливать приоритетные задачи научным организациям. Однако для того, чтобы это сделать лучше, чем могут сами учёные, чиновники должны располагать масштабными знаниями относительно перспектив развития и науки, и технологий, и экономики, причём не только своей страны, но и тех стран, с которыми в принципе может конкурировать данная страна. Есть большие сомнения в том, что такие «интеллектуальные супермены» существуют, — как вообще, так и среди представителей правительств.

Показателен в этой связи опыт «стратегической переориентации» науки в Швеции, где начиная с 1994 г. с соответствующей целью были созданы

6 Если, конечно, под ответственностью лабораторий, журналов и т. п. понимать ответственность их руководителей.

специальные государственно-частные агентства. Деятельность их руководителей, однако, свелась к «выбиванию» из правительства дополнительных средств, поскольку «шведские реформаторы исследований имели лишь смутное понимание того, как финансирование науки может быть связано с экономической конкурентоспособностью»7 [26, p. 46]. Соответственно, они не смогли самостоятельно определить «стратегические» направления развития науки, а приглашение для этого ведущих учёных страны вернуло процессы финансирования «на круги своя». Для работы шведских учёных, в конечном счете, это было лучше, чем если бы их заставили «переключиться» на неверно определённые новые задачи.

Во-вторых, правительственные структуры, осознав нереалистичность первой опции и желая выглядеть ответственно перед налогоплательщиками, могут вводить понятные неспециалистам, но не отражающие содержания научных достижений «объективные» целевые показатели, якобы представляющие масштабы производства научных знаний и их качество. Именно этим путём пошли правительства большинства стран ОЭСР и их последователи во многих других странах. Все подобные показатели так или иначе базируются на количестве публикаций и патентов (в расчёте на одного исследователя или денежную единицу расходов на науку), а также числе цитирований опубликованных работ, что должно было отражать «качество» публикаций: чем больше цитирований, тем лучше исследование.

Эти показатели считаются «объективными» в противоположность мнению коллег ("peer review") о значимости результатов выполненной работы как «экспертно субъективному». Однако С. М. Крупина и В. В. Клочков справедливо отмечают: «Когда рецензенты и редколлегии журналов принимают решения о публикации статей данного автора - это экспертные решения. И когда читатели научных журналов ссылаются на статьи данного автора, их решения также являются экспертными» [27, с. 15]. При этом выбор работ для цитирования определяется отнюдь не только их качеством [28, p. 46-49]. Поэтому показатели, которыми наука с подачи бюрократов «отчитывается перед обществом», фактически не отражают её реальных достижений и влияния на экономику и общество [29].

Увязка же невалидных измерителей с материальными стимулами исследователей и преподавателей подталкивает их к оппортунистическому (в том числе просто нечестному) поведению [30, 31, 32, 33, 34]. Пакистанские исследователи Ш. Шоэйб и Б. Муджтаба, описывая систему стимулирования университетских преподавателей, введённую для решения поставленной правительством страны задачи, - добиться того, чтобы не менее пяти университетов вошли в сотню лучших мировых вузов, - характеризуют результаты её применения следующим образом: «извращенные стимулы и греховное поведение профессионалов» [35]. Нужно заметить, что эта система весьма близка той, которая практикуется в вузах Российской Федерации.

Исследователи процессов «повышения подотчётности науки обществу» отмечают явления, получающие всё более широкое распространение: рост

7 В определённой мере и потому, что смутным является само понятие конкурентоспособности страны, несмотря на его широкое использование как учёными, так и политиками и бюрократами.

количества низкокачественных публикаций [36, 37]8; появление «хищнических» журналов, публикующих за плату всё, что им присылают, не проводя фактически рецензирования и редакционного отбора [39, 40]; манипулирование рейтингами и библиометрическими индексами [41, 42, 43].

Под влиянием действий бюрократов учёные начали выбирать темы работы, которые позволили бы им соответствовать требованиям «библиометри-ческой подотчётности» [44], чтобы сохранить финансирование, а не темы, которые следуют из логики исследования. Как отмечается в более позднем эмпирическом исследовании, «индикаторное мышление» ("thinking with indicators") глубоко проникло в практику производства научных знаний, определяя все стадии этого процесса. В то же время другие «нормы и критерии научного качества, например, эпистемическая оригинальность, долгосрочный научный прогресс, социетальная релевантность и социальная ответственность» [45, p. 157] отошли на второй план. Этот тренд, отмечают исследователи, находится в явном противоречии с декларируемыми целями научной политики, такими как инновационность, социальная релевантность и ответственность науки9. Ответственность формальной системы оценки результатов за искажения, возникшие в производстве научных знаний, ясно демонстрирует П. Вёлерт [47, 48].

Важно отметить, что все такого рода последствия часто называют непредвиденными или непреднамеренными, что неверно. Они были предсказаны около сорока лет назад [49], и лишь их незнание и/или нежелание это учитывать (в том числе не принимать во внимание опыт советской плановой экономики, десятилетиями «работавшей на показатель», что помогло приблизить её крах) привели к тому, что правительства, проведшие в своих странах реформы в стиле «нового государственного менеджмента», породили массовые негативные последствия во многих значимых для развития этих стран секторах, таких как образование, наука и здравоохранение.

Расширение подотчётности науки часто связывают с необходимостью обеспечить рациональное использование бюджетных средств. В этой связи большой интерес представляет интерпретация науки как СЭС в виде своеобразного рынка: субъекты действий на нём — производители научных знаний (продавцы) и их потребители (покупатели) — это учёные, которые осуществляют действия (производство знаний и их публикацию), максимизируя свои функции полезности. Единицей измерения этой функции выступает внимание, т. е. то время, которое потребители тратят на прочтение (изучение) публикаций одних исследователей, но не тратят его на другие работы [50].10 Такая трактовка, восходящая к идеям Герберта Саймона

Давление со стороны бюрократов, понуждающее учёных больше публиковаться, не означает, что рост числа публикаций у каждого исследователя ведёт к снижению качества. Напротив, работы более продуктивных учёных по качеству обычно превосходят статьи менее продуктивных авторов [38]. Причина общего снижения качества обусловлена тем, что больше статей стали публиковать менее талантливые исследователи.

Формы работы на показатель, спровоцированные «реформами подотчётности», проникли даже туда, где ранее в странах ОЭСР практически отсутствовали, - в сферу высшего образования [46].

Попытки представить академическую науку как систему рынков предпринимались и ранее [51], однако не получили развития.

3

9

10

[52, р. 40-50], находит частичные эмпирические подтверждения [53, 54]. Её значимость в обсуждаемом аспекте состоит в том, что, если субъекты науки принимают рациональные решения о распределении своих ресурсов, внешний контроль их действий является излишним. Ведь государственные контролёры не проверяют, эффективно ли расходуются ресурсы частным предприятием: неэффективные фирмы с большой вероятностью выталкиваются с рынка, — конечно, в условиях честной конкуренции.

Есть и ещё один аргумент против внешнего контроля качества в науке: научные публикации являются благами разного типа для разных классов их потребителей. Для профессионалов — это опытное благо, качество которого оценивается в процессе потребления (чтения, изучения), в то время как для непрофессионалов — это доверительное благо, качество которого может быть оценено лишь много времени спустя после потребления. Длительность отсрочки зависит от того, как скоро читатель повысит уровень своих знаний в соответствующей области и сможет ли он понять и оценить, что же он прочитал. В этой связи попытки чиновников (очевидно, непрофессионалов в науке) оценить качество научных исследований библиометрическими показателями более всего напоминают попытки первокурсников оценить качество читаемых им лекций по внешнему виду преподавателя: если в костюме — лекция хорошая, если в джинсах — плохая (или наоборот).

Особенность библиометрических оценок (БМО) результатов научных исследований заключается в том, что с ними невозможно провести операции «обратного инжиниринга», т. е. понять, почему, в силу каких содержательных причин, та или иная статья получила вычисленную оценку, и использовать это понимание для улучшения последующих результатов исследователя. Единственное, как можно их использовать, — это «улучшить» качество гейминга, «игры в показатели», или работы на показатель, т. е. улучшить (ещё более исказить) количественный публичный образ статьи [55]. Иными словами, БМО не в состоянии продуцировать осмысленные руководящие указания, кроме тривиальностей типа «надо лучше работать», — как если бы учёные, руководимые внутренними стимулами, сами не стремились к этому без всяких указаний.

Таким образом, инструменты научной политики, используемые (далеко не только в Российской Федерации) для повышения подотчётности науки обществу, не являются научно обоснованными. Их применение в полном соответствии с положениями экономической теории ведёт к результатам, противоположным декларируемым намерениям этой политики.

КОНКУРЕНТНОСТЬ И МНОЖЕСТВЕННОСТЬ ИСТОЧНИКОВ ФИНАНСИРОВАНИЯ ИССЛЕДОВАНИЙ

В большинстве стран ОЭСР (США — заметное исключение) уже на протяжении многих лет происходит сокращение бюджетного финансирования науки, оправдываемое провозглашением «третьей миссии» университетов [56], и подталкивание исследовательских организаций к тесному сотрудничеству с бизнесом (хотя в Европе в последние годы финансирование на-

чало ощутимо расти). Этот тренд сопровождается также усилением конкурентного подхода к получению бюджетных исследовательских грантов. В странах, где высок уровень конкуренции на всех рынках и инновации являются ведущим фактором конкурентной борьбы, где экономическая свобода и верховенство права способствуют масштабной предпринимательской деятельности, расширение многоканальности финансирования исследований вполне оправданно и не может привести к общему сокращению расходов на них.

Однако и в таких, в целом благоприятных для науки, институциональных условиях, исследователи обратили внимание на потенциальные негативные последствия реализации обсуждаемого подхода. Так, А. Геуна на основе теоретического анализа указал на высокую вероятность концентрации усилий на краткосрочных прикладных задачах с предсказуемыми результатами в ущерб поисковым исследованиям [57], и этот вывод нашёл эмпирические подтверждения [58, 59]. Анализ проектов, поддержанных Советом по инженерным и физическим научным исследованиям в Великобритании, показал, что поисковые работы, обещавшие «радикально новые» результаты, получали финансирование гораздо реже, чем традиционные, выполнявшиеся в рамках мейнстрима [60]. Д. Блюменталь и др. выявили, что получение грантов от бизнеса может задержать публикацию результатов исследований и даже вызвать их полное засекречивание, что сдерживает рост научного знания [61]. Б. Жанг и С. Ванг, анализируя взаимодействие университетов и бизнеса в Китае, выявили, что интенсивное сотрудничество приводит к снижению индекса Хирша соответствующих исследователей [62]. Анализ показывает, что в целом ясная причинная связь конкуренции за гранты и продуктивности исследований отсутствует [63].

Конкурентное финансирование исследований порождает и ещё одно последствие: неустойчивость финансового положения исследователей, превращение академической профессии в прекариатную [64, 65]. По оценкам Т. Аареваара и И. Добсона, это создаёт стрессовую атмосферу «страха и отвращения» ("fear and loathing") в университетах [66], что, как давно установлено, не способствует продуктивности исследований [67, 68].

Однако в литературе представлены и другие оценки. Так, Б. Ван Луи и др. установили, что учёные, не чуждые предпринимательству, т. е. патентующие свои изобретения, публикуются ощутимо больше, чем «чистые» исследователи [69]; о том же свидетельствуют данные К. Дриваса и др. [70], Р. Гарсиа и др. [71]. Объяснение такой разноречивости результатов дают Х. Хоттенротт и К. Лоусон, указывая на неоднородность совокупности исследователей. По данным их анализа, одни учёные имеют склонность к занятию наукой («традиционный» тип), в то время как другие готовы заниматься приложениями своих результатов («коммерческий» тип). Различия в концентрации этих типов в разных исследовательских организациях и приводят к несовпадающим выводам относительно долгосрочных последствий усиления взаимодействия науки и бизнеса [72]. По данным М. Кат-танео и др., конкурентный механизм финансирования в целом увеличивает продуктивность исследователей [73], о чём говорят и другие работы [74,

75].11 Это означает, что в политике, нацеленной на реальные, а не формальные результаты, у исследователей должен быть выбор: заниматься ли только «чистой» наукой или коммерциализировать свои результаты.

Таким образом, при нынешнем уровне наших знаний нельзя утверждать, что конкурентное многоканальное финансирование науки способствует улучшению условий производства научного знания, хотя нельзя утверждать и обратное. На что следует обратить внимание при оценке обоснованности введения такой системы в Российской Федерации, так это на то, что она усиливает неопределённость жизненных перспектив для исследователей, — в силу того, что в нашей стране низка ёмкость рынка профессионального труда и крайне невелико число фондов, финансирующих исследования. В то же время в других условиях многоканальность финансирования науки повышает её устойчивость [76].

Одновременно нужно заметить, что один фактор повышения уровня производства научных знаний установлен с высокой степенью надёжности: это устойчивый и высокий уровень финансирования исследований [77, 78], причём эффективной формой выступают стратегические целевые программы с высоким приоритетом финансирования [79].

РАЗВИТИЕ НАУКИ В УНИВЕРСИТЕТАХ, СОВМЕЩЕНИЕ ИССЛЕДОВАНИЙ И ПРЕПОДАВАНИЯ

Идея Вильгельма фон Гумбольдта об университетах как единстве обучения и научных исследований, реализованная в европейских и многих других странах, включая США, возникла в начале XIX века, когда университетское образование было доступно немногим и люди с университетским образованием с большой вероятностью продолжали заниматься исследованиями [80]. Совмещение научной и преподавательской деятельности было в этих условиях вполне естественным.

Развитие науки в университетах в XX веке, особенно во второй его половине, когда охват высшим образованием значительно расширился, было поддержано также и тем обстоятельством, что демонстрация научных достижений того или иного университета стала действенным средством сигнализации о высоком качестве предоставляемых в нём образовательных услуг как доверительных благ, что хорошо работало в конкуренции за абитуриентов [81].

В современных условиях массового высшего образования и ориентации значительной части исследований на прикладные результаты (вследствие спроса со стороны бизнеса) разделение таких видов деятельности, как преподавание и исследования становится условием повышения результативности каждого из них. Дж. Хетти и Г. Марш в своём мета-аналитическом исследовании ясно показали, что связь между успешностью преподавания

Комментируя эти результаты, нельзя не отметить, что продуктивность в них оценивается посредством различных БМО, которые, как показано выше, не отражают действительную ценность исследований. Иными словами, рост числа публикаций и производных БМО можно объяснить работой на показатель, а не другими причинами.

и занятиями наукой отсутствует [82]. Это позволило им в более поздней работе назвать распространённое убеждение в том, что преподавание и исследования, которыми занимается один и тот же индивид, взаимно дополняют и поддерживают друг друга, «живучим мифом» [83, p. 606]. Эту живучесть подтверждает, например, одно из недавних исследований, авторы которого не только повторили упомянутые результаты Хетти и Марша, но и указали на опасность снижения качества образовательных услуг, порождаемую тем, что в системы оценки университетских преподавателей повсеместно включаются данные об их публикационной активности [84]. Время — ограниченный ресурс, и его распределение в пользу проведения исследований и написания статей сокращает возможности для подготовки качественных занятий с учащимися [85].

Соответственно, установка научной политики Российской Федерации на перенесение исследований в университеты, с упором на их проведение работающими там преподавателями, не соответствует имеющимся научным данным и не может считаться научно обоснованной.

Единственный очевидный плюс для проведения исследований, который даёт концентрация науки в вузах, — это наличие «в шаговой доступности» большого числа потенциальных работников, которых легко привлекать к исследовательской работе (разумеется, с учётом их квалификации). Однако практически тот же эффект даёт преподавание в университетах учёных, работающих в других организациях. Одновременно это высвобождает время преподавателей для изучения актуальной литературы и подготовки к качественному проведению занятий со студентами.

УКРУПНЕНИЕ ИССЛЕДОВАТЕЛЬСКИХ ОРГАНИЗАЦИЙ И УНИВЕРСИТЕТОВ

Ещё один живучий миф, широко распространённый среди чиновников многих стран, — это убеждённость в том, что только крупные научные организации могут производить значимые научные знания, вследствие чего происходят слияния университетов и исследовательских организаций.12 Между тем, научные основания для такого рода бюрократических действий отсутствуют. Например, исследование, проведённое на основе обследования большого числа разнообразных научных организаций в Италии и Франции, показало, что с точки зрения продуктивности учёных (числа их публикаций) большие организации не имеют преимущества перед малыми [87]. Было также выявлено и отсутствие эффекта агломерации, т. е. положительного влияния на продуктивность сосредоточения большого числа организаций в одном городе. Аналогичные результаты получены и для исследовательских групп внутри научных организаций [88, 89]. В то же время, для австрийских университетов (правда, используя другую технику, — анализ среды функционирования — Data Envelopment Analysis) авторы установили, что зависимость продуктивности от размера имеет нелинейный характер: наибольшие значения демонстрируют малые и крупные подразделения [90].

12 Ж. Баррье говорит даже о «мании слияний» [86].

Т. Брандт и Т. Шуберт объясняют отсутствие эффекта масштаба спецификой технологии производства научного знания [91], которая, однако, различна для разных отраслей науки. Особенно интересны и важны результаты выявления связи размера организации и её продуктивности для отдельных областей исследований. Такой анализ, проведённый для Италии, показал, что ни в одной из отраслей не было положительной корреляции между размером и продуктивностью, а в химии, инженерной науке и исследованиях окружающей среды имела место отрицательная корреляция; одновременно было установлено, что наиболее продуктивные организации почти во всех областях относятся к числу малых [92, р. 19].

М. Коччиа объясняет отсутствие эффекта масштаба в науке отрицательным влиянием бюрократизации, которая увеличивается с ростом размеров организации и затрудняет работу исследователей: ведь бюрократы для оправдания своего существования постоянно придумывают различные правила и формы отчётности, отнимающие время у исследователей [93]. На эти моменты обращают внимание и другие учёные [94]. Недавний мета-анализ значительного числа исследований показал, что выводы и рекомендации всё чаще склоняются в пользу децентрализованной организации и финансирования научных организаций [95].

На сегодня, как показывает анализ, доказательства благотворного влияния укрупнения исследовательских организаций, включая университеты, на эффективность производства научных знаний отсутствуют. Более того, имеется большое число свидетельств негативного влияния на неё такого рода бюрократических «реформ» (прежде всего, вследствие роста бюрократизации науки). Соответственно, данный инструмент российской научной политики является научно необоснованным.

Таким образом, фактически проводимая в Российской Федерации (и не только) научная политика не является научно обоснованной, как минимум, в следующих своих составляющих: (1) выборе инструментов повышения публичной подотчётности науки; (2) намерениях финансировать исследования исключительно на конкурсной основе; (3) стремлениях развивать науку преимущественно в университетах, причём силами преподавателей; (4) намерениях укрупнять исследовательские организации.

ЛИТЕРАТУРА

1. Doern B. G., Stoney C. Federal Research and Innovation Policies and Canadian Universities: A Framework for Analysis // Research and Innovation Policy: Changing Federal Government-University Relations / Ed. by G. B. Doern and C. Stoney. Toronto: University of Toronto Press. 2009. P. 3-34.

2. Martin B. R. R&D policy instruments - a critical review of what we do and don't know // Industry and Innovation. 2016. Vol. 23. Iss. 2. P. 157-176.

3. Майминас Е. З., Тамбовцев В. Л., Фонотов А. Г. О разработке концепции экономического и социального развития СССР // Экономика и математические методы. 1983. Т. 19. № 4. С. 583-597.

4. Майминас Е. З., Тамбовцев В. Л., Фонотов А. Г. К методологии обоснования долгосрочных перспектив экономического и социального развития СССР // Экономика и математические методы. 1986. Т. 22. №. 3. С. 397-411.

5. Polanyi М. The republic of science: Its political and economic theory // Minerva. 1962. Vol. 1. № 1. P. 54-74.

6. Tuunainen J. Science Transformed? Reflections on Professed Changes in Knowledge Production // Organizations, People and Strategies in Astronomy / Ed. by A. Heck.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2013. Vol. 2. P. 43-71.

7. Leitch S., Motion J., Merlot E., Davenport S. The fall of research and rise of innovation: Changes in New Zealand science policy discourse // Science and Public Policy.

2014. Vol. 41. Iss. 1. P. 119-130.

8. Prettner K., Werner K. Government-Funded Basic Research: What's in It for Firms? // Rutgers Business Review. 2017. Vol. 2. № 1. P. 64-69.

9. Lariviere V., Macaluso B., Mongeon P., Siler K., Sugimoto C. R. Vanishing industries and the rising monopoly of universities in published research // PLoS ONE. 2018. 13(8). DOI: https://doi.org/10.1371/journal.pone.0202120.

10. Тамбовцев В. Л. О научной обоснованности научной политики в РФ // Вопросы экономики. 2018. № 2. С. 5-32.

11. Lewandowsky S., Oberauer K. Motivated Rejection of Science // Current Directions in Psychological Science. 2016. Vol. 25. Iss. 4. P. 217-222.

12. Kovacic Z. Conceptualizing Numbers at the Science-Policy Interface // Science, Technology, & Human Values. 2018. Vol. 43. Iss. 6. P. 1039-1065.

13. Vahabi M. A positive theory of the predatory state // Public Choice. 2016. Vol. 168. P. 153-175.

14. Sarewitz D. Social Change and Science Policy // Issues in Science and Technology. 1997. Vol. 13. № 4. P. 29-32.

15. Bovens М. Public Accountability // Oxford Handbook of Public Management / Ed. by E. Ferlie, L. E. Lynn Jr., C. Pollitt. Oxford: Oxford University Press. 2005. P. 182-208.

16. Lindberg S. Mapping accountability: core concept and subtypes // International Review of Administrative Sciences. 2013. Vol. 79. Iss. 2. P. 202-226.

17. Dubnick M. Accountability and the Promise of Performance: In Search of the Mechanisms // Public Performance and Management Review. 2005. Vol. 28. № 3. P. 376-417.

18. Erkkila T. Governance and Accountability - a shift in conceptualization // Public Administration Quarterly. 2007. Vol. 31. № 1/2. P. 1-38.

19. Ossege C. Accountability - are We Better off Without It? // Public Management Review. 2012. Vol. 14. Iss. 5. P. 585-607.

20. Christensen T., Lxgreid P. Performance and accountability - A theoretical discussion and an empirical assessment // Public Organization Review. 2015. Vol. 15. Iss. 2. P. 207-225.

21. Francis J. R. The credibility and legitimation of science: A loss of faith in the scientific narrative // Accountability in Research: Policies and Quality Assurance. 1989. Vol. 1. Iss. 1. P. 5-22.

22. Demsetz H. Information and Efficiency: Another Viewpoint // Journal of Law & Economics. 1969. Vol. 12. № 1. P. 1-22.

23. Besley J. C. The state of public opinion research on attitudes and understanding of science and technology // Bulletin of Science, Technology & Society. 2013. Vol. 33. Iss. 1-2. P. 12-20.

24. Нефедова А. И., Фурсов К. С. Общественное мнение о развитии науки и технологий. М.: Институт статистических исследований и экономики знаний НИУ ВШЭ. 2016.

25. Sanz-Menendez L., Van Ryzin G. G. Economic crisis and public attitudes toward science: A study of regional differences in Spain // Public Understanding of Science. 2015. Vol. 24. Iss. 2. P. 167-182.

26. BennerM. and Sorlin S. Shaping Strategic Research: Power, Resources, and Interests in Swedish Research Policy // Minerva. 2007. Vol. 45. Iss. 1. P. 31-48.

27. Крупина С. М., Клочков В. В. Перспективы российской фундаментальной науки в условиях институциональных реформ: моделирование и качественные выводы // Материалы 17-х Друкеровских чтений «Инновационные перспективы России и мира: теория и моделирование». Москва-Новочеркасск: ЮРГТУ (НПИ). 2014. С. 11-24.

28. Bornmann L., Daniel H. What do citation counts measure? A review of studies on citing behavior // Journal of Documentation. 2008. Vol. 64. № 1. P. 45-80.

29. Glanzel W. Seven Myths in Bibliometrics: About facts and fiction in quantitative science studies // COLLNET Journal of Scientometrics and Information Management. 2008. Vol. 2. Iss. 1. P. 9-17.

30. Курбатова М. В., Апарина Н. Ф., Донова И. В., Каган Е. С. Формализация деятельности преподавателя и эффективность деятельности вузов // Теста Economicus. 2014. Т. 12. № 4. С. 33-51.

31. Курбатова М. В., Каган Е. С. Оппортунизм преподавателей вузов как способ приспособления к усилению внешнего контроля деятельности // Journal of Institutional Studies (Журнал институциональных исследований). 2016. Т. 8. № 3. С. 116-136.

32. Ferro M. J., Martins H. F. Academic plagiarism: yielding to temptation // British Journal of Education, Society & Behavioural Science. 2016. Vol. 13. № 1. P. 1-11.

33. Van Wesel M. Evaluation by Citation: Trends in Publication Behavior, Evaluation Criteria, and the Strive for High Impact Publications // Science and Engineering Ethics. 2016. Vol. 22. Iss. 1. P. 199-225.

34. Oravec J. A. The manipulation of scholarly rating and measurement systems: constructing excellence in an era of academic stardom // Teaching in Higher Education. 2017. Vol. 22. Iss. 4. P. 423-436.

35. Shoaib S. and Mujtaba B. G. Perverse Incentives and Peccable Behavior in Professionals: A Qualitative Study of the Faculty. Public Organization Review. 2018. Vol. 18. № 4. DOI: 10.1007/s11115-017-0386-2.

36. Holland C., Lorenzi F., Hall T. Performance anxiety in academia: Tensions within research assessment exercises in an age of austerity // Policy Futures in Education. 2016. Vol. 14. Iss. 8. P. 1101-1116.

37. Onder C. and Erdil S. E. Opportunities and opportunism: Publication outlet selection under pressure to increase research productivity // Research Evaluation. 2017. Vol. 26. № 2. P. 66-77.

38. Abramo G., DAngelo C. A., Di Costa F. Testing the trade-off between productivity and quality in research activities // Journal of the American Society for Information Science and Technology. 2010. Vol. 61. Iss.1. P. 132-140.

39. Bowman J. D. Predatory Publishing, Questionable Peer Review, and Fraudulent Conferences // American Journal of Pharmaceutical Education. 2014. Vol. 78. № 10. Article 176. DOI: 10.5688/ajpe7810176.

40. Al-Khatib A. Protecting Authors from Predatory Journals and Publishers // Publishing Research Quarterly. 2016. Vol. 32. Iss. 4. P. 281-285.

41. Lopez-Cozar E. D., Robinson-Garcia N., Torres-Salinas D. The Google Scholar Experiment: How to Index False Papers and Manipulate Bibliometric Indicators // Journal of the Association for Information Science and Technology. 2014. Vol. 65. № 3. P. 446-454.

42. Orduna-Malea E., Martín-Martín A. and López-Cózar E. D. Metrics in academic profiles: a new addictive game for researchers? // Revista Española de Salud Pública. 2016. Vol. 90: e1-5.

43. Van Bevern R., Komusiewicz C., Niedermeier R., Sorge M., Walsh T. H-index manipulation by merging articles: Models, theory, and experiments // Artificial Intelligence. 2016. Vol. 240. P. 19-35.

44. BornmannL. Mimicry in science? // Scientometrics. 2011. Vol. 86. Iss. 1. P. 173-177.

45. Müller R., de Rijcke S. Exploring the epistemic impacts of academic performance indicators in the life sciences // Research Evaluation. 2017. Vol. 26. Iss. 3. P. 157-168.

46. Chapman D. W., Lindner S. Degrees of integrity: the threat of corruption in higher education // Studies in Higher Education. 2016. Vol. 41. Iss. 2. P. 247-268.

47. Woelert P. The 'Economy of Memory': Publications, Citations, and the Paradox of Effective Research Governance // Minerva. 2013. Vol. 51. Iss. 3. P. 341-362.

48. Woelert P. Governing knowledge: the formalization dilemma in the governance of the public sciences // Minerva. 2015. Vol. 53. Iss. 1. P. 1-19.

49. Holmstrom B. Moral hazard and observability // Bell Journal of Economics. 1979. Vol. 10. № 1. P. 74-91.

50. Franck G. The scientific economy of attention: A novel approach to the collective rationality of science // Scientometrics. 2002. Vol. 55. № 1. P. 3-26.

51. Ziman J. Academic Science as a System of Markets // Higher Education Quarterly. 1991. Vol. 45. Iss. 1. P. 41-61.

52. Simon H. A. Designing organizations for an information-rich world // Computers, Communications and the Public Interest / Ed. by M. Greenberger. Baltimore: Johns Hopkins University Press. 1971. P. 38-72.

53. Andersen L. B., Pallesen T. "Not Just for the Money?" How Financial Incentives Affect the Number of Publications at Danish Research Institutions // International Public Management Journal. 2008. Vol. 11. Iss. 1. P. 28-47.

54. Lam A. What motivates academic scientists to engage in research commercialization: 'Gold', 'ribbon' or 'puzzle'? // Research Policy. 2011. Vol. 40. Iss. 10. P. 1354-1368.

55. Rousseau S., Rousseau R. Being metric-wise: Heterogeneity in bibliometric knowledge // El profesional de la información. 2017. Vol. 26. Iss. 3. P. 480-487.

56. Laredo P. Revisiting the third mission of universities: Toward a renewed categorization of university activities? // Higher Education Policy. 2007. Vol. 20. Iss. 4. P. 441-456.

57. Geuna A. The Changing Rationale for European University Research Funding: Are there Negative Unintended Consequences? // Journal of Economic Issues. 2001. Vol. 35. № 3. P. 607-632.

58. Gulbrandsen M., Smeby J.C. Industry funding and university professors' research performance // Research Policy. 2005. Vol. 34. Iss. 6. P. 932-950.

59. Schmidt E. University funding reforms in Nordic countries // Cycles in university reform: Japan and Finland compared / Ed. by F. Maruyama and I. Dobson. Tokyo: Center for National University Finance and Management. 2012. P. 31-56.

60. Banal-Estañol A., Macho-Stadler I., Castrillo D. Key Success Drivers in Public Research Grants: Funding the Seeds of Radical Innovation in Academia? // CESifo Working Paper Series. 2016. № 5852.

61. Blumenthal D., Campbell E. G., Gokhale M., Yucel R., Clarridge B., Hilgartner S., Holtzman N. A. Data withholding in genetics and the other life sciences: Prevalence and predictors // Academic Medicine. 2006. Vol. 81. Iss. 2. P. 137-45.

62. Zhang B., WangX. Empirical study on influence of university-industry collaboration on research performance and moderating effect of social capital: evidence from engineering academics in China // Scientometrics. 2017. Vol. 113. Iss. 1. P. 257-277.

63. Auranen O., Nieminen M. University Research Funding and Publication Performance - An International Comparison // Research Policy. 2010. Vol. 39. Iss. 6. P. 822-834.

64. Вольчик В. В., Посухова О. Ю. Прекариат и профессиональная идентичность в контексте институциональных изменений // Terra Economicus. 2016. Т. 14. № 2. С. 159-173.

65. Вольчик В. В., Посухова О. Ю. Реформы в сфере образования и прекариатиза-ция учителей // Terra Economicus. 2017. Т. 15. № 2. С. 122-138.

66. Aarrevaara T., Dobson I. R. Academics under Pressure: Fear and Loathing in Finnish Universities? // Forming, Recruiting and Managing the Academic Profession. / Ed. by U. Teichler, W. Cummings. Cham: Springer, 2015. P. 211-223.

67. Blackburn R. T., Bentley R. J. Faculty research productivity: Some moderators of associated stressors // Research in Higher Education. 1993. Vol. 34. Iss. 6. P. 725-745.

68. Kinman G. Pressure points: A review of research on stressors and strains in UK academics // Educational Psychology. 2001. Vol. 21. № 4. P. 473-492.

69. Van Looy B., Callaert J., Debackere K. Publication and patent behavior of academic researchers: Conflicting, reinforcing or merely co-existing? // Research Policy. 2006. Vol. 35. Iss. 4. P. 596-608.

70. Drivas K., Balafoutis A. T., Rozakis S. Research funding and academic output: evidence from the Agricultural University of Athens // Prometheus: Critical Studies in Innovation. 2015. Vol. 33. Iss. 3. P. 235-256.

71. Garcia R., Araûjo V., Mascarini S., Gomes dos Santos E., Ribeiro Costa A. The academic benefits of long-term university-industry collaborations: a comprehensive analysis. [Электронный ресурс] // Associaçâo Nacional dos Centros de Pôs-Gradu-açâo em Economia: [веб-сайт]. 2017. URL: https://www.anpec.org.br/encontro/2017/ submissao/files_I/i9-37eb54ec2895954e09d70ddc72561777.pdf (дата обращения: 13.01.2020).

72. Hottenrott H., Lawson C. Fishing for Complementarities: Research Grants and Research Productivity // International Journal of Industrial Organization. 2017. Vol. 51. Iss.1. P. 1-38.

73. Cattaneo M., Meoli M., Signori A. Performance-based funding and university research productivity: the moderating effect of university legitimacy // Journal of Technology Transfer. 2016. Vol. 41. Iss.1. P. 85-104.

74. Bolli T., Somogyi F. Do competitively acquired funds induce universities to increase productivity? // Research Policy. 2011. Vol. 40. Iss. 1. P. 136-147.

75. Schneider J. W., Aagaard K., Bloch C. W. What happens when national research funding is linked to differentiated publication counts? A comparison of the Australian and Norwegian publication-based funding models // Research Evaluation. 2016. Vol. 25. Iss. 3. P. 244-256.

76. Butos W. N., McQuade T. J. Nonneutralities in Science Funding: Direction, De-stabilization, and Distortion // Journal des Économistes et des Études Humaines. 2012. Vol. 18. Iss. 1. Article 4. DOI: https://doi.org/10.1515/1145-6396.1262.

77. Osuna C., Cruz-Castro L., Sanz-Menéndez L. Overturning some assumptions about the effects of evaluation systems on publication performance // Scientometrics. 2011. Vol. 86. Iss. 3. P. 575-592.

78. Amara N., Landry R., Halilem N. What can university administrators do to increase the publication and citation scores of their faculty members? // Scientometrics. 2015. Vol. 103. Iss. 2. P. 489-530.

79. Ebadi A., Schiffauerova A. How to boost scientific production? A statistical analysis of research funding and other influencing factors // Scientometrics. 2016. Vol. 106. Iss. 3. P. 1093-1116.

80. Anderson R. Before and after Humboldt: European universities between the eighteenth and the nineteenth centuries // History of Higher Education Annual. 2000. Vol. 20. P. 5-14.

81. Тамбовцев В. Л., Рождественская И. А. Реформа высшего образования в России: международный опыт и экономическая теория // Вопросы экономики. 2014. № 5. С. 97-108.

82. Hattie J. and Marsh H. W. The Relationship between Research and Teaching: A Meta-analysis // Review of Educational Research. 1996. Vol. 66. Iss. 4. P. 507-542.

83. Marsh H.W., Hattie J. The relation between research productivity and teaching effectiveness: Complementary, antagonistic, or independent constructs? // Journal of Higher Education. 2002. Vol. 73. Iss. 5 P. 603-641.

84. Cadez S., Dimovski V., Zaman Groff M. Research, teaching and performance evaluation in academia: the salience of quality // Studies in Higher Education. 2017. Vol. 42. Iss. 8. P. 1455-1473.

85. Hardre P. L., Beesley A. D., Miller R. L., Pace T. M. Faculty Motivation to do Research: Across Disciplines in Research-Extensive Universities // Journal of the Professoriate. 2011. Vol. 5. Iss. 1. P. 35-69.

86. Barrier J. Merger Mania in Science: Organizational Restructuring and Patterns of Cooperation in an Academic Research Centre // Organizational Transformation and Scientific Change: The Impact of Institutional Restructuring on Universities and Intellectual Innovation / Ed. by R. Whitley, J. Gläser. Bingley, UK: Emerald, 2014. P. 141-172.

87. Bonaccorsi A., Daraio C. Exploring size and agglomeration effects on public research productivity // Scientometrics. 2005. Vol. 63. Iss. 1. P. 87-120.

88. Seglen P. O., Aksnes D. W. Scientific Productivity and Group Size: A Bibliometric Analysis of Norwegian Microbiological Research // Scientometrics. 2000. Vol. 49. Iss. 1. P. 125-143.

89. Horta H., Lacy T.A. (2011). How does size matter for science? Exploring the effects of research unit size on academics' scientific productivity and information exchange behaviors // Science and Public Policy. 2011. Vol. 38. Iss. 6. P. 449-460.

90. Leitner K.-H. , Prikoszovits J., Schaffhauser-Linzatti M., Stowasser R., Wagner K. The impact of size and specialisation on universities' department performance: A DEA analysis applied to Austrian universities // Higher Education. 2007. Vol. 53. Iss. 4. P. 517-538.

91. Brandt T., Schubert T. Is the university model an organizational necessity? Scale and agglomeration effects in science // Scientometrics. 2013. Vol. 94. Iss. 2. P. 541-565.

92. Bonaccorsi A., Daraio C. The organization of science. Size, agglomeration and age effects in scientific productivity. Paper submitted to the SPRU Conference «Rethinking science policy». 2002. March 21-23.

93. Coccia M. Research performance and bureaucracy within public research labs. Scientometrics. 2009. Vol. 79. Iss. 1. P. 93-107.

94. Walsh J. P., Lee Y. N. The bureaucratization of science // Research Policy. 2015. Vol. 44. Iss. 8. P. 1584-1600.

95. Aagaard K., Kladakis A., Nielsen M. W. Concentration or dispersal of research funding? // Quantitative Science Studies. 2019. P. 1-33. DOI: https://doi.org/10.1162/ qss_a_00002.

Статья поступила в редакцию 13.12.2019.

VALIDITY OF RUSSIAN SCIENCE POLICY'S INSTRUMENTS: WHAT THE WORLD'S EXPERIENCE SAYS?

Vitaly L. Tambovtsev

Lomonosov Moscow State University, Moscow, Russian Federation

vitalytambovtsev@gmail.com

DOI: 10.19181/smtp.2020.2.1.1

Abstract. Basing on the analysis of large number of studies revealing the mainstream science policy's consequences the paper shows that Russian state science policy includes the instruments preventing achieving the pronounced goals. It is established that at least following components are scientifically groundless: chosen mechanisms for increase public accountability of science; intentions to apply competitive research funding ubiquitously; tendency to concentrate research at the universities, and perform it mainly by efforts of professors; trend to amalgamate research organizations. The results of empiric research from different countries shows that in reality society's accountability is bureaucrats' accountability. Competitive research funding decrease probability of innovative researches that are far from mainstreams. Coercion of all academics to publish research papers especially in high-sited journals decrease time for increase lectures quality. Amalgamation of research organizations increase co-ordination costs, and not results to higher value scientific results.

Keywords: science policy; policy's scientific validity; public accountability; bibliometrics indicators; research efficacy.

For citation: Tambovtsev, V. L. (2020). Validity of Russian science policy's instruments: What the world's experience says? Science management: theory and practice. Vol. 2. No. 1. P. 15-39. DOI: 10.19181/smtp.2020.2.1.1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

REFERENCES

1. Doern, B. G. and Stoney, C. (2009). Federal Research and Innovation Policies and Canadian Universities: A Framework for Analysis. In: Doern, B. G. and Stoney, C. (ed.). Research and Innovation Policy: Changing Federal Government-University Relations. Toronto: University of Toronto Press. P. 3-34.

2. Martin, B. R. (2016). R&D policy instruments - a critical review of what we do and don't know. Industry and Innovation. Vol. 23. No. 2. P. 157-176.

3. Maiminas, E. Z., Tambovtsev, V. L. and Fonotov, A. G. (1983). O razrabotke kontseptsii ehkonomicheskogo i sotsial'nogo razvitiya SSSR [On the Formulation of the USSR's Social and Economic Development Conception]. Economika i matematicheskie metody. Vol. 19. No. 4. P. 583-597. (In Russ).

4. Maiminas, E. Z., Tambovtsev, V. L. and Fonotov, A. G. (1986). K metodologii obos-novaniya dolgosrochnykh perspektiv ehkonomicheskogo i sotsial'nogo razvitiya SSSR. [Toward Methodology of the USSR's Social and Economic Development Long-term Perspectives Foundation]. Economika i matematicheskie metody. Vol. 22. No. 3. P. 397-411. (In Russ).

5. Polanyi, M. (1962). The republic of science: Its political and economic theory. Minerva. Vol. 1. No. 1. P. 54-74.

6. Tuunainen, J. (2013). Science Transformed? Reflections on Professed Changes in Knowledge Production. In: Heck, A. (ed.). Organizations, People and Strategies in Astronomy. Vol. 2. P. 43-71.

7. Leitch, S., Motion, J., Merlot, E. and Davenport, S. (2014). The fall of research and rise of innovation: Changes in New Zealand science policy discourse. Science and Public Policy. Vol. 41. No. 1. P. 119-130.

8. Prettner, K. and Werner, K. (2017). Government-Funded Basic Research: What's in It for Firms? Rutgers Business Review. Vol. 2. No. 1. P. 64-69.

9. Lariviere, V., Macaluso, B., Mongeon, P., Siler, K. and Sugimoto, C.R. (2018). Vanishing industries and the rising monopoly of universities in published research. PLoS ONE, 13(8). DOI: https://doi.org/10.1371/journal.pone.0202120.

10. Tambovtsev, V. L. (2018). O nauchnoi obosnovannosti nauchnoi politiki v RF [On the scientific validity of scientific policy in the Russian Federation]. Voprosy Ekono-miki. Vol. 2. P. 5-32 (In Russ).

11. Lewandowsky, S. and Oberauer, K. (2016). Motivated Rejection of Science. Current Directions in Psychological Science. Vol. 25. No. 4. P. 217-222.

12. Kovacic, Z. (2018). Conceptualizing Numbers at the Science-Policy Interface. Science, Technology, & Human Values. Vol. 43. No. 6. P. 1039-1065.

13. Vahabi, M. (2016). A positive theory of the predatory state. Public Choice. Vol. 168. P. 153-175.

14. Sarewitz, D. (1997). Social Change and Science Policy. Issues in Science and Technology. Vol. 13. No. 4. P. 29-32.

15. Bovens, M. (2005). Public Accountability. In: Ferlie, E., Lynn, L. E. (Jr.) and Pollitt, C. (eds.) Oxford Handbook of Public Management. Oxford: Oxford University Press. P. 182-208.

16. Lindberg, S. (2013). Mapping accountability: core concept and subtypes. International Review of Administrative Sciences. Vol. 79. No. 2. P. 202-226.

17. Dubnick, M. (2005). Accountability and the Promise of Performance: In Search of the Mechanisms. Public Performance and Management Review. Vol. 28. No. 3. P. 376-417.

18. Erkkila, T. (2007). Governance and Accountability - a shift in conceptualization. Public Administration Quarterly. Vol. 31. No. 1/2. P. 1-38.

19. Ossege, C. (2012). Accountability - are We Better off Without It? Public Management Review. Vol 14. No. 5. P. 585-607.

20. Christensen, T. and L^greid, P. (2015). Performance and accountability - A theoretical discussion and an empirical assessment. Public Organization Review. Vol. 15. No. 2. P. 207-225.

21. Francis, J. R. (1989). The credibility and legitimation of science: A loss of faith in the scientific narrative. Accountability in Research: Policies and Quality Assurance. Vol. 1. No. 1. P. 5-22.

22. Demsetz, H. (1969). Information and Efficiency: Another Viewpoint. Journal of Law & Economics. Vol. 12. No. 1. P. 1-22.

23. Besley, J. C. (2013). The state of public opinion research on attitudes and understanding of science and technology. Bulletin of Science, Technology & Society. Vol. 33. No. 1-2. P. 12-20.

24. Nefedova, A. I. and Fursov, K. S. (2016). Obshchestvennoe mnenie o razvitii nauki i tekhnologii [Public Opinion on Science and Technology Development]. Moscow: Institute for Statistic Research and Knowledge Economy, SRU HSE. (In Russ).

25. Sanz-Menendez, L. and Van Ryzin, G.G. (2015). Economic crisis and public attitudes toward science: A study of regional differences in Spain. Public Understanding of Science. Vol. 24. No. 2. P. 167-182.

26. Benner, M. and Sorlin, S. (2007). Shaping Strategic Research: Power, Resources, and Interests in Swedish Research Policy. Minerva. Vol. 45. No. 1. P. 31-48.

27. Krupina, S. M. and Klochkov, V. V. (2014). Perspektivy rossiiskoi fundamental'noi nauki v usloviyakh institutsional'nykh reform: modelirovanie i kachestvennye vyvody [Perspectives of Russian Basic Science under Institutional Reforms: Modelling and Qualitative Conclusions]. Proceedings of 17th Drucker's Readings "Russia and World Innovation Perspectives: Theory and Modelling". Novocherkassk: URGTU (NPI). P. 11-24 (In Russ).

28. Bornmann, L. and Daniel, H. (2008). What do citation counts measure? A review of studies on citing behavior. Journal of Documentation. Vol. 64. No. 1. P. 4-80.

29. Glanzel, W. (2008). Seven Myths in Bibliometrics: About facts and fiction in quantitative science studies. COLLNET Journal of Scientometrics and Information Management. Vol. 2. No. 1. P. 9-17.

30. Kurbatova, M. V., Aparina, N. F., Donova, I. V. and Kagan, E. S. (2014). Formal-izatsiya deyatel'nosti prepodavatelya i ehffektivnost' deyatel'nosti vuzov [Lecturer Activity Formalization and the Universities Activity Effectiveness]. Terra Economicus. Vol. 12. No. 4. P. 33-51 (In Russ).

31. Kurbatova, M.V. and Kagan, E.S. (2016). Opportunizm prepodavatelei vuzov kak sposob prisposobleniya k usileniyu vneshnego kontrolya deyatel'nosti. [Opportunism of University Lecturers as a Way to Adaptate the External Control Activities Strengthening]. Journal of Institutional Studies. Vol. 8. No. 3. P. 116-136 (In Russ).

32. Ferro, M. J. and Martins, H. F. (2016). Academic plagiarism: yielding to temptation. British Journal of Education, Society & Behavioural Science. Vol. 13. No. 1. P. 1-11.

33. Van Wesel, M. (2016). Evaluation by Citation: Trends in Publication Behavior, Evaluation Criteria, and the Strive for High Impact Publications. Science and Engineering Ethics. Vol. 22. No. 1. P. 199-225.

34. Oravec, J.A. (2017). The manipulation of scholarly rating and measurement systems: constructing excellence in an era of academic stardom. Teaching in Higher Education. Vol. 22. No. 4. P. 423-436.

35. Shoaib, S. and Mujtaba, B. G. (2018). Perverse Incentives and Peccable Behavior in Professionals: A Qualitative Study of the Faculty. Public Organization Review. Vol. 18. No. 4. P. 441-459. DOI: 10.1007/s11115-017-0386-2.

36. Holland, C., Lorenzi, F. and Hall, T. (2016). Performance anxiety in academia: Tensions within research assessment exercises in an age of austerity. Policy Futures in Education. Vol. 14. No. 8. P. 1101-1116.

37. Onder, C. and Erdil, S. E. (2017). Opportunities and opportunism: Publication outlet selection under pressure to increase research productivity. Research Evaluation. Vol. 26. No. 2. P. 66-77.

38. Abramo, G., D'Angelo, C. A., Di Costa, F. (2010). Testing the trade-off between productivity and quality in research activities. Journal of the American Society for Information Science and Technology. Vol. 61. No. 1. P. 132-140.

39. Bowman, J. D. (2014). Predatory Publishing, Questionable Peer Review, and Fraudulent Conferences. American Journal of Pharmaceutical Education. Vol. 78. No. 10. Article 176. DOI: 10.5688/ajpe7810176

40. Al-Khatib, A. (2016). Protecting Authors from Predatory Journals and Publishers. Publishing Research Quarterly. Vol. 32. No. 4. P. 281-285.

41. López-Cózar, E. D., Robinson-García, N. and Torres-Salinas, D. (2014). The Google Scholar Experiment: How to Index False Papers and Manipulate Bibliometric Indicators. Journal of the Association for Information Science and Technology. Vol. 65. No. 3. P. 446-454.

42. Orduna-Malea, E., Martín-Martín, A. and López-Cózar, E. D. (2016). Metrics in academic profiles: a new addictive game for researchers? Revista Española de Salud Pública. Vol. 90. e1-5.

43. Van Bevern, R., Komusiewicz, C., Niedermeier, R., Sorge, M. and Walsh, T. (2016). H-index manipulation by merging articles: Models, theory, and experiments. Artificial Intelligence. Vol. 240. P. 19-35.

44. Bornmann, L. (2011). Mimicry in science? Scientometrics. Vol. 86. No. 1. P. 173-177.

45. Müller, R. and de Rijcke, S. (2017). Exploring the epistemic impacts of academic performance indicators in the life sciences. Research Evaluation. Vol. 26. No. 3. P. 157-168.

46. Chapman, D. W. and Lindner, S. (2016). Degrees of integrity: the threat of corruption in higher education. Studies in Higher Education. Vol. 41. No. 2. P. 247-268.

47. Woelert, P. (2013). The "Economy of Memory": Publications, Citations, and the Paradox of Effective Research Governance. Minerva. Vol. 51. No. 3. P. 341-362.

48. Woelert, P. (2015). Governing knowledge: the formalization dilemma in the governance of the public sciences. Minerva. Vol. 53. No. 1. P. 1-19.

49. Holmström, B. (1979). Moral hazard and observability. Bell Journal of Economics. Vol. 10. No. 1. P. 74-91.

50. Franck, G. (2002). The scientific economy of attention: A novel approach to the collective rationality of science. Scientometrics. Vol. 55. No. 1. P. 3-26.

51. Ziman, J. (1991). Academic Science as a System of Markets. Higher Education Quarterly. Vol. 45. No. 1. P. 41-61.

52. Simon, H.A. (1971). Designing organizations for an information-rich world. In: Greenberger, M. (ed.) Computers, Communications and the Public Interest. Baltimore: Johns Hopkins University Press. P. 38-72.

53. Andersen, L. B. and Pallesen, T. (2008). "Not Just for the Money?" How Financial Incentives Affect the Number of Publications at Danish Research Institutions. International Public Management Journal. Vol. 11. No. 1. P. 28-47.

54. Lam, A. (2011). What motivates academic scientists to engage in research commercialization: "Gold", "ribbon" or "puzzle"? Research Policy. Vol. 40. No. 10. P. 1354-1368.

55. Rousseau, S. and Rousseau, R. (2017). Being metric-wise: Heterogeneity in bibliometric knowledge. El profesional de la información. Vol. 26. No. 3. P. 480-487.

56. Laredo, P. (2007). Revisiting the third mission of universities: Toward a renewed categorization of university activities? Higher Education Policy. Vol. 20. No. 4. P. 441-456.

57. Geuna, A. (2001). The Changing Rationale for European University Research Funding: Are there Negative Unintended Consequences? Journal of Economic Issues. Vol. 35. No. 3. P. 607-632

58. Gulbrandsen, M. and Smeby J.C. (2005). Industry funding and university professors' research performance. Research Policy. Vol. 34. No. 6. P. 932-950

59. Schmidt, E. (2012). University funding reforms. In: Nordic countries in Maruyama, F. & Dobson, I. (ed.) Cycles in university reform: Japan and Finland compared. Tokyo: Center for National University Finance and Management. P. 31-56.

60. Banal-Estañol, A., Macho-Stadler, I. and Pérez Castrillo, D. (2016). Key Success Drivers in Public Research Grants: Funding the Seeds of Radical Innovation in Academia? CESifo Working Paper Series. No. 5852.

61. Blumenthal, D., Campbell, E. G., Gokhale, M., Yucel, R., Clarridge, B., Hilgart-ner, S. and Holtzman, N.A. (2006). Data withholding in genetics and the other life sciences: Prevalence and predictors. Academic Medicine. Vol. 81. No. 2. P. 137-45.

62. Zhang, B. and Wang, X. (2017). Empirical study on influence of university-industry collaboration on research performance and moderating effect of social capital: evidence from engineering academics in China. Scientometrics. Vol. 113. No. 1. P. 257-277.

63. Auranen, O. and Nieminen, M. (2010). University Research Funding and Publication Performance - An International Comparison. Research Policy. Vol. 39. No. 6. P. 822-834.

64. Volchik, V. V. and Posukhova, O. I. (2016). Prekariat i professional'naya identich-nost' v kontekste institutsional'nykh izmenenii [Precariat and Professional Identity in the Context of Institutional Change]. Terra Economicus. Vol. 14. No. 2. P. 159-173. (In Russ).

65. Volchik, V. V. and Posukhova, O. I. (2017). Reformy v sfere obrazovaniya i prekari-atizatsiya uchitelei [Education reforms and precariatization of school teachers]. Terra Economicus. Vol. 15. No. 2. P. 122-138 (In Russ).

66. Aarrevaara, T. and Dobson, I. R. (2015). Academics under Pressure: Fear and Loathing in Finnish Universities? In: Teichler, U., Cummings, W. (ed.) Forming, Recruiting and Managing the Academic Profession. Cham: Springer. P. 211-223.

67. Blackburn, R.T. and Bentley, R.J. (1993). Faculty research productivity: Some moderators of associated stressors. Research in Higher Education. Vol. 34. No. 6. P. 725-745.

68. Kinman, G. (2001). Pressure points: A review of research on stressors and strains in UK academics. Educational Psychology. Vol. 21. No. 4. P. 473-492.

69. Van Looy, B., Callaert, J. and Debackere K. (2006). Publication and patent behavior of academic researchers: Conflicting, reinforcing or merely co-existing? Research Policy. Vol. 35. No. 4. P. 596-608.

70. Drivas, K., Balafoutis, A.T. and Rozakis, S. (2015). Research funding and academic output: evidence from the Agricultural University of Athens. Prometheus: Critical Studies in Innovation. Vol. 33. No. 3. P. 235-256.

71. Garcia, R., Araujo, V., Mascarini, S., Gomes dos Santos, E. and Ribeiro Costa A. (2017). The academic benefits of long-term university-industry collaborations: a comprehensive analysis. [Electronic resource] Associaçâo Nacional dos Centros de Pos-Gradu-açâo em Economia: [web-site]. URL: https://www.anpec.org.br/encontro/2017/submiss-ao/files_I/i9-37eb54ec2895954e09d70ddc72561777.pdf (accessed 13.01.2020).

72. Hottenrott, H. and Lawson, C. (2017). Fishing for Complementarities: Research Grants and Research Productivity. International Journal of Industrial Organization. Vol. 51. No. 1. P. 1-38.

73. Cattaneo, M., Meoli, M. and Signori, A. (2016). Performance-based funding and university research productivity: the moderating effect of university legitimacy. Journal of Technology Transfer. Vol. 41. No. 1. P. 85-104.

74. Bolli, T. and Somogyi, F. (2011). Do competitively acquired funds induce universities to increase productivity? Research Policy. Vol. 40. No. 1. P. 136-147.

75. Schneider, J. W., Aagaard, K. and Bloch, C. W. (2016). What happens when national research funding is linked to differentiated publication counts? A comparison of the Australian and Norwegian publication-based funding models. Research Evaluation. Vol. 25. No. 3. P. 244-256.

76. Butos, W. N. and McQuade, T. J. (2012). Nonneutralities in Science Funding: Direction, Destabilization, and Distortion. Journal des Économistes et des Études Humaines. Vol. 18. No. 1. Article 4. DOI: https://doi.org/10.1515/1145-6396.1262.

77. Osuna, C., Cruz-Castro, L. and Sanz-Menéndez L. (2011). Overturning some assumptions about the effects of evaluation systems on publication performance. Sciento-metrics. Vol. 86. No. 3. P. 575-592.

78. Amara, N., Landry, R. and Halilem, N. (2015). What can university administrators do to increase the publication and citation scores of their faculty members? Sciento-metrics. Vol. 103. No. 2. P. 489-530.

79. Ebadi, A. and Schiffauerova A. (2016). How to boost scientific production? A statistical analysis of research funding and other influencing factors. Scientometrics. Vol. 106. No. 3. P. 1093-1116.

80. Anderson, R. (2000). Before and after Humboldt: European universities between the eighteenth and the nineteenth centuries. History of Higher Education Annual. Vol. 20. P. 5-14.

81. Tambovtsev, V. L. and Rozhdestvenskaya, I. A. (2014). Reforma vysshego obra-zovaniya v Rossii: mezhdunarodnyi opyt i ehkonomicheskaya teoriya [Higher education reform in Russia: international experience and economics]. Voprosy Ekonomiki. Vol. 5. P. 97-108 (In Russ).

82. Hattie, J. and Marsh, H. W. (1996). The Relationship between Research and Teaching: A Meta-analysis. Review of Educational Research. Vol. 66. No. 4. P. 507-542.

83. Marsh, H.W. and Hattie, J. (2002). The relation between research productivity and teaching effectiveness: Complementary, antagonistic, or independent constructs? Journal of Higher Education. Vol. 73. No. 5. P. 603-641.

84. Cadez, S., Dimovski, V. and Zaman Groff, M. (2017). Research, teaching and performance evaluation in academia: the salience of quality. Studies in Higher Education. Vol. 42. No. 8. P. 1455-1473.

85. Hardre, P. L., Beesley, A. D., Miller, R. L. and Pace, T. M. (2011). Faculty Motivation to do Research: Across Disciplines in Research-Extensive Universities. Journal of the Professoriate. Vol. 5. No. 1. P. 35-69.

86. Barrier, J. (2014). Merger Mania in Science: Organizational Restructuring and Patterns of Cooperation in an Academic Research Centre. In: Whitley, R., Gläser, J. (ed.) Organizational Transformation and Scientific Change: The Impact of Institutional Restructuring on Universities and Intellectual Innovation Bingley, UK: Emerald. P.141-172.

87. Bonaccorsi, A. and Daraio C. (2005). Exploring size and agglomeration effects on public research productivity. Scientometrics. Vol. 63. No. 1. P. 87-120.

88. Seglen, P. O. and Aksnes, D. W. (2000). Scientific Productivity and Group Size: A Bibliometric Analysis of Norwegian Microbiological Research. Scientometrics. Vol. 49. No. 1. P. 125-143.

89. Horta, H. and Lacy, T. A. (2011). How does size matter for science? Exploring the effects of research unit size on academics' scientific productivity and information exchange behaviors. Science and Public Policy. Vol. 38. No. 6. P. 449-460.

90. Leitner, K.-H., Prikoszovits, J., Schaffhauser-Linzatti, M., Stowasser, R. and Wagner K. (2007). The impact of size and specialization on universities' department performance: A DEA analysis applied to Austrian universities. Higher Education. Vol. 53. No. 4. P. 517-538.

91. Brandt, T. and Schubert, T. (2013). Is the university model an organizational necessity? Scale and agglomeration effects in science. Scientometrics. Vol. 94. No. 2. P. 541-565.

92. Bonaccorsi, A. and Daraio, C. (2002). The organization of science. Size, agglomeration and age effects in scientific productivity. Paper submitted to the SPRU Conference «Rethinking science policy». March 21-23.

93. Coccia, M. (2009). Research performance and bureaucracy within public research labs. Scientometrics. Vol. 79. No. 1. P. 93-107.

94. Walsh, J. P. and Lee, Y. N. (2015). The bureaucratization of science. Research Policy. Vol. 44. No. 8. P. 1584-1600.

95. Aagaard, K., Kladakis, A. and Nielsen, M. W. (2019). Concentration or dispersal of research funding? Quantitative Science Studies. P. 1-33. DOI: https://doi.org/10.1162/ qss_a_00002.

The article was submitted on 13.12.2019.

i Надоели баннеры? Вы всегда можете отключить рекламу.