Научная статья на тему 'Наукометрия: кого мы лечим?'

Наукометрия: кого мы лечим? Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
243
71
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НАУКОМЕТРИЯ / РОССИЙСКАЯ НАУКА / ЗАПАДНАЯ НАУКА. / SCIENTOMETRICS / RUSSIAN SCIENCE / FOREIGN SCIENCE

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Поляк Борис Теодорович

Статья является откликом на полемическую работу П.Ю. Чеботарева [4]. Подчеркивается, что ситуация с наукометрическими показателями в западной и российской науке кардинально различается и их роль в отечественных условиях может быть позитивной.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Scientometrics: who is the patient for this medicine?1

This article is motivated by the discussion paper of P. Chebotarev. We insist on that the situation with the use of scientometrics is dramatically different in the context of Russian and of foreign science. In Russian case the role of formal criteria can be strictly positive.

Текст научной работы на тему «Наукометрия: кого мы лечим?»

УДК 001.38 ББК 72.4+73.4

НАУКОМЕТРИЯ: КОГО МЫ ЛЕЧИМ?

Поляк Б. Т.1

(ФГБУН Институт проблем управления им. В.А. Трапезникова РАН, Москва)

Статья является откликом на полемическую работу П.Ю. Чеботарева [4]. Подчеркивается, что ситуация с наукометрическими показателями в западной и российской науке кардинально различается и их роль в отечественных условиях может быть позитивной.

Ключевые слова: наукометрия, российская наука, западная наука.

1. Введение

Представьте себе, что вы живете в стране, только что избавившейся от тоталитарного режима и в мучительных поисках нащупывающей свой путь. Вам на глаза попадается яркая статья левого западного публициста, обличающего современную демократию. Одно из главных обвинений: основа демократии, всеобщее равное избирательное право (один человек - один голос) ведет к ошибкам, к власти толпы, к торжеству сиюминутной выгоды. Вы в растерянности: все очень убедительно, выбор власти на основе простой арифметики нелеп, никаких иных механизмов демократия не предлагает... Наверное, лучше вернуться к проверенным тоталитарным методам... Однако чувство здравого смысла и исторический опыт напоминают вам, что несмотря на все недостатки демократия успешно справляется со своими болезнями, чего нельзя сказать об авторитарных системах.

1 Борис Теодорович Поляк, доктор технических наук (Москва, ул. Профсоюзная, д. 65, тел. (495) 334-88-29; boris@ipu.ru).

В какой-то мере пафос статьи П.Ю. Чеботарева [4], демонстрирующей недостатки формальных показателей для оценки эффективности научной деятельности, кажется мне не вполне адекватным состоянию дел в российской науке. Вот ее начало:

-Лечить? Кто болеет?

- Наука.

И далее очень метко описаны симптомы болезни, причем оказывается, что во многом в самой болезни виноваты механизмы оценки труда ученого. Давайте четко поймем, что эти недуги свойственны в основном западной науке, а современная российская наука страдает от совсем других, более кардинальных расстройств, и влияние наукометрических показателей может здесь быть оздоровляющим. При этом я ни в коей мере не хочу оспорить трезвые предупреждения о возможной опасности использования только числовых оценок научной деятельности, содержащиеся и в [4], и во многих других работах.

2. Индекс Хирша, импакт-фактор и их родственники: западный больной

Вспомним, что и число цитирований, и импакт фактор, и индекс Хирша появились совсем недавно (и именно в такой последовательности). Пока наука не стала массовой профессией, не было нужды в количественных показателях. Потом они понадобились для быстрой и обобщенной оценки деятельности ученого; по мере выявления недостаточности каждой появлялись новые, характеризующие новые стороны общественного признания. Разумеется, как и всякие количественные характеристики интеллектуальной деятельности, они имеют существенные ограничения, а их безоговорочное применение вызывает все большие негативные последствия. Обо всем этом очень метко и подробно говорится в статье П.Ю. Чеботарева. Впрочем, об этом же написаны десятки (если не сотни) других критических статей; понимание опасности бездумного применения таких показателей давно присуще научному сообществу. В других областях использование числовых показателей еще более опасно.

Например, никто не станет доказывать, что школьная оценка (у нас - от двойки до пятерки) дает исчерпывающую характеристику знаний и способностей школьника. Это понимание вызвало появление более детализированной числовой оценки типа ЕГЭ. Попытка применять ее (и только ее) привела к серьезным перекосам в российском образовании. Но это, пожалуй, иллюстрация российской специфики; вернемся к западным реалиям.

Для чего там используются все эти показатели типа индекса Хирша? Для стандартного научного работника есть главная жизненная ситуация, когда используется его оценка - это продвижение по научной лестнице (и коррелированная с этим зарплата). Кого возьмут в качестве постдока в престижный университет? Когда ему дадут теньюр? Переведут ли его на должность полного профессора? Вот ключевые моменты выбора, и этот выбор делается на основе неких оценок. Но в действительности эти оценки лишь в малой степени опираются на формальные показатели. Да, количество публикаций и импакт фактор журналов, где они напечатаны, учитываются, но это, пожалуй, первичный критерий в сложной процедуре отбора. Основную роль играют рекомендации экспертов. В их рекомендательных письмах подробно описывается, каков вклад автора в решение тех или иных конкретных задач, каков научный потенциал соискателя. Часто прямо пишется, что на взгляд рекомендующего кандидат входит в Шр-10 (т.е. в 10% «верхушку») научного сообщества в данной области науки, или некие аналогичные цифровые характеристики. Но практически никто в рекомендательном письме не будет ссылаться на индекс Хирша или что-то в этом роде. Кроме того, эксперты пишут о человеческих качествах ученого, его умении работать в коллективе, его способностях к преподаванию и т.д. Наконец, огромную роль играет личный доклад соискателя позиции на семинаре, куда его приглашают. Таким образом, все страхи по поводу засилья Хирша в научной жизни сильно преувеличены.

Стоит сказать и об экспертах, на основе рекомендаций которых принимаются решения по приему на работу и продвижению по

карьерной лестнице. Кто они? Может быть, именно они выбираются по формальным показателям? Во-первых, сообщества специалистов в каждой предметной области науки не столь уж велики, и в каждом из них есть свой «гамбургский счет» [5]. Например, в советской математике все знали, что крупнейшие математики - это Колмогоров, Гельфанд, Канторович (и еще 2-3 человека), а из молодых - Арнольд, Новиков, Манин, Синай, Фаддеев (плюс еще несколько). И это заметно отличалось от официального табеля о рангах - Гельфанд не был академиком, а академики Х, Y, Z, увенчанные всеми регалиями, не были сопоставимы с ним ни по таланту, ни по уровню влияния. Во-вторых, в западной науке есть объективные показатели, выделяющие научную элиту. Это лауреаты престижных научных премий, об этом пишет П.Ю. Чеботарев. Но это высшая элита, а есть и значительный отряд крупнейших ученых, который можно узнать по их месту работы. Если математик является профессором в Беркли, Кембридже, Стенфорде, MIT или в университетах такого же уровня, то его принадлежность к кругу сильнейших не вызывает сомнения. При этом важно, что рейтинги университетов, хотя и определяются на базе числовых показателей, обычно никем не оспариваются (впрочем, есть и исключения - например, ряд немецких университетов сознательно не участвует в рейтингах). Существенно также, что оценка - многокритериальная.

Есть, пожалуй, еще одна важная область, где решения принимаются на основе оценок деятельности ученого. Это - получение разного рода грантов. Гранты в жизни западных ученых играют важную роль, впрочем, иную, чем в России. На гранты исследователь содержит своих аспирантов и закупает дополнительное оборудование. Гранты выгодны ему и потому, что университет, весьма заинтересованный в них, может снизить преподавательскую нагрузку обладателю грантов. Однако гранты даются не на основе числа публикаций или иных показателей такого рода, а на основе оценки конкретной заявки, и такая оценка вновь делается экспертами.

В некоторых странах (например, Мексике) существует и система «надбавок» к зарплате за публикации и участие в кон-

ференциях. Эта система появляется и в нашей стране, что вызывает принципиальные споры. Однако в большинстве западных стран прямой зависимости между зарплатой и числом публикаций нет.

Наконец - об одной проблеме, которую П.Ю. Чеботарев называет «спасти рядового решателя трудных задач». Я бы сказал, что это несуществующая категория: «рядовых решателей трудных задач» не бывает. Все они - штучные объекты; каждый из них - особенный. Таких людей очень мало, все они, как правило, на виду, к каждому нужен особый подход. Но уж что точно им не грозит - что их задавит индекс Хирша. Если вспомнить историю Г. Перельмана, на которого ссылается П. Чеботарев, то еще до того, как он доказал гипотезу Пуанкаре, он проявил свои выдающиеся математические способности и получил несколько престижных приглашений на работу в Америку на основе совсем небольшого числа публикаций. То, что он отказался от этих предложений, говорит о его «нерядовом» характере; ему то уж определенно нет дела до роли индекса Хирша.

Так что же, болезни западной науки, которые перечисляет П.Ю. Чеботарев - поток слабых работ, гонка за числом публикаций, спешка и неаккуратности - разве они не существуют? Увы, все это - грустная реальность. Но несколько факторов позволяют смотреть на этот процесс не столь мрачно. Прежде всего, эти явления характерны в первую очередь для исследователей из развивающихся стран типа Китая. Им нужно поскорее попасть в круг признанных ученых, и они не очень разборчивы в достижении заданной цели. Иногда так ведет себя и западная научная молодежь, и ученые среднего уровня - им важно пробиться наверх побыстрее. Для научной элиты такое поведение нехарактерно - оно быстро распознается и осуждается в кругу специалистов. Наконец, самое главное - это способность демократических сообществ к преодолению недостатков. Сейчас эти болезни поняты и осознаны научным сообществом; нет сомнения, что они не смертельны и для них будет найдено лекарство.

3. Российский пациент

С ним ситуация гораздо более серьезна. Совершенно справедливо пишет П.Ю. Чеботарев о главной болезни российской науки - ее хронической нищете. Эта нищета - следствие глубоких причин, главные из которых очевидны. Прежде всего, это политика властей, которым наука не нужна. Они не понимают, что без фундаментальной науки не будет и прикладной, не будет качественного образования, и страна будет обречена быть отсталой во всем. К сожалению, такое отношение к ученым проникло и в общественное мнение. При опросах школьников выясняется, что никто из них не хочет идти в науку, ученые воспринимаются как чудаки и маргиналы. Те частичные меры, которые иногда принимаются (мегагранты, Сколково), не могут изменить ситуацию. До тех пор, пока профессор получает много меньше, чем квалифицированный рабочий или средний клерк в фирме, надеяться на какой-то подъем не приходится. Любопытные цифры о средней зарплате профессора государственного университета в 28 разных странах можно найти на сайте http://acarem.hse.ru/t2g1. Производит впечатление, что в Турции и Колумбии она в 4 раза выше, чем в России, в Нигерии - в 6 раз, а в Малайзии - даже в 8! Стоит вспомнить, что в 1946 году, сразу после войны, Сталин провел кардинальную реформу в высшем образовании и науке. Он поднял оплату за ученое звание или степень примерно в 2,5-3 раза. После этого зарплата профессора стала в 7 раз больше, чем квалифицированного рабочего. Ясно, что Сталину была нужна атомная бомба и для этого - ученые-физики. Однако у диктатора был достаточный кругозор, чтобы понимать, что наука - единое целое, и он повысил зарплату всем ученым, включая гуманитариев. После этого начался интенсивный подъем советской науки, который продолжался примерно 20 лет. За это время была создана атомная и водородная бомба, запущен спутник, построена в начале 50-х первая советская ЭВМ, получены нобелевские премии по физике, решена 13-я проблема Гильберта. Не стоит видеть в этом идиллию - в те же годы была разгромлена генетика, подавлена

философия, начались гонения на «космополитов», экономические науки проверялись на верность марксизму-ленинизму... Я хотел лишь показать, что демонстрация интереса власти к науке, подкрепленная серьезными экономическими мерами, может дать эффект даже в самых неблагоприятных условиях.

В то же время ясно, что ждать столь радикальных шагов в наших условиях не приходится. Что же делать? Можно пытаться спасти и развивать то, что еще живо в российской науке. И здесь первый вопрос - как выделить эти живые островки? На основе каких критериев? Нужно помнить, что система экспертизы в стране совершенно искажена. Нам оставлена в наследство средневековая иерархическая структура в виде Академии наук. Члены академии, выбираемые по принципу отрицательного отбора самими же академиками, лишь с большой натяжкой являются научной элитой страны. Проделайте небольшой эксперимент. Зайдите на сайт РАН www.ras.ru, откройте страничку своего отделения и потом секции (для специалистов по управлению это секция проблем машиностроения и теории управления http://www.ras.m/wm/db/show_dpt.asp?P=oi-208.ln-m.id-250). Там вы найдете список академиков и член-корреспондентов секции (в нашем случае их 68). Посчитайте, скольких членов секции вы знаете по фамилиям? А у скольких из них вы знаете научные труды (книги, по которым вы учились?) С другой стороны, попробуйте составить список людей, которых вы сами считаете наиболее авторитетными в вашей области. Насколько пересекаются эти списки?

Поэтому если доверить выбор групп, которые нужно поддержать, научному руководству (т.е. системе РАН), как это сейчас и делается в рамках программ Президиума академии или ее отделений, результат будет очевиден. И здесь конструктивную роль могут сыграть столь критикуемые формальные показатели. Прежде всего, это просто число публикаций ученого или возглавляемой им группы. Обычно работающий ученый публикует примерно от 1 до 5 работ в год. Разумеется, это число сильно варьирует по областям наук, равно как и число соавторов в статье. Есть очень продуктивные ученые (эта традиция

восходит к Эйлеру, ему принадлежит более 800 работ, причем публикация из его архива продолжается до сих пор); в 20-м веке такими авторами были Гельфанд и Беллман. В то же время бывают и другие крайности; часто приводят в пример Галуа и Абеля (первый погиб в 20 лет, второй умер в 26). Уже проверка по этому критерию многих официальных генералов науки производит сильное впечатление. При этом, конечно, нужно очистить их публикации от поздравлений, некрологов и т.п. Однако второй критерий - число ссылок на работы автора (индекс цитирования, Citation Index) - не связан непосредственно с количеством публикаций, а говорит исключительно об их влиянии на последующее развитие науки. Здесь обычно используют западные базы данных Web of Science, Science Direct, Google Scholar, Publish or Perish (последние два являются открытыми). В большинстве из них отражены в основном публикации на английском; для статей на русском языке применяют и Российский индекс научного цитирования (РИНЦ); к сожалению, он далек от совершенства. Следующий критерий - суммарный импакт-фактор - учитывает не просто количество публикаций автора, но и авторитет тех журналов, в которых они опубликованы. Публикации в западных журналах гораздо весомее, и их наличие говорит о достаточно высоком уровне квалификации автора. Наконец, подвергаемый остракизму индекс Хирша дает еще одну характеристику - наличие многих высокоцитируемых работ автора.

Эти формальные критерии позволят выделить первоначальный круг экспертов, которые могли бы принять участие в объективной оценке научных коллективов. Именно таким образом функционирует общественный проект «Корпус экспертов» [1]. За начальную точку взяты известные списки Б. Штерна, http://expertcorps.ru/science/whoiswho, составленные на основе Web of Science и содержащие списки российских ученых, на которых суммарное число ссылок превышает одну тысячу или число ссылок на работы последних семи лет превышает сто. Там же показано и число публикаций этих авторов, и их индекс Хирша. Я рекомендую читателю взглянуть на такой список по

специальности «Математика» (куда включены авторы и по Computer Science и теории управления)

http://expertcorps.ru/science/whoiswho/by_branch/mathx, в нем 86 человек (около 10 могут быть отнесены к теории управления) и сопоставить со своими ожиданиями. Разумеется, формирование корпуса экспертов не должно ограничиться таким списком, он должен расширяться и уточняться на основе неформальных обсуждений и опросов. К сожалению, по математике (понимаемой в широком смысле) и ее подобластям такая работа еще не проводилась.

Что касается роли показателей для поощрения научных работников, то она очень важна. Во-первых, нам нужно преодолеть отечественную лень и безответственность. В советские времена принято было считать, что наши труды - шедевры, а с ними не надо торопиться; писать по одной статье в год и считать себя подлинным ученым было хорошим тоном. Однако такой же линии поведения придерживались и бездельники, которые сейчас остались теми же бездельниками, но взяли на вооружение весь арсенал демагогии против способов формального учета эффективности работы. Во-вторых, как совершенно справедливо пишет П.Ю. Чеботарев, серьезнейшей болезнью российской науки является провинциализм. Он отчасти объясним исторически: оторванность от мировой науки, разобщенность научных центров, привычка заниматься той же тематикой, что и научный руководитель, отсутствие средств на поездки, плохое знание английского. Однако провинциальная наука умрет и при финансовой поддержке; надо решительно перестраиваться. А для этого - писать в престижные журналы (особенно западные), не боясь неудач [3]; ездить на международные (и по настоящему авторитетные) конференции [2]. Формальные показатели поддерживают именно такой стиль поведения.

4. Заключение

Повторюсь - опасения по поводу наукометрических показателей сильно преувеличены. Как и всякий инструмент, он хорош

в руках умного врача. При этом болезни, которые надо лечить, совершенно различны у нас и на Западе.

Литература

1. ПОПОВ С., ФЕЙГЕЛЬМАН М., ЦИРЛИНА Г. Пять лет работы «Корпуса экспертов». Предварительные итоги // Троицкий вариант. - 2012. - №119. - С. 2-3.

2. ФРАДКОВ А.Л. Научные конференции по управлению: цель или средство? // Автоматика и телемеханика. - 2012. - №9.

- С. 149-158.

3. ФРАДКОВ А.Л. Как опубликовать хорошую статью и отклонить плохую. Заметки рецензента // Автоматика и телемеханика. - 2003. - №10. - С. 149-157.

4. ЧЕБОТАРЕВ П.Ю. Наукометрия: как с ее помощью лечить, а не калечить? // Управление большими системами. -2013. - № 44 - С. 14-31.

5. ШКЛОВСКИЙ В.Б. Гамбургский счет. - Москва, 1928.

SCIENTOMETRICS: WHO IS THE PATIENT FOR THIS MEDICINE?

Boris Polyak, Institute of Control Sciences of RAS, Moscow, Doctor of Science, professor (Moscow, Profsoyuznaya st., 65, (495)334-88-29, boris@ipu.ru).

Abstract: This article is motivated by the discussion paper of P. Chebotarev. We insist on that the situation with the use of scien-tometrics is dramatically different in the context of Russian and of foreign science. In Russian case the role of formal criteria can be strictly positive.

Keywords: scientometrics, Russian science, foreign science.

Поступила в редакцию 31.01.2013.

Опубликована 31.07.2013.

i Надоели баннеры? Вы всегда можете отключить рекламу.