Научная статья на тему 'Размышления об оценке научной деятельности'

Размышления об оценке научной деятельности Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
1103
169
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
НАУЧНАЯ ДЕЯТЕЛЬНОСТЬ / ОБЪЕКТИВНАЯ ОЦЕНКА / НАУКОМЕТРИЯ / БИБЛИОМЕТРИЧЕСКИЕ ПОКАЗАТЕЛИ / ЦИТИРУЕМОСТЬ / ИМПАКТ-ФАКТОР. / SCIENTIFIC ACTIVITY / FAIR ASSESSMENT / SCIENTOMETRICS / BIBLIOMETRIC INDICATORS / CITATION / IMPACT-FACTOR

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Михайлов Олег Васильевич

Представлены и обсуждены основные возражения, появившиеся в литературе в последние годы в отношении тенденции широкого использования различных библиометрических показателей для оценки научной деятельности. Сделан вывод, что, несмотря на определенную однобокость такого подхода (в частности, для оценки деятельности так называемых «решателей трудных задач»), для большинства исследователей он оказывается вполне адекватным.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Reflections on scientific activity evaluation

We discuss main objections appeared in the literature in the last years concerning the tendency of broad using of various bibliometric indicators to evaluate scientific activity. We justify applicability of this approach to estimation of most categories of researchers. At the same time, these indicators can be essentially skewed when evaluating, for example, the, so called, “hard-task-solvers”.

Текст научной работы на тему «Размышления об оценке научной деятельности»

Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

УДК 001.38 ББК 72.4 + 73.4

РАЗМЫШЛЕНИЯ ОБ ОЦЕНКЕ НАУЧНОЙ ДЕЯТЕЛЬНОСТИ

Михайлов О. В.1

(Казанский национальный исследовательский технологический университет, Казань)

Представлены и обсуждены основные возражения, появившиеся в литературе в последние годы в отношении тенденции широкого использования различных библиометрических показателей для оценки научной деятельности. Сделан вывод, что, несмотря на определенную однобокость такого подхода (в частности, для оценки деятельности так называемых «решателей трудных задач»), для большинства исследователей он оказывается вполне адекватным.

Ключевые слова: научная деятельность, объективная оценка, наукометрия, библиометрические показатели, цитируемость, импакт-фактор.

1. Вместо предисловия

Оценка научной деятельности как отдельно взятого ученого, так и научных коллективов - это одна из актуальнейших и в то же время труднейших ее проблем, касающихся взаимоотношений ученых как между собой, так и с обществом; она берет свои истоки едва ли не с момента зарождения самой науки как таковой. Возможны и реально существуют различные варианты оценки любого вида творческой деятельности (а наука, безусловно, из их числа), однако наиболее объективной является

1 Олег Васильевич Михайлов, доктор химических наук, профессор, (Казань, ул. К. Маркса, д. 68, тел. (843) 231-43-71; ovm@kstu.ru).

оценка по конечному результату, полученному тем или иным исследователем. Но прежде чем говорить об этой самой оценке, нужно четко определиться по крайней мере с тремя моментами, а именно: во-первых, что вообще следует понимать под научной деятельностью; во-вторых, что именно следует принимать во внимание при оценке этой самой научной деятельности; в-третьих, какими показателями руководствоваться при ее оценке. Заметим в связи с последним моментом, что вплоть до начала XX столетия весомость вклада ученого в развитие соответствующей отрасли науки оценивалась научным сообществом фактически лишь по содержательным качественным критериям; механизм такой оценки был фактически неизвестен и количественному описанию не поддавался. Интуитивно большинством ученых было признано, что личный вклад, внесенный, к примеру, Гауссом или Эйлером в математику, Кельвином или Капицей в физику, Гофманом или Зининым в химию, Линнеем или Вавиловым в биологию явно превосходит таковой от большинства отдельно взятых исследователей в соответствующей отрасли науки. Но так было, пока занятие наукой было уделом весьма небольшого круга людей; когда же занятие ею стало достаточно массовым явлением, выделять ее лидеров таким путем и тем более оценивать деятельность «середняков» с позиций «кто есть кто» (или «кто есть who», как сказал в свое время первый и последний президент СССР М.С. Горбачев) по целому ряду причин стало значительно труднее. Ныне даже у мирового научного сообщества по существу вообще нет никаких объективных критериев оценки качества научной деятельности; в России же применительно к конкретному исследователю она реализуется на практике в виде волевых решений, голосований на ученых советах и в других аналогичных формах. Все они, несомненно, носят исключительно субъективный характер. Такой подход, как правило, импонирует тем, кто мало что представляет собой как исследователь и чей реальный личный вклад в науку не просматривается ни в телескоп, ни в микроскоп, но который обладает значительным влиянием на принятие решений вышеуказанными инстанциями. Для подлинных же ученых,

для которых жизнь вне науки немыслима, он не раз и не два приводил к самым настоящим жизненным трагедиям. Сложившаяся ситуация настоятельно требовала разработки какого-то иного подхода к оценке научной деятельности, исключающего как предвзятость, так и того, что в русском языке называется словом «блат».

В поисках этого нового подхода в западной наукометрии 20-25 лет назад появился термин «индекс цитируемости ученого». По сути своей это не что иное как число ссылок на все работы данного исследователя, выполненные им в соответствующей отрасли научной деятельности за какой-то конкретный период. Этот показатель научной деятельности в 90-е годы XX в. приобрел весьма широкую популярность в научной среде (свидетельством чему являются хотя бы весьма «эйфористич-ные» публикации в газете российского научного сообщества «ПОИСК» тех лет [1-4, 11, 13-15]). Однако уже после одной-единственной публикации автора этих строк с резкой критикой дееспособности такого показателя в той же самой газете [5] толмачей (и толкачей) этого показателя, что называется, «как отрезало» - больше ни одной статьи или хотя бы заметки, «поющих хвалу» личной цитируемости, в ней не появлялось. Примерно в тот же период времени в качестве критерия ценности трудов ученого стали использовать параметр, характеризующий цитируемость тех научных изданий, в которых опубликованы его работы - так называемый импакт-фактор. В 2005 г. появился еще один показатель, который вызвал столь высокую эйфорию у исследователей всех мастей, что фактически затмил собой все прочие показатели - так называемый й-индекс или индекс Хирша (в народе просто «хирш»). Ныне же число различных индексов, позволяющий оценить многогранную научную деятельность с той или иной «колокольни», составляет несколько десятков; не удержался от соблазна сказать здесь свое веское слово и автор этих строк в статьях [7, 17]. Казалось бы, этому надо только радоваться: проблема объективной оценки качества научной деятельности близка к своему решению. Однако в последнее время стали набирать силу и голоса о том, что эти

самые индексы во многих случаях не столько характеризуют саму научную деятельность, сколько провоцируют стремление добиться высокого положения в науке за счет безудержного повышения того, что с ними связано (число статей, их цитирования в рамках узких «кланов» и др.). Одним из таких голосов является «затравочная» дискуссионная статья П.Ю. Чеботарева, опубликованная в этом же выпуске журнала [16]; некоторые комментарии и размышления к ней, в сущности, и будут предметом нашего дальнейшего повествования.

2. Что есть мерило научной деятельности?

Исходя из указанных выше трех моментов, примем в качестве исходных положений следующие ПОСТУЛАТЫ:

Первый: НАУКА - это сфера человеческой деятельности, функция которой - выработка и теоретическая систематизация объективных знаний об окружающей действительности; непосредственные цели - описание, объяснение и предсказание процессов и явлений действительности, составляющих предмет ее изучения, на основе открываемых ею законов. Это определение науки не принадлежит автору настоящей статьи и взято оно не с потолка и не от фонаря, а со страниц весьма авторитетного источника [12], не доверять которому нет никаких оснований.

Второй: Методология объективной оценки качества научной деятельности должна чем-то напоминать процедуру выявления победителей в спортивных соревнованиях, когда лучших определяют, ориентируясь на конкретные достигнутые спортсменами количественные показатели. При этом сами эти показатели также должны быть объективными (как, например, время пробега на соответствующей дистанции, дальность броска копья или метания молота, взятая в прыжках с шестом высота и т.д.); если же они не являются таковыми, а в той или иной степени зависят от тех или иных людей (вроде балльной оценки выступления в фигурном катании или гимна-

стике), то использовать их в рамках вышеуказанной методологии нельзя.

Для автора этих строк указанные положения являются основополагающими в его взглядах на науку вообще и оценку заслуг конкретного исследователя на ее ниве. Если вы, дорогой читатель, не согласны с этими постулатами, то далее вам эту статью читать вряд ли стоит, ибо это будет сродни общению китайца с нанайцем, при котором каждый из них говорит на своем родном языке. Если же согласны - продолжим наш разговор и попытаемся подойти к оценке научной деятельности с учетом именно их.

Прежде всего, отметим то важное обстоятельство, что в соответствии с указанным выше определением науки (то бишь первым нашим постулатом) отнюдь не всякая разновидность интеллектуальной деятельности может считаться наукой. Подобную точку зрения автор этих строк неоднократно излагал и отстаивал в своих статьях, в частности [6, 9, 10]. В связи с этим тезис, выдвинутый П.Ю. Чеботаревым в «затравочной» дискуссионной статье [16], согласно которому наибольшую ценность представляют так называемые «решатели трудных задач», на мой взгляд, нуждается в существенном уточнении хотя бы потому, что не все эти «решатели» могут считаться деятелями науки. (Подчеркиваю: именно деятелями науки, а не учеными, ибо эти понятия не синонимичны: ученым может быть военачальник, государственный или общественный деятель, технолог и др. личности, непосредственно наукой не занимающиеся; с другой стороны, деятель науки, т.е. тот, для кого таковая - основной род занятий, отнюдь не всегда является ученым). К примеру, автор этих строк не считает науками такие известные их разновидности, как технические, педагогические, политические, сельскохозяйственные, медицинские, поскольку они в принципе не подпадают под указанное выше определение науки. С другой стороны, провести сколько-нибудь четкую грань между «трудными» и «нетрудными» задачами - прямо скажем, исключительно трудное, если вообще решаемое в принципе дело. Ибо объективных критериев для определения того, что

является «трудным», а что нет, ни для одной отрасли интеллектуальной деятельности пока что не выработано.

Среди тех, кто занимается подлинно научным творчеством, сосуществуют самые разнообразные личности. Одни работают, так сказать, на самом переднем крае науки, целенаправленно занимаясь поиском принципиально новых объектов и феноменов и если повезет, то способны сделать и открытия (хотя общепринятого толкования этого термина до сих пор и нет). Эти люди обычно пишут немного и достаточно кратко, ограничиваясь публикациями типа кратких сообщений, писем в редакцию журналов и т.п. Другие, согласно известной поговорке, «пороха не выдумывают», но самозабвенно трудятся над углублением, развитием и совершенствованием того, что сделали до них первооткрыватели этих самых объектов и феноменов. Эта категория исследователей чаще пишет «ординарные» статьи, нередко - в весьма значительном количестве. Третьи в основном занимаются анализом, систематизацией и обобщением уже созданных как ими самими, так и другими исследователями научных результатов и пишут еще более масштабные научные произведения - отчеты, обзорные статьи, книги и монографии. В рамках каждой из этих трех категорий деятелей науки можно выделить еще три их типа: «генераторы идей», «исполнители» и «писатели», первые из которых являются чем-то вроде «мозгового центра» исследовательских групп, вторые - в той или иной степени талантливые экспериментаторы или «расчетчики», третьи - личности, способные грамотно описать полученные вторыми научные данные и представить их к публикации в соответствующем научном издании. Возможно и сочетание двух, а то и всех трех только что поименованных типов в одном лице (что особенно проявляется в случае исследователей последней из вышеперечисленных категорий). Представитель какой из вышеперечисленных категорий деятелей науки, перефразируя известное выражение, «более матери-истории ценен»? «Человек с улицы», да, наверное, и немалая часть тех, кто хоть каким-то боком связан с наукой, скажет: конечно, ПЕРВОЙ. Однако такое суждение, на мой взгляд, является весьма поверх-

ностным, и я бы даже сказал примитивным. Да, в указанном выше определении науки на первую позицию и впрямь поставлена «выработка____ объективных знаний об окружающей

действительности» (подчеркнуто мной. - О.М.). Однако не забудем, во-первых, что в этом определении вслед за словом «выработка» сразу же следует «...и теоретическая систематизация» этих самых объективных знаний. А во-вторых, и это -главное, обнаруженные теми или иными деятелями науки факты, будь то новые объекты (вроде нового химического соединения, элементарной частицы или штамма микроорганизмов), явления (вроде изомерии химических соединений, вулканической деятельности на Луне или электронного парамагнитного резонанса) или закономерности (вроде закономерности кристаллизации алмаза из графита, закона всемирного тяготения или закономерности образования групп крови) - это лишь отдельные «кирпичики», если хотите, «строительный материал» для возведения «храма науки», но не более того: груда даже самых лучших кирпичей ЗДАНИЯ этого самого «храма» еще не образует. Необходим, с одной стороны, «связующий материал», соединяющий эти самые кирпичи друг с другом, с другой - определенная система взаимосвязей между ними, который по большому счету как раз и создают научные деятели ВТОРОЙ и ТРЕТЬЕЙ категорий. Конечно, среди них гораздо меньше «решателей трудных задач». Конечно, среди них немало и откровенной серости, и «примазавшихся», приписавших себя любимого к чужим трудам, и просто мошенников, и еще целая ватага им подобных личностей. Но без ЭТИХ категорий деятелей науки наука существовать не сможет.

По мнению П.Ю. Чеботарева, «все ужасно спешат» - и авторы публикаций, и их рецензенты и редакторы журналов, и читатели, многие из которых «уже не читают, а только пролистывают работы, на которые ссылаются». А потому «наука превратилась в гонку», и «добро бы - за результатами. Нет, - за числом публикаций и ростом библиометрических индексов». В то же время, сетует он тут же, «экспертов, способных оценить качество работ, мало. А цифра - число статей, число ссылок на

них, индекс Хирша - всем видна. Ученые с индексом Хирша в несколько десятков - вроде научных «миллионеров». Публика редко интересуется их конкретным вкладом в науку: цифра заменяет ответ на этот вопрос. Первенство в своей среде «по Хиршу» научный писатель ощущает почти как актер - получение «Оскара»». Поскольку эти цитаты - вроде как лейтмотив его вышеупомянутой статьи [16], остановимся на них подробнее, и прежде всего - на «публикуемости» и цитируемости вообще и индексе Хирша, напрямую с ними связанном.

3. Индекс Хирша и другие библиометрические показатели

Начнем этот параграф с одного примечательного абзаца, который фигурирует не где-нибудь, а... в правилах оформления ЛЮБОЙ статьи для публикации в НАШЕМ журнале: «Ссылки на литературу являются ОБЯЗАТЕЛЬНЫМ атрибутом любой научной статьи. Нет способа быстрее составить представление о научном уровне статьи, чем посмотреть, на кого, в каком объеме и в каком контексте ссылается ее автор». С моей точки зрения, утверждение сие есть полуправда: правда в ней - первая фраза, неправда - вторая. Первая в комментариях не нуждается, а вот в отношении же второй замечу, что сам по себе факт цитирования кого бы то ни было еще не есть свидетельство востребованности (и тем более - его ценности, ибо это не синоним востребованности) ни того источника, который цитируется, ни того, где он цитируется. И аргументов на этот счет - хоть с три короба; за дефицитом места в этой статье отсылаю по этому поводу хотя бы к публикациям [5, 9]. Замечу лишь, что сослаться в своей статье можно хоть на труды самого господа бога, но никакой «божественности» статья от этого не приобретет. Сомнительно, впрочем, и то, что хоть какой-то объективный и здравомыслящий исследователь (во всяком случае, в области естественных наук) рискнет вообще давать оценку любому научному труду лишь по списку цитируемой в нем литературы.

Но вернемся к наукометрическим показателям, и прежде всего к пресловутому индексу Хирша, поскольку в последнее время он и в самом деле стал чем-то вроде нового фетиша, которым «поверяют» научную деятельности любого отдельно взятого исследователя. Сразу же заметим, что будучи «кровь от крови, плоть от плоти» личной цитируемости исследователя, этот библиометрический показатель, естественно, должен страдать теми же самыми недостатками, что и сама эта цитируе-мость (и действительно страдает). В статье П.Ю. Чеботарева [16] приведен ряд примеров на этот счет и вполне убедительно доказано, что задействовать «хирша» в качестве главного показателя научной деятельности было бы по меньшей мере поспешным делом. И хотя есть некая корреляция между значимостью отдельно взятого ученого и его «хиршем», тем не менее эта корреляция, на мой взгляд, сродни утверждению «чем выше человек по должности, тем он умнее». Чеботарев предлагает вообще «отказаться от индекса Хирша как интегрального показателя успешности ученого» и рассматривать его лишь «наряду с другими классифицирующими показателями» как «индекс оцененной плодовитости автора». Автор данной статьи вполне солидарен с ним, однако как будто еще нигде в России этот самый индекс не был задействован В ЯВНОМ ВИДЕ для оценки научной состоятельности исследователя - во всяком случае, такие примеры ему неизвестны.

Говоря же об общем числе публикаций и отчетливо выраженной ныне тенденции к его перманентному росту для среднестатистического исследователя, нельзя не отметить два немаловажных обстоятельства. Во-первых, в нашу эпоху, в эпоху поистине необъятного массива информации, желание активно и много писать научные статьи не следует считать чем-то зазорным - сейчас не времена Генри Кавендиша, который не любил писать о своих научных достижениях, но любил повторять «я работаю не для славы, а из чистой любознательности». Если не публиковать свои результаты в научной печати, то эти данные просто-напросто окажутся чем-то вроде «вещи в себе», а потом и вовсе затеряются в современном информационном потоке.

Весьма симптоматично высказывание на этот счет другого великого ученого, нашего соотечественника П.А. Капицы: «Неопубликованный результат означает отсутствие этого самого результата». (Это, кстати, несмотря на то, что и он на «научнописательском» писательском поприще особо тоже не отметился!). А во-вторых, любой ученый во все времена оставлял о себе память именно благодаря своим доведенным до сведения общественности трудам (причем даже в те времена, когда писали на папирусе или глиняных табличках). И ныне, сколько и где бы вы ни вещали о значимости ваших исследований, никто не признает вас как серьезного исследователя до тех пор, пока вы не опубликуете хоть где-то и что-то из результатов этих самых исследований. И это совершенно справедливо.

В процитированной выше статье [16] ее автор бьет тревогу по поводу того, что в стремлении заиметь как можно больше публикаций качество научных исследований отходит на второй план. Если говорить про среднестатистического исследователя и науку в целом, то с этим придется согласиться, однако в том или ином конкретном случае этого может и не быть, ибо в общем случае никакой корреляции между числом публикуемых исследователем статей за какой-либо период времени и их качеством нет, и не может быть. Знаю не одного и не двух человек, которые и пишут много, и публикуются в авторитетных международных журналах, равно как и таких, которые и пишут мало, и их статьи большей частью представляют собой хлам и халтуру. Кстати сказать, и причины вышеуказанного стремления во многих случаях связаны отнюдь не с погоней за библиометриче-скими показателями. При существующими де-факто плановыми показателями научной деятельности в любом научном учреждении, хочешь - не хочешь, приходится писать научные статьи, но там, где «у руля» стоят настоящие ученые, четко различающие, где настоящая наука, а где - мимикрия под нее, подобного рода погоня за их количеством сведена к минимуму, да и пустопорожние статьи просто отсеиваются. Там же, где дела научные возглавляет администратор от науки, а не ученый, она проявляется в гораздо большей степени: причины этого, надеюсь, в

пояснениях не нуждаются. Замечу в связи с этим, что в институтах РАН, где уровень научных исследований существенно выше, нежели в образовательных учреждениях и, тем более - в научных учреждениях других министерств и ведомств, указанный П.Ю. Чеботаревым феномен проявляется относительно слабо. Говоря же о числе публикаций отдельно взятого ученого в целом, стоит сказать, что это все-таки худо-бедно объективный параметр, пусть и недостаточный для полной оценки его научной деятельности. В отличие от цитируемости его работ и все того же «хирша», которые несут в себе изрядную долю субъективизма. Да и сама цитируемость весьма неоднородна по своему характеру: одно дело, когда статью данного автора цитирует какой-либо другой автор, никак с ним не контактирующий, другое - когда эту же статью цитирует сам ее автор (так называемое самоцитирование). Несомненно, первая из этих ссылок гораздо ценнее второй, но ни одна из современных систем, отслеживающих цитируемость (WoS, Scopus, РИНЦ и др.), пока что не делает различий между ними [7, 17].

Остается дискуссионным и вопрос о том, нужно ли и как определять авторитетность научных изданий (и прежде всего -журналов), в котором опубликованы работы исследователя. В принципе, ценность опубликованного материала не зависит от того, где он вышел в свет - хоть в издательстве ООН, хоть в где-то в тьмутаракани. Однако востребованность его от этого зависит - одно дело, если он опубликован на страницах международного журнала Nature, другое - в российском журнале Успехи физических наук, и совсем другое - если в российском журнале типа ученых записок какого-нибудь захудалого института. Естественно, что и трудность публикации в этих самых журналах тоже будет резко различаться: в первый попасть даже один раз в жизни - большая удача, во второй - тоже не за здорово живешь, а в третий с руками-ногами не то что возьмут -оторвут, только предложи. Спор о том, что важнее - сам факт публикации статьи где угодно или же источник ее публикации, не окончен и по сей день, и на этот счет существуют самые разные мнения. В постсоветский период, однако, мало-помалу

пробивает себе дорогу мнение о том, что учет источника публикации совершенно необходим, поскольку он пусть и косвенно, но все-таки отражает уровень как полученных результатов, так и самого проведенного их авторами исследования. Количественной мерой этой самой востребованности в настоящее время признан так называемый импакт-фактор журнала; чем он больше, тем более востребованным (и соответственно - авторитетным) признается журнал. И хотя и с этим можно спорить, но лучшего количественного показателя востребованности пока никто не придумал.

Заканчивая этот параграф, хотелось бы высказаться и по поводу так называемого «правила корня» (во всяком случае, именно такой термин употреблен в статье Чеботарева [16]), поскольку оно имеет определенное отношение к определению «долевых» показателей отдельно взятого автора как по числу публикаций, так и по их цитируемости. Смысл его состоит в том, что при определении указанного «долевого» вклада, приходящегося на каждого автора, следует делить соответствующий суммарный показатель (в частности число ссылок на конкретную работу и импакт-фактор издания, где она опубликована) не на число авторов N, а на корень квадратный из этого числа, т.е. на N12. В п. 7 его статьи написано следующее: «Нередко вклад автора определяют как величину, обратную их числу. Этот подход исходит из презумпции, что статья нескольких авторов ничуть не лучше статьи, написанной одним. В действительности же каждый автор добавляет в работу свои опыт, талант, систему знаний. Поэтому корректнее считать «вклад» автора обратно пропорциональным корню квадратному из числа авторов (так делают, например, в МГУ)». Не согласимся с этим, и вот почему. Во-первых, непонятно, почему надо делить именно на N12, а не, скажем, на N13, N14 или N2 3. А во-вторых, в математике, в коей работает Чеботарев и где среднее число соавторов в публикациях весьма невелико, возможно, и в самом деле «каждый автор добавляет в работу свои опыт, талант, систему знаний». Но вот в родной для меня химии (да, уверен, и других естественных науках тоже) в подавляющем большинстве случаев

статью пишет лишь один из соавторов, а не все они вместе взятые. И соавторы здесь - это вам не братья Гримм и даже не И. Ильф с Е. Петровым, писавшие в четыре руки, да и принципы формирования авторских коллективов здесь далеко не всегда вписываются в морально-этические нормативы подлинной науки. Не знаю, наблюдается ли такое в математике, но в той же химии, биологии, так называемых «технических» науках подчас бывает так, что иной соавтор (например, академик РАН, занимающий высокие позиции в научной иерархии) даже и знать не знает, что его включили в ту или иную статью для придания ей дополнительной «солидности». В таком случае и в самом деле «статья нескольких авторов ничуть не лучше статьи, написанной одним». Так что, определяя долю конкретного автора, лучше уж исходить либо из указанного выше «традиционного» подхода, либо определять ее, исходя из документально оформленной взаимной договоренности соавторов по этому поводу.

4. Проблема «решателя трудных задач»

Среди всего прочего в своей статье [16] Чеботарев ставит весьма важную проблему - как объективно оценивать труд тех «зубров» современной науки, которые не гонятся за числом публикаций и связанными с ними библиометрическими показателями, а решают «трудные задачи» - этих «ценнейших членов научного сообщества, часто - нонконформистов». По его мнению, «выявить уже «матерых» ученых этого типа можно по сравнительно высоким значениям показателей среднее число ссылок на статью и максимальное число ссылок на статью при, возможно, небольшом числе публикаций». При этом «для выявления «неоперившихся решателей» надо задействовать неформальные методы, включая экспертные». Затрудняюсь сказать что-то однозначное по этому поводу, ибо основная масса этих самых «решателей» сосредоточена именно в математике, и именно представителям этой науки в первую очередь и надлежит принимать соответствующие решения о том, как оценивать их деятельность. Что же касается других отраслей науки, следу-

ет отметить, что среднестатистический исследователь в современной науке вообще - это явно не «решатель трудных задач», хотим мы того или нет. Да и таких специфических проблем, как та же гипотеза Пуанкаре (недавно разрешенная Перельманом) или проблемы Гильберта [в большинстве своем (16 из 23) решенные еще в прошлом веке] в современной химии, биологии или в науках о Земле (геологии, географии и др.), не говоря уж о гуманитарных науках, просто нет. А раз так, то, по моему убеждению, научная деятельность подавляющего большинства исследователей должна оцениваться именно с использованием количественных библиометрических показателей. Каких именно - это отдельный вопрос, требующий дополнительных науковед-ческих изысканий; но то, что решение проблемы объективной оценки научной деятельности в целом следует искать именно в такой плоскости, для автора этих строк не подлежит сомнению. Даже несмотря на те возражения, что были высказаны по этому поводу автором неоднократно упоминавшейся выше статьи [16].

5. Вместо эпилога

Можно вполне согласиться с П.Ю. Чеботаревым, что в науке в настоящее время сложилась, мягко говоря, неоднозначная ситуация и более того - наметилась весьма тревожная тенденция, которая в перспективе может привести к ее вырождению со всеми вытекающими отсюда и для нее самой, и для человечества последствиями. Честно говоря, не буду удивлен, если это и впрямь произойдет: мораль как российского, так и мирового сообщества (пусть и в меньшей степени) непрерывно падает, и для науки это тоже бесследно не проходит. Однако замечу и другое, весьма важное обстоятельство: речь идет в данном случае о так называемой официальной науке, занятие которой требует обязательной принадлежности к какой-либо организации, имеющей официальный научный статус (к примеру, бани, магазины и даже издательства научной литературы (!) к ним не относятся). Если же говорить о занятии наукой вообще, имея в виду вышеуказанное ее определение, то она будет жива, пока

жива сама наша цивилизация, ибо она неразрывно связана с тягой человека к познанию окружающей нас Природы, а эта тяга неистребима. Что же касается количественной оценки связанной с ней деятельности, базирующейся на объективных показателях, то позволю себе привести расхожее высказывание У. Черчилля, пусть, что называется, и «из другой оперы»: демократическая форма правления имеет множество недостатков, но лучшего человечество пока не придумало. Аналогично положение дел и в нашем случае: библиометрическая «цифирь», конечно, далеко не идеал для оценки научной деятельности человеческого индивидуума, но это в общем случае все равно лучше, нежели оценка субъективная, кем бы таковая не проводилась. Хотя при этом, конечно, стоит помнить закон Гудхарта: «Когда достижение показателя становится целью, он перестает быть хорошим показателем». А значит, надо или время от времени проводить корректировку этих показателей по степени их значимости, либо придумать такой, высоких значений которого можно добиться только при наличии значимых научных работ. Как это имело место, например, с Георгиевскими крестами всех степеней, которые, насколько мне известно из истории, НИКТО просто так, по блату, за красивые глазки или за здорово живешь никогда не получал: статут «Георгия» был таков, что предусматривал награждение им ТОЛЬКО за совершение соответствующих ПОДВИГОВ и ни за что другое. К подвигам же, конечно, можно стремиться всем, вот только осуществить их удавалось и удается лишь немногим...

Литература

1. ИВАНОВ И., КУДЕЯРОВ В., МАКЕЕВ О., ПОНИ-ЗОВСКИЙ А. Иная ситуация // Поиск. - 1997. -№51(449) от 13.12.1997. - С. 3.

2. КАСТОРЫ Б., КУЛИК А. Первая лига // Поиск. - 1997. -№49(447) от 29.11.1997. - С. 15.

3. КЛИМОВ В., ИВАНОВ В. Объективность или субъективизм? // Поиск. - 1997. - №51(449) от 13.12.1997. - С. 3.

4. МАРКУСОВА В. Осторожно - индекс цитируемости! // Поиск. - 1997. - №44(442). - С. 4.

5. МИХАЙЛОВ О. Индекс цитирования: сведем счеты //

Поиск. - 2000. - №6(560). - С. 9.

6. МИХАЙЛОВ О. Называйте правильно! Нужен новый

классификатор наук и специальностей // Поиск. - 2012. -№10-11(1188-1189). - С. 19.

7. МИХАЙЛОВ О.В. Новый индекс цитирования исследователя // Вестник РАН. - 2012. - Т. 82, №9. - С. 829-832.

8. МИХАЙЛОВ О.В. Наука и науки // Вестник РАН. - 2007. -Т. 77, №12. - С. 1139-1143.

9. МИХАЙЛОВ О.В. Роль цитируемости исследователя в оценке его научной деятельности // Науковедческие исследования. Сб. науч. тр. / ИНИОН РАН. Центр научн.-информ. исслед. по науке, образованию и технологиям (Сер. Методологические проблемы развития науки и техники). - 2012. -С. 138-150.

10. МИХАЙЛОВ О.В. Слово в защиту химической науки // Вестник РАН. - 2011. - Т. 81, №9. - С. 825-827.

11. ПУДОВКИН А. Не обижайте медиану! // Поиск. - 1997. -№47(445) от 15.11.1997. - С. 5.

12. Советский Энциклопедический Словарь. - М.: Советская Энциклопедия, 1980. - С. 1394.

13. ШУВАЛОВ В. Критерии и критики // Поиск. - 1997. -№42(440). - С. 6.

14. ШУВАЛОВ В. Назло рекордам // Поиск. - 1997. - №52(450) от 20.12.1997. - С. 4-5.

15. ЧАЙХАЛЯН Л., ИВАНИЦКИЙ Г., ХАРАКОЗ Д, САРКИСОВ Г. «Объективные» критерии и реальные науки // Поиск. - 1997. - №46(444). - С. 3.

16. ЧЕБОТАРЕВ П.Ю. Наукометрия: как с ее помощью лечить, а не калечить? // Управление большими системами. -2013. - № 44 - С. 14-31.

17. MIKHAILOV O.V. A New Citation Index for Researches // Herald of Russian Academy of Sciences. - 2012. - Vol. 82, No. 5. - P. 403-405.

REFLECTIONS ON SCIENTIFIC ACTIVITY EVALUATION

Oleg Mikhailov, Kazan National Research Technological University, Kazan, Doctor of Chem. Sciences, professor (olegmkhlv@gmail. com).

Abstract: We discuss main objections appeared in the literature in the last years concerning the tendency of broad using of various bibliometric indicators to evaluate scientific activity. We justify applicability of this approach to estimation of most categories of researchers. At the same time, these indicators can be essentially skewed when evaluating, for example, the, so called, “hard-task-solvers'".

Keywords: scientific activity, fair assessment, scientometrics, bibliometric indicators, citation, impact-factor.

Поступила в редакцию 04.02.2013.

Опубликована 31.07.2013.

i Надоели баннеры? Вы всегда можете отключить рекламу.