УДК 001.8
О. В. Михайлов, Е. А. Харитонов
О НЕКОТОРЫХ НАУЧНО-ЭТИЧЕСКИХ ПРОБЛЕМАХ «ХИРШЕМЕТРИИ»
Ключевые слова: индекс цитируемости исследователя, индекс Хирша, научная деятельность.
Дано изложение целого ряда новых проблем в оценке научной деятельности исследователя, появившихся в последние несколько лет в связи с введением в «научный оборот» такого популярного ныне библиометрического параметра, каковым является. h-индекс (индекс Хирша). Отмечено, что, несмотря на оригинальность подхода в выборе данного параметра, этот показатель в общем случае не может считаться адекватным для описания реальной цитируемости работ конкретного исследователя и их научной ценности, хотя он в той или иной степени и коррелирует с ней.
. Key words: citation index of researcher, Hirsch index, scientific activity.
The authors present a whole new set of problems in the evaluation of scientific activity researchers that have appeared in the past few years due to the introduction of the " scientific revolution " now such a popular bibliometric parameter, which is the h-index ( Hirsch index ). It has been noted that despite the originality of approach you choose this parameter, it cannot be considered in the general case adequate to describe the real citing of a specific researcher and of their scientific valuation, although it is in varying degrees, and is correlated with it.
Оценка научной деятельности как отдельно взятого ученого, так и научных коллективов - это одна из актуальнейших и в то же время труднейших ее проблем, касающихся взаимоотношений как внутри ее самой, так и с обществом; она берет свои истоки едва ли не с момента зарождения самой науки как таковой. Первоначально и на протяжении многих десятилетий, однако, весомость вклада ученого в развитие соответствующей отрасли науки оценивалась научным сообществом лишь по содержательным качественным критериям, однако сам принцип и механизм такой оценки был фактически интуитивен и количественному описанию не поддавался. Пока профессиональное занятие наукой было уделом весьма небольшого круга людей, шедших в нее исключительно по призванию или, по крайней мере, по «зову души», а финансирование именно ученых (но не их исследований!) осуществлялось не из государственной казны, а от щедрот тех или иных меценатов от науки (к примеру, знаменитого Гаусса финансировал самолично герцог Брауншвейгский), с таким положением дел можно было худо-бедно мириться. Но когда научные изыскания стали в значительной степени получать государственную поддержку, то в соответствии с известной поговоркой «кто платит, тот и заказывает музыку», правительства и учреждения по всему миру, осуществляющие финансирование научных исследований, естественно, имеют полное право знать, разумно ли инвестируются их деньги; они хотят оценить как качество тех научных исследований, за которые они платят, так и квалификацию тех личностей, кто осуществляет эти самые исследования, чтобы принимать обоснованные решения относительно будущих инвестиций. С другой стороны, при появлении этой самой государственной поддержки появились и специализированные учреждения и организации, профессионально занимающиеся именно решением специфических научных проблем, для работы в которых необходимы были соответствующие кадры; в связи с этим количество людей, в науке работающих, весьма резко выросло. Как следствие - в науку стали идти не только подлинные таланты, но и «середняки», а то и просто откровенная
«серость» и «проходимцы». Исторический опыт всех времен и народов свидетельствует о том, что в условиях административной системы, когда один индивид отдает распоряжения, а другой обязательно должен их выполнять, на вершине власти в любой сфере антропогенной деятельности весьма часто оказывались не талантливые, но скромные и порядочные, а бездарные, но наглые и беспринципные, личности. Пробравшись на «командные высоты» науки со своими искаженными как в кривом зеркале представлениями о том, «кто есть who» в этой самой науке, они и выносят вердикт относительно значимости того или иного исследователя в виде волевых решений. Все они, несомненно, носят исключительно субъективный характер. Такой подход, как правило, импонирует тем, кто мало что представляет собой как исследователь и чей реальный личный вклад в науку не просматривается даже в микроскоп, но который обладает значительным влиянием на принятие этих самых решений. Для подлинных же ученых, для которых жизнь вне науки немыслима, он не раз приводил к самым настоящим жизненным трагедиям -вспомним хотя бы печальной памяти отечественный феномен «лысенковщины»....
В связи с этим стало настоятельным делом создание системы оценки научной деятельности, базирующейся на каких-то объективных показателях научной деятельности конкретного ученого; в поисках ее в 70-80-е годы XX в. появился термин «индекс цитируемости». По сути своей это не что иное, как простое число ссылок на все работы данного исследователя, выполненные им в соответствующей отрасли научной деятельности за какой-то конкретный период. И хотя при внимательном рассмотрении выяснилась его ограниченность и в ряде случаев - даже неадекватность в оценке научной деятельности [1], этот показатель начиная с 90-х годов XX в. приобрел весьма широкую популярность в научной среде. В тот же период «набрал вес» и т.н. импакт-фактор журнала, который был введен в «научный оборот» Дж. Гарфилдом (J. Garfield) еще в 1972 г. и косвенно характеризовал цитируемость статей, опубликованных в этом журнале [2-4]. Но подлинную эйфорию у
исследователей большинства отраслей науки вызвал другой наукометрический параметр, предложенный в 2005 г. американским физиком Х. Хиршем (H. Hirsch) - т.н. h-индекс или индекс Хирша или же просто «хирш». В немалой степени - потому, что весьма прост по своему определению; как писал сам Х. Хирш в статье [5], исследователь «имеет индекс h, если h из его N статей цитируются как минимум h раз каждая, в то время как оставшиеся (N—h) статей цитируются не более, чем h раз каждая». Перефразируя самого создателя этого термина, можно сказать, что если в активе исследователя имеется n опубликованных статей, каждая из которых процитирована не менее чем n раз (независимо от того, кто, где и когда их процитировал), то его личный h-индекс равен n. Как нетрудно заметить, «хирш» - это всегда целое положительное число (чем он и удобен), и для любого исследователя он не может превышать общего числа опубликованных им статей. Прямой корреляции между «хиршем» исследователя и общим числом ссылок на его публикации, однако, нет, и можно привести хоть с три короба фактов, когда ученый с гораздо большей цитируемостью по сравнению с другим своим коллегой по цеху имеет значительно более низкий h-индекс. Так, количество ссылок на работы французского математика Э. Галуа в настоящее время измеряется пятизначным числом (и это при том, что математики меньше чем кто бы то ни было стараются цитировать друг друга), но «хирш» у него - 2 и таковым будет всегда, ибо этих работ всего ... две; у автора же этих строк цитирований его работ как минимум на порядок меньше, но «хирш» в базе данных WoS на данный момент - 16, поскольку опубликованных и процитированных работ у него в этой базе - более 500, и это, надо полагать, не предел. Так что ситуация здесь, выражаясь популярным языком, в целом напоминает известное положение «чем человек выше ростом, тем он сильнее»: в среднестатистическом отношении оно, несомненно, верно, но сопоставление силы двух конкретных людей исходя из их роста весьма часто может привести к ошибочным выводам. Тем не менее «хиршеметрия» (т.е. определение этого самого индекса и его улучшение) в настоящее время занимает и волнует умы очень многих сколько-нибудь серьезных исследователей, претендующих на научный авторитет и хоть на какую-то да известность в научной среде [3]. И, похоже, не только их, но и тех чиновников (даже весьма далеких от науки), которые берутся оценивать научную деятельность как отдельных ученых, так и тех научных учреждений, в которых эти ученые работают.
Казалось бы, надо радоваться - как-никак, худо-бедно, но какой-то да параметр для объективной оценки научной деятельности найден. Однако в последнее время весьма отчетливо наметилось совершенно неизвестное в науке вплоть до наступления XXI в. явление, суть которого напрямую связана с известным законом Гудхарта: «Когда достижение показателя становится целью, он перестает быть хорошим показателем». Для более детальной его характеристики позволю себе процитировать выдержку (пусть и довольно-таки длинную, но она, как
мне кажется, того стоит!) из статьи российского математика П.Ю. Чеботарева [6], раскрывшего его суть весьма точно и в то же время - достаточно лаконично и иронично:
«Наука превратилась в гонку. Добро бы - за результатами. Нет, - за числом публикаций и ростом библиометрических индексов. Экспертов, способных оценить качество работ, мало. А цифра - число статей, число ссылок на них, индекс Хирша - всем видна. Ученые с индексом Хирша в несколько десятков - вроде научных «миллионеров». Публика редко интересуется их конкретным вкладом в науку: цифра заменяет ответ на этот вопрос. Первенство в своей среде «по Хиршу» научный писатель ощущает почти как актер
- получение «Оскара».
Эта ситуация сравнительно нова. В числе прочих причин она связана с внедряемой повсеместно системой оценки эффективности научной деятельности
- по числу публикаций, импакт-фактору журналов, где они напечатаны, индексу Хирша и т.п. Прошли старые добрые времена, когда ученый был счастлив, если за год-два написал и довел до совершенства одну статью и теперь уверен, что она будет прочным кирпичом в здании науки. Сегодня при такой стратегии он рискует навсегда «отстать» от тех коллег, кто, затратив меньше интеллектуальных усилий, публикуют 5-10 (число зависит от области) статей в год, не смущаясь тем, что строят они не из кирпича, а из смоченного водой песка. Нет, ученые «борзописцы» были всегда, но
- одним из маргинальных типов, а при решении административных вопросов больше смотрели на смысл, не веря слепо цифре.
Тысячи небездарных людей сегодня ставят перед собой задачу не продвижения в понимании устройства мира, а продвижения «по Хиршу». Увы, надо быть нонконформистом, романтиком и немножко «фриком», чтобы относиться к делу иначе. Ведь должности, гранты, «надбавки» - всё это определяется числом публикаций, числом ссылок на них, тем же «Хиршем».
В сегодняшней гонке за очками собственно наука - размышления, новые сложные интеллектуальные конструкции, до деталей продуманные эксперименты, скрупулезный сбор материала - становятся роскошью, если и ведущей к «результату», то - томительно длинным и ненадежным путем. Как правило, находятся другие способы добиться наукометрического успеха
- проще, без затяжного, нередко безрезультатного погружения в бездонные глубины».
Можно, конечно, поспорить с П.Ю. Чеботаревым едва ли по каждой из указанных им позиций, хотя бы потому, что он говорит прежде всего о математике; в других же отраслях науки, в частности химии, ситуация может быть и отнюдь не столь драматичной. Но в целом он, к сожалению, прав: в науке вследствие усиливающегося год от года увлечения наукометрическими показателями ныне и в самом деле сложилась неоднозначная ситуация и более того
- наметилась весьма тревожная тенденция, которая в перспективе может привести к ее вырождению со всеми вытекающими отсюда для и нее самой, и для человечества малоприятными последствиями. Не буду удивлен, если это и впрямь произойдет: мораль
как российского, так и мирового сообщества (пусть и в меньшей степени по сравнению с нами) непрерывно падает, и наука тоже «портится» вместе с ним. И поскольку к настоящему моменту все уже «испортилось» столь сильно, что этого обстоятельства не могут игнорировать даже научные функционеры Российской Академии наук (в чем они фактически и «расписались» в период формирования закона об этой самой Академии во втором - третьем кварталах 2013 г.), то наукометрические показатели вполне могли бы послужить некими профилактическими средствами (или даже лекарствами) если не для излечения, то, по крайней мере, для предотвращения дальнейшей «порчи» науки. Но это - лишь при грамотном их употреблении, ибо каждое из таких средств имеет, выражаясь медицинской терминологией, ряд «побочных эффектов» и подчас плохо совместимо с «хроническими заболеваниями» и даже просто с индивидуальными особенностями ряда профильных научных сообществ. Погоня за числом публикаций и цитируемостью оных - это еще «цветочки»: куда хуже то, что на этом поприще стали появляться случаи массовой фальсификации в научных статьях в тех журналах, что отражены в базе данных Web of Sciences, о чем даже сообщалось в одном из январских номеров журнала Nature [7]. Особенно резко этот негатив проявился в Китае, где по данным обследования 2000 ученых из десяти университетов и исследовательских институтов почти треть (!!) из этих респондентов призналась, что участвовала в подобной, очень мягко говоря, неэтичной деятельности [4]. Тут надо признать, что на данный момент мы от китайцев по этой части резко отстали -случаев фальсификации со стороны российских авторов, по крайней мере в тех журналах, что в базе данных Web of Sciences, пока не было замечено, но в отличие от Китая в нашей стране премирование ученых за публикации в престижных научных журналах, как это широко практикуется ныне в «Поднебесной империи», пока не получило сколько-нибудь значительного распространения. Но если получит (а состоявшийся во второй половине 2012 г. съезд ректоров российских вузов принял недвусмысленное решение о введении аналогичной системы поощрения в наших университетах), то кто знает, не появятся ли такие же фальсификаторы и у нас... Замечу, однако, следующее чрезвычайно важное обстоятельство: вышеуказанная «порча», равно как и «лекарства» для ее «лечения», относятся к т.н. официальной науке, занятие которой требует обязательной принадлежности к какой-либо организации, имеющей официальный научный статус (к примеру, парикмахерские, рестораны, поликлиники и даже издательства научной литературы (!) к ним не относятся). Если же говорить о занятии наукой в подлинном ее значении (а именно - стремлении понять, как устроен мир вокруг нас), то она будет жива, пока жива сама человеческая цивилизация, ибо неразрывно связана с тягой homo sapiens к познанию, а эта тяга неистребима. Процесс же познания, если уж быть откровенным, ни в наукометрических индексах, ни даже в государственной финансовой поддержке не нуждается - это, если хо-
тите, некое состояние души, которое, строго говоря, доступно лишь немногим...
Вернемся, однако, к пресловутому «хиршу», который в последнее время стал если не «лекарством», то чем-то вроде нового фетиша или даже жупела, которым «поверяют» официальную научную деятельности любого отдельно взятого исследователя. Сей «препарат» «прописан» нынче всем без исключения категориям исследователей и зачастую употребляется без каких бы то ни было рекомендаций со стороны специалистов в области науковедения и наукометрии. Он в ходу и в научных сообществах ведущих западных стран, и это обстоятельство является основанием для использования его нашими чиновниками от науки со ссылкой на внедрение некоего «прогрессивного международного опыта». Тут нужно сразу же заметить, что, будучи «кровь от крови, плоть от плоти» личной цитируемости исследователя, этот наукометрический показатель, естественно, должен страдать теми же самыми недостатками, что и сама эта цитируемость, о которых мы уже упоминали в целом ряде работ (см. например, [1,8,9]). В процитированной нами выше статье [6] П.Ю. Чеботарев приводит ряд примеров на этот счет и вполне убедительно доказывает, что задействовать «хирш» в качестве главного показателя научной деятельности было бы по меньшей мере поспешным делом. Соответственно, он предлагается вообще отказаться от индекса Хирша как интегрального показателя «успешности» ученого и рассматривать его лишь наряду с другими классифицирующими показателями лишь как некий «индекс оцененной плодовитости» этого самого ученого, не выделяя его среди прочих наукометрических параметров. Автор данной статьи вполне солидарен с ним.
Что же касается общего числа публикаций и отчетливо выраженной ныне тенденции к его перманентному росту для среднестатистического исследователя, то тут нельзя не отметить два немаловажных обстоятельства. Во-первых, в нашу эпоху, в эпоху поистине необъятного массива информации, желание активно и много писать научные статьи, на мой взгляд, не следует считать чем-то зазорным - сейчас не времена Генри Кавендиша, который не любил писать о своих научных достижениях, но любил повторять «я работаю не для славы, а из чистой любознательности». Если не публиковать свои результаты в научной печати, то эти данные просто-напросто окажутся чем-то вроде «вещи в себе», а потом и вовсе затеряются в современном информационном потоке. Весьма симптоматично высказывание на этот счет другого великого ученого, нашего соотечественника и лауреата Нобелевской Премии П.А. Капицы: «Неопубликованный результат означает отсутствие этого самого результата». Это при том, что и он на «научно-писательском» поприще тоже не особо отметился (общее количество его научных трудов не достигло и сотни). А во-вторых, и это - главное, любой ученый во все времена оставлял о себе память именно благодаря своим доведенным до сведения общественности трудам, причем даже в те времена, когда писали на папирусе, глиняных табличках или на камне. И ныне, сколько бы и где ученый не вещал
о значимости своих изысканий, никто не признает в нем серьезного исследователя до тех пор, пока он не опубликует хоть где-то и что-то из результатов этих самых исследований. И это совершенно справедливо. Но при этом нужно четко представлять себе, что научная продуктивность - это одно, научные же достижения - это все же нечто другое [10].
В процитированной выше статье [6] ее автор бьет тревогу по поводу того, что в стремлении заиметь как можно больше публикаций отходит на второй план качество научных исследований. Если говорить про среднестатистического исследователя и науку в целом, то с этим, увы, придется согласиться, хотя в общем случае никакой корреляции между числом публикуемых исследователем статей за какой-либо период времени и их качеством нет и не может быть. Мне лично известны не один и не два человека, которые и пишут много, и публикуются в авторитетных международных журналах, равно как не один и не два таких людей, которые и пишут мало, и чьи статьи - это в основном хлам и халтура. Кстати сказать, и причины вышеуказанного стремления в целом ряде случаев связаны отнюдь не с погоней за библиометрическими показателями. При существующем де-факто плановыми показателями научной деятельности в любом научном учреждении хочешь не хочешь надо писать научные статьи, но там, где «у руля» стоят настоящие ученые, четко отличающие настоящую науку от мимикрии под таковую, погоня за количеством направляемых в печать статей сведена к минимуму, а кроме того, в них имеются и разного рода «фильтры» для отсева пустопорожних статей. Там же, где дела научные возглавляет администратор от науки, а не ученый, она проявляется в гораздо большей степени: причины этого, надеюсь, в пояснениях не нуждаются. Замечу в связи с этим, что в институтах РАН, где уровень научных исследований существенно выше, нежели в учреждениях высшего профессионального образования (университетах, институтах) и тем более - в научных учреждениях других министерств и ведомств, указанное выше отношение к публикации статей (вопреки Ленину «лучше меньше, да лучше») нехарактерно.
Как бы там ни было, система оценки научной деятельности в России должна недвусмысленно стимулировать публикации в лучших международных
журналах. Таким способом мы, образно говоря, убьем сразу несколько зайцев: во-первых, введем в мировой обиход наши научные результаты; во-вторых, повысим престиж наших научно-исследовательских институтов и университетов; и, наконец, в-третьих (и это главное) - приучим наших ученых работать по мировым стандартам - при всех их недочетах они все равно остаются (по крайней мере, на сегодняшний день) существенно выше отечественных. Только тогда, говоря словами известного героя из фильма «Белое солнце пустыни», никому из наших ученых не придется говорить, что «мне за державу обидно». И пресловутый «хирш» тут все же может оказаться полезным подспорьем, надо лишь грамотно его использовать в системе оценки научной деятельности. Во всяком случае, он не должен подменять (и тем более подминать) собой экспертную оценку, они должны вместе работать, так сказать, «на общее дело».
Настоящая статья подготовлена при финансовой поддержке Российского Фонда Фундаментальных Исследований (грант № 14-06-00044).
Литература
1. О.В. Михайлов, Вестник РАН, 74, 11, 1025-1029 (2004)
2. Импакт-фактор: Статья в «Wikipedia». - Режим доступа: http://ru.wiMpedia.org/wiM /%D0%98%D0% BC%D0%BF%D0%B0%D0%BA%D1%82%D1%84%D0%B0 %D0%BA%D1%82%D0%BE%D1%80.
3. В .А. Маркусова, Вестник РАН, 73, 4. 291-298 (2003)
4. А.Е. Варшавский, В.В. Иванов, В.А. Маркусова, Вестник РАН, 81, 7, 587-593 (2011)
5. J.E. Hirsch, Proceedings of National Academy of Sciences, 102, 46, 16569-16572 (2005)
6. П.Ю. Чеботарев, Управление большими системами, 44, 14-31(2013)
7. J. Jane Qui, Nature, 463, 142 (2010)
8. О.В. Михайлов, Науковедческие исследования. 2010: Сб. науч. трудов. М.: ИНИОН, РАН, Центр научн.-информ. исслед. по науке, образованию и технологиям, 2010. С. 75-90.
9. О.В. Михайлов, Т.И. Михайлова, Вестник Казанского технологического университета, 13, 11, 485-487 (2010)
10. Ю. Гарфилд, Вестник АН СССР, 52, 7, 42-51 (1982)
© О. В. Михайлов - д-р хим. наук, проф. каф. аналитической химии, сертификации и менеджмента качества КНИТУ, [email protected]; Е. А. Харитонов - канд. техн. наук, доц. каф. химической кибернетики КНИТУ, [email protected].