Научная статья на тему 'О научно-этических проблемах «Хиршеметрии»'

О научно-этических проблемах «Хиршеметрии» Текст научной статьи по специальности «История и археология»

CC BY
279
70
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНДЕКС ЦИТИРУЕМОСТИ ИССЛЕДОВАТЕЛЯ / ИНДЕКС ХИРША / НАУЧНАЯ ДЕЯТЕЛЬНОСТЬ / CITATION INDEX OF RESEARCHER HIRSH INDEX SCIENTIFIC ACTIVITY

Аннотация научной статьи по истории и археологии, автор научной работы — Михайлов Олег Васильевич

Дано изложение ряда новых проблем в оценке научной деятельности исследователя, появившихся в последние несколько лет в связи с введением в «научный оборот» такого популярного ныне библиометрического параметра, как h-индекс (индекс Хирша). Отмечено, что, несмотря на оригинальность подхода в выборе данного параметра, этот показатель в общем случае не может считаться адекватным для описания реальной цитируе-мости работ конкретного исследователя и их научной ценности, хотя он в той или иной степени и коррелирует с ней.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

On the scientific and ethical issues of “Hirsh measuring”

The authors present a whole new set of problems in the evaluation of scientific activity researchers that have appeared in the past few years due to the introduction of the “scientific revolution” now such a popular bibliometric parameter, which is the h-index (Hirsch index). It has been noted that despite the originality of approach you choose this parameter, it cannot be considered in the general case adequate to describe the real citing of a specific researcher and of their scientific valuation, although it is in varying degrees, and is correlated with it.

Текст научной работы на тему «О научно-этических проблемах «Хиршеметрии»»

Personnel rise and decline in the postwar period of the Soviet science (for example, physical and mathematical sciences, 1950-1980)

Alexander G. Allahverdjan

Head of the Center for the History of Organization of Science and Science Studies Institute for the History of Science and Technology named after S. I. Vavilov, Russian Academy of Sciences, Moscow, Russia; e-mail: sisnek@ list.ru

In the postwar period 1950-1960's. because of deliberate government science policy, a complex of natural sciences, especially physics and mathematics, received unprecedented in the history of Soviet development. However, the weakening of the state policy the turn of 1960/1970's resulted in a significant deterioration of the staffing situation in the science of two decades (1970-1980 nd). It was characterized by a sharp drop in the rate of growth of the scientific training and physical and mathematical structure, which has a negative impact on the development of Soviet science in the last two decades of the Soviet Union. This conclusion is based mainly on the results of research in naukovedcheskih 1970-1980's conducted by the staff of the Leningrad school of sociology of science, led by Professor S. A. Kugel.

Keywords: Soviet science, government science policy, science of science, sociology of science, scientific personnel, physical and mathematical sciences.

Олег Васильевич Михайлов

доктор химических наук, профессор, главный научный сотрудник и профессор кафедры аналитической химии, сертификации и менеджмента качества Казанского национального исследовательского технологического университета, Казань, Россия;

e-mail: [email protected]

О научно-этических проблемах «хиршеметрии»1

Дано изложение ряда новых проблем в оценке научной деятельности исследователя, появившихся в последние несколько лет в связи с введением в «научный оборот» такого популярного ныне библиометрического параметра, как h-индекс (индекс Хирша). Отмечено, что, несмотря на оригинальность подхода в выборе данного параметра, этот показатель в общем случае не может считаться адекватным для описания реальной цитируе-мости работ конкретного исследователя и их научной ценности, хотя он в той или иной степени и коррелирует с ней.

Ключевые слова: индекс цитируемости исследователя, индекс Хирша, научная деятельность.

1 Статья подготовлена в рамках работы по проекту «Разработка системы объективной оценки качества научной деятельности в различных отраслях науки на основе наукометрических параметров цитируемости и соавторства», поддержанному грантом РФФИ № 14-06-00044.

90-летию выдающегося ученого-социолога, основателя Санкт-Петербургской социолого-науковедческой школы, главного редактора журнала «Социология науки и технологий», заслуженного деятеля науки Российской Федерации, доктора философских наук, профессора Самуила Ароновича Кугеля посвящается настоящая статья

На заре становления науки и на протяжении многих десятилетий весомость вклада ученого в развитие соответствующей отрасли науки оценивалась научным сообществом лишь по содержательным качественным критериям, однако сам принцип и механизм такой оценки был фактически интуитивен и количественному описанию не поддавался. Пока профессиональное занятие наукой было уделом небольшого круга людей, шедших в нее исключительно по призванию или, по крайней мере, по «зову души», и финансирование ученых (но не их исследований!) осуществлялось не из государственной казны, а от щедрот тех или иных меценатов от науки (к примеру, одного из величайших математиков всех времен и народов Карла Фридриха Гаусса финансировал не кто иной, как сам герцог Брауншвейгский), с таким положением дел можно было мириться. Когда же научные изыскания стали получать значительную государственную поддержку, то в соответствии с известной поговоркой «кто платит, тот и заказывает музыку», правительства и учреждения, осуществляющие финансирование научных исследований, пожелали знать, разумно ли были использованы выделенные на их реализацию денежные и иные средства. Они хотели оценить как качество тех научных исследований, за которые платят, так и квалификацию тех личностей, которые осуществляют эти исследования, чтобы принимать обоснованные решения относительно будущих инвестиций. Вместе с тем при появлении государственной поддержки появились и специализированные учреждения и организации, профессионально занимающиеся решением специфических научных проблем, для работы в которых необходимы были соответствующие кадры. В связи с этим количество людей, работающих в науке, сильно возросло. Как следствие — в науку стали идти не только подлинные таланты, но и «середняки», а то и просто откровенная «серость» и «проходимцы». Исторический опыт свидетельствует о том, что в условиях административной системы, когда один индивид отдает распоряжения, а другой обязан их выполнять, на вершине власти в любой сфере антропогенной деятельности часто оказываются не талантливые, скромные и порядочные, а бездарные, наглые и беспринципные личности. Пробравшись на «командные высоты» науки со своими искаженными, как в кривом зеркале, представлениями о том, «кто есть кто» в науке, они и выносят вердикт относительно значимости того или иного исследователя в виде волевых решений, носящих исключительно субъективный характер. Подобный подход, как правило, импонирует тем, кто мало что представляет собой как исследователь и чей реальный личный вклад в науку не просматривается даже в микроскоп, но который обладает значительным влиянием на принятие этих решений. Для подлинных же ученых, которые не мыслят жизни вне науки, он не раз приводил к настоящим жизненным трагедиям. Однако уже давно и хорошо известно, что объективная оценка научной деятельности — как отдельно взятого ученого, так и научных коллективов — является одной из труднейших проблем. Она появилась на свет с зарождением самой науки. И это отмечалось еще в 50-60-х годах прошлого

века в изысканиях исследователей в области социологии научной деятельности, в частности, в работах основателя и многолетнего лидера Ленинградской (позднее — Санкт-Петербургской) социолого-науковедческой школы С. А. Кугеля (см. Кугель и др., 1963; Кугель, 1965). В связи с этим стало необходимостью создание системы оценки научной деятельности, базирующейся на объективных показателях научной деятельности ученого. В поисках таковых в 70—80-е годы XX века появился термин «индекс цитируемости». Первоначально это было фактически количество ссылок на все работы данного исследователя, выполненные им в соответствующей отрасли научной деятельности за какой-то период. И хотя при внимательном рассмотрении этого показателя выяснилась его ограниченность и в ряде случаев — даже неадекватность в оценке научной деятельности (Михайлов, 2004), он, начиная с 90-х годов XX века, все же приобрел популярность в научной среде. Другим популярным показателем в те же годы стал так называемый импакт-фактор журнала, который был введен в «научный оборот» Дж. Гарфилдом (J. Garfield) еще в 1972 году и который косвенно характеризовал цитируемость статей, опубликованных в журнале (Мар-кусова, 2003; Варшавский и др., 2011). Но настоящую эйфорию у исследователей большинства отраслей науки вызвал наукометрический параметр, предложенный в 2005 году американским физиком Хорхе Хиршем и получивший в его честь название «индекс Хирша» или же просто «хирш»; в науковедческой литературе за ним закрепился термин h-индекс. Он весьма прост по своему определению. Как писал Хорхе Хирш в своей оригинальной статье (Hirsch, 2005), исследователь «имеет индекс h, если h из его N статей цитируются как минимум h раз каждая, в то время как оставшиеся (N—h) статей цитируются не более, чем h раз каждая». Он приобрел такую популярность, что оттеснил на второй план едва ли не все прочие библи-ометрические показатели, каковых ныне предложено уже не менее двух десятков (Штовба С. Д. и др., 2013). Перефразируя его «крестного отца», можно сказать, что если в активе исследователя имеется n опубликованных статей, каждая из которых процитирована не менее чем n раз (независимо от того, кто, где и когда их процитировал), то его личный h-индекс равен n.

Как нетрудно заметить, «хирш» — это всегда целое положительное число (чем он и удобен), и для любого исследователя он не может превышать общего числа опубликованных им статей. Прямой корреляции между «хиршем» исследователя и общим числом ссылок на его публикации, однако, нет — можно привести не один и не два примера, когда ученый, с гораздо большей цитируемостью по сравнению с другим коллегой по «цеху», имеет значительно более низкий h-индекс. Так, количество ссылок на работы французского математика Э. Галуа в настоящее время измеряется пятизначным числом (и это при том, что математики, меньше чем кто бы то ни было, стараются цитировать друг друга), но «хирш» у него — 2 и таковым будет всегда, ибо этих работ всего... две. У автора же этих строк цитирований его работ, как минимум, на порядок меньше, но «хирш» в базе данных WoS на момент написания данной статьи — 16, поскольку опубликованных и процитированных работ у него в этой базе — свыше 500. И ситуация здесь, на мой взгляд, в целом напоминает известное положение «чем человек выше ростом, тем он сильнее»: в среднестатистическом отношении оно, несомненно, верно, но сопоставление силы двух конкретных людей, исходя лишь из их роста, зачастую, может привести к ошибочным выводам. Тем не менее «хиршеметрия» в настоящее время занимает и волнует умы очень многих сколько-нибудь серьезных исследователей, претендующих на научный авторитет

и хоть на какую-то известность в научной среде (Варшавский и др., 2011; Чеботарев, 2013). И не только их, но и чиновников (даже весьма далеких от науки), что берутся оценивать научную деятельность, как отдельных ученых, так и тех научных учреждений, в которых эти ученые работают.

Казалось бы, надо радоваться — параметр для объективной оценки научной деятельности найден. Однако в последние годы отчетливо наметилось совершенно неизвестное в науке вплоть до наступления XXI века явление, суть которого напрямую связана с известным законом Гудхарта: «Когда достижение показателя становится целью, он перестает быть хорошим показателем». Для более детальной характеристики этого феномена позволю себе процитировать статью (Чеботарев, 2013), автор которой раскрыл его суть весьма точно и в то же время — лаконично, иронично и даже несколько саркастично:

Наука превратилась в гонку. Добро бы — за результатами. Нет, — за числом публикаций и ростом библиометрических индексов. Экспертов, способных оценить качество работ, мало. А цифра — число статей, число ссылок на них, индекс Хирша — всем видна. Ученые с индексом Хирша в несколько десятков — вроде научных «миллионеров». Публика редко интересуется их конкретным вкладом в науку: цифра заменяет ответ на этот вопрос. Первенство в своей среде «по Хиршу» научный писатель ощущает почти как актер — получение «Оскара».

Эта ситуация сравнительно нова. В числе прочих причин она связана с внедряемой повсеместно системой оценки эффективности научной деятельности — по числу публикаций, импакт-фактору журналов, где они напечатаны, индексу Хирша и т. п. Прошли старые добрые времена, когда ученый был счастлив, если за год-два написал и довел до совершенства одну статью и теперь уверен, что она будет прочным кирпичом в здании науки. Сегодня при такой стратегии он рискует навсегда «отстать» от тех коллег, кто, затратив меньше интеллектуальных усилий, публикуют 5—10 (число зависит от области) статей в год, не смущаясь тем, что строят они не из кирпича, а из смоченного водой песка. Нет, ученые «борзописцы» бьли всегда, но — одним из маргинальных типов, а при решении административных вопросов больше смотрели на смысл, не веря слепо цифре.

Тысячи небездарных людей сегодня ставят перед собой задачу не продвижения в понимании устройства мира, а продвижения «по Хиршу». Увы, надо быть нонконформистом, романтиком и немножко «фриком», чтобы относиться к делу иначе. Ведь должности, гранты, «надбавки» — все это определяется числом публикаций, числом ссылок на них, тем же «Хиршем».

В сегодняшней гонке за очками собственно наука — размышления, новые сложные интеллектуальные конструкции, до деталей продуманные эксперименты, скрупулезный сбор материала — становятся роскошью, если и ведущей к «результату», то — томительно длинным и ненадежным путем. Как правило, находятся другие способы добиться наукометрического успеха — проще, без затяжного, нередко безрезультатного погружения в бездонные глубины (Чеботарев, 2013:14—31).

Можно, конечно, поспорить с П. Ю. Чеботаревым по каждой из указанных им позиций, хотя бы потому, что он говорит, прежде всего, о математике. В других же отраслях науки, в частности химии (в которой профессионально работает автор этих строк), ситуация может быть отнюдь не столь драматичной. Но в целом он,

к сожалению, прав. Действительно, в науке вследствие усиливающегося год от года увлечения наукометрическими показателями и в самом деле сложилась неоднозначная ситуация, и более того — наметилась весьма тревожная тенденция, которая в перспективе может привести к ее вырождению со всеми вытекающими последствиями. И я не буду удивлен, если это и впрямь произойдет: мораль как российского, так и мирового сообщества «снижается» и наука тоже «портится» вместе с ней. К настоящему моменту все уже «испортилось» столь сильно, что этого обстоятельства не могут игнорировать даже научные функционеры Российской академии наук (в чем они фактически и «расписались» в период формирования закона об Академии в прошлом, 2013 году).

В этой ситуации наукометрические показатели вполне могли бы послужить некими профилактическими средствами (или даже лекарствами) если не для излечения, то, по крайней мере, для предотвращения дальнейшей «порчи» науки. Но это — лишь при грамотном их употреблении, ибо каждое из таких средств имеет ряд «побочных эффектов» и подчас плохо совместимо с «хроническими заболеваниями» и даже просто с индивидуальными особенностями ряда профильных научных сообществ. К тому же погоня за числом публикаций и цитируемостью — это еще «цветочки». Куда хуже то, что в научных статьях в журналах, отраженных в базах данных WoS и Scopus, стали появляться случаи массовой фальсификации, о чем даже сообщалось в одном из январских номеров журнала Nature (Jane Qui, 2010; Варшавский и др., 2011). Весьма отчетливо это проявилось в Китае, где по данным обследования 2000 ученых из десяти университетов и исследовательских институтов почти треть (!) респондентов призналась, что участвовала в подобной неэтичной деятельности (Варшавский и др., 2011). Причина же этого, странного на первый взгляд, феномена, проста — в Китае вот уже несколько лет в ходу премирование ученых за публикации в престижных научных журналах. В нашей стране таковое пока что не получило широкого распространения, и случаев фальсификации со стороны российских авторов, по крайней мере, в тех журналах, что в базе данных Web of Sciences, пока не было замечено. Но если получит (а состоявшийся во второй половине 2012 года съезд ректоров российских вузов принял недвусмысленное решение о введении аналогичной системы поощрения в наших университетах), то не появятся ли такие же фальсификаторы и у нас... Замечу, однако, следующее важное обстоятельство, которое все же позволяет сохранять в связи с этим сдержанный оптимизм. А именно: отмеченная выше «порча», равно как и «лекарства» для ее «лечения», относятся к так называемой официальной науке, занятие которой требует обязательной принадлежности исследователя к какой-либо организации с официальным научным статусом. Если же говорить о занятии наукой в подлинном ее значении, то есть стремлении понять, как устроен мир вокруг нас, то она будет жива, пока жива сама человеческая цивилизация, ибо неразрывно связана с тягой homo sapiens к познанию, а эта тяга неистребима. Процесс же познания, если уж быть откровенным, ни в наукометрических индексах, ни даже в государственной финансовой поддержке не нуждается — это некое состояние души, которое, строго говоря, доступно отнюдь не каждому того желающему .

Вернемся, однако, к пресловутому «хиршу», который в последнее время стал если не «лекарством», то чем-то вроде нового фетиша, которым «поверяют» официальную научную деятельность любого отдельно взятого исследователя. Сей «препарат» «прописан» нынче всем без исключения категориям исследователей и зачастую

употребляется без каких бы то ни было рекомендаций со стороны специалистов в области науковедения и наукометрии. Он в ходу и в научных сообществах ведущих западных стран, и это обстоятельство ныне служит основанием для использования его нашими чиновниками от науки со ссылкой на внедрение «прогрессивного международного опыта». Нужно заметить, что наукометрический показатель, будучи «кровь от крови, плоть от плоти» личной цитируемости исследователя, должен страдать теми же самыми недостатками, что и сама цитируемость (Михайлов, 2004; Михайлов, 2010; Михайлов и др., 2010). В процитированной выше статье (Чеботарев, 2013) ее автор приводит ряд примеров на этот счет и вполне убедительно доказывает, что задействовать «хирш» в качестве главного показателя научной деятельности было бы, по меньшей мере, поспешным делом. Он предлагает вообще отказаться от индекса Хирша как интегрального показателя «успешности» ученого и рассматривать его лишь наряду с другими классифицирующими показателями как некий «индекс оцененной плодовитости» ученого, не выделяя среди прочих наукометрических параметров.

Что же касается общего числа публикаций и отчетливо выраженной ныне тенденции к его перманентному росту для среднестатистического исследователя, то тут нельзя не отметить два немаловажных обстоятельства. Во-первых, в нашу эпоху, эпоху поистине необъятного массива информации, желание активно и много писать научные статьи, на мой взгляд, не следует считать чем-то зазорным. Сейчас ведь не времена Генри Кавендиша, который не любил писать о своих научных достижениях, но любил повторять «я работаю не для славы, а из чистой любознательности». И если действовать по такому же принципу и не публиковать свои результаты в научной печати, то они просто-напросто окажутся чем-то вроде «вещи-в-себе», а потом и вовсе затеряются в современном информационном потоке. Весьма симптоматично высказывание на этот счет другого великого ученого, нашего соотечественника и лауреата Нобелевской премии П. Л. Капицы: «Неопубликованный результат означает отсутствие этого самого результата». Это при том, что и он на «научно-писательском» поприще тоже не особо отметился (общее количество его научных трудов если и превзошло цифру 100, то вряд ли намного). А во-вторых, и это — главное, любой ученый во все времена оставлял о себе память именно благодаря своим доведенным до сведения общественности трудам, причем даже в те времена, когда писали на папирусе, глиняных табличках или на камне. И ныне, сколько бы и где ученый ни вещал о значимости своих изысканий, никто не признает в нем серьезного исследователя до тех пор, пока он не опубликует хоть где-то и что-то из результатов своих исследований. И это совершенно справедливо. Но при этом нужно четко представлять себе, что научная продуктивность — это одно, научные же достижения — это все же нечто другое (Mikhailov, 2004; Mikhailov, 2012).

В той же статье (Чеботарев, 2013) ее автор бьет тревогу и по поводу того, что в стремлении иметь как можно больше публикаций качество научных исследований отходит на второй план, если вообще не становится «делом десятым». Если говорить про среднестатистического исследователя и науку в целом, то с этим придется согласиться (хотя в общем случае никакой корреляции между числом публикуемых исследователем статей за какой-либо период времени и их качеством нет). Мне лично известны не один и не два человека, которые и пишут много, и публикуются в авторитетных международных журналах, где исследователю (по крайней мере, российскому) просто так опубликовать свою статью не получится.

Равно как не один, и не два таких, которые и пишут мало, и чьи статьи — это хлам и халтура, и опубликованы где-то в изданиях типа «трудов крышекровельно-го университета». Впрочем, причины вышеуказанного стремления в целом ряде случаев связаны отнюдь не только и не столько с погоней за библиометрическими показателями, но с тем, что при существующем де-факто плановыми показателями научной деятельности в любом научном учреждении хочешь не хочешь, а надо писать научные статьи. Однако там, где «у руля» стоят настоящие ученые, четко отличающие настоящую науку от мимикрии под таковую, погоня за количеством направляемых в печать статей сведена к минимуму, а кроме того, в них зачастую имеются и разного рода «фильтры» для отсева пустопорожних статей. Там же, где дела научные возглавляет администратор от науки, а не ученый, указанная тенденция проявляется в гораздо большей степени: причины этого, надеюсь, в каких бы то ни было пояснениях не нуждаются.

Как бы там ни было, система оценки научной деятельности в России должна недвусмысленно стимулировать публикации в лучших международных журналах. Таким способом мы убьем сразу даже не двух, а нескольких зайцев: во-первых, введем в мировой обиход наши научные результаты; во-вторых, повысим престиж наших научно-исследовательских институтов и университетов; и, наконец, в-третьих (и это главное) — приучим наших ученых работать по мировым стандартам — при всех недочетах последних они все равно остаются (по крайней мере, на сегодняшний день) существенно выше отечественных. И пресловутый «хирш» тут все же может оказаться полезным подспорьем, надо лишь грамотно его использовать в системе оценки научной деятельности. Во всяком случае, он не должен подменять экспертную оценку, они должны вместе работать, так сказать, «на общее дело». Только тогда, выражаясь словами известного героя из еще более известного фильма «Белое солнце пустыни», никому из наших ученых не придется говорить «мне за державу обидно»...

Благодарность

Автор считает своим приятным долгом выразить глубокую признательность Российскому фонду фундаментальных исследований за финансовую поддержку, в рамках которой подготовлена настоящая статья (грант № 14-06-00044).

Литература

Варшавский А. Е., Иванов В. В., Маркусова В. А. Об адекватной оценке результатов научной деятельности // Вестник Российской академии наук. 2011. Т. 81, № 7. С. 587—593 [Varshavskii A. E., Ivanov V. V., Markusova V. A. Ob adekvatnoi otsenke resul'tatov nauchnoi deyatel'nosti // Vestnik Rossiiskoi akademii nauk. 2011. T. 81, № 7. S. 587-593].

Кугель С. А. Профессиональная мобильность в науке и тенденции ее изменения в условиях научно-технической революции // Вопросы философии. 1969. № 11 [Kugel S. A. Professi onal'naya mobil'nost' v nauke I tendentsiya eyo izmeneniya v usloviyakh nauchno-tekhnicheskoi revolutsii // Voprosy filosofii. 1969. № 11].

Кугель С. А., Шкаратан О. И. Некоторые методологические проблемы изучения социальной структуры общества // Философские науки. 1965. № 1. С. 55-64 [KugelS. A., Shkaratan O. I. Nekotorye metodologicheskie problemy izucheniya sotsial'noi struktury obtschestva // Filosofskie nauki. 1965. № 1. S. 55-64].

Маркусова В. А. Цитируемость российских публикаций в мировой научной литературе // Вестник Российской академии наук. 2003. Т. 73, № 4. С. 291—298 [Markusova V. A. Tsitiruemost' rossiiskikh publikatsii v mirovoi nauchnoi literature // Vestnik rossiiskoi kademii nauk. 2003. T. 73, № 4. S. 291-298].

Михайлов О. В. Блеск и нищета «индекса цитирования» // Вестник Российской академии наук. 2004. Т. 74, № 11. С. 1025-1029 [Mikhailov O. V. Blesk i nitscheta "indexa tsitirovaniya" // Vestnik Rossiiskoi аkademii nauk. 2004. T. 74, № 11. S. 1025-1029].

Михайлов О. В. Критерии объективной оценки качества научной деятельности // На-уковедческие исследования: сб. науч. тр. М.: ИНИОН, РАН, 2010. С. 75-90 [Mikhailov O. V. Kriterii ob'yektivnoi otsenki kachestva nauchnoi deyatel'nosti // Naukovedcheskie issledovaniya: sb. nauch. tr. M.: INION, RAN, 2010. S. 75-90].

Михайлов О. В., Михайлова Т. И. Индекс Хирша в оценке деятельности ученого в национальном исследовательском университете // Вестник Казанского технологического университета. 2010. Т. 13, № 11. С. 485-487 [Mikhailov O. V, Mikhailova T. I. Index Hirsha v otsenke deyatel'nosti uchenogo v natsional'nom issledovatel'skom universitete // Vestnik Kazanskogo tekhnologicheskogo universiteta. 2010. Т. 13, № 11. S. 485-487].

Чеботарев П. Ю. Наукометрия: как с ее помощью лечить, а не калечить? // Управление большими системами. 2013. Т. 44. С. 14-31 [Chebotaryov P. Yu. Naukometriya: kak s eyo pomotsch'yu lechit', a ne kalechit'? // Upravleniye bol'shimi sistemami. 2013. T. 44. S. 14-31].

Hirsch J. E. An index to quantify an individual's scientific research output // Proceedings of National Academy of Sciences. 2005. Vol. 102, № 46. P. 16569-16572.

Jane Qui J. Oublish or Perish // Nature. 2010. Vol. 463. P. 142.

Mikhailov O. V. Splendors and Miseries of the "Citation Index" // Herald of Russian Academy of Sciences. 2004. Vol. 74, № 6. P. 627-631.

Mikhailov O. V. A New Citation Index for Researchers // Herald of Russian Academy of Sciences. 2012. Vol. 82, № 5. P. 403-405.

Штовба С. Д., Штовба Е. В. Обзор наукометрических показателей для оценки публикационной деятельности ученого // Управление большими системами. 2013. Т. 44. С. 262-278 [Shtovba S. D., Shtovba E. V. Obzor naukometricheskikh pokazatelei dlya otsenki publikatsionnoi deyatel'nosti uchyonogo // Upravleniye bol'shimi sistemami. 2013. T. 44. S. 262-278].

About of scientific-ethical problems of Hirsh indexation

Oleg V. Mikhailov

Doctor for Chemical Science, Professor, Professor of the Department of Analytical Chemistry, certifi cation and quality management of Kazan National Research Technology University, Kazan, Russia; e-mail: [email protected]

The authors present a whole new set of problems in the evaluation of scientific activity researchers that have appeared in the past few years due to the introduction of the "scientific revolution" now such a popular bibliometric parameter, which is the h-index (Hirsch index). It has been noted that despite the originality of approach you choose this parameter, it cannot be considered in the general case adequate to describe the real citing of a specific researcher and of their scientific valuation, although it is in varying degrees, and is correlated with it.

Keywords: citation index of researcher Hirsh index scientific activity.

i Надоели баннеры? Вы всегда можете отключить рекламу.