ДИСКУССИИ
УДК 378.126-057.175:001.891 Ардашкин Игорь Борисович
доктор философских наук, профессор кафедры истории и философии науки и техники Национального исследовательского Томского политехнического университета, Томск (РФ). E-mail: [email protected]
Сидоренко Татьяна Валерьевна
кандидат педагогических наук, доцент, заведующая кафедрой иностранных языков Института кибернетики Национального исследовательского Томского политехнического университета, Томск (РФ). E-mail: [email protected]
ПУБЛИКАЦИОННАЯ АКТИВНОСТЬ И ЕЕ РОЛЬ В ОЦЕНКЕ ПРОФЕССИОНАЛЬНОЙ ДЕЯТЕЛЬНОСТИ НАУЧНО-ПЕДАГОГИЧЕСКИХ РАБОТНИКОВ ВУЗОВ (РОССИЙСКИЙ ОПЫТ)
Аннотация. Цели описанного в статье исследования - проанализировать и обобщить российский опыт использования публикационной активности в качестве критерия оценки профессиональной деятельности научно-педагогических работников; выявить роль мотивационных факторов, влияющих на эту активность.
Методы и методология. Авторами в ходе изучения заявленной темы применялась методология комплексного исследования, включающая методы анализа документов, сравнительного анализа, вторичного использования социологических и психологических данных.
Результаты и научная новизна. Рассмотрена международная и отечественная практика применения количественных и качественных показателей деятельности научно-педагогических работников вузов. Вскрыты причины, почему публикационная активность становится одним из ключевых параметров оценки достижений конкретного ученого, организации, в которой ведется научная работа, и в целом научного сообщества того или иного государства. Показана степень надежности данного критерия - его достоинства и недостатки. Сделан вывод о необходимости существенных изменений в управлении публикационной активностью, затрагивающих как профессиональную, так и мотивационную сферу научно-педагогических работников. Сформулирова-
ны наиболее приемлемые варианты измерения эффективности труда специалистов этой категории.
Практическая значимость. Материалы статьи могут служить базой для создания методики оценки профессиональной деятельности научно-педагогических кадров.
Ключевые слова: публикационная активность, наукометрические показатели, экспертная оценка, индексы цитирования, импакт-фактор, мотивация, научно-педагогические работники.
DOI: 10.17853/ 1994-5639-2016-1-145-158
Ardashkin Igor B.
Doctor of Philosophical Sciences, Professor, Department of History and Philosophy of Science and Technology, National Research Tomsk Polytechnic University, Tomsk (RF). E-mail: [email protected]
Sidorenko Tatyana V.
Candidate of Pedagogical Sciences, Associate Professor, Head of Foreign Language Department, Institute of Cybernetics, National Research Tomsk Polytechnic University, Tomsk (RF). E-mail: sidorenkot@tpu. ru
PUBLICATION ACTIVITY AND ITS ROLE IN ASSESSMENT OF PROFESSIONAL ENGAGEMENT OF HEI ACADEMIC STAFF
(RUSSIAN PRACTICES)
Abstract. The aim of the research is to analyze and summarize the Russian best practices of using the publication activity as a criterion to assess the professional activity of the academic staff; to identify the role of motivational factors as a method to manage and control the publication activity of the academic staff.
Methods. The authors address the methodology of comprehensive research based on the method of document analysis, comparative analysis, and method of secondary use of sociological and psychological data.
Results and scientific novelty concludes in presenting Russian and international best practices generalized on using the publication activity to assess the engagement of HEI (Higher Educational Institution) academic staff; the most appropriate formats of using the publication activity as a criterion to assess the research component of the academic staff engagement are defined. Degree of reliability of this criterion is shown - its strengths and shortcomings. The conclusion is drawn on need of the essential changes in management of publication activity affecting both professional and motivational spheres of scientific and pedagogical staff. The most acceptable options of measurement of staff work efficiency of this category are formulated.
Practical significance. The research outcomes can be the corpus for designing the assessment method for the professional engagement of the academic staff.
Keywords: publication activity, scientometrical indicators, peer assessment, citation index, impact factor, motivation, scientific and teaching staff.
DOI: 10.17853/ 1994-5639-2016-1-145-158
В настоящее время публикационная активность при оценке эффективности научно-исследовательской деятельности научно-педагогических работников вузов (НПР), научных организаций и даже целых стран является одним из ключевых показателей. Конечно, далеко не каждый «научный опус» содержит серьезное научное открытие, но именно подобные тексты демонстрируют основные результаты исследований в мировых научных сообществах.
Однако проблема заключается в том, что популярность критерия растет, а отечественных практик по его реализации по факту не существует. Безусловно, есть проекты, которые уже запущены в работу (О. И. Москалева, П. Г. Арефьев), но в силу незначительности времени их применения трудно судить о тех возможных результатах, к которым они приведут.
В рамках статьи мы рассмотрим причины, почему публикационная активность становится одним из ключевых параметров оценки научно-исследовательской деятельности НПР, и действительно ли можно считать, что она - надежный показатель этой деятельности.
Понятие «публикационная активность» в России начинает широко применяться с осени 2009 г., поскольку именно тогда Министерство образования и науки РФ утвердило приказ об использовании типовой методики оценки результативности работы научных организаций, выполняющих научно-исследовательские и технологические работы.
Удельный вес этого параметра увеличился после Указа Президента РФ от 07 мая 2012 г. № 599 «О мерах по реализации государственной политики в области образования и науки». В частности, в пункте «г» разд. 1 говорится о том, что важно «обеспечить достижение следующих показателей в области науки: ... увеличение к 2015 г. доли публикаций российских исследователей в общем количестве публикаций в мировых научных журналах, индексируемых в базе данных "Сеть науки" до 2,44%» [8].
Обратимся к реальным цифрам и приведем в качестве примера статистические данные по Томскому политехническому университету (ТПУ). Программа его развития как ведущего исследовательского учреждения предполагает достижение определенных значимых результатов. Укажем только те из них, которые касаются интересующего нас критерия. Со-
гласно программе развития с 2013 по 2020 гг., университет берет на себя обязательства добиться следующих показателей:
• количество статей в базах данных WOS и Scopus, с исключением дублирования, на одного НПР: 2013 г. - 0,6; 2014 г. - 0,8; 2015 г. - 1,1; 2016 г. - 1,5; 2017 г. - 2,2; 2018 г. - 2,9; 2019 г. - 3,6; 2020 г. - 4,7;
• средний показатель цитируемости на одного НПР, рассчитываемый по совокупности статей, учтенных в базах данных WOS и Scopus, с исключением их дублирования: 2013 г. - 2,4; 2014 г. - 2,9; 2015 г. - 3,6; 2016 г. - 4,6; 2017 г. - 5,7; 2018 г. - 7,0; 2019 г. - 8,9; 2020 г. - 11,1 [5].
Таким образом, видно, что в среднем один НПР должен увеличить свою публикационную производительность в 7,8 раза (и это за 7 лет). Среднее количество цитирований на одного НПР должно увеличиться в 4,6 раза (с 2,4 в 2013 г. до 11, 1 в 2020 г.).
Возникает вопрос, как оформлять свою публикацию, чтобы она считалась научной, была привлекательной для других коллег, которые начали бы ее цитировать. В связи с этим наблюдаются попытки систематизации и формализации процесса научной публикации.
Чтобы выяснить, насколько публикационная активность является объективной оценкой эффективности работы НПР, проведем небольшой экскурс в историю. Посмотрим, как формировался феномен индекса цитирования (ИЦ) научной публикации. Еще в XIX в. (1873 г.) Ф. Шепард, американский издатель, разработал и выпустил «Указатель ссылок федерального законодательства», где фактически впервые были описаны формальные условия цитирования. Примерно в то же время усиливается потребность учета цитирования, что приводит к формированию так называемых «индексов цитирования». И. Н. Рыкова пишет: «История создания индексов научного цитирования начинается с 70-х гг. XIX в., когда практически одновременно появляется индекс юридических документов Sheperd's citations (1873 г.) и индекс научных публикаций по медицине Index Medicus (1879 г.) [6]. Последний просуществовал вплоть до 2004 г.
В Соединенных Штатах Америки единые количественные показатели, связанные с оценкой научно-исследовательской деятельности, впервые были опубликованы в 1972 г. Этот отчет получил название «Science Indicators». Китай приступил к проекту по созданию национального индекса научного цитирования «Chinese science citation index» в 1987 г. Но это оказался не единственный проект, в 1988 г. у него появляется альтернатива - конкурентный индекс «China Scientific and Technical Papers and Citations». В 1995 г. Япония приступает к созданию своего национального индекса цитирования «Citation Database for Japanese Papers».
Тот факт, что национальные ИЦ формируются в разное время, уже указывает на проблематичность тотального применения такого рода оценок научно-исследовательской деятельности ученых. Ведь абсолютно очевидно, что те страны, в которых есть больший опыт работы с подобными индексами, имеют преимущество перед теми, чьи индексы стали формироваться недавно. Конечно, с одной стороны, возведение якобы универсальных процедур присвоения ИЦ в ранг обязательных можно рассматривать как конкурентную борьбу между научными школами различных государств, но, с другой стороны, если участники этой борьбы находятся в неравных условиях, правила честной конкуренции нарушаются. Поэтому необходимы способы корреляции национальных индексов между собой [4].
Россия позднее всех своих партнеров приступила к формированию собственного национального ИЦ, хотя первая работа по данному поводу была опубликована еще в СССР в 1969 г. Собственно Российский индекс научного цитирования (РИНЦ) появляется в 2005 г. вместе с созданием научной электронной библиотеки.
Ситуацию с ИЦ можно сравнить с формированием мировых рейтингов университетов: инициаторы создания таких рейтингов задают критерии оценки деятельности высших учебных заведений, следовательно, они изначально обладают заведомо более высокими показателями, чем остальные. Точно так же страны, накопившие больший опыт измерения индексов научного цитирования, могут постоянно совершенствовать и менять параметры оценки, тогда как другие, не имеющие подобного опыта, не успевают учитывать аналогичные критерии в собственных индексах.
Публикационная активность, измеряемая исключительно на основе количественных показателей, является наукометрическим индикатором. Наукометрия изучает статистические показатели структуры и динамики массивов и потоков научной информации [2].
Как правило, для выявления количественного показателя, в нашем случае - ИЦ, применяются три основных метода: статистический, метод подсчета публикаций, метод цитат-индекса. С помощью метода подсчета определяется количество научного продукта (монографий, книг, статей, отчетов и т. д.). Методом цитат-индекса выводится количество ссылок, поскольку они считаются обязательными элементами научных публикаций. Данный метод представлен множеством показателей: импакт-факто-ром, индексом цитирования, индексом Хирша, индексом самоцитирования, индексом оперативности, показателем «старения» статей [14]. Таким образом, в арсенале научной лексики появляются новые термины, свя-
занные непосредственно с количественными измерениями публикационной активности отдельного ученого. Рассмотрим эти понятия.
Импакт-фактор - это наукометрический показатель, представленный в виде дроби, знаменатель которой равен числу статей, опубликованных в конкретном журнале в течение заданного периода (обычно за два года), а числитель выводится из числа литературных ссылок, сделанных за тот же период, на число статей журнала за тот же срок. Предполагается, что чем выше импакт-фактор журнала, тем больше на него ссылаются и тем выше его информационная и научная ценность.
Индекс цитирования научных статей выводится на основе определенной реферативной базы данных научных публикаций: учитываются ссылки, представленные в списках литературы этих публикаций, и ИЦ выражается в виде количественных значений этих ссылок.
Индекс Хирша ^-индекс) - разновидность индекса цитирования. Данный наукометрический показатель был предложен в 2005 г. аргенти-но-американским физиком из Калифорнийского университета в Сан-Диего Х. Хиршем, который пытался найти более адекватный способ фиксации научной продуктивности ученого, чем констатация общего числа цитирований или общей совокупности публикаций: ^индекс - количественная характеристика продуктивности исследователя, в основе которой лежит соотношение между числом публикаций и числом их цитирований.
Индекс самоцитирования рассчитывается из количества ссылок в публикациях журнала на тот же самый журнал к общему числу цитирований, опубликованных в этом издании. Индекс самоцитирования, по замыслу его учредителей, должен свидетельствовать о степени замкнутости и изолированности научной области того или иного исследователя. Установлена даже статистическая закономерность: журналы с высоким индексом самоцитирования - это мало цитируемые издания [15].
Индекс оперативности демонстрирует, насколько быстро становятся известны в научном мире статьи, опубликованные в том или ином журнале. При подсчете импакт-фактора не учитываются публикации текущего года, а индекс оперативности призван восполнить этот пробел [12].
Оценивая деятельность исследователей с помощью наукометрических данных, все же важно обозначенные параметры рассматривать комплексно. Однако по этому поводу существуют серьезные расхождения между разными группами экспертов, причем как в российском, так и в мировом научном сообществе. Приведем некоторые точки зрения, а также обозначим свою позицию.
Есть три варианта мнений о таком критерии оценки научно-исследовательской деятельности НПР, как публикационная активность: пози-
тивное отношение к ее широкому использованию в качестве инструмента определения эффективности научной деятельности; отрицательное восприятие этого критерия; промежуточная позиция, согласно которой допустимо его использование, но лишь как одного из нескольких критериев, характеризующих содержательную составляющую деятельности ученого.
Положительные отзывы о таком способе оценивания научной работы распространены преимущественно среди представителей технических наук, где цитируемость существенно выше, чем в остальных областях знания [7, с. 1076]. Основной аргумент в пользу применения данного критерия - это его универсальность. Действительно, при помощи количественного значения очень удобно ранжировать как исследователей, так и целые организации и даже целые страны на предмет их эффективности. Идея проста: чем больше вас цитируют, тем более востребована ваша публикация, а соответственно - то, чем вы занимаетесь. Однако существует риск отождествления популярности автора и научной значимости исследований, что нередко не одно и то же.
Объективности ради следует признать, что активные сторонники применения публикационной активности в качестве критерия оценки научно-исследовательской деятельности не отрицают его недостатков, но полагают, что они не перекрывают его достоинств. В частности, Б. Е. Штерн пишет: «Индекс цитируемости есть число ссылок на работы данного ученого в мировой научной литературе, которое отражает востребованность его результатов. На Западе оценка по индексу используется, например, в конкурсах на замещение свободных вакансий. Правомерность такого использования индекса не бесспорна и давно обсуждается. С одной стороны, существует много посторонних обстоятельств, влияющих на цитируемость научного работника. С другой стороны, это показатель прозрачный и доступный» [10]. Б. Е. Штерн считает, что такой инструмент оценки способствует развитию науки: «Наука разобщена, есть хорошие ученые, но нет признанного авторитетного слоя, - это своего рода тупик. Индекс цитирования способен стать вразумительным решением такой проблемы» [10].
Отрицательной позиции, согласно статистике, придерживаются преимущественно исследователи из гуманитарной области, хотя с ними солидарны и некоторые представители других наук. Основными аргументами «против» являются также универсализм и простота критерия, на основе которого интерпретируются параметры деятельности ученого. Ведь существует масса нюансов, без которых не совсем понятно, почему то или иное количественное значение выступает ведущим показателем такого рода деятельности. Это и дифференциация наук, и национальная специфика, и особенности оформления статей в разных научных отраслях, и т. д.
Приверженцы данной точки зрения вовсе не утверждают, что применение рассматриваемого критерия бессмысленно. Они полагают, что его можно использовать как библиометрический и наукометрический показатель эффективности НПР, но не в качестве методики оценки деятельности, на основании которой могут делаться заключения о поддержке (или неподдержке) того или иного научного института или исследователя [16]. Так, по мнению Н. В. Мотрошиловой, «само по себе число публикаций и цитатных ссылок абсурдно истолковывать в качестве критериев оценки качества чьего-либо научно-исследовательского труда, его эффективности и результативности. И если сложится такая "практика", при которой с помощью количества, объема публикаций и числа цитирований, подсчитанных на основе американских практик, будут в России отделять "эффективных" исследователей от "непродуктивных" (и, что еще хуже, будут приводить в соответствие с этими якобы точными данными штатное расписание и финансирование научных учреждений), то при таком руководстве российской науке, еще не добитой рыночными реформами, грозит, скорее всего, окончательное разрушение» [3].
Вместе с тем есть среди исследователей и такие, кто резко негативно воспринимает использование наукометрических данных и считает их достаточно нелепыми, так как они характеризует лишь внешнюю активность ученого. В доказательство наглядно демонстрируется, насколько использование индекса Хирша необъективно для оценки качества научной деятельности отдельного ученого и института в целом. П. Ю. Чеботарев утверждает: «Индекс Хирша более всего выгоден для "системных" середняков, без устали пишущих свои работы и обменивающихся ссылками с себе подобными. Для полного успеха не обязательно признание всего мира - достаточно небольшой "мафии"» [9, с. 19].
Кроме того, подчеркивается, что именно наукометрические индикаторы подстегивают определенные спекуляции со стороны ученых, организаций и даже стран, которые начинают работать на количество публикаций, договариваются о взаимном цитировании и т. д., что неизбежно приводит к утрате качества научных исследований, а следовательно, и их эффективности. По словам А. В. Юревича, «погоня ученых за повышением наукометрических показателей негативно сказывается на качестве научной деятельности и на практической реализации ее результатов. В частности, общепризнано, что уровень австралийской науки заметно снизился из-за повального увлечения ученых этой страны наукометрическими индексами» [11]. Однако заметим, что и эффективность экспертной оценки качества, на необходимости которой настаивают ревнители второго подхода к проблеме, также не стопроцентна, поскольку в подобных процедурах часто присутствует субъективный фактор.
Ориентация на поиск компромисса между двумя крайними позициями характерна для представителей разных наук - и технической, и гуманитарной сферы. Эта группа ученых признает как достоинства, так и недостатки критерия публикационной активности, но прагматично и рассудочно заявляет, что необходимо соблюдать уже установленные правила. Другое дело, что осуществление оценки научной деятельности НПР должно быть «не слепым» и формальным, а всесторонним, системным и целостным. Если вы, например, хотите, чтобы ваш университет оказался в рейтинге авторитетных научно-образовательных учреждений, да еще улучшил в нем свои позиции, тогда необходимо повышать наукометрические показатели. Но делать это надо не любой ценой, не в ущерб качеству работы [13].
Именно так рассуждает, в частности, П. А. Арефьев: «Если рассматривать результаты научно-исследовательской деятельности российской науки исключительно в фокусе административных задач, то преобладает скептический настрой: тема активно обсуждается, становится модной (вспоминается, как "замылилась" в свое время тема инноваций), но мало что конкретного и полезного делается. Если же изучать публикационную активность как системную задачу и пытаться ее операционализировать, тогда после сиюминутного сарказма и скепсиса возникают вполне здравые и реалистичные предложения» [1].
Иными словами, третий подход к обсуждаемой проблеме строится на неизбежности принятия наукометрических параметров для оценки научной деятельности, но при этом признается, что не следует игнорировать и ее качество. Стоит согласиться с выводом Е. Д. Свердлова: «Система оценок, учитывающая и индексы цитирования, и импакт-факторы, в совокупности с множеством других индикаторов, вполне себя оправдывает. Комплексность оценки очень важна с учетом того факта, что экспертный анализ часто дает сбои» [7].
Мы склонны согласиться с последним вариантом рассуждений, потому что подобный подход позволяет, во-первых, развивать научную деятельность, а не имитировать ее; во-вторых, не просто скептически критиковать любой количественный способ измерения результатов данной деятельности, фактически консервируя при этом существующее «статус-кво» в науке, но и что-то делать конструктивно.
Наука сегодня представляет собой сплав исследовательского поиска истины и достижения неких коммерческих целей. И та, и другая составляющие направлены на развитие современного общества. Ориентироваться исключительно на нужды потребителя научная деятельность не может: тогда она быстро утратит свое значение. Игнорировать качество
научного исследования по каким-то «околонаучным» причинам нельзя [14]. А определить это качество можно только посредством научной экспертизы, поскольку иного способа оценки научной деятельности, допускающего достаточно высокий уровень целостности и системности измерения, не существует [13].
Однако имеется ряд проблем, связанных с проведением научной экспертизы.
Во-первых, ее организация является весьма дорогостоящей по сравнению с использованием наукометрических критериев.
Во-вторых, как уже говорилось выше, эксперты не всегда беспристрастны.
В-третьих, современная экспертиза осуществляется в условиях огромного информационного потока, что существенно осложняет работу эксперта, который зачастую физически не способен отследить весь объем публикаций в своей области. Вот размышления П. Ю. Чеботарева по этому поводу: «Рост числа публикаций имеет и объективные причины. Ученых становится больше за счет присоединения Китая, других стран Азии, Латинской Америки и др. Проблема в том, что если по некоторому направлению публикуется тысяча работ в год, то в таком случае в этом направлении уже нельзя оставаться экспертом в традиционном смысле слова. Поскольку невозможно уследить за всем потоком информации, многие решают не следить за ним вовсе и продолжают свою работу, ссылаясь на того, на кого привыкли ссылаться» [9, с. 16]. Чуть выше в том же источнике находим: «Все ужасно спешат. Спешит автор: ему надо опубликовать за год как можно больше статей, а желательно - еще и одну-две книжки. Спешит редактор журнала с высоким импакт-фактором: ему нужно справиться с растущим потоком манускриптов и выбрать те, что принесут ссылки за два года (иные "бесполезны"). Спешит рецензент: во-первых, его ждет собственная работа, во-вторых, пока он будет разбираться с одной статьей, его завалят новыми, а не всегда удобно отказывать» [9, с. 14-15].
Кроме того, следует добавить, что процедура научной экспертизы усложняется, если речь идет о комплексном междисциплинарном исследовании, когда ни один эксперт не имеет права решающего голоса. А ситуация порой складывается так, что оценка эксперта из одной области может полностью противоречить оценке эксперта из другой.
В обозначенных условиях остро стоит вопрос об объективности и достоверности научной экспертизы. Но и применение наукометрических критериев далеко не всегда может компенсировать недостатки экспертных оценок, если вообще может. Если еще сюда добавить специфи-
ческие российские особенности управления научной деятельностью, такие, как излишняя формализация процесса, авторитарный стиль управления, недостаточное финансирование и т. д., то картина складывается очень и очень необнадеживающая. Все перечисленное существенно демо-тивирует научную деятельность НПР. Между тем без мотивации научное развитие немыслимо. Требуются существенные изменения в управлении публикационной активностью НПР, затрагивающие как профессиональную, так и мотивационную сферу специалистов этой категории.
В заключение хочется подчеркнуть: публикационная активность может служить одним из критериев оценки эффективности работы вузовских НПР, однако для соблюдения объективности должен рассматриваться полный перечень видов трудовой активности сотрудника высшей школы.
Статья рекомендована к публикации д-ром филос. наук, проф. А. Г. Кисловым
Литература
1. Арефьев П. Г. Публикационная активность: возможности роста за счет деятельности авторов. 2013 [Электрон. ресурс]. Режим доступа: http: / / www. unkniga. ru/vishee/2291 -publikacionnaya-aktivnost-vozmozhnosti-rosta-za-schet-deyatelnosti-avtorov.html.
2. Индикаторы науки: 2013. Статистический сборник // Министерство образования и науки РФ, Федеральная служба государственной статистики, Национальный исследовательский университет «Высшая школа экономики». Москва: Издательский дом НИУ ВШЭ, 2013 [Электрон. ресурс]. Режим доступа: http://www.hse.ru/primarydata/in2013 (дата обращения 17.08.2015).
3. Мотрошилова Н. В. Реальные факторы научно-исследовательского труда и измерения цитирования // Управление большими системами. 2013. Спец. вып. № 44. Наукометрия и экспертиза в управлении наукой. С. 453-475 [Электрон. ресурс]. Режим доступа: http://www.ubs.mtas.ru/upload/library/ UBS4426.pdf (дата обращения 07.01.2015).
4. Писляков В. В. Методы оценки научного знания по показателям цитирования // Социологический журнал [Электрон. ресурс]. 2007. № 1. С. 128140. Режим доступа: http://library.hse.ru/science/papers/bibliometrics.pdf.
5. План мероприятий по реализации программы повышения конкурентоспособности (дорожная карта) Национального исследовательского Томского политехнического университета среди ведущих мировых центров на 20132014 гг. Томск, 2013 [Электрон. ресурс]. Режим доступа: http://tpu.ru/today/programs/viu/ (дата обращения 07.01.2015).
6. Рыкова И. Н. Публикационная активность научных и образовательных организаций в условиях инновационной экономики // Академия в лицах. Сайт Российской Академии естественных наук. Москва, 2013 [Электрон. ресурс]. Режим доступа: http://www.raen.info/press/faces/document4014.html (дата обращения 07.01.2015).
7. Свердлов Е. Д. Миражи цитируемости. Библиометрическая оценка значимости научных публикаций отдельных исследований / / Вестник Российской академии наук. 2006. Т. 76. № 12. С. 1073-1085.
8. Указ Президента Российской Федерации «О мерах по реализации государственной политики в области образования и науки» / / Российская газета. 9 мая 2012. Столичный выпуск. № 5775.
9. Чеботарев П. Ю. Наукометрия: как с ее помощью лечить, а не калечить? // Управление большими системами. 2013. Специальный выпуск 44. Наукометрия и экспертиза в управлении наукой. С. 14-31 [Электрон. ресурс]. Режим доступа: http://www.ubs.mtas.ru/upload/library/UBS4401.pdf (дата обращения 07.01.2015).
10. Штерн Б. Е. Индекс цитируемости российских ученых // Аналитика культурологии. 2009. № 14 [Электрон. ресурс]. Режим доступа: http: / /www.ciberlininka.ru./journal/n/analitika-kulturologii-is-sue_id=832393#issue-list-title (дата обращения 07.01.2015).
11. Юревич А. В. Идти нам на Хирш // Аналитика. Казанский Федеральный Университет. Казань, 2014 [Электрон. ресурс]. Режим доступа: http://www.kpfu.ru/idti-nam-na-hirsh-71001.html (дата обращения 07.01.2015).
12. Abramo G., D'Angelo C. Evaluating research: from informed peer review to bibliometrics. Scientometrics. 2011. Vol. 87(3). P. 499-514.
13. Bornmann L., Daniel H. D. The state of h index research. Is the h index the ideal way to measure research performance? EMBO Reports. 2009. Vol. 10(1). P. 2-6.
14. Bornmann L. The problem of citation impact assessments for recent publication years in institutional evaluations. Journal of Informetrics. 2013. Vol. 7 (3). P. 722-729. Available at: http://dx.doi.org/10.1016/jj.joi.2013.05.002.
15. Elsaie M. L., Kammer J. Impactites: the impact factor myth. Syndrome. Indian journal of dermatology. 2009 P. 83-85. Available at: http://www.ncbi.nlm.nih.gov/ pmc/ articles/ PMC2800883/.
16. Waltman L., Van Eck N. J. The inconsistency of the h-index. Journal of the American Society for Information Science and Technology. 2012. Vol. 63 (2). P. 406-415.
References
1. Arefiev P. G. Publikacionnaja aktivnost': vozmozhnosti rosta za schet de-jatel'nosti avtorov. [Publishing activity: growth potential due to authors' activity]. 2013. Available at: http://www.unkniga.ru/vishee/2291-publikacionnaya-aktiv-nost-vozmozhnosti-rosta-za-schet-deyatelnosti-avtorov.html. (In Russian)
2. Indikatory nauki: 2013. [Science indices: 2013]. Statisticheskij sbornik. [Statistics Digest]. Ministerstvo obrazovanija i nauki RF, Federal'naja sluzhba go-sudarstvennoj statistiki, Nacional'nyj issledovatel'skij universitet «Vysshaja shkola jekonomiki». [Ministry of Education and Science of the Russian Federation, Federal State Statistics Service, National Research University «Higher school of eco-nomics»]. Moscow: Publishing house Nacional'nyj issledovatel'skij universitet «Vysshaja shkola jekonomiki». [National Research University «gher School of Econom-ics». 2013. Available at: http://www.hse.ru/primarydata/in2013. (In Russian)
3. Motroshilova N. V. Real'nye faktory nauchno-issledovatel'skogo truda i izmerenija citirovanija. [Distinct factors of scientific research and citation]. Uprav-lenie bol'shimi sistemami. [Large Systems Management]. Special'nyj vypusk № 44. [Special issue № 44]. Naukometrija i jekspertiza v upravlenii naukoj. [Scientometrics and expert evaluation in science management]. 2013. P. 453-475. Available at: http://www.ubs.mtas.ru/upload/library/UBS4426.pdf. (In Russian)
4. Pislyakov V. V. Metody ocenki nauchnogo znanija po pokazateljam citirovanija. [Scientific knowledge evaluation methods at citation ratio]. Sociologicheskij zhurnal. [Sociological Journal]. 2007. № 1. P. 128-140. Available at: http: / / library. hse.ru/ science / papers / bibliometrics. pdf. (In Russian)
5. Plan meroprijatij po realizacii programmy povyshenija konkurentospo-sobnosti (dorozhnaja karta) Nacional'nogo issledovatel'skogo Tomskogo politehnicheskogo universiteta sredi vedushhih mirovyh centrov na 20132014 gg. Tomsk, 2013. [Competitiveness enhancement program work plan (work flow chart) of National Research Tomsk Polytechnic University for 2013-2014. Tomsk 2013]. Available at: http://tpu.ru/today/programs/viu/. (In Russian)
6. Rikova I. N. Publikacionnaja aktivnost' nauchnyh i obrazovatel'nyh or-ganizacij v uslovijah innovacionnoj jekonomiki. [Publishing activity of scientific and educational institutions in the context of innovation-based economy]. Akad-emija v licah. [Academy by persons]. Sajt Rossijskoj Akademii estestvennyh nauk. [Russian Academy of Natural Sciences webpage]. Moscow, 2013 Available at: http://www.raen.info/press/faces/document4014.html. (In Russian)
7. Sverdlov E. D. Mirazhi citiruemosti. [Citation illusions]. Bibliomet-richeskaja ocenka znachimosti nauchnyh publikacij otdel'nyh issledovanij. [Bibli-ometric value evaluation of particular research scientific publications]. Vestnik Rossijskoj akademii nauk. [Bulletin of the Russian Academy of Sciences]. 2006. V. 76. № 12. P. 1073-1085. (In Russian)
8. Ukaz Prezidenta Rossijskoj Federacii «O merah po realizacii gosu-darstvennoj politiki v oblasti obrazovanija i nauki». [Russian Federation Presidential Decree «Measures aimed at state educational and scientific policy implementation»]. Rossijskaja gazeta. 9 maja 2012. [Russian Gazette. 9 May, 2012]. Stolich-nyj vypusk. [Metropolitan issue]. № 5775. (In Russian)
9. Chebotarev P. Yu. Naukometrija: kak s ee pomoshh'ju lechit', a ne kalechit'? [Scientometrics: how to fix and not to break another?]. Upravlenie bol'shimi sistemami. [Large Systems Management]. Special'nyj vypusk № 44. [Special issue № 44]. Naukometrija i jekspertiza v upravlenii naukoj. [Scientometrics and expert evaluation in science management]. 2013. P. 14-31. Available at: http://www.ubs.mtas.ru/upload/library/UBS4401.pdf. (In Russian)
10. Shtern B. E. Indeks citiruemosti rossijskih uchenyh. [Citation index of Russian scientists]. Analitika kul'turologii. [Cultural Studies Analytics]. 2009. № 14. Available at: http://www.ciberlininka.ru./journal/n/analitika-kulturologii-issue_id=832393#issue-list-title. (In Russian)
11. Yurevitch A. Idti nam na Hirsh. [Reach Hirsch]. Analitika. [Analytics]. Kazanskij Federal'nyj Universitet. [Kazan Federal University]. Kazan, 2014. Available at: http://www.kpfu.ru/idti-nam-na-hirsh-71001.html. (In Russian)
12. Abramo G., D'Angelo C. Evaluating research: from informed peer review to bibliometrics. Scientometrics. 2011. Vol. 87 (3). P. 499-514. (Translated from English)
13. Bornmann L., Daniel H. D. The state of h index research. Is the h index the ideal way to measure research performance? EMBO Reports. 2009. Vol. 10 (1). P. 2-6. (Translated from English)
14. Bornmann L. The problem of citation impact assessments for recent publication years in institutional evaluations. Journal of Informetrics. 2013. Vol. 7 (3). P. 722-729. Available at: http://dx.doi.org/10.1016/jooi.2013.05.002. (Translated from English)
15. Elsaie M. L., Kammer J. Impactites: the impact factor myth. Syndrome. Indian journal of dermatology. 2009. P. 83-85. Available at: http:// www.ncbi.nlm.nih.gov/pmc/articles/PMC2800883/.(Translated from English)
16. Waltman L., Van Eck N. J. The inconsistency of the h-index. Journal of the American Society for Information Science and Technology. 2012. Vol. 63 (2). P. 406-415. (Translated from English)
158
06pa3oeauue u HayKa. 2016. № 1 (130)