Научная статья на тему 'Об оценке эффективности научных исследований'

Об оценке эффективности научных исследований Текст научной статьи по специальности «Экономика и бизнес»

CC BY
3052
445
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Об оценке эффективности научных исследований»

Ю.В. Грановский

ОБ ОЦЕНКЕ ЭФФЕКТИВНОСТИ НАУЧНЫХ ИССЛЕДОВАНИЙ

Проблема оценки эффективности научных исследований является одной из центральных проблем науковедения. Она актуальна для разных стран, научных коллективов, отдельных научных сотрудников. В последнем случае (индивидуальные достижения) она привлекла внимание после появления приказа Минобрнауки, Минздрав-соцразвития России и Российской академии наук № 273/745/68 от 3 ноября 2006 г. «Об утверждении видов, порядка и условий применения стимулирующих выплат, обеспечивающих повышение результативности деятельности научных работников и руководителей научных учреждений и научных работников научных центров Российской академии наук». Из видов выплат выделены надбавки стимулирующего характера: по индивидуальным показателям результативности научной деятельности (ПРНД); за выполнение исследований по результатам конкурсов в рамках целевых программ РАН; руководителям научных учреждений РАН за высокие показатели результативности учреждений. Предусмотрены премиальные выплаты научным работникам и руководителям научных учреждений и научным работникам научных центров РАН (Приложение № 1 приказа).

С позиций науковедения интересен пункт II Приложения № 2 «Определение индивидуальных показателей результативности научной деятельности научных работников (ПРНД), рекомендуемый порядок их учета». Отмечено, что ПРНД научных работников является суммой баллов, определяемых в соответствии с нижеприведенной методикой. Баллы начисляются за публикации в рецензируемых периодических журналах, монографии и учебники, участие в конференциях, разработку научно-образовательных курсов, патенты, руководство соискателями ученой степени и дипломниками,

цитирование трудов. Для примера в Приложении № 1 настоящей статьи приведены разделы методики по начислению баллов за публикации в рецензируемых периодических журналах (п. 2.1.1.) и цитирование трудов (п. 2.1.7.) [2].

Критические замечания в адрес методики появились еще до появления приказа. Так, например, в статье сотрудника ВИНИТИ В. А. Маркусовой отмечено, что система раздачи баллов формализована и малопонятна [11]. В частности, присуждение самого высокого балла за публикацию в рецензируемом журнале практически аннулирует значение доклада на международной конференции. Сомнительной является процедура оценки вклада соавторов при наличии современной тенденции роста соавторства в научных публикациях. Не учитываются дисциплинарная ориентированность исследований, количество полученных грантов и научных премий. Временной интервал оценки научной деятельности должен составлять не два года, а пять лет. Обоснованную тревогу вызывает получение сведений о цитируемости. В нашей стране совсем мало специалистов, занимающихся оценкой цитируемости отдельных исследователей и хорошо знающих методику работы с Указателем научных ссылок (Science Citation Index). Поэтому высока вероятность появления ошибок при работе с соответствующими базами данных1.

К проблеме оценки эффективности научных исследований отечественные науковеды обратились с первых шагов этой области исследований в нашей стране, еще в 1960 г. Так, например, в монографии создателя отечественной наукометрической школы профессора МГУ В. В. Налимова «Наукометрия» (совместно с З.М. Мульченко) [13] представлен раздел «Оценка эффективности труда ученого и научного коллектива» (глава V, с. 116-126). Там отмечено, что, по молчаливому согласию ученых, критерием эффективности труда научного работника является суммарное число публикаций. Из истории науки известно, что талантливые и долго

1 К работе [11] можно сделать два критических замечания. Нелогично сравнивать по средней цитируемости такие страны, как Гвинея-Бисау, Бермуды, США и др. Здесь целесообразна предварительная классификация стран по ряду обшдх признаков. Другое замечание относится к оценке положения РАН по показателям в базах данных «Национальные показатели науки» и «Основные показатели науки и техники» за 1995-2005 гг. Российская академия наук заняла первое место среди ведуших организаций по количеству опубликованных статей в области физики, химии, технических наук и наук о Земле. Интереснее получить распределение отдельных организаций РАН по величине данного индикатора.

живущие ученые обычно публиковали много работ. Но в то же время оценка по суммарному числу публикаций приносит большой вред науке, так как научные журналы засоряются посредственными и незрелыми публикациями. В информационной модели науки мерой полезности публикации служит ее цитируемость. Если работу цитируют, то она оказывает влияние на развитие науки как информационного процесса. Лучше оценивать цитируемость не отдельной работы, а всех публикаций, связанных с анализируемым научным направлением.

Не обошел вниманием эту проблему и создатель Центра исследования научно-технического потенциала и истории науки на Украине Г.М. Добров. В свою книгу по науковедению [6] он включил раздел «Эффективность научного труда». Г.М. Добров считал, что проблема оценки эффективности научно-исследовательского труда еще далека от своего удовлетворительного решения. Прогресс достигнут лишь в части экономического анализа прикладных научных исследований и опытно-конструкторских разработок. По его мнению, набор конкретных индикаторов при измерении эффективности научного труда мог быть расширен или сокращен в зависимости от специфики области деятельности и направленности проблематики научно-исследовательской организации. Отдельные индикаторы не обладают свойством аддитивности, т.е. суммированием не определяется один интегральный индикатор. В этом деле перспективны методы коллективной экспертной оценки.

В подготовленной нами в середине 70-х годов XX в. библиографии отечественных работ по наукометрии в раздел «Методы оценки эффективности исследований» попали 8 монографий и сборников, 58 статей и тезисов докладов [15]. Среди них имеются работы по применению балльных шкал. Например, в Московском научно-исследовательском институте туберкулеза была предложена такая шкала для оценки значимости научных работ.

1. Класс научной информации Баллы

1.1. Описание отдельных, элементарных фактов 1

1.2. Элементарный анализ связи между фактами, разработка классификации, аналитический обзор 2

1.3. Разработка способа, алгоритма, устройства 3

1.4. Разработка проблемы, частной теории 4

1.5. Разработка многоаспектной закономерности, теории, закона 5

2. Степень новизны полученной информации

2.1. Нет ничего нового 1

2.2. Подтверждены или поставлены под сомнение известные представления, нуждающиеся в проверке 10

2.3. Впервые найдена связь между известными фактами 100

2.4. По-новому или впервые объяснены феномен, явле- 1000 ние. Произведено существенное, принципиальное усовершенствование

2.5. Открыты принципиально новые факты 10 000

Произведение баллов из пунктов 1 и 2 составляет условную характеристику ценности научной работы. По этим шкалам теория относительности получает 50 000 баллов, обзор начинающего аспиранта - 1 балл. Процедура оценки включает два этапа. На первом этапе оценка работы проводится самим автором, на втором этапе -экспертной комиссией [16].

Больше различных шкал было применено в Институте органической химии АН СССР. При установлении балльной оценки значимости различных видов научной продукции использовался метод экспертных оценок. Были введены две реперные точки: 1 балл - для статьи, 100 баллов - для открытия, причем учитывались: краткие сообщения, статьи, обзоры, монографии; доклады на международных, всесоюзных и прочих конференциях; защита кандидатских и докторских диссертаций; участие в научном конкурсе института; разработка новых установок и приборов; авторские свидетельства, патенты и лицензии; зарегистрированные открытия; участие во внедрении с фиксированным экономическим эффектом; участие в хозяйственном договоре и договоре о сотрудничестве; государственные премии и дипломы; именные медали и премии Академии наук; работа в редакции научного журнала; перевод научной монографии; научное редактирование книг; работа в научных комиссиях. Например, краткое сообщение получало 0,95 балла, статья -1 балл, обзор - 6,3 балла, монография объемом до 3 п. л. - 11 баллов, до 10 п. л. - 14 баллов, свыше 10 п. л. - 35 баллов.

В Физико-химическом институте им. Л.Я. Карпова балльная оценка деятельности научных сотрудников определялась личными впечатлениями членов экспертной комиссии об эффективности их работы без использования множества балльных шкал [1].

В одной из научно-исследовательских организаций проводилась оценка эффективности работ при использовании четырех-, семи-и десятибалльной шкал. Для первых двух шкал у экспертов была отмечена тенденция избегать крайних оценок, особенно низких, что уменьшало диапазон шкалы. Увеличение числа градаций шкалы до десяти не вызвало у экспертов затруднений и позволило расширить диапазон используемых оценок [17].

Нельзя сказать, что недостатки балльных систем оценки эффективности научной деятельности тогда оставались без критических замечаний. Так, например, в работе [21] отмечалось, что оценка эффективности проводится на основе недостаточно дифференцированных измерительных критериев. Ориентация на оценку индивидуальной работы оставляет без достаточного внимания оценку коллективной деятельности. Такая система оценки часто вынуждает научных работников публиковать как можно больше результатов, чтобы «набрать баллы». Это тормозит развитие коллективной творческой рабочей атмосферы. В работе [19] сделан вывод - все варианты формализованных балльных оценок основаны на произвольном допущении: результаты научного труда, идентичные по публикационной форме (например, статьи), по научной значимости равноценны. Каждому виду результата присваивается определенный балл, определяемый формой его «упаковки», а не научной или практической ценностью. Если научный результат оценивается по нескольким показателям, то каждому из них присваивается определенный «вес». Далее суммируются произведения баллов на соответствующий вес. Таким образом, применяется некорректная линейная зависимость учета значимости результатов различного вида. Балльные системы «срезают» выдающиеся достижения, деформируя тем самым мотивацию исследователей, что часто приводит к снижению эффективности научных исследований.

Обстоятельный анализ балльных систем приведен в монографии С.Г. Кара-Мурзы [7, глава VII «О формализованной оценке исследований» с. 170-200]. Отметим ряд его критических замечаний.

1. Балльные оценки используют закрытые стабильные шкалы для субъективно выбранных критериев. Они обладают существенными неустранимыми пороками, что делает их менее конкурентоспособными по сравнению с применяемыми на практике обычными экспертными оценками.

2. Совершенно очевидно, что статьи в различных журналах на одну и ту же тему несопоставимы по количеству и качеству ин-

формации. В балльных методиках не делается качественная оценка полученных результатов. Оценка качества требует знаний, умения и немалых затрат труда.

3. Остаются неясными вопросы выделения индивидуальных вкладов в коллективных достижениях. Неправомерные и несправедливые индивидуальные оценки существенно ухудшают психологический климат в коллективе.

4. Многие погрешности балльных оценок основаны на неправомерном расчленении единой целостной системы, тем более что неизвестно, на какие элементы надо ее расчленять. Часто из рассмотрения выпадает ряд функций научных сотрудников, выполняемых в интересах всего научного коллектива. К такой функции, например, относится коммуникативная функция, состоящая в получении и распространении новой важной информации. Еще одна функция связана с преодолением «тормозящего поля», возникающего при появлении радикальных идей. Далеко не каждый «генератор идей» способен преодолеть сопротивление противников нововведений. Важнейшую роль в научных коллективах играют исследователи, продуктивные в выполнении научной критики. Эти и другие функции в формализованных системах оценки не учитываются. При расчленении системы пропадает кооперативный эффект, возникающий при взаимодействии элементов, а он может быть довольно большим. Внешняя простота, возможность использования ЭВМ придают балльным методикам только мнимую объективность. Они плохо учитывают значимые и выдающиеся достижения.

С.Г. Кара-Мурза считал, что наиболее весомыми оказываются критерии, непосредственно связанные с формальным статусом человека в глазах администрации. Этот вывод противоречит цели многих авторов балльных методик - создать средство против субъективизма администрации, злоупотреблений и несправедливости. Наоборот, балльные системы реально увеличивают власть администрации научно-исследовательских организаций. Негативные последствия внедрения балльных систем оценки эффективности научных работников в должной мере еще не проанализированы.

Из известных нам работ зарубежный опыт оценки эффективности научных исследований рассмотрен в работах Р.Г. Касимовой [8, 9]. Там нет упоминания о балльных методиках оценки эффективности научных исследований. В передовых странах используются методики, включающие объективные (формализованные, количественные) и субъективные индикаторы. К последним, например,

относятся экспертные оценки (peer review). Из объективных индикаторов широко используются библиометрические показатели Американского института научной информации (ИНИ). Библио-метрическая информация вместе с бумажными изданиями имеется и в электронной форме.

В оценке эффективности научных сотрудников и научных организаций используется комплекс объективных индикаторов. Вот как об этом говорится в работе [8]: «Именно комбинации статистик применяются при определении рейтинга отдельного ученого, при ранжировании университетов, определении исследовательского фронта в той или иной дисциплине, установлении сальдо баланса "научного обмена" между странами, решении вопроса о принятии на исследовательскую или преподавательскую работу, о выделении гранта федерального научного фонда, о начале финансирования исследовательского проекта транснациональной корпорацией и т.п.». (с. 133, курсив наш. - Авт.). Учитываются и другие индикаторы: премии, звания, членство в академиях, экспертных советах, редколлегиях журналов, заказанные доклады для престижных конференций и пр. Научная продуктивность оценивается, например, общим количеством публикаций, количеством публикаций за определенный период времени, количеством статей в журналах, регистрируемых в ИНИ, и т.д. Научный эффект определяется по общему числу цитирований, числу ссылок в среднем на опубликованную работу, среднему числу ссылок на одну процитированную статью и т. п.

Наиболее распространенным методом оценки эффективности научных исследований является содержательная экспертиза, опирающаяся на наукометрические индикаторы (курсив наш. - Авт.), полученные из баз данных (БД) - прежде всего БД ИНИ. Здесь еще рекомендовано интервьюирование оцениваемых научных сотрудников, ознакомление их с результатами экспертизы, рассмотрение и анализ апелляций в случае несогласия исследователей с результатами оценки.

При сравнительном анализе рассматриваются научные сотрудники одной и той же дисциплины. В ряде случаев могут быть полезны опросы исследователей, например, о вкладе отдельных соавторов в публикации (общее руководство работой, постановка задачи и определение общей тематики исследований, поиск литературы, проведение эксперимента, обработка результатов и т. д.).

Наукометрические показатели дополняются информацией по получению престижных премий, званий, членства в академиях, экспертных советах, редколлегиях журналов, заказанным докладам на широких конференциях. Значения этих индикаторов обычно коррелируют со статистиками ИНИ.

Библиометрические индикаторы лучше всего использовать при анализе фундаментальных исследований. В прикладных работах необходимо применять еще такие индикаторы, как количество патентов, экономический эффект и т.п. Другие критерии целесообразно иметь и при выполнении ряда государственных программ: по оборонным исследованиям, продовольственной безопасности и пр. В высших учебных заведениях к индикаторам добавляются руководство студентами и аспирантами, работа в учебных комиссиях разного уровня и т.п.

Как показали зарубежные исследования, содержательный анализ в ряде случаев может приводить и к неверным заключениям. Так, например, некоторые работы, ставшие позже классическими, первоначально имели негативную экспертную оценку. Положительный и отрицательный опыт оценки эффективности научных исследований тщательно анализируется в США, Великобритании и других странах. Результаты такого анализа учитываются в странах, позже вступивших на путь комплексного использования наукометрических индикаторов, в частности в странах Восточной Европы. Именно в этих странах за последние годы начался рост продуктивности и цитируемости научных статей.

Следует учитывать, что получение и интерпретация статистик ИНИ требует определенной квалификации. В частности, при получении данных для общественно-гуманитарных областей знания недостаточно пользоваться Science Citation Index (SCI). К этому источнику информации следует добавлять сведения из Social Science Citation Index, Art and Humanities Citation Index [8, 9].

В последние десятилетия большое внимание к развитию науки с использованием представлений науковедения и наукометрии уделяется в Китае. Так как многие китайские журналы не учитываются в SCI, в конце прошлого века был создан Указатель цитированной литературы Китая (Chinese Science Citation Database, CSCD). Специальные исследования показали, что ведущие университеты и научно-исследовательские организации публикуют результаты своих исследований в журналах, охватываемых SCI и CSCD. Затем в Центре по изучению науки и техники Академии наук Китая на основе баз

данных ИНИ и CSCD была создана база данных «Наукометрические показатели Китая» (Chinese Scientometrics Indicators, CSI). Тем самым появилась возможность оценивать эффективность исследований научных коллективов с учетом международного опыта. Ключевой момент: несколько сотен научных лабораторий, поддерживаемых государством, получают ассигнования только после согласия руководства на оценку деятельности. Учитываются количество статей, количество ссылок, предметное распределение статей, количество авторов и пр. При наличии созданных баз данных получение этой информации не вызывает затруднений [10].

Наша критика балльных систем оценки эффективности научных исследований ведется с позиций науковедения. Здесь отношения между науковедением и методами оценки напоминают отношения между теоретической и экспериментальной физикой. Физические теории не дают экспериментаторам однозначных рекомендаций, но создают систему взглядов, позволяющую выдвигать новые гипотезы. Проф. В.В. Налимов, которому принадлежит эта мысль, приводил такой пример. Нужно получить фотокатод, обладающий новым свойством - резко выраженной селективностью в некоторой области спектра. Квантовая механика непосредственно не дает рецепта, как получить такой катод. Но метод получения катода может возникнуть только на основе той системы взглядов, которая задается теорией [14].

И в науковедении нет готовых рецептов по оценке эффективности научных исследований. Каждый раз приходится проводить «эксперимент» на базе концепции науковедения. Игнорирование этих концепций и приводит к таким неудачным рекомендациям, как балльные оценки эффективности.

Ряд концептуальных положений науковедения и наукометрии рассмотрен в работах С. Д. Хайтуна [22, 23]. Одним из них является представление о латентных переменных и их индикаторах. Латента - это непосредственно не наблюдаемая, скрытая от измерения переменная. Ее значения задаются величинами, связанными с ней вероятностным образом. Например, латента - научная продуктивность исследователя, определяется такими индикаторами, как число статей в журналах, монографиями, тезисами докладов и т.д. Значения индикаторов косвенно характеризуют значения латентных переменных. Свойства индикаторов должны воспроизводить свойства латенты. Другое положение - человек в наукометрических измерениях выступает в роли «прибора», т.е. значения инди-

каторов тем или иным образом генерируются человеком. В работе [22] приведен такой пример. Если эксперт в баллах оценивает научный вклад какого-либо исследователя, то его значение будет разным в зависимости от того, на какой выборке оцениваемых научных сотрудников производится измерение. Один вариант - выборка состоит из «средних» ученых коллектива, в котором работают оцениваемый исследователь и эксперт. Другой вариант - выборка включает выдающихся ученых прошлого и современности. Естественно, во втором варианте эксперт выставит меньший балл. Поэтому в наукометрических измерениях, где человек выступает в роли «прибора», адаптация к выборке принципиально неустранима.

Еще одно важное положение наукометрии связано с неаддитивностью эмпирических количественных переменных, что затрудняет применение математических методов. Неаддитивности можно избежать, если использовать для индикаторов «естественные» шкалы, когда процедура измерения не накладывает ограничений на значения индикатора. Например, пятибалльная шкала «неестественная», так как процедура устанавливает цифру 5 как верхний порог. Отсюда следует рекомендация - в наукометрии следует отказаться от закрытых шкал.

Здесь не ставилась задача подробного рассмотрения теоретических положений наукометрии. Общий вывод - их следует учитывать при решении проблемы оценки эффективности научных исследований.

Еще один вопрос - использование полученных оценок эффективности научных исследований администрацией научно-исследовательских организаций. Известны нередкие случаи отрицательной корреляции между оценками эффективности исследователей и их научными успехами. Низкие оценки определяются желанием администрации по той или иной причине избавиться от некоторых оцениваемых ученых. В американской науке смена места работы является положительным и обычным делом, позволяющим расширить кругозор и повысить квалификацию исследователя. В отечественной науке «развод» затруднен по разным причинам (прописка, жилье и пр.). Но проблема, по нашему мнению, все же поддается решению.

Известно, что во многих зарубежных промышленных компаниях вопросами оценки персонала занимаются специализированные организации - консультационные фирмы и оценочные центры. Средние затраты на оценку работы одного сотрудника примерно

равны 50% от его месячной заработной платы. При этом вырабатываются рекомендации, позволяющие оптимальным образом использовать деловые качества сотрудника. Качественно иной уровень подбора кадров оправдывает затраты [3].

Такой же подход может быть рекомендован для крупных научно-исследовательских организаций. Там могут быть созданы подразделения, проводящие на основе методов науковедения оценку эффективности исследований научных сотрудников и вырабатывающих рекомендации по их оптимальному использованию. Естественно, создание подобных подразделений потребует дополнительных затрат. Но это позволит избежать ошибок, связанных с применением неоправдавших надежд методов типа балльных шкал.

Опыт оценки персонала получил развитие в направлении, названном в работе [20] альтернативным менеджментом (АМ). Там отмечено, именно АМ способствовал процессам революционного преобразования экономики Японии и вывел эту страну в число мировых лидеров. Здесь одним из основных положений является формула «98/2» известного специалиста по вопросам качества Де-минга. Она показывает, что 98% проблем в организации зависит не от людей, а от системы - среды, в которой находятся люди, подстраивающие под нее свое поведение. Ясно, что на первый план выходят вопросы совершенствования системы, а не поиск виновных сотрудников. Поэтому АМ предлагает отказаться от идеи наказаний, демонстрирующих власть и унижающих людей, что негативным образом действует на развитие организации. Как показал опыт, отказ от наказаний приводит к положительному изменению психологического климата в коллективах и к иному уровню отношений. В отличие от традиционного менеджмента, АМ признает право сотрудников на ошибки, рассматривая их как явления, из которых еще не извлечена польза.

Логическое развитие отказа от наказаний приводит к идее пожизненного найма. Это обязательство работодателя не увольнять сотрудников, но и не препятствовать уходу, если работа перестала их устраивать. Пожизненный найм повышает заинтересованность сотрудников в делах организации и в ее процветании. На новом уровне проводятся мероприятия по подбору кадров (минимизация затрат на обучение и перевоспитание персонала). Во многих японских компаниях подбор новых сотрудников проводится среди студентов университетов задолго до завершения учебы: собираются отзывы преподавателей, поручается выполнение отдельных работ

и т.д. Новые сотрудники пробуют свои силы во всех подразделениях корпорации. Тем самым руководство лучше узнает наклонности и способности новичков, предлагает им работу, соответствующую их желаниям. Рынок труда рассматривается в АМ как способ принуждения людей к неинтересному труду.

Одна из главных задач АМ - развитие творческого потенциала сотрудников и создание условий для его эффективной реализации. Один из способов решения данной задачи состоит в организации командной деятельности. Команда способна вырабатывать такие решения, на которые трудно выйти отдельному участнику. Здесь проявляется синергетический эффект, многократно повышающий интеллектуальный потенциал исследователей [20].

По нашему мнению, способы оценки эффективности научных исследований целесообразно сочетать с применением идей АМ. Но здесь возникают дополнительные трудности. Само по себе применение методов науковедения в нашей стране идет с большим трудом [4, 5]. И это несмотря на опыт, накопленный мировой и отечественной наукой [12, 18]. Не меньшее сопротивление получит и АМ. Вероятно, один из основных барьеров на этом пути для отечественных администраторов - как отказаться от системы наказаний?

Список литерауры

1. Белиловский Е.Л. Правовые проблемы оценки деятельности научных работников // Оценка деятельности научных и инженерно-технических работников и улучшение их использования. Тезисы докладов симпозиума. / Под ред. Зворыкина А. А., Кисселя Е.И. - М.: Институт социологических исследований АН СССР, 1973. - С. 38-42.

2. Волчкова Н. Вас вычислят! Ученые скоро узнают, кто чего стоит // Поиск. -2007. - 12 янв.

3. Грановский Ю.В. Наукометрический анализ информационных потоков в химии. - М.: Наука, 1980. - 141 с.

4. Грановский Ю. В. Трудности развития науковедения в России // Науковедение. - 2003. - № 2. - С. 209-214.

5. Грановский Ю.В. Что ожидает отечественных науковедов? // Науковедение и новые тенденции развития российской науки / Под ред. Аллахвердяна А.Г., Семеновой Н.Н., Юревича А.В. - М.: Логос, 2005. - С. 91-104.

6. Добров Г.М. Наука о науке. Введение в общее науковедение. - Киев: Наукова Думка, 1970. - 320 с.

7. Кара-Мурза С.Г. Проблемы организации научных исследований. - М.: Наука, 1981. - 205 с.

8. Касимова Р.Г. Наукометрические показатели как один из индикаторов качества научной деятельности // Науковедение. - 2002. - № 1. - С. 132-143.

9. Касимова Р.Г. Библиометрические базы данных как инструмент научного менеджмента // Науковедение. - 2002. - № 4. - С. 187-194.

10. Маркусова В. А. Нюансы - в иероглифах. Как оценить вклад китайской науки в мировую? // Поиск. - 2005. - 17 июня.

11. Маркусова В. А. Оцените по достоинству (Зачем России догонять Бермуды?) // Поиск. - 2006. - 18 авг.

12. Миндели Л.Э., Хромов Г.С. Научно-технический потенциал России. Часть I. -М.: ЦИСН, 2003. - 238 с.; Часть II. - М.: ЦИСН, 2003. - 222 с.

13. Налимов В.В., Мульченко З.М. Наукометрия. Изучение развития науки как информационного процесса. - М.: Наука, 1969. - 192 с.

14. Налимов В.В. Теория эксперимента. - М: Наука, 1971. - 208 с.

15. Наукометрия. Библиография отечественных работ, № 3-5. Составители Т.И. Мурашова, Т.Н. Любимова, М.Н. Куракина, Е.П. Куропаткина / Под ред. Грановского Ю.В. - М.: Библиотека по естественным наукам, Библиотека технической литературы АН СССР, 1976. - 129 с.

16. Несветайлов Г. А. О методах оценки деятельности академического института. Новая техника и оценка эффективности научных исследований / Под ред. Жуковской З.И., Несветайлова Г.А. - Минск: Институт тепло- и массообмена АН БССР, 1974. - С. 84-96.

17. Панкова Л.А., Шнейдерман М.В. Вопросы получения коллективной экспертной оценки деятельности научных работников // Оценка деятельности научных и инженерно-технических работников и улучшение их использования. Тезисы докладов симпозиума / Под ред. Зворыкина А. А., Кисселя Е.И. - М.: Институт социологических исследований АН СССР, 1973. - С. 112-114.

18. Семенов Е.В. Первый российский науковедческий журнал // Науковедение. -1999. - № 1. - С. 5-6.

19. Татаринов Ю.Б. Проблемы оценки результатов научной деятельности. Социальная динамика современной науки. - М.: Наука, 1995. - С. 71-105.

20. Фидельман Г.Н., Дедиков С.В., Адлер Ю.П. Альтернативный менеджмент: Путь к глобальной конкурентоспособности. - М.: Альпина Бизнес Бук, 2005. - 186 с.

21. Фосс Р. Оценка творческой активности ученого и ее роль в деятельности научных коллективов. Проблемы деятельности ученого и научных коллективов. Выпуск VI. (Материалы к III Всесоюзной конференции). - М.; Л.: ИИЕТ АН СССР, 1977. - С. 108-115.

22. Хайтун С.Д. Проблемы количественного анализа науки. - М.: Наука, 1989. - 280 с.

23. Хайтун С.Д. Мои идеи. - М.: АГАР, 1998. - 240 с.

ПРИЛОЖЕНИЕ № 1 (выдержки)

2.1.1. Начисление баллов за публикации в рецензируемых периодических журналах.

Начисление баллов за публикации в рецензируемых периодических журналах производится на основании международных индексов цитирования периодических журналов в текущем году (далее -индексы). За публикацию статьи в рецензируемом российском или зарубежном журнале, имеющем индекс не менее 0,2, устанавливается балл, равный индексу журнала, умноженному на 45 или 30 соответственно. За публикацию статьи в журнале, не имеющем индекса или с индексом менее 0,2, устанавливается балл 6. Публикации в российских журналах учитываются, если журнал включен в Перечень ведущих рецензируемых научных журналов и изданий, выпускаемых в Российской Федерации, в которых должны быть опубликованы основные научные результаты диссертаций на соискание ученой степени доктора наук. В институтах общественно-научного профиля по решению ученого совета к статьям в журналах, не имеющих индекса, могут быть приравнены рецензируемые статьи в сборниках и продолжающихся (серийных) изданиях Российской академии наук. В институтах, специализирующихся в области наук о Земле, по решению ученого совета к статьям в журналах, не имеющих индекса, могут быть приравнены карты. Для статей, написанных в соавторстве, балл за публикацию делится на количество авторов публикаций, доли, меньшие 10 процентов, округляются до 10 процентов. Процедура технического учета индекса в расчете индивидуальных ПРНД разрабатывается Российской академией наук по согласованию с Минобрнауки России.

2.1.7. Начисление баллов за цитирование.

В 2006-2007 гг. ученый совет организации вправе принять решение о порядке учета в индивидуальном ПРНД международного индекса цитирования научных работников при установлении надбавок стимулирующего характера и использовать для этого до 25 процентов общего объема Фонда. С 2008 г. при определении индивидуальных ПНРД научных работников должен учитываться их российский индекс цитирования. Правила определения и учета российского индекса цитирования научных работников разрабатываются Российской академией наук по согласованию с Минобрнауки России.

i Надоели баннеры? Вы всегда можете отключить рекламу.