Научная статья на тему 'Померяемся «Хиршами»? (размышления о наукометрии)'

Померяемся «Хиршами»? (размышления о наукометрии) Текст научной статьи по специальности «Экономика и бизнес»

CC BY
412
99
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
УПРАВЛЕНИЕ НАУКОЙ / НАУКОМЕТРИЯ / ОЦЕНКА РЕЗУЛЬТАТИВНОСТИ НАУЧНОЙ ДЕЯТЕЛЬНОСТИ / ИНДЕКС ХИРША / SCIENCE GOVERNANCE / SCIENTOMETRICS / EVALUATION OF SCIENTIFIC ACTIVITY / H8INDEX

Аннотация научной статьи по экономике и бизнесу, автор научной работы — Новиков Дмитрий Александрович

В полемической форме анализируются типовые заблуждения и мифы (бытующие как среди чиновников от науки, так и зачастую среди самих ученых) относительно возможности и целесообразности использования формальных библиометрических показателей для оценки результативности индивидуальной и коллективной научной деятельности.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

COMPETE BY «HIRCH’S»?

The paper analyzes in a polemical form the typical aberrations and myths (common as for officials from science governance, and, often, for the scientists) about the possibility and expediency of using formal bibliometric indicators to assess the working efficiency of individual and collective research activities.

Текст научной работы на тему «Померяемся «Хиршами»? (размышления о наукометрии)»

г

ПРАКТИКА МОДЕРНИЗАЦИИ ОБРАЗОВАНИЯ

)

ПОМЕРЯЕМСЯ «ХИРШАМИ»? (Размышления о наукометрии)

НОВИКОВ Дмитрий Александрович - д-р техн. наук, профессор, чл.-корр. РАН, зам. директора Института проблем управления РАН. E-mail: [email protected]

Аннотация. В полемической форме анализируются типовые заблуждения и мифы (бытующие как среди чиновников от науки, так и зачастую среди самих ученых) относительно возможности и целесообразности использования формальных библиометрических показателей для оценки результативности индивидуальной и коллективной научной деятельности.

Ключевые слова: управление наукой, наукометрия, оценка результативности научной деятельности, индекс Хирша

Десять лет назад (в 2005 г.) Х. Хирш [1] предложил наукометрический показатель (названный впоследствии его именем - т.н. индекс Хирша), интегрирующий информацию о числе публикаций ученого и числе цитирований этих публикаций. Почему индекс Хирша (на научном сленге - как собирательный образ - «хирш ») стал так популярен? Казалось бы, классическим работам Ю. Гарфилда [2] и В.В. Налимова [3] уже десятки лет, за это время вышли тысячи публикаций их последователей, однако массовое сумасшествие по применению (по делу и не по делу) библиометрических показателей 1 началось в России лишь несколько лет назад. Почему? Для ответа на этот вопрос зададимся рядом подвопросов 1 2.

Кому это надо? Казалось бы, ответ прост: развитие информационно-коммуникационных технологий обеспечило доступность автоматизированного сбора и анализа библиометрических показателей (на основе соответствующих электронных баз данных) и, как следствие, возможность автоматического расчета соответствующих

индексов. Востребованность же их объясняется, с одной стороны, желанием самих ученых вывести «магическуюцифирь», сводящую в одном или нескольких числах все таланты и заслуги соратников по цеху, а с другой - стремлением администраторов от науки получить объективные показатели ценности результатов деятельности ученого, научной или образовательной организации или научного направления. Но не все так просто, и подобный ответ, наверное, может удовлетворить обывателя, но не научного или научно-педагогического работника.

Основным результатом деятельности ученого являются научные публикации, в первую очередь - статьи в научных журналах. Журналы, даже посвященные одной и той же предметной области, различаются и по тематике, и по уровню требований, предъявляемых к авторам, и по множеству других параметров. Любая группа ученых, работающих по близкой тематике, быстро придет к единому мнению о том, какой из журналов более «солиден», а какой является более слабым. Более того, то, в каком

1 Среди них - число публикаций ученого, число цитирований его публикаций, индекс Хирша и т.п. в различных базах данных (РИНЦ, Web of Science, Scopus, Google Scholar и др.).

2 Настоящая статья продолжает публикации автора по тематике оценивания результатов научной деятельности [4].

6

Высшее образование в России • № 2, 2015

журнале публикует свои результаты тот или иной исследователь, в существенной степени определяет его неформальный «рейтинг» среди коллег.

Спрашивается, а можно ли предложить универсальную формальную процедуру рейтингования научных журналов [5]? А рейтингования ученых? И нужны ли такие процедуры? Ответ на последний вопрос прост: самим ученым такие формальные процедуры не сильно нужны, но есть много субъектов, для которых они необходимы. Поясним это утверждение.

Исторически известны два основных подхода к научным исследованиям [6]. Автором первого является Г. Галилей. Целью науки, с его точки зрения, является установление порядка, лежащего в основе явлений, чтобы представлять возможности объектов, порожденных этим порядком, и, соответственно, открывать новые явления. Это так называемая «чистая наука», теоретическое познание. Автором второго подхода был Ф. Бэкон. О нем вспоминают гораздо реже, хотя сейчас возобладала именно его точка зрения: «Я работаю, чтобы заложить основы будущего процветания и мощи человечества. Для достижения этой цели я предлагаю науку, искусную не в схоластических спорах, а в изобретении новых ремесел...» Наука сегодня идет именно по этому, «ремесленному», пути - по пути технологического совершенствования практики.

Фундаментальная наука представляет собой труднопрогнозируемую область, для которой характерное время получения отдачи в виде конкретных технологий может составлять десятки лет, а некоторые результаты так никогда и не получат практического применения. Поэтому «стимулирование» науки со стороны государства в рамках галилеевой парадигмы не должно быть искусственным. Фундаментальная наука развивается естественным путем, по своим внутренним законам, по ей присущей (и, наверное, не всегда понятной даже самим уче-

ным) внутренней логике. Поэтому управление фундаментальной наукой - как в масштабах отдельной научной организации, так и в масштабах страны - заключается в том, чтобы «поливать» и «поливать», в смысле размера финансирования, максимально широкое поле (потому что неизвестно, в каком месте посеяны зерна будущих результатов). На этом поле потом «взойдут» результаты. А управление здесь может заключаться в том, чтобы либо расширить поле, либо полить некоторые участки обильнее других, но не в ущерб последним.

С этой точки зрения требовать результаты априори (какие бы совершенные методы оценки, экспертизы и рейтинги при этом ни применялись) бессмысленно - «поливая» избранные «делянки», можно вырастить сорняки и загубить ростки великих открытий. Вместе с тем государство (наверное, следуя Ф. Бэкону), тратя деньги на фундаментальные исследования, обоснованно стремится понять, насколько эффективно расходуются средства, а для этого нужны институализированные методы формальной оценки результатов как индивидуальной, так и коллективной - в рамках научных организаций и их подразделений - научной деятельности. Таким образом, первым субъектом, заинтересованным в наличии формальной системы оценки, и в первую очередь - в «рейтинге» отдельных ученых (на основании индивидуальных оценок можно оценивать коллективы и организации), является государство в лице чиновников от науки.

Вторым таким субъектом являются руководители научных организаций, вынужденные (как минимум, в силу наличия первого субъекта) заниматься оценкой индивидуальных и коллективных научных результатов своих подчиненных. Задачи, стоящие пред руководителями, проще, чем у чиновников, - как правило, будучи активными учеными, они тонко чувствуют, «как устроена наука», и прекрасно понимают объективно существующую диффе-

Практика модернизации образования

7

ренциацию индивидуальной продуктивности исследователей.

Третьим субъектом являются организации и исследователи, профессионально специализирующиеся в области наукометрики, а также сбора, систематизации и распространения научной информации (сюда, конечно, относятся и научные библиотеки).

Четвертую группу субъектов составляют сами ученые. Например, вникая в новую для себя предметную область, полезно иметь в качестве ориентиров «объективные » характеристики приоритетов и трендов в этой области. Кроме того, полезно знать, где публикуются твои коллеги, кто и как на них и на тебя ссылается, и т.д.

Что мы можем еще сказать об ученых и о чиновниках? Если речь идет о какой-то группе ученых, специалистов в определенной предметной области, то им «хирши» для оценки друг друга совершенно не нужны. Потому что научный мир очень тесен, каждый ученый знает специалистов в своей области, знает, кто чего стоит, кто лидер, кто халтурщик и т.д. Им «хирши» ничего не дают. Если же мы говорим о более крупных группах ученых и институтах, условно говоря, научного обслуживания, таких как журналы, конференции, или о научно-образовательных организациях -университетах, академических или отраслевых научных институтах, то здесь уже отчасти возникает необходимость в каких-то количественных показателях. Как сказать, какой журнал лучше, какой хуже? Опять же специалист в своей предметной области прекрасно представляет себе, чего стоит тот или иной журнал. Но ни один ученый вам не скажет, как соотносятся журналы по биологии и по физике - в этих науках разные традиции написания публикаций. И т.д. То есть на уровне коллективов, организаций, журналов возникает потребность осмысленного использования числовых показателей, но в комбинации с содержательной экспертизой.

Теперь посмотрим более пристально на

чиновников, которые управляют наукой. Логика любого государственного чиновника: если мы вкладываем деньги, то должны измерить отдачу. Отдача, как говорят экономисты, - это отношение эффекта к затратам, эффективность - то, что получается на потраченный рубль. А как измерить эффективность в науке? Как сравнить между собой ученых Иванова и Петрова, получающих одинаковую зарплату? Работают они или нет? Чиновники от творчества далеки. А наука - это все-таки творчество. Ведь то, как в тиши кабинетов создается новое знание, это тайна за семью печатями. Конечно, можно причесать всех под одну гребенку и сказать: дело должно быть поставлено на поток, каждый ученый должен в год выдавать по одному изобретению и раз в десять лет придумывать что-нибудь гениальное. Тогда рассчитать, на уровне отдача или нет, - легко. Но ясно, что это глупость.

Тем не менее сильное государство, как меценат, вкладывает деньги в фундаментальную науку и не требует быстрого конкретного результата. Когда министр финансов Англии спросил у М. Фарадея (а это конец первой трети XIX в.), какова польза от электричества, ученый ответил: «Когда-нибудь с него будут платить налоги » - ответ, понятный для министра финансов. Потом были Максвелл, Эдисон и другие. А платить налоги с электричества начали, наверное, лет через тридцать-сорок. Как бы мы сейчас жили, если бы тогда не изобрели электричество? Или если бы Фарадея выгнали с работы, потому что он что-нибудь вовремя не опубликовал, или оборудование не то купил, или не так оформил? То есть попытки измерения научной отдачи какими-нибудь унифицированными количественными категориями радикально неправильны!

Отчасти можно понять чиновников, которые хотят что-то подобное измерить. На наш взгляд, использование библиометрических показателей типа индекса цитируе-

8

Высшее образование в России • № 2, 2015

мости, индекса Хирша и т.д., естественно, в сочетании с экспертизой в каком-то варианте, необходимо - хотя бы для того, чтобы успокоить чиновников и исключить вариант паразитизма. Представьте себе, что мы сделали заповедник для ученых: они такие умные, трогать их нельзя, они думают о судьбах человечества, мы деньги им будем давать и ничего с них спрашивать не будем. Туда в итоге набегут бездельники. Поэтому какой-то контроль за деятельностью ученых необходим. Но вряд ли более того. И точно не для того, чтобы судить о том, кто лучше или хуже в смысле величины «хирша».

Зачем? Единственный правильный ответ - для управления. Потенциально библиометрические (и даже шире - наукометрические) показатели могут и должны использоваться на всех этапах процесса управления научно-исследовательской деятельностью [8]: на этапе организации -при формировании приоритетных направлений развития и при создании новых исследовательских центров и групп; на этапе планирования - при распределении финансирования между исследовательскими программами и проектами; на этапе стимулирования - при разработке систем материального поощрения отдельных ученых, подразделений, групп и организаций; на этапе контроля - при формировании комплексной оценки тех же ученых и их формальных и неформальных объединений.

Без решения задачи управления любая оценка, будь то наукометрическая или экспертная, бессмысленна. Но этого мало: чтобы управлять каким-либо процессом или объектом, нужно понимать его природу и закономерности его развития. Сейчас от фундаментальной науки, от Академии наук, от вузов требуют внедрения в промышленность инновационных разработок, чтобы что-то сразу, скажем через два года, заблестело, замигало, покрылось нанопорошками и пошло в массовые продажи. Это бесполезно. Академия и вузы хорошо ра-

ботали с технологиями, когда была мощная отраслевая наука и высокотехнологичное производство. Сама по себе Академия наук или вузы не могут и не должны в одиночку толкать инновационный процесс до конечного потребителя.

Есть несколько видов управления. Во-первых, институциональное. В переводе на отношения между чиновником и ученым или преподавателем - это предъявление квалификационных требований к последним со стороны государства. Скажем, человек, занимающий должность старшего научного сотрудника или доцента, должен опубликовать не менее такого-то количества статей за определенный период, иначе он не пройдет аттестацию. Существующие сейчас квалификационные требования, в принципе, достаточно жесткие. Если они выполняются, то это значит, что халтурщиков нет. То есть люди публикуются. Какого качества результаты - это отдельный вопрос, здесь нужна экспертиза.

Во-вторых, мотивационное управление. Ученых деньгами заинтересовывать тяжело, потому что приоритеты не те, но все-таки немножко можно. Была и есть такая неплохая вещь в Академии наук, как ПРН Д - показатель результативности научной деятельности, который вычисляется как взвешенная сумма числа разных публикаций, а вес публикаций зависит от тех журналов, где работы опубликованы. Аналогичные системы показателей есть и в вузах. К сожалению, деньги на «публикационные надбавки» выделяются не очень большие. Сделайте так, чтобы за статью в солидном журнале платили в сто раз больше, чем в каком-нибудь местном региональном вестнике, который никто не читает, и тогда люди перестанут писать в «вестники» и будут стараться, кто может, писать в ведущие журналы.

Третий тип управления - информационное. Полнотекстовый доступ к англоязычным журналам достаточно дорог и есть далеко не у всех, особенно в провинции. Доступ к Web of Science и прочим ба-

Практика модернизации образования

9

зам - не для цитируемости, а просто для нормальной работы ученого, для проведения обзоров - тоже очень дорог, и предоставляется не каждому. Обеспечьте ученых информацией, и тогда многие проблемы решатся. Заодно подтянем наши научные школы в провинции, многие из которых оказались сейчас в ужасающей ситуации. Ведь наука в СССР была фактически самодостаточной и полной по спектру. Научные сотрудники имели возможность ездить по стране для обмена опытом, участия в конференциях, для повышения квалификации. С началом 1990-х гг. такая возможность почти исчезла. Сейчас стало полегче, но все равно далеко от идеала. Произошла самоизоляция. За прошедшие двадцать лет многие провинциальные научные школы «окуклились» и начинают самовоспроизводить-ся (в плохом смысле этого слова). Хотя квалифицированные люди остались. Им просто нужно дать возможность влиться в мировую науку, т.е. дать информацию и обеспечить контакт с коллегами из России и других стран.

Наукометрия или экспертиза? Такая постановка вопроса некорректна. Правильнее было бы сказать: «Наукометрия и экспертиза».

В прошлом году вышел специальный выпуск журнала «Управление большими системами», посвященный применению наукометрических и экспертных методов в оценке эффективности научно-исследовательской деятельности - как отдельных ученых, организаций, институтов, научных направлений, так и науки в стране в целом [8]. В сборник вошли три десятка статей, написанных учеными из разных стран, в том числе - ведущими специалистами по вопросам управления научной деятельностью. В статьях прозвучали, пожалуй, все возможные оттенки мнений о целесообразном соотношении наукометрических и экспертных методов, на страницах издания разгорелась жаркая полемика о путях развития российской науки.

С одной стороны, каждая отрасль науки имеет чёткое понимание того, кто лидер, а кто отстающий. Гамбургский счёт есть всегда. Ведущих специалистов в своей области знает каждый. С другой стороны, последние лет десять учёных всё больше и больше пытаются оценить по разным формальным показателям. Понятно, что ни один такой показатель не заменит мнения профессионалов. И название сборника отражает две «крайние» позиции: наукометрический подход, оперирующий оценками по формальным показателям, и качественный, экспертный подход, когда специалисты оценивают своих коллег и результаты их деятельности. Каждый из подходов обладает своими преимуществами и своими недостатками. Например, использование количественных показателей позволяет быстро и автоматически обрабатывать колоссальные объёмы библиометрической информации. Но при этом во многом не учитывается качество. Обращение к экспертам даёт содержательные результаты, но любая экспертиза медленна и трудоёмка.

Общий вывод, который можно сделать по опубликованным в [8] материалам, заключается, наверное, в том, что качественная оценка результатов научной деятельности возможна только по результатам квалифицированной экспертизы; наукометрические же показатели могут играть роль инструмента поддержки принятого экспертом решения.

Как считать? Индекс Хирша является хотя и наиболее распространенным, но далеко не единственным показателем, производным от списка публикаций и их цитирований. Существуют и могут быть предложены и другие показатели, а их синтез (например, аксиоматический) является интересной научной задачей, над которой работают многие исследователи (см. ссылки в [8]).

Кроме того, важно учитывать, на основании какой первичной информации (по какой базе публикаций) рассчитываются

10

Высшее образование в России • № 2, 2015

показатели. Манипулируя выбором источника, можно добиваться требуемых результатов: чем более емкая база данных используется, тем более высокие получаются показатели. Например, поскольку Google Scholar индексирует3 почти все научные публикации, индекс Хирша любого российского исследователя, вычисленный по этому источнику, будет не меньше соответствующего показателя, вычисленного по РИНЦ или Scopus и т.д. С точки зрения обеспечения и защиты национальных интересов можно только приветствовать многолетние и профессиональные усилия РИНЦ по поддержанию и развитию российской базы научных публикаций, включая ведущийся сейчас проект по созданию RSCI (Russian Science Citation Index) как информационного «сателлита» Web of Science.

Каковы типовые иллюзии и возможные риски? Одна из распространенных чиновничьих иллюзий заключается в убеждении, что, построив систему «объективных» количественных показателей оценки научной деятельности, можно существенно повысить ее «эффективность» (опять же, количественную). Как человек, занимающийся в т.ч. организацией науки, выскажу предположение, что большинство российских ученых сейчас честно, как могут, работают. То есть люди не бездельничают. Если их «запугать» хиршами или простимулировать, они не смогут работать в два, в три раза лучше. Следовательно, что бы сегодня в этой сфере ни делалось, быстрых результатов не получить. Если мы хотим при той же численности обеспечить преемственность и отдачу, все реформы должны быть нацелены на такие системные изменения, которые обеспечили бы приход в науку нового поколения людей с высокой мотивацией и научной продуктивностью. На это надо как минимум десятилетие. При

этом должны быть сохранены Учителя. И нужно время: чтобы написать первую самостоятельную статью в серьезный журнал, требуется в среднем от трех до семи лет после окончания вуза. А для этого таких людей нужно подготовить, отобрать, замотивиро-вать, организовать их приток в научные и образовательные организации с учетом возможного отсева. Это десятилетия! Разрушить науку легко, создать трудно.

Любая жизнеспособная система стремится к адаптации. В условиях административно навязываемых «правил игры » ученые и преподаватели научились и продолжают учиться выживать в новых условиях. Требуется количество публикаций - обеспечим (правда, с “качеством” будут проблемы), нужно публиковаться в Scopus - нет проблем, заплатим и опубликуемся. Даже анекдоты соответствующие появились:

Встречаются два профессора.

- Как Ваше здоровье, как Ваш «хирш»?

- Спасибо, подращиваю понемногу.

Проблема роста количества научных публикаций при одновременном снижении их качества наличествует во всём мире. И мы должны быть готовы к тому, что этот вал ещё более усилится. Взгляните на Китай. В области науки он ведёт грамотную государственную политику. Но в результате китайские учёные рассылают по журналам всего мира статьи, зачастую отличающиеся друг от друга на ипсилон. Да и среднее качество этих статей оставляет желать лучшего. Порой они заново пере-открывают результаты, полученные лет 30-40 назад. Впрочем, это явление характерно не только для Китая. Нельзя каждый день доказывать по хорошей теореме. Если стимулировать в науке только количественные показатели, ничего хорошего не получится.

3 Вопросы о корректности индексации, полноте, адекватности и т.д. различных баз данных мы, вполне осознавая их существенность, затрагивать не будем.

Практика модернизации образования

11

Постоянное сжатие российской научной сферы на протяжении последних 20 лет, наряду с коммерциализацией многих научных изданий, привело к тому, что скоро число квалифицированных авторов сравняется по порядку величины с числом журналов, а среднее качество многих журналов еще более упадет. Всё это происходит в условиях административного давления, подталкивающего российских учёных публиковаться на английском языке. Неудивительно, что это вызвало массовое коммерческое предложение со стороны новых низкорейтинговых англоязычных журналов, которые за “Ваши деньги” (и немалые) готовы “опубликовать Вас в Web of Science или Scopus”, - каждый из нас каждую неделю получает по электронной почте несколько таких предложений. Те же, кто ориентируется на высокорейтинговые зарубежные журналы, не обеспечив приоритет русскоязычной публикацией, рискует, что его идеи и результаты будут банально «украдены». А ведь это - стратегические риски для страны!

Что делать? Ответ простой - не подменять цель показателем и, прежде чем принимать и реализовывать те или иные управленческие решения, учитывать возможные риски и реакции управляемой системы.

Корректного,универсального и однозначного ответа на вопрос, какова оптимальная процедура оценки труда ученых, не существует. Все зависит от того, какие управленческие задачи мы решаем, какие цели перед собой ставим, кого и зачем оцениваем.

Представьте себе, что Вы - заведующий лабораторией или кафедрой и хотите принять к себе нового сотрудника. Вы посмотрите на список его публикаций и поговорите с ним. Вы не будете в первую очередь спрашивать его о «хиршах» - Вы будете общаться с ним содержательно.

Другая ситуация, когда речь идет об уровне государства, например, об оценке

институтов или вузов при разделении их на какие-то группы. Традиционные методики подразумевают, что объекты нужно разбивать на референтные группы и оценивать каждый:каков он - «хороший», «средний» или «плохой» - в своей группе. Казалось бы, правильная идея - нельзя же всех смешивать в одну кучу. Однако при этом зачастую забывают о такой возможности: в какой-то группе все могут оказаться объективно «хорошими». Представьте, например, что в референтной группе есть три вуза, и все - замечательные. Тогда неизбежно (в силу принятой методики), что один из трех окажется «хорошим», другой - «так себе», третий - «плохим». Но ведь этот «плохой» может быть намного лучше самого лучшего соседа, не вошедшего в рассматриваемую группу. Об этом кто-нибудь думает?

Любую управленческую процедуру (процедуру оценивания, принятия решений и т.д.) надо тестировать на устойчивость в разных ситуациях, проверять, какие результаты она будет давать в тех или иных случаях [9]. Подобно тому, как тестируют компьютерные программы, приборы, любую процедуру принятия управленческих решений следует проверять на устойчивость к различным (как типовым, так и «экстремальным») комбинациям входных данных и к манипулированию со стороны оцениваемых субъектов. Без такого исследования ни одна управленческая “инновация” не должна запускаться в жизнь.

Литература

1. Hirsch J.E. An index to quantify an individual’s

scientific research output // Proc. Natl. Acad. Sci. USA. 2005. Vol. 102. № 46. P. 16569-16572.

2. Garfield E. Citation indexes for science: a new

dimension in documentation through association ofideas // Science. 1955. Vol. 122. P. 108111; Гарфилд Ю. Можно ли выявлять и оценивать научные достижения и научную продуктивность? // Вестник АН СССР. 1982. №6. С. 42-50.

3. Налимов В.В., Мульченко З.М. Науко-

12

Высшее образование в России • № 2, 2015

метрия. Изучение развития науки как информационного процесса. М.: Наука, 1969. 192 с.

4. Механик А. Управленческий принцип Гей-

зенберга (Интервью с Д.А. Новиковым) // Эксперт. 2013. № 43 (873).URL: expert.ru/ expert/2013/43; Огнев А. Безымперская наука (Интервью Д.А. Новикова порталу «Наука и технологии России»). URL: strf.ru/ vaterial.aspx

5. Новиков Д.А. Дискуссия о проблемах оцен-

ки научных журналов: вводное слово главного редактора // Управление большими системами: Сб. трудов. Вып. 27. М.: ИПУ РАН, 2009. С. 5-17.

6. Новиков А.М., Новиков Д.А. Методология

научного исследования. М.: Либроком, 2010. 280 с.

7. Новиков Д. А. Методология управления. М.:

Либроком, 2011. 128 с.

8. Управление большими системами: Сб. тру-

дов. Спецвыпуск 44 «Наукометрия и экспертиза в управлении наукой» / Под ред. Д.А. Новикова, А.И. Орлова, П.Ю. Чеботарева. М.: ИПУ РАН, 2013. 568 с. URL: http:/ /ubs.mtas.ru/upload/library/UBS44.pdf

9. Механизмы управления / Под ред. Д.А.

Новикова. М.: УРСС, 2011. 192 с.

Статья поступила в редакцию 29.12.14.

COMPETE BY «HIRCH’S»?

NOVIKOV Dmitry A. - Dr. Sci. (Technical), Prof., Corresponding member of Russian Academy of Sciences, Deputy director of Institute of Control Sciences RAS, Moscow, Russia. E-mail: [email protected]

Abstract. The paper analyzes in a polemical form the typical aberrations and myths (common as for officials from science governance, and, often, for the scientists) about the possibility and expediency of using formal bibliometric indicators to assess the working efficiency of individual and collective research activities.

Keywords: science governance, scientometrics, evaluation of scientific activity, h-index

References

1. Hirsch J.E. (2005) An index to quantify an individual’s scientific research output. Proc. Natl. Acad.

Sci. USA. Vol. 102, no.46, pp. 16569-16572.

2. Garfield E. (1955) Citation indexes for science: a new dimension in documentation through association

of ideas. Science. Vol. 122, pp. 108-111. Garfield E. (1982) [Is it possible to reveal and assess scientific breakthroughs and scientific efficiency?]. Vestnik AN SSSR [Bulletin of the Academy of Sciences of the USSR]. No. 6, pp. 42-50. (In Russ.)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3. Nalimov V., Multchenko Z. (1969) Naukometria. Issledovanie nauki kak informatsionnogo protsessa

[Scientometrics. Studying science as informational process]. Moscow: Nauka Publ., 192 p.

4. Mechanic A. (2013). [Managerial Heisenberg principle]. Ekspert [Expert]. No. 43 (873). Available

at: expert.ru/expert/2013/43 (In Russ.); Ognev A. (2013) Besimperskaya nauka (Interv’yu D.A. Novikova portalu «Nauka i tekhnologii Rossii») [Non-imperial science (interview with D. Novikov Internet portal “Science and technology in Russian Federation” (STRF)]. Available at: strf.ru/vaterial.aspx (In Russ.)

5. Novikov D. (2009) [Discussion about the problems of scientific journals evaluation: foreword of the

editor in chief]. Upravlenie bol’shimi sistemami [Large-scale systems control]. Vol. 27, pp. 5-17. (In Russ.)

6. Novikov A.M., Novikov D.A. (2011) Metodologiya nauchnogo issledovaniya [Research Methodology]. Moscow: Librokom Publ., 280 p.

7. Novikov D.A. (2013) Metodologiya upravleniya [Control Methodology]. Moscow: Librokom Publ.,

128 p.

8. Novikov D.A., Orlov A.I., Chebotarev P.Yu. (eds) (2013) [Large-scale systems control]. Spetsvypusk

44 "Naukometria i expertiza v upravleniyi naukoi “[Special issue no. 44 “Scientometrics and

Практика модернизации образования

13

expertise in science governance”]. Moscow: ICS RAS Publ., 568 p. Available at: http:// ubs.mtas.ru/ upload/library/UBS44.pdf (In Russ.)

9. Novikov D. (2011) Mekhanizmy upravleniya [Control mechanisms].Moscow: URSS Publ., 192 p.

The paper was submitted 29.12.14.

ИНЖЕНЕРНЫЙ ПОТЕНЦИАЛ ФУНДАМЕНТАЛЬНОЙ НАУКИ

ШЕСТАК Валерий Петрович - д-р техн. наук, профессор, НИЯУ МИФИ, ведущий научный сотрудник, Финансовый университет при Правительстве Российской Федерации. E-mail: [email protected]

Аннотацияя. В статье рассматриваются процессы формирования инженерных задач при выполнении проектов фундаментальной науки, относящихся к классу мега-сайенс, проблемы использования получаемых при этом знаний для повышения профессионального уровня инженерного корпуса и их значение для развития экономики России.

Ключевые слова: проекты класса мега-сайенс, программа «Горизонт 2020», новое знание, инженерные задачи

Главным содержанием работы инженера является разработка и реализация новых и/ или оптимизация существующих инженерных решений. В своей профессиональной деятельности инженер опирается на фундаментальные и прикладные науки. Следовательно, помимо актуальных знаний, он должен обладать определённым уровнем эрудиции в части понимания современных трендов развития науки, техники и технологий и отчётливо представлять себе суть инновационных процессов в экономике и масштаб внешних вызовов для коррекции своей деятельности.

Мир развивается и сегодня он подошёл вплотную к реализации так называемого шестого технологического уклада [1]. В некоторых странах интенсивно внедряются новые наукоёмкие, или, как теперь говорят, «высокие технологии», основанные на био- и нанотехнологиях, генной инженерии, квантовых технологиях, спин-фотонике, микромеханике, безопасной и безугле-водородной энергетике. Ожидается, что синтез достижений на этих направлениях приведет к созданию, например, квантового компьютера, искусственного интеллекта и в конечном счёте обеспечит выход на

принципиально новый уровень в экономике знаний.

В данном контексте прежде всего нужно с сожалением констатировать, что более 50% технологий в России относится к четвёртому технологическому укладу - к «эпохе нефти -1908-1971 гг.» (ядро уклада - технологии тяжёлого машиностроения, автомобили, самолёты, большая химия), а почти 30% - и вовсе к третьему -«эпохе стали - 1875-1908 гг.» (ядро уклада - чёрная металлургия, железные дороги, кораблестроение, производство взрывчатых веществ). Перед отечественными учёными, инженерами и преподавательским корпусом стоит грандиозная по сложности задача, обусловленная тем обстоятельством, что в течение ближайших лет экономика России должна «перепрыгнуть» через пятый технологический уклад - «эпоху компьютеров - 1971-2011 гг.» (ядро уклада - микроэлектроника, информатика и Интернет, биотехнологии и др.) [2]. Знания, необходимые для подобного «большого скачка », благодаря процессам глобализации лежат в открытом доступе. Возможно, что полной информации о той или иной технологии у нас нет, но мы пользуемся

i Надоели баннеры? Вы всегда можете отключить рекламу.