Научная статья на тему 'НАУКОМЕТРИЯ, ОЦЕНКА НАУЧНОЙ ДЕЯТЕЛЬНОСТИ УЧЕНЫХ И НАУЧНАЯ ПОЛИТИКА В РОССИИ'

НАУКОМЕТРИЯ, ОЦЕНКА НАУЧНОЙ ДЕЯТЕЛЬНОСТИ УЧЕНЫХ И НАУЧНАЯ ПОЛИТИКА В РОССИИ Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Биосфера
ВАК
RSCI
Ключевые слова
наукометрия / индекс цитирования / импакт-фактор / индекс Хирша / научная политика / экспертиза / западные санкции / scientometrics / citation index / impact-factor / h-index / science policy / expert analysis / Western sanctions

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Л.Я. Боркин, А.Ф. Сайфитдинова

В статье кратко изложена история формирования наукометрии. Описаны библиометрические показатели (индекс цитирования, импакт-фактор, индекс Хирша и др.) и крупнейшие базы данных и поисковые системы (Web of Science, Scopus, Dimensions, CrossRef, COCI, Microsoft Academic, SCImago Journal Rank, The Lens, OpenAlex, Semantic Scholar), которые используются в России. Рассмотрены недостатки количественных показателей, а также критика последних со стороны научного сообщества. Описан процесс монополизации мирового рынка публикаций крупными западными издательствами. Особое внимание уделено федеральной административной политике оценки деятельности ученых и организаций в России в 2010-е годы с упором на библиометрические показатели и западные базы данных, а также на принуждение российских ученых публиковаться в зарубежных журналах из списков Web of Science и Scopus. Даны характеристики Российскому индексу научного цитирования (РИНЦ), показателю результативности научной деятельности (ПРНД), использованию западных и российских индикаторов в служебном продвижении и грантовом финансировании российских ученых. Указаны пагубные последствия ошибочной наукометрической политики для российской науки, а также использования наукометрии в условиях западных санкций и проведения специальной военной операции. Заключают статью рекомендации авторов. Положительно оценивая достижения и возможности библиометрии для анализа развития науки и ее пользу в поиске научной информации, авторы выступают категорически против применения количественных показателей для оценки индивидуальных ученых. Она должна основываться на экспертном анализе, т.е. на рассмотрении содержания (качества) публикаций, а не того, где и в каком количестве они были опубликованы.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по СМИ (медиа) и массовым коммуникациям , автор научной работы — Л.Я. Боркин, А.Ф. Сайфитдинова

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SCIENTOMETRICS, ASSESSMENT OF SCIENTIFIC ACTIVITIES OF SCIENTISTS, AND SCIENCE POLICY IN RUSSIA

The article outlines the history of the development of scientometrics. Bibliometric indicators (citation index, impact factor, Hirsch index, etc.) and the major databases and search engines (Web of Science, Scopus, Dimensions, CrossRef, COCI, Microsoft Academic, SCImago Journal Rank, The Lens, OpenAlex, and Semantic Scholar), which are used in Russia, are described. Shortcomings of the quantitative indicators and criticism thereof by the scientific community are considered. The monopolization of the world publication market by major Western publishers is described. Particular attention is given to the federal administrative policy of assessing the activities of scientists and research organizations in Russia in the 2010s, with its emphasis on bibliometric indicators and Western databases as well as on forcing Russian scientists to publish in foreign journals indexed in Web of Science and Scopus. The use of the Russian Science Citation Index (RSCI), the Scientific Performance Indicator, and Western and Russian bibliometric indicators in career advancement and grant funding of Russian scientists is characterized. The disastrous consequences of the erroneous scientometric policy and of the use of scientometrics in the context of Western sanctions and the special military operation in Ukraine for Russian science are discussed. The authors’ recommendations for rectifying the situation are presented. While adorning bibliometrics achievements and potential for analyzing the development of science and acknowledging its usefulness in searching for scientific information, the authors definitely object against using the bibliometrics indicators for evaluating any individual scientists and papers, which should be judged about based on expert analysis, i.e. according to the content (quality) of publications rather than to the number and publishing venues thereof.

Текст научной работы на тему «НАУКОМЕТРИЯ, ОЦЕНКА НАУЧНОЙ ДЕЯТЕЛЬНОСТИ УЧЕНЫХ И НАУЧНАЯ ПОЛИТИКА В РОССИИ»

УДК 001.38 || EDN VSTUSQ

СС BY-NC 4.0

© Л.Я. Боркин, А.Ф. Сайфитдинова; ФНИ «XXI век»

НАУКОМЕТРИЯ, ОЦЕНКА НАУЧНОЙ

ДЕЯТЕЛЬНОСТИ УЧЕНЫХ И НАУЧНАЯ ПОЛИТИКА В РОССИИ

Л.Я. Боркин1*, А.Ф. Сайфитдинова

1, 2*

1 Санкт-Петербургский союз ученых и 2 Российский государственный педагогический университет

им. А.И. Герцена, Санкт-Петербург, Россия

* Эл. почта: Leo.Borkin@zin.ru; ** saifitdinova@mail.ru Статья поступила в редакцию 27.04.24; принята к печати 02.05.24

В статье кратко изложена история формирования наукометрии. Описаны библиометрические показатели (индекс цитирования, импакт-фактор, индекс Хирша и др.) и крупнейшие базы данных и поисковые системы (Web of Science, Scopus, Dimensions, CrossRef, COCI, Microsoft Academic, SCImago Journal Rank, The Lens, OpenAlex, Semantic Scholar), которые используются в России. Рассмотрены недостатки количественных показателей, а также критика последних со стороны научного сообщества. Описан процесс монополизации мирового рынка публикаций крупными западными издательствами. Особое внимание уделено федеральной административной политике оценки деятельности ученых и организаций в России в 2010-е годы с упором на библиометрические показатели и западные базы данных, а также на принуждение российских ученых публиковаться в зарубежных журналах из списков Web of Science и Scopus. Даны характеристики Российскому индексу научного цитирования (РИНЦ), показателю результативности научной деятельности (ПРНД), использованию западных и российских индикаторов в служебном продвижении и грантовом финансировании российских ученых. Указаны пагубные последствия ошибочной наукометрической политики для российской науки, а также использования наукометрии в условиях западных санкций и проведения специальной военной операции. Заключают статью рекомендации авторов. Положительно оценивая достижения и возможности библиометрии для анализа развития науки и ее пользу в поиске научной информации, авторы выступают категорически против применения количественных показателей для оценки индивидуальных ученых. Она должна основываться на экспертном анализе, то есть на рассмотрении содержания (качества) публикаций, а не того, где и в каком количестве они были опубликованы. Ключевые слова: наукометрия, индекс цитирования, импакт-фактор, индекс Хирша, научная политика, экспертиза, западные санкции.

SCIENTOMETRICS, ASSESSMENT OF SCIENTIFIC ACTIVITIES OF SCIENTISTS,

AND SCIENCE POLICY IN RUSSIA

L.J. Borkin1*, A.F. Saifitdinova1' 2**

1 Saint-Petersburg Association of Scientists & Scholars and 2 Herzen State Pedagogical University of Russia,

Saint Petersburg, Russia

* E-mail: Leo.Borkin@zin.ru; ** saifitdinova@mail.ru

>

The article outlines the history of the development of scientometrics. Bibliometric indicators (citation index, impact factor, Hirsch index, etc.) and the major databases and search engines (Web of Science, Scopus, Dimensions, CrossRef, COCI, Microsoft Academic, SCImago Journal Rank, The Lens, OpenAlex, and Semantic Scholar), which are used in Russia, are described. Shortcomings of the quantitative indicators and criticism thereof by the scientific community are considered. The monopolization of the world publication market by major Western publishers is described. Particular attention is given to the federal administrative policy of assessing the activities of scientists and research organizations in Russia in the 2010s, with its emphasis on bibliometric indicators and Western databases as well as on forcing Russian scientists to publish in foreign journals indexed in Web of Science and Scopus. The use of the Russian Science Citation Index (RSCI), the Scientific Performance Indicator, and Western and Russian bibliometric indicators in career advancement and grant funding of Russian scientists is characterized. The disastrous consequences of the erroneous scientometric policy and of the use of scientometrics in the context of Western sanctions and the special military operation in Ukraine for Russian science are discussed. The authors' recommendations for rectifying the situation are presented. While adorning bibliometrics achievements and potential for analyzing the development of science and acknowledging its usefulness in searching for scientific information, the authors definitely object against using the bibliometrics indicators for evaluating any individual scientists and papers, which should be judged about based on expert analysis, i.e. according to the content (quality) of publications rather than to the number and publishing venues thereof. Keywords: scientometrics, citation index, impact-factor, h-index, science policy, expert analysis, Western sanctions.

«Не имеет значения, где вы публикуете; имеет значение, что вы публикуете». Aaron Ciechanover, Нобелевский лауреат по химии (2004), иностранный член РАН1

Введение

Попытки разработать количественные методы для оценки качества научных журналов и анализа процес -сов развития научных исследований имеют давнюю историю, начиная с последней трети XIX века. Однако бурный рост наукометрии и ее практическое применение связано с именем американского библиометра и бизнесмена Юджина Гарфилда (Eugene Eli Garfield, 1925-2017), химика и лингвиста по образованию. Его самый ранний проект был поддержан Медицинской библиотекой Вооруженных сил США (Armed Forces Medical Library). В 1956 году Ю. Гарфилд создал в Филадельфии Институт научной информации (Institute for Scientific Information, ISI) и стал его президентом. Это учреждение, имевшее статус частной компании, стало заниматься созданием и анализом баз данных в области библиографии. Это удачно совпало с развитием широкой компьютеризации.

В начале 1960-х годов последовал пилотный проект Ю. Гарфилда по созданию базы данных и анализу цитирования более 5000 патентов по химии, профинансированный двумя частными фармацевтическими компаниями. В 1962 году был выполнен другой более сложный пилотный проект по созданию трех баз данных по генетике с охватом литературы через 1, 5 и 14 лет2.

Разработка индексов, включая импакт-фактор журналов, была нацелена на содействие администраторам и сотрудникам библиотек, комплектующим наборы журналов, в более адекватном отборе журналов для своих учреждений при неизбежной ограниченности денежных средств на подписку. Также предполагалось, что анализ индексов будет полезен издательствам при планировании их журнальной де -ятельности.

Кроме того, индексы, в том числе число публикаций и их цитирований, оказались продуктивным инструментом для социологов науки (науковедов) и фактически помогли сформировать новое направление в библиометрии. С помощью индикаторов стали a posteriori оценивать влияние (импакт) того или иного журнала, а также той или иной публикации (открытия) на дальнейшие исследования. Более того, появилась возможность выявлять тенденции развития в науке, формирование новых полей исследования, прослеживать сети (взаимодействия) ученых в пределах научных дисциплин и междисциплинарных сообществ внутри

1 "<...>an important lesson, particularly these days - it doesn't matter where you publish; it matters what you publish" [107: 4094].

2 См. History of citation indexing (https://clarivate.com/webofscience-group/essays/history-of-citation-indexing/).

страны и в мире, сопоставлять и анализировать вклад разных стран в мировую науку и т. д.

В перспективе, мечтал Юджин Гарфилд [66: 649], индексирование журналов позволит создать «тотальную коммуникацию» среди ученых, своего рода состояние «исследовательской нирваны», «мировой мозг» (Герберт Уэллс), который с помощью компьютеров преодолеет ограниченные возможности человеческой памяти.

Таким образом, первоначально индекс предназначался для весьма благих целей, в помощь университе -там и библиотекам, а вовсе не для административной оценки самих исследователей. Однако романтическое увлечение журнальным импакт-фактором, позволяющим вычленить высоко цитируемые издания, впоследствии привело к неправомочному использованию этого индикатора при оценке деятельности исследователей и к злоупотреблениям по отношению к ученым [44].

Наивным пионерам наукометрии и в голову не могло прийти, что на основании индексов можно будет влиять на зарплату исследователей, (не)давать им грант, определять их должностной статус и даже увольнять. Однако именно это и произошло в России, где библиометрические показатели, получив поддержку в высоких кабинетах и спущенные затем «по вер -тикали власти» вниз, стали доминировать при оценке деятельности ученых, превратившись в кнут для одних исследователей и в пряник для других. В результате мы получили настоящую «лысенковщину» в управлении наукой, которая уже нанесла большой вред развитию науки в нашей стране.

Задача данной статьи - еще раз указать на то, что основанная на формальном использовании библио-метрических методов федеральная политика России в сфере науки неадекватна и нуждается в скорейшем исправлении.

Важно подчеркнуть, что высказанные нами соображения относятся лишь к фундаментальным и поисковым прикладным исследованиям в открытом гражданском секторе науки. В военном и коммерческом секторах действуют другие критерии, в принципе не совместимые с библиометрией (закрытость информации из-за ее военной или коммерческой секретности, оценка реальной эффективности полученных результатов, потенциальная доходность от их внедрения, патенты вместо публикаций и т. д.).

В связи с научным профилем журнала «Биосфера», а также самих авторов (оба биологи) мы приводим примеры преимущественно из сферы биологии и медицины.

Кратко о наукометрических индексах

В 1955 году Юджин Гарфилд [65] в статье, опубликованной в журнале Science, предложил «библиографическую систему для научной литературы», которая, по его мнению, могла бы помочь элиминировать некритическое цитирование сомнительных сведений. Эту «систему» он назвал индекс цитирования (citation index). Позднее на этой основе им была представлена концепция импакт-фактора [66, 67, 69, 71]. По мнению Ю. Гарфилда, цитирование статей можно использовать для оценки качества журналов и востребованности результатов научных исследований. В результате появился так называемый индекс научного цитирования (Science Citation Index, SCI), который начал издаваться в печатном виде с 1964 года (многочисленные толстые тома можно увидеть, например, в Библиотеке Академии наук, Санкт-Петербург).

В 1975 году Ю. Гарфилд после обработки более 4,2 миллионов ссылок, сделанных в 1974 году в 400 000 статей, которые были опубликованы в более чем 2400 журналах, создал библиометрический показатель, получивший название журнальный импакт-фактор (Journal Impact Factor, JIF).

Вывод, к которому пришел Ю. Гарфилд, был довольно прост: чем чаще цитируются статьи некоего журнала, тем в большей мере научное сообщество будет считать этот журнал носителем научной информации. Таким образом, цитирование может стать индикатором использования научной литературы. Статьи действительно резко различаются по своему цитированию. Считается, что примерно 80% всех ссылок приходится лишь на 20% статей. Из 38 миллионов статей, процитированных в 1900-2005 годах, только 0,5% цитировались более 200 раз. Половина статей не цитировалась вообще [69].

С 1995 года интерес к этому индикатору и его производным начал расти по экспоненте. Однако довольно быстро последовала критика со стороны других исследователей (см. ниже). Будущее показало, что не всё так просто [44, 92].

В 1992 году частный Институт научной информации, созданный Ю. Гарфилдом (Eugene Garfield Associates Inc.), после финансовой неудачи был приобретен корпорацией Thomson3. Новый инвестор оценил

3 Для справки: канадская корпорация Thomson осуществляла консал-

тинговые услуги по ведению эффективного бизнеса в нескольких

областях (законодательство, налоги, соблюдение нормативных требований, взаимосвязи с правительственными органами и средствами массовой информации). Имела четыре подразделения: Thomson Legal

& Regulatory, Thomson Financial, Thomson Learning (образование) и Thomson Scientific, Reference & Healthcare (информационный бизнес в науке и медицине). После покупки лондонской компании Reuters Group в 2008 году была преобразована в транснациональную медиа-корпорацию Thomson Reuters (см. http://www.fundinguniverse.com/ company-histories/the-thomson-corporation-history/). В 2011 году в рам-

значение информации, которая может быть получена на основе более полного анализа рефератов научных публикаций, и, используя доступные к тому времени возможности Интернета и вычислительных систем, создал на основании идеи Ю. Гарфилда4 поисковую систему под названием «Сеть науки» (Web of Science, далее — WoS, в первоначальной версии Web of Knowledge — «Сеть знаний»). Финансовый проект оказался очень успешным, так как WoS получила большую популярность в научном и особенно в околонаучном сообществах (администрации, издатели, фонды и т. д.).

Журнальный импакт-фактор представляет собой также количественную характеристику, которая оценивается каждый год, но за прошедшие 5 лет. Она динамична и может как увеличиваться, так и уменьшаться. Фактор рассчитывается на основе отношения общего числа цитирования статей из журнала к обще -му числу опубликованных рецензированных научных статей в нем за тот же период. Таким образом, если за прошедшие 5 лет в журнале опубликовали что-то действительно значимое и цитируемое, то формальный рейтинг журнала растет.

Однако проведенные исследования выявили отсутствие взаимосвязи между рейтингом журнала и реальной ценностью опубликованной в нем статьи [63]. О критике недостатков импакт-фактора и других количественных показателей см. ниже.

Поскольку разные традиции цитирования трудов коллег также отражаются на численных показателях фактора воздействия журнала, то в WoS было введено понятие квартиля, в который попадает импакт-фак-тор журнала в конкретной области науки. Он рассчитывается следующим образом: все журналы, зарегистрировавшиеся как публикующие статьи в данной области исследований, выстраивают в ранжированный список от самого большого значения импакт-фак-тора к самому низкому. Затем список делят на четыре равные части. Журналы с самыми высокими показателями в данной области науки попадают в первый квартиль (первую четверть, Q1), а с самыми низкими - в четвертый (Q4).

Такая система более гибко отражает уровень журнала, но она, как и численный показатель импакт-фактора, не имеет никакого реального отношения к конкретной публикации, которая может быть как значимой, так и незначимой и не цитируемой, хотя и опубликованной в высокорейтинговом журнале за деньги.

ках корпорации было создано подразделение Intellectual Property & Science, которое было продано в 2016 году за 3,5 миллиарда американских долларов. Новая независимая компания получила название Clarivate Analytics. 4 Сам Ю. Гарфилд также перешел в Thomson Scientific, став руководителем этого подразделения (см. например [69, 70]).

>

С 1997 года корпорация Thomson Reuters начала активное продвижение своих научно-информационных инструментов в разных странах, включая Российскую Федерацию и страны постсоветского пространства, что в итоге принесло ей немалый доход.

В 2011 году в рамках корпорации было создано подразделение Intellectual Property & Science, которое успешно коммерциализировало применение простых количественных показателей и было продано в 2016 году за 3,55 миллиарда долларов США [74]. Новая независимая компания, получившая название Clarivate Analytics и впоследствии переименованная в Clarivate, стала управлять базами данных, информационными системами и коллекциями по интеллектуальной собственности, получая доход от подписки. Clarivate Analytics продолжила публиковать ежегодный Journal Citation Reports (JCR), который ранее был частью журналов Science Citation Index и Science Citation Index Expanded, издававшихся Ю. Гарфилдом. В качестве уже самостоятельного издания JCR публикует сведения о научных журналах в области естественных и общественных наук и их импакт-факторе, а с 2023 года также данные о журналах в области гуманитарных наук и искусств. Эти сведения включаются в WoS.

В настоящий момент Clarivate находится в совместном владении канадских и гонконгских инвесторов. Она дополнила базу данных WoS целой серией новых инструментов, в том числе путем покупки австралийского ресурса Publons, который реферирует экспертную деятельность рецензентов в периодических научных изданиях. Этот показатель может оценивать значимость трудов ученого по косвенному показателю его участия в экспертизе работ других исследователей, но он также очень зависим от конкретной области знаний.

Идею создать платную базу данных, объединяющую библиографическую и реферативную информацию, подхватило одно из крупнейших в мире транснациональных издательств Elsevier5, которое в 2004 году

5 Elsevier - одна из крупнейших в мире транснациональных издательских корпораций со штаб-квартирой в Амстердаме (Нидерланды) и филиалами в Великобритании, США, Бразилии и других регионах. Основана в 1880 году в Роттердаме. В 1951 открыла офис в Хьюстоне, в 1962-м - в Лондоне и Нью-Йорке. В 1979 году превратилась в Elsevier Scientific Publishers. В 1993 году после слияния с британской Reed International (издание журналов, книжная торговля) стала называться Reed Elsevier, а в феврале 2015-го после ребрендинга преобразовалась в RELX. Контролирует 16% мирового рынка изданий в области науки, технологий и медицины. В 2022 году Elsevier издавала более 2800 научных журналов; ежегодно выпускает около V всех статей, публикуемых в мире. К собственно старинному издательству "Elsevier" нынешняя корпорация прямого отношения не имеет, поскольку то закрылось еще в 1710-х годах. Более 80% выручки корпорации составляет подписка на журналы от университетов. Проводит жесткую политику повышения цен на журналы и статьи, которые в 2000-х годах были почти в 6,5 раза выше средних. В 2012 году выруч-

выпустило свою реферативную систему Scopus с платным доступом к аналитическим инструментам. Конкурируя с компанией Clarivate и бросив вызов гегемонии WoS и журнальному импакт-фактору, унаследованному ею от корпорации Thomson Reuters, издательство Elsevier запустило 8 декабря 2016 года свой журнальный индекс CiteScore. Он основывается на данных, находящихся в базе данных Scopus (22 000 журналов, то есть в два раза больше, чем у конкурентов), и учитывает данные за 3 предшествующих года, а не за 2, как в Journal Citation Reports [138]. Данные обновляются ежегодно.

Сопоставление показало сходство Scopus и WoS по ранжированию одних и тех же журналов, но значения импакт-фактора оказались выше в первой базе, по крайней мере, в области экологии [75] и инженерии [53]. Однако анализ 20 ведущих журналов по экономике выявил существенные расхождения как в рангах, так и в импакт-факторе одинаковых журналов [109]. В области онкологии Scopus учитывает больше журналов национального уровня, причем не только на английском языке и с меньшим импакт-фактором, чем WoS; имеются также различия в ранжировании стран между этими двумя журнальными индексами [95].

Кроме того, в подсчете индекса CiteScore используются все категории публикаций в журнале, а не только исследовательские статьи, что приводит к пониже -нию импакт-фактора и ранга журнала по сравнению с WoS, особенно для высокорейтинговых изданий, как, например, журнал Lancet, широко известный в медицине. Полагают, что в гонке за импакт-фактором это будет толкать редакторов журналов к сокращению числа «второстепенных» статей («от редактора», «письма в редакцию», «хроника» и т. д.), которые цитируются гораздо реже, или вытеснять их из самих журналов на вебсайты [138].

Судя по сайту Российского центра научной информации, показатель SJR используется в России, по крайней мере, с 2017 года по 20236.

Другие важнейшие библиометрические показатели

Индекс Хирша (h-индекс) - показатель, предложенный американским физиком Хорхе Хиршем (Jorge Hirsch) для оценки научной продуктивности физиков в качестве альтернативы другим библиометрическим индексам [81, 82]. Для его расчета нужно выстроить все публикации автора в порядке убывания числа ци-

ка Elsevier достигла $2 700 000 000 (прибыль более $1 миллиарда). В 1997 году запустила ScienceDirect, открытый онлайн-депозитарий для электронных статей и книг. В 2013 году приобрела британскую компанию Mendeley, до этого бывшую открытой платформой для журналов (см. https://en.wikipedia.org/wiki/Elsevier).

6 См. littps://journalrank.rcsi.science/ru/info/#section_9; https://journalrank. rcsi.science/ru/record-sources/indicators/25649/?sort=Year&order=Desc.

тирования. Номер той публикации, которая по порядку будет последней в списке и число цитирований ко -торой будет равно или больше ее порядкового номера, и будет принят за индекс Хирша данного автора. Рассчитывается такой индекс каждый год.

Х. Хирш [82] полагал, что с помощью разработанного им показателя можно не только оценить прошлую продуктивность работы исследователя, но и предсказывать будущую. Индекс имел ряд преимуществ перед другими библиометрическими показателями, став им альтернативой, был воспринят положительно [45] и по -лучил быстрое распространение (в России во многом благодаря административным мерам). Тем не менее на некоторые его проблемы указывал уже сам автор [81].

Во-первых, это - зависимость от длительности активной работы исследователя и от возраста его публикаций (в годах). По мере развития научной карьеры и времени, прошедшего со дня выхода публикаций, показатель только увеличивается. Таким образом, это автоматически приводит к недооценке эффективности молодых исследователей.

Во-вторых, существенным недостатком индекса является также его зависимость от области знания. Так, в целом значения индекса Хирша в биологических науках значительно выше, чем в физике [81]. Его медианное значение у 10 «топ»-ученых среди биологов равен 147, а среди физиков - лишь 75. Различия могут проявляться даже внутри научных дисциплин или их подразделений [85]. Это связано не только с разными традициями цитирования работ коллег в различных областях, но и с различным числом исследователей, работающих в разных областях. Очень специализированные узкие направления исследований не могут считаться менее значимыми, хотя индекс Хирша не покажет в них хороших значений. Однако в истории науки известно множество примеров, когда именно в таких якобы маргинальных областях закладывались основы для прорывных научных достижений.

В-третьих, значения индекса Хирша зависят от базы данных, которая используется для подсчета. Так, результаты, полученные на основе WoS, Scopus или Google Scholar, различаются [45, 85].

В-четвертых, значения индекса Хирша могут только повышаться, но не падать. Таким образом, научный сотрудник, больше не публикующий статей или переставший работать, тем не менее формально сохраняет достигнутый ранее уровень [21, 49].

Наконец, еще одним существенным недостатком индекса Хирша является влияние самоцитирования [119, 144], которое может приводить к заметному завышению («инфляции») показателя. Имеется также неэтичная возможность его искусственного повышения. Если заранее знать, что этот параметр будет служить для оценки эффективности труда ученого, то его можно повысить разными способами, в том числе за

счет самоцитирования и/или навязывания цитирования своих работ при осуществлении экспертной деятельности [21].

Индекс Хирша также губителен для написания книг (монографий), поскольку те не дают особого вклада в значение индекса и скорее лишь вредят ему [21].

Как и в случае других показателей, желание повысить значение индекса Хирша может стать дополнительным фактором для аморального поведения, например, требования включать лица, занимающие административные должности, в число соавторов публикаций. Не секрет, что в нашей стране были и есть директора институтов и академики, публикующие научные статьи практически каждый день. Это легко отследить с использованием таких реферативных инструментов, как показатели публикационной активности автора с учетом самоцитирования, цитирование соавторами, цитирование сотрудниками организации (подчиненными). В случае индекса Хирша это явно будет характеристикой со знаком «минус» в оценке деятельности такого «ученого», использующего административные рычаги для улучшения своих показателей.

На рынке околонаучных услуг предлагается повысить индекс Хирша при цене 500 рублей за цитирование. Как значится в объявлении коллегии независимых авторов «Научник»: отправьте заявку, и уже сегодня наши авторы начнут цитировать ваши научные труды (см. [26]).

Для устранения погрешностей в индексе Хирша было предложено восемь его вариантов. Это индексы a, ar, g, h(2), hw, m, m quotient, r, каждый из которых имеет свои достоинства [49]. Однако сам Х. Хирш [82] оценивал их скептически, считая, что предложенный им показатель (h) в комбинации вместе с общим числом цитирования лучше и может предсказывать будущие достижения ученого.

Хотя какие-то корреляции имеются, все же оценивать талант ученого по его индексу Хирша равнозначно выбору вина по цене бутылки или качества швейцарского сыра по диаметру дырок [21].

Индекс авторского превосходства (Author Superiority Index, ASI) был предложен в дополнение к индексу Хирша и другим показателям цитирования [111]. Этот индекс в свою очередь базируется на индексе процентильного ранга (Percentile Rank Index, PRI), который вычисляется для каждой статьи автора в виде ранга данной статьи среди статей, опубликованных в том же журнале в том же году. Данные берутся из WoS. Соответственно, в качестве индекса авторского превосходства предлагается использовать количество статей автора, индекс процентильного ранга которых превышает показатели 75, 95 или 99.

Период полужизни цитирования (cited half-life). По -пулярность любой публикации, кроме вечной классики, имеет свои ограничения. Данный показатель изме -

>

ряет скорость падения цитирования со временем. Он выражается в сроке (годы), за который число цитирований статьи уменьшается на 50% при исчислении от года ее опубликования. Таким образом можно количественно оценить, как долго журнальная статья про -должает привлекать к себе внимание в виде ссылок на нее. У небольших публикаций (заметки, краткие сообщения, письма в редакцию) период полужизни цитирования обычно короче, чем у более крупных [52]. В физике «непопулярные» статьи начинают цитироваться вскоре после их публикации, но затем исчезают из поля зрения коллег. В среднем «возраст» (длительность) цитирования составляет 6,2 года, реже для высоко цитируемых статей (более 100 ссылок) достигает 11,7 лет, а в исключительных случаях для статей, имеющих более 1000 ссылок, - 18,9 лет [113].

Аналогичный показатель, названный «периодом полураспада опубликованных идей», был предложен Г.С. Розенбергом [26: 59]. В России оба варианта данного показателя не используются.

Деятельность коммерческих наукометрических платформ, с одной стороны, способствовала улучшению работы аналитических инструментов и развитию научной мысли, а с другой стороны, она навязчиво вошла в жизнь ученых по всему миру. Отныне их труд стали оценивать на основе формализованных критериев, а не реальных результатов. Это показалось очень удобным для бюрократической оценки результативности исследователей. Научную деятельность трудно формализовать, и ее бывает сложно по достоинству оценить даже специалистам. Поэтому введение критериев на основе индексов цитирования самого ученого (индекс Хирша) и авторитетности периодических научных изданий, в которых публикуют его работы, в соответствии со значением импакт-фак-тора, упрощало задачи чиновников, оценивающих эффективность расходования средств, но мало понимающих в специфике научных исследований.

Библиометрические базы данных

Помимо WoS и Scopus, существуют и другие библиометрические базы данных, объем которых больше, чем у Scopus.

Dimensions1 - база данных, созданная в 2016 году и принадлежащая британской информационной компании Digital Science & Research Solutions Inc.8 Начав в 2010 году с пяти сотрудников как технический отдел Nature Publishing Group/Macmillan, компания выросла до глобальной и в настоящее время представлена в 28 странах Северной Америки, Европы и в Австралии с главными офисами в Лондоне, Бостоне и Яссах (Румыния). Dimensions позиционируется как наиболее

1 https://www.dimensions.ai/; https://en.wikipedia.org/wiki/Dimensions_

(database)

8 digital-science.com; https://en.wikipedia.org/wiki/Digital_Science

продвинутая и наиболее крупная база данных, связанная с исследованиями во всех сферах науки. Она содержит более 140 миллионов публикаций, более 1,2 миллиарда ссылок, находящихся в открытом доступе на платформе https://app.dimensions.ai/, 160 миллионов патентов и др. Для каждой публикации даются сведения о цитируемых и цитирующих публикациях, о связанных с нею грантах и поддерживающих фондах, о метрике, связанных патентах, клинических испытаниях (для медицинских работ) и т. д. [79].

По данным на май-июнь 2020 года [124], Dimensions (77 471) индексирует на 82% больше журналов, чем WoS (13 610), и на 48% больше, чем Scopus (40 385). Почти все публикации Scopus имеются и в Dimensions; между обеими системами существует положительная корреляция в подсчетах индексов цитирования [136]. Осенью 2020 года через РФФИ был открыт тестовый доступ к Dimensions (https://podpiska.rcsi.science/news/52).

Международная ассоциация Crossref (Нью-Йорк, США)9 зарегистрирована как некоммерческая организация и объединяет более 19 000 членов из 150 стран (издатели, научные учреждения, общества, библиотеки, фонды и т. д.). C 2000 года предоставляет так называемый цифровой идентификатор объекта (digital object identifier, doi), который присваивается статьям. В июне 2018 года на основе данных Crossref был запущен так называемый индекс COCI, the OpenCitations Index of Crossref open DOI-to-DOI citations [78]. В октябре 2023 года все прежние данные по цитированию были сведены вместе в одну базу данных, которая включает 1 463 920 523 ссылки и 77 045 952 библиографических источника10.

Google Scholar, которую по-русски называют «Академия Google» (см. Википедия), была создана по инициативе двух инженеров компании Google и запущена в ноябре 2004 года. Эта поисковая система предостав -ляет полные тексты и метаданные научных публикаций, включая статьи в рецензируемых журналах, статьи в сборниках и материалах конференций, книги, препринты, диссертации, отчеты и пр. Считается, что база данных Google Scholar охватывает 90% (около 100 миллионов) англоязычной научной продукции и что в ней доступны полные тексты от 40 до 60% научных статей.

Некоторые эксперты критикуют Google Scholar за всеядность и включение даже так называемых мусорных и хищных (predatory) журналов в индексирование. Однако такие журналы можно найти и в других поисковых системах11. Google Scholar индексирует даже презентации (PowerPoint presentations, *.ppt) и вордов-ские тексты (Microsoft Word documents, *.doc(x)). Так-

9 https ://www. crossref.org/membership/terms/;

10 https://opencitations.net/index/coci

11 См. дискуссию http://scholarlyoa.com/2014/11/04/google-scholar-is-filled-with-junk-science/

же призывают с осторожностью использовать подсчет цитирования на основе этой базы данных, которую обвиняют в неаккуратности и которой можно манипулировать, особенно в отношении импакт-фактора журналов и индекса Хирша, которые сами по себе являются плохими показателями качества научных публикаций [46, 61, 76, 84, 86, 89, 96].

В отличие от коммерческих баз данных (WoS и Scopus), несомненными положительными чертами Google Scholar являются бесплатная возможность находить ссылки на индексированные публикации, а также не навязывание своих оценок пользователям. «Всеядность» предоставляет исследователю свободу выбора, позволяя ему самому решать, какая статья (журнал) хорошая, а какая плохая. Партнерские отношения были установлены между Google Scholar и РИНЦ, который поставляет информацию о публикациях в российских журналах [10].

Microsoft Academic. В 2006 году корпорация Microsoft начала создавать свою научную поисковую систему Microsoft Academic Search, но остановила работу в 2012-м. В 2016-м корпорация стала формировать новую платформу, получившую название Microsoft Academic Services, которая формально была выпущена в июле 2017-го. Этот проект задумывался как открытый конкурент Google Scholar и завоевал широкую популярность как источник метаданных публикаций. Microsoft Academic также является свободной (бесплатной) поисковой системой в области научных исследований, включает индекс цитирования. Однако, в отличие от Google Scholar, она обеспечивает массовый доступ к своим данным через интерфейс прикладного программирования, Applications Programming Interface (API). Как и у всех других поисковых систем, имеется ряд недостатков [135, 139]. В конце 2021 года Microsoft Academic вывели из эксплуатации, и на ее основе была создана поисковая система Ope-nAlex (см. ниже).

Подсчеты показали, что Google Scholar является наиболее всесторонней базой данных, а Dimensions образует хорошую альтернативу WoS и Scopus. Сравнительный анализ достоинств и недостатков этих и других баз данных и поисковых систем можно найти в серии статей [например 10, 18, 60, 61, 76, 77, 89, 98, 99, 124, 128, 135, 136]. Большой список наиболее крупных научных баз данных и поисковых систем представлен в https:// en.wikipedia.org/wiki/List_of_academic_databases_and_ search_engines. Приведем здесь сведения о еще нескольких, с которыми сотрудничают в России.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

SCImago Journal Rank (SJR2 indicator) - индекс, применяемый для оценки престижности (популярности) научных журналов. Он разработан группой Scimago, состоящей из представителей Высшего совета научных исследований (Consejo Superior de Investigaciones Científicas, CSIC) и ряда университетов Испании. Для

оценки ранга журнала используются данные Scopus. При подсчете индекса (ранга) журнала учитывается среднее взвешенное число ссылок в год на статью, опубликованную в журнале, за три предыдущих года. Оцениваемые журналы разделены на четыре группы: биологические науки, физические науки, социальные науки, куда входят также искусство и гуманитарные науки, и медицина [72]. Судя по сайту Российского центра научной информации, показатель SJR используется в России, по крайней мере, с 2017 года (по 2023)12.

The Lens является флагманским проектом австралийской независимой некоммерческой организации Cambia (Канберра). За 20 лет своего развития эта открытая и бесплатная база данных накопила свыше 268 000 000 научных публикаций, более 153 000 000 патентов, а также метрики и метаданные об авторах и организациях. Более того, в базе есть сведения о более чем 489 000 000 биологических последовательностей (сиквенсы ДНК, РНК и белков), раскрытых в патентах. Партнерами агрегатора являются Microsoft Academic, CrossRef OpenAlex, PubMed и др. (см. https:// about.lens.org/). Данные базы используются профильными российскими организациями [18].

OpenAlex - этот проект появился в 2022 году и принадлежит некоммерческой организации OurResearch. Название связано с Александрийской библиотекой в Древнем Египте. После закрытия проекта Microsoft Academic Graph небольшой стартап OurResearch использовал базу MAG как основу для своего проекта. К 2023 году OpenAlex завоевал популярность, став бес -платным и открытым каталогом научных статей, жур -налов, исследователей и учреждений со всего мира. В базе уже собрано более 250 миллионов записей о публикациях из 230 тысяч источников, 1,9 миллиарда ссылок. Таким образом, OpenAlex, хотя и с большим отставанием, занял 2-е место среди крупнейших баз данных, сильно опередив CrossRef Dimensions, Scopus и WoS. Как и Google Scholar, OpenAlex не занимается экспертным отбором источников, предпочитая широкий охват источников. Индексирует не только статьи, но и препринты, не прошедшие рецензирование. Сис -тема рассчитывает среднее число цитирований за два года, индекс Хирша и индекс i-10 (число публикаций с 10+ цитированиями) для авторов, источников и организаций13. Данные базы используются профильными российскими организациями [18].

Semantic Scholar - поисковая система, выпущенная в ноябре 2015 года. Принадлежит Алленовскому институту искусственного интеллекта (The Allen Institute for Artificial Intelligence, AI2). Начав с индексирования статей в области компьютерных исследований, наук о Земле, нейронауки, а затем биомедицины, в насто-

12 См. https://journalrank.rcsi.science/ru/info/#section_9; https://journalrank. rcsi.science/ru/record-sources/indicators/25649/?sort=Year&order=Desc

13 См. https://openalex.org/about; https://sciguide.hse.ru/sources/openalex/

>

ящее время система накопила более 218 миллионов публикаций из всех наук. Для каждой статьи приводится аннотация, данные по цитированию и его динамике, а также ссылка на ресурс, где можно найти полный текст статьи. В 2020 году базу данных посещало до 7 миллионов пользователей в месяц ([64]; https:// www.semanticscholar.org/). Данные базы используются профильными российскими организациями [18].

Нужно заметить, что научными публикациями являются не только статьи в реферируемых рецензируемых научных изданиях, но и различные другие виды публичного представления результатов научных исследований. К самым объемным и значимым из них относятся диссертационные исследования и монографии. Однако они в малой степени учитываются коммерческими реферативными инструментами WoS и Scopus, поскольку косвенно обе эти системы связаны с коммерческими издательствами периодической научной литературы, и их деятельность была направлена среди прочего на создание предпосылок для притока авторов в свои издания.

Сужение спектра публикаций, признанных на основе формальных показателей коммерческих инструментов качественными, лишь журналами создает предпосылки к недобросовестной конкуренции издательств, искажению роли достижений исследователей целых регионов, а также для несанкционированного использования чужих идей не совсем чистоплотными представителями научного сообщества.

Истории известны примеры в некоторых областях науки, когда коррумпированные группы специалистов, облеченные определенными регалиями, узурпировали право решать, какие из результатов научных исследований достойны быть обнародованными, а какие нет, препятствовали публикации прорывных работ других авторов, о которых мы сейчас знаем либо по воспоминаниям современников, либо по отдельным отрывочным публикациям коротких тезисов.

Примером сдерживания развития научной мысли может служить драматическая история с открытием РНК-интерференции у петуний. Только после переоткрытия этого феномена у круглых червей и вручения Нобелевской премии другим исследователям стало известно, что феномен уже был открыт ранее. Однако его авторы никак не могли найти журнал, который взялся бы опубликовать их результаты, так как они казались всем невероятными и противоречащими здравому смыслу. Открытие Ричарда Йоргенсена, сделанное в 1980-е годы, не было сразу по достоинству оценено рецензентами уважаемых научных изданий, а сейчас мы наблюдаем бурное развитие фармакологии на основе использования антисмысловых РНК [134].

Таких примеров в истории науки на рубеже XX и XXI веков, особенно с учетом так называемого гипер -

рецензирования14, стало появляться много. Дополнительное стимулирование коммерциализации научных изданий, спровоцированное прямой взаимосвязью между получением финансирования на исследования и числом публикаций, привело к существенной финансовой нагрузке на авторов.

Критика наукометрических показателей и отказ от индексов

Одна из главных опасностей библиометрических индексов - их кажущаяся простота и ясность, делающие их поэтому особенно привлекательными для бюрократии. Действительно, зачем анализировать качество исследования (содержание статей) и вникать в реальный вклад ученого в науку, когда можно сопоставить цифры и принять решение: у кого баллов больше, тот и лучше. Однако, как говорит старая русская пословица, подчас «простота хуже воровства»; впрочем, одно не отменяет другое, особенно в нечистоплотных руках.

Нередко утверждается также, что в индексах якобы содержится объективность, поскольку при их подсче -те нет влияния человеческого фактора (пристрастий и т. д.). Казалось бы, чем больше цитирований, тем публикация лучше. Тогда что важнее: «Происхождение видов» или открытие двойной спирали ДНК? По данным Google Scholar на 2 февраля 2016 года, книгу Чарлза Дарвина процитировали 32 556 раз, а статью про ДНК почти в три раза меньше, 11 551 раз [83]. Означает ли это, что последняя статья почти в три раза хуже? Если голова не в порядке, то формально «да». Но именно такова логика чиновников.

Японский хирург Хакару Хасимото (1881-1934) опубликовал за всю карьеру лишь одну статью, основанную на 4 клинических случаях. Этого хватило, чтобы обессмертить его имя, так как он открыл первую клеточно-опосредованную аутоиммунную болезнь человека. Процитировали его впервые лишь много лет спустя, когда осознали, что эта болезнь массовая и повсеместная [34]. Цитирование (или нет) статей ученого еще не говорит о его качестве, о чем свидетельствует наличие нецитируемых публикаций даже у нобелевских лауреатов [73].

Сопоставим также вклад в науку двух советских биологов: профессора С.С. Четверикова (1880-1959) и академика Т.Д. Лысенко (1898-1976). По количеству публикаций и их цитирования последний в десятки раз превосходил первого. Однако первый остался в истории науки как один из признанных основателей эволюционной популяционной генетики, а второй -как шарлатан и погромщик генетики в СССР.

14 Гиперрецензирование означает получение по результатам рецензирования отрицательного заключения на основе субъективного мнения

рецензента, что препятствует публикации на самом деле реально значимых результатов.

Надо также учитывать, что бывает разное цитирование. Ссылки на ту или иную статью часто приводятся в знак уважения кого-либо («позитивное цитирование») или формально, «в дежурном порядке», поскольку так принято («нейтральное цитирование»). Однако нередко статьи цитируются в критическом плане («негативное цитирование») для оспаривания другого мнения или приоритета [73]. Имеется также так называемое «принудительное» цитирование (coercive citation), в том числе со стороны журналов. Оно принимает разные формы и встречается среди журналов как с низким, так и с высоким импакт-фак-тором, вовлекает как издателей и редакторов, так и авторов разного возраста [97, 140]15.

Совсем иной вес приобретает указание, что данная статья стимулировала проведение исследования [110]. Даже сторонники цитирования как индикатора полагают, что само по себе оно не может быть надежным показателем качества конкретной статьи [40].

Цитирование статьи, помимо ее качества, может зависеть от многих факторов. Были выявлены многочисленные обстоятельства «механического» и методологического характера, влияющие на показатели [24].

Общеизвестно, что в разных науках уровни цитирования и импакт-фактора сильно различаются [42]. Так, статья по математике в среднем цитируется в 8 раз меньше, чем по молекулярной биологии или генетике [111], а в зоологии в 3 раза меньше, чем в биохимии и молекулярной биологии [70]. Огромные различия могут проявляться даже в пределах одной науки. Например, в подразделах биохимии уровень цитирования может различаться в 10 раз [121].

В связи с этим было предложено рассчитывать показатель импакт-фактора, нормализованный по рангу и выражаемый через процентили (rank-normalized Impact Factor, rnIF, percentile). Подсчет для ряда журналов из разных биологических наук выявил колебания этого показателя от 0,706 до 0,980, а с учетом физики и инженерных наук различия составили 28% [70].

Библиометрические индексы зависят также от многих других параметров, например, от скорости развития научной дисциплины, от количества пишущих и цитирующих ученых (плотность цитирования), от количества издаваемых и индексируемых журналов, от числа статей в журнале, от числа авторов на статью, от категории публикации в журнале (исследовательская статья, обзор, заметка, письмо в редакцию, хроника, некролог, рецензия), от численного соотношения этих категорий в журнале и т. д. [42, 83, 91]. Кроме того, на библиометрические показатели влияют объ-

15 В советское время навязывалось цитирование, исходя из идеологических указаний «сверху» (например, классиков марксизма-ленинизма или последнего по времени съезда КПСС). Особенно это процветало в публикациях в сфере социальных и гуманитарных наук, но к этому нередко прибегали и «понятливые» авторы из естествознания.

ем (количество) и структура корпуса индексируемых изданий (журналов и книг). И то, и другое различны в Scopus, WoS и других базах данных.

Журналы могут сильно различаться по количеству статей, публикуемых в них за год. Так, Journal of Biological Chemistry в 2004 году опубликовал 6500 статей [69]. Анализ 4000 журналов показал, что в случае небольшого числа статей в году (менее 35) импакт-фак-тор журнала может варьировать (в любую сторону) от данного года к следующему на 40%, тогда как в более крупных изданиях (140 статей в год) колебания составляют 22%, а при более 150 статей - 15%. Однако это не означает, что первые журналы хуже [42].

На наш взгляд, это объясняет, почему многие журналы, особенно печатные, стараются втиснуть в номер как можно больше статей, сокращая их объем путем вынесения информации, нередко весьма полезной, в так называемые дополнительные материалы, доступные лишь в электронном виде. Как было показано экономистами, число статей играет важную роль в формировании цены журнала: увеличение числа статей на 10% приводит к увеличению цены журнала на 3-5% [55].

Чем в среднем больше авторов приходится на статью в журнале, тем больше его импакт-фактор [42]. Однако этот и другие параметры не позволяют дать адекватную оценку каждому из авторов статьи, не говоря уже о «незаслуженных» соавторах или «призраках» [116]16. Ясно, что одиночный исследователь может произвести статей меньше, чем коллектив авторов. В связи с этим предлагаются различные математические ухищрения для количественной оценки [110], то есть проблема оценки не упрощается, а усложняется. Существует также торговля «местами» для публикаций в журналах Scopus и WoS и соавторства в них (см. ниже).

Кроме того, существуют методы манипулирования, приводящие к увеличению импакт-фактора журнала [44, 70, 92, 96]. Хорошо известны и различного рода «подкручивания» персональных индексов цитирования статей. К ним относятся, например, сговоры по взаимному цитированию в пределах научных групп, частое цитирование или, наоборот, сознательное игнорирование тех или иных авторов, предпочтительное цитирование статей из определенных журналов, к чему подчас склоняют их редакторы, и т. д.

16 В западной литературе различают две категории нарушения этики соавторства. "Honorary" или "guest authorship" - незаслуженное соавторство (например, включение в число авторов статьи руководства или того, кто финансировал проект) и "ghost authorship" - незаслуженное исключение того, кто внес заметный вклад в исследование или написание статьи, из состава авторов. Согласно опросу 2008 года [116, 142], в среднем в британских журналах по медицине незаслуженное соавторство отмечалось в 21% статей, наивысшее в Nature Medicine (32%), а незаслуженное исключение в 8%, наивысшее в New England Journal of Medicine (11%).

>

Используются также манипуляции методом так называемого «журнального самоцитирования», когда редакторы в целях повышения импакт-фактора своего журнала рекомендуют авторам цитировать опубликованные в нем статьи, что было обнаружено для изданий с различным рейтингом. Тем не менее, по некоторым данным, это чаще встречается среди журналов с низким импакт-фактором, нежели с высоким [70]. В некоторых изданиях по агрономии в США и Франции журнальное самоцитирование достигало от 52 до 100% [93]. С 2008 года Thomson Reuters стал публиковать значения импакт-фактора журнала без самоцитирования (impact factors minus journal self-cites), а также исключать журналы с исключительно высоким самоцитированием из списка для определения импакт-фак-тора. Это получило название "title suppression" [102].

О различных случаях некрасивого поведения в журналах Scopus в разных странах см. также https:// en.wikipedia.org/wiki/Elsevier.

С самого начала составление индекса цитирования (SCI) Ю. Гарфилда и его института было американо-центрично, имело англоязычную направленность и не учитывало книги [44, 121]. Языковая дискриминация приводит к более низкому уровню цитирования, например, в случае журналов на русском и немецком языках в сравнении с американскими. Средняя ци-тируемость для них составляла 0,37, 0,88 и 1,93 соответственно. Имеется тенденция цитировать статьи преимущественно на своем родном языке. Половина ссылок принадлежит американским авторам, которые к тому же склонны цитировать друг друга, что повышает их уровень цитирования, на 30% превышающий средний [120].

Кроме того, как известно, имеются заметные различия в устройстве науки и в культуре научных изданий в разных странах и в разных областях знаний. В США и ряде других западных стран предпочтение отдается журналам, тогда как в Европе и особенно в отечественной науке до недавних пор большое значение имели монографии, сборники и материалы конфе -ренций. Английский язык в науке стал доминировать исторически относительно недавно, лишь со второй половины XX века. В 1960-1970-х годах в естественных науках статьи на русском занимали второе место. В общественных науках французский столь же важен, как и английский [104].

В целом, публикации на национальных (не английском) языках играют существенную роль в общественных и гуманитарных науках соответствующих стран, но вне них они читаются и цитируются меньше [104]. От себя добавим, что это же относится к статьям по биологии и медицине. Поэтому выбор языка публикации желательно определять в зависимости от того, на кого она рассчитана. Национально-ориентированные статьи и книги, связанные с

изучением России (природа, культура, общество и т. д.), на наш взгляд, предпочтительнее печатать на русском языке.

В быстро развивающихся науках (например, физика, биохимия, молекулярная биология) появление новых данных происходит с такой скоростью, что писать монографию (или крупный обзор) становится бессмысленным, так как пока она будет опубликована, многое в ней может устареть. Поэтому с учетом жесткой конкуренции исследователи стараются напечатать статью в быстро издающемся журнале. Совсем иная картина в так называемых «музейных» научных дисциплинах. В гуманитарных науках, где российских научных журналов не так много, книги всегда ценились очень высоко, явно выше, чем журнальные статьи. Это же относится и к монографиям в классических направлениях естествознания (ботаника, зоология, геология)17.

Значимость не только журнальных статей, исключительность которых активно продвигается заинтере -сованным издательским лобби, публикующим журналы, понятна многим и отмечалась не раз. Приведем мнение генерального директора Научной электронной библиотеки eLibrary.ru Г.О. Еременко:

«Общественные науки отличаются от них [естественных. — Л.Б., А.С.] довольно сильно по разным параметрам: по практике цитирования, по спектру публикационной активности, по типам публикаций, числу соавторов, хронологии ссылок. С общественными науками методически сложнее работать в плане оценки значимости работы по цитированию. По ряду причин критерии здесь отличаются от тех, что при -меняются в естественных науках. Но эти особенности есть не только у общественных наук. Каждое направление имеет свои отличия: где-то основным результатом научной деятельности стала публикация в журнале или сборнике статей, где-то — выступление на конференции, в технических науках большое значение имеют патенты, а в общественных науках часто более значимыми являются монографии. Не учитывать это нельзя» [10: 146].

Одной из спорных стала проблема так называемого «окна цитирования» (citation window), то есть срока цитирования статей после их опубликования [42]. Один год явно не подходит по технологическим причинам (период от подачи статьи до ее публикации часто более одного года). Поэтому первоначально подсчитывали число цитирований за два года, потом стали за три и за пять. Очевидна условность этого па-

17 С 2005 года компания Clarivate стала индексировать и книги (см. https://clarivate.com/products/scientific-and-academic-research/research-discovery-and-workflow-solutions/webofscience-platform/web-of-science-core-collection/book-citation-index/).

раметра, который будет сильно зависеть от скорости опубликования. Российские журналы, преимущественно цитируемые самими русскими, имеют низкий импакт-фактор, в том числе и по причине длительного срока от момента подачи до опубликования статей [120, 121]. В случае электронных журналов этот срок гораздо короче, чем у традиционных бумажных. Неудивительно, что среднее число ссылок на статью у первых в 2,6 раза выше, чем у вторых [25].

Однако использование «окон цитирования», независимо от их условно принятой «ширины» (длительности), во многих случаях не позволяет адекватно оценивать реальный уровень цитирования. Даже в такой быстро развивающейся науке, как физика, имеются статьи, получившие название спящие красавицы, которые после долгого забвения вдруг неожиданно начинают интенсивно цитироваться [12, 113]. Так, спектроскопия ядерного эффекта Оверхаузена (NOESY) считается одним из наиболее важных изобретений в области магнитного резонанса. Однако идея этого ме -тода существенно опередила свое время, и потребовалось много лет, чтобы научное сообщество подхватило ее и стало цитировать. С точки зрения влияния на импакт-фактор журнала публикация статьи была полным провалом [21].

Можно привести пример и из биологии. Молодой ученый Фрэнсис Пэйтон Раус (1879-1970) опубликовал в 1913 году статью о переносе опухолей кур бесклеточными фильтратами гомогената ткани, которую никто десятилетиями не замечал, но за которую через 55 лет он получил Нобелевскую премию, хотя давно бросил заниматься этой тематикой [34].

В систематике (таксономии), изучающей биологическое разнообразие, публикации вообще не стареют, что обусловлено необходимостью знания всей предыдущей литературы (после 1757 года) из-за действия основополагающего принципа приоритета. Более того, качество журнала никак не влияет на цитирование статьи с описанием вида или таксона другого ранга, которое определяется совсем иными причинами, в первую очередь - наличием исследований по данной группе растений или животных. Это означает, что в области таксономии любые рейтинги и импакт-фак-торы журналов или статей изначально лишены смысла, так как важен лишь факт опубликования данного вида в любом издании в соответствии с принятыми в таксономии правилами18.

Нередко полагают, что импакт-фактор журнала зависит лишь от нескольких высоко цитируемых статей. Это так, если использовать в качестве показателя среднее арифметическое значение цитируемости статей. Однако статистический анализ 500 журналов из

18 Один из авторов данной статьи (ЛБ) — профессиональный зоолог-систематик, член Российского национального комитета по зоологической номенклатуре.

пяти разных категории выявил очень высокую корре -ляцию (r = 0,976-0,997 для естественных наук) между импакт-фактором и показателем цитируемости медианной статьи. Поэтому полагают, что импакт-фактор отражает цитируемость большинства статей журнала [70, 118]. Любопытно, что наименьшую корреляцию обнаружили для статей из категории "Information Science and Library Science" (r = 0,879).

Тем не менее статистический анализ показал, что журнальный импакт-фактор вовсе необязательно отражает качество той или иной конкретной статьи и не коррелирует с частотой цитирования индивидуальной статьи. В любом журнале встречаются как мало, так и часто цитируемые статьи [120]. Так, число ссылок в 2020 году на статьи, опубликованные в журнале Nature (2017), варьировало от 18 до 3240, то есть частота цитирования статьи может очень сильно отличаться от среднего цитирования [118]. Nature, несомненно, имеет более высокое значение импакт-фактора, чем The EMBO Journal, но статей с нулевым цитированием в первом журнале гораздо больше, чем во втором [112].

Более того, анализ журналов в области биологии, медицины, психологии и кристаллографии показал, что обычное мнение, будто бы любая статья, опубликованная в престижном журнале, заведомо будет хорошего качества, ошибочно. Статьи в высокоранговых журналах нередко содержат ошибки, могут публиковать неверные результаты, что особенно опасно в сфере медицинских исследований, так как это может угрожать жизни людей [51]. Поэтому полагаться только на импакт-фактор или ранг журнала нельзя.

С 2011 года отмечается, что в базах данных стало увеличиваться число статей из электронных журналов и материалов конференции, не прошедших доста -точную экспертную оценку. В связи с этим Национальный центр по научной и инженерной статистике США (National Center for Science and Engineering Statistics, NCSES) начал дополнительную фильтрацию данных Scopus. Так, было удалено около 2% статей, опубликованных до 2011 года, около 4% (более 88 000) статей в 2011-м и 5-6% (от 111 000 до 145 000) статей ежегодно с 2012 по 2014 год [105: 56].

Если учитывать категорию публикации, то обзорные и крупные статьи цитируются чаще [40, 120], особенно в сфере биомедицины [137], «надувая» им-пакт-фактор журнала. Это приводит также к не-ци-тированию первоначальных статей-источников, содержащих сведения. Кроме того, имеются статьи, которые получают признание и начинают цитироваться за пределами принятого «окна цитирования». Более того, даже не-цитирование статьи вовсе не означает, что у нее нулевое влияние, zero-impact [121, 143]. Каждый исследователь, чтобы быть в курсе научных достижений, читает гораздо больше статей (и книг), чем их потом цитирует. Однако из этого вовсе не сле-

>

дует, что не-процитированная публикация, особенно в случае трудов классиков науки, научных руководств или справочников, не оказывает своего влияния. Кроме того, статьи (и книги) могут привлекать внимание не только специалистов, но и более широкий круг читателей [56], которые после прочтения будут эти статьи или книги помнить. Особенно это касается изданий по медицине и биологии, а также в области гуманитарных наук и искусств.

Анализ цитирования в 2001-2015 годах более чем 660 000 исследовательских статей, изданных в 2001 году, показал, что публикации, содержащие результаты высокой новизны, в первые три года цитировались реже, чем таковые со средней или малой но -визной. Это вовсе не означает, что статьи с условно малой новизной являются плохими или мало влияющими. Это лишь говорит о том, что для восприятия неожиданных результатов требуется больше времени, чем для более стандартных статей (проблема «окна цитирования»). Поэтому не удивительно, что статьи с высокой новизной результатов публикуются в журналах с более низким импакт-фактором [130].

В качестве известного нам примера приведем обнаружение в высокогорье Пакистана (Каракорум) популяций жаб, в которых и самцы, и самки оказались три-плодными. Несмотря на приведенные доказательства, ряд журналов в США и Европе отказал немецким авторам в публикации этого открытия, ссылаясь на то, что такое невозможно, как написано в любом учебнике по генетике. Поэтому статью пришлось напечатать в журнале с меньшим импакт-фактором [131]. Однако потом выяснилось, что этот уникальный вид амфибий обладает ранее неизвестным вариантом наследования, сочетающим менделевские и клональные механизмы [132]. Нам удалось найти подобные высокогорные изо -лированные популяции в Западных Гималаях Индии (близ Тибета), а затем на Памире и подтвердить их об-лигатную двуполую триплоидию [6, 94].

Индексы цитирования, импакт-фактор и ранг журнала могут весьма различаться при использовании разных баз данных и поисковых систем: WoS, Scopus, Dimensions, Google Scholar (см. выше). Рекомендуется для большей точности использовать их комплексно, дополняя одну другой (см., например, [99]). Однако это повлечет увеличение времени на оценивание результатов.

Даже сам Юджин Гарфилд [68] пришел к выводу, что для оценки работы ученых целесообразнее было бы использовать фактическое влияние статьи (частота ее цитирования), а не импакт-фактор журнала как сурро -гат. Тем более что применение последнего на практике сопряжено с рядом трудностей [121]. Однако индекс цитирования также имеет множество своих недостатков, как было показано во многих исследованиях.

Одна из проблем - это авторское самоцитирование, которое составляет до 36% всего массива цити-

рования при «окне» в 3 года и влияет на импакт-фак-тор журнала. Например, в Норвегии оно по-разному выражено в разных научных областях: минимально в журналах по клинической медицине (17%), экологии (19%), зоологии и ботанике (20%) и максимально в химии и астрофизике (по 31%), что не получило объяснения [39]. Самоцитирование неодинаково в журналах с разным уровнем импакт-фактора [24, 43]. В обычных статьях доля самоцитирования равна 25,5%, а в обзор -ных - 13,9% [73]. Любопытно, что уровень самоцитирования за период с 1779 по 2011 год у авторов-мужчин был на 56% выше, чем у женщин, а в последние два десятилетия, несмотря на увеличение числа женщин в науке, стал на 70% больше [62].

Авторское самоцитирование можно оценивать по-разному. С одной стороны, оно позволяет понять преемственность исследований, а с другой - отражает эгоцентризм автора или неэтичное сознательное желание повысить уровень цитирования своих работ, с чем рекомендуется бороться19 [39, 43, 93]. Однако эксцессы в самоцитировании в известной мере вызваны тем, что именно библиометрические показатели стали использоваться для административной оценки ученых. Поэтому для оценки уровня самоцитирования биомедики из Цюриха [62] даже предложили s-индекс, построенный аналогично индексу Хирша [24].

Помимо авторского, различают также и другие фор -мы самоцитирования: институциональное (цитирование сотрудниками одной и той же лаборатории или института), страновое (одна и та же страна), журналь -ное (статьи одного и того же журнала), издательское (статьи одного и того же издательства) и другие [24].

Накопилось большое число аналитических публикаций и отзывов ученых, известных своими научными достижениями, содержащих критическое отноше -ние к использованию библиометрических индексов для оценки деятельности научных сотрудников и их коллективов [8, 11, 12, 20, 21, 23, 26-29, 32, 34, 42, 54, 63, 73, 91, 92, 97, 102, 108, 112, 120, 121, 126, 127, 130, 141, 143 и многие другие).

Особо следует выделить статью группы западных критиков использования журнального импакт-фактора для оценки качества публикуемых статей [96]. Эта группа интересна тем, что в нее вошли канадский спе -циалист по наукометрии и руководители (директора и ответственные редакторы) таких известных журналов, как Nature, Science, EMBO, eLife, PLOS, а также The Royal Society (London).

Тревожные последствия применения журнального импакт-фактора для оценки исследований давно осознали многие в западных странах, но, увы, не в России. Можно сослаться, например, на Декларацию

19 Будучи биологом, Стивен Лавани [93] предложил классификацию авторского самоцитирования, выделив два рода, каждый из которых содержал по четыре вида самоцитирования.

об оценке исследований (San Francisco Declaration on Research Assessment, DORA, https://sfdora.org/read/)20, Лейденский манифест [80] и британский отчет The Metric Tide [141]21, которые содержат призывы к отмене его влияния.

Против разрушительного применения импакт-фак-тора для оценки деятельности ученых выступил также клеточный биолог Брюс Албертс (Bruce Alberts), главный редактор знаменитого американского журнала Science. Он полностью поддержал критическую позицию Американского общества клеточной биологии, заявленную в выше упомянутой декларации в декабре 2012 года (DORA). Импакт-фактор был назван им суррогатной мерой качества научных статей, используемой для оценки научного вклада ученого, при принятии решения о найме, о продвижении по службе, выделении финансов и т. д. Однако такое зло -употребление (misuse) автоматизированными индексами оказывает весьма деструктивное воздействие на развитие науки [41].

Против тирании «библиометрии как оружия массового цитирования» и за возврат к реальным ценностям науки выступили известные этнолог Антуанетт Молини и химик Джеффри Боденхаузен из Франции и Швейцарии [21], кстати, имеющие высокий уровень цитирования. Примеры с подобными призывами можно приводить бесконечно.

Декларацию DORA поддержали более 150 известных ученых и 75 научных организаций, включая самую крупную в мире Американскую ассоциацию содействия науке (American Association for the Advancement of Science, AAAS, издатель Science), насчитывающую более 120 тысяч членов. Затем, в течение пяти лет декларацию подписали около 12 000 человек и 400 организаций [118]. К 14 декабря 2017 года число отдельных подписавших Декларацию лиц возросло почти до 13 тысяч, а число научных организаций -почти до 900 [26]. После проведения своего анализа от использования импакт-фактора отказался медицинский факультет Бернского университета (Швейцария), который до декларации ДОРА применял его [129].

Похожую позицию заняли многие влиятельные организации и фонды-спонсоры науки в мире [91]. Среди них Исследовательские советы Великобритании (Research Councils UK), Wellcome Trust, Европейская Организация молекулярной биологии (EMBO), государственные Национальные институты здравоохранения (National Institutes of Health, NIH) и Национальный научный фонд (National Science Foundation, NSF)

20 Имеется русский перевод декларации DORA (https://sfdora.org/read/ read-the-declaration-p%d1%83%d1%81%d1%81%d0%ba%d0%b8%d0 %b9/). См. также [26].

21 Поводом для проведения этого независимого изучения влияния нау-

кометрии (буквально «Метрический прилив») стал трагический случай самоубийства сотрудника Imperial College в сентябре 2014 года [141: III].

в США [118, 130], Австралийский исследовательский совет (Australian Research Council), Канадские институты медицинских исследований (Canadian Institutes of Health Research). Все они заявили, что ни при каких обстоятельствах не следует принимать во внимание журнальный импакт-фактор при оценке заявок на гранты. Национальный научный фонд естественных наук в Китае также не требует от заявителей заявок сообщать библиометрические данные [130]. Европейский союз призвал рассматривать содержание представляемых проектов (заявок), а не оценивать их по наукометрии.

Против неправомочного использования этого показателя при оценке исследователей предостерегают и сами научные журналы [56, 57, 112, 122]. Многие из них, например, Nature, Science, Molecular Biology of the Cell, PLoS, eLife и все журналы Американского общества микробиологии (American Society for Microbiology), дистанцировались от импакт-фактора и перестали выкладывать его на своих вебсайтах [118].

В Бразилии гонка за импакт-фактором стала влиять на поведение ученых, особенно молодых, которые стремятся опубликовать свою статью в «престижном» журнале с максимально высоким импакт-фактором, а не в том, который более соответствует их специальности и направлен на их профессиональную фокус-группу, поскольку в последнем случае журнал имеет меньшее значение импакт-фактора [102]. Такое же по -ведение мы наблюдаем и среди российских научных сотрудников, особенно младших поколений. Более того, в Бразилии направления исследований, журналы в которых имеют более низкий импакт-фактор, получают меньше финансирования и в меньшей степени привлекают студентов, что негативно отражается на общей структуре науки в стране [102].

По справедливому замечанию Ричарда Монастер-ского [103], импакт-фактор, некогда задуманный как простой путь для ранжирования научных журналов, стал непременным критерием для пребывания исследователей в должности или для получения грантов. По его выражению, индикатор превратился в «число, пожирающее науку»! Как заключили европейские зо -ологи [52], библиометрические показатели, которыми измеряют эффективность деятельности ученых, это -отрицание самой науки, которую они якобы измеряют. Последствия неосведомленного чрезмерного доверия к ним могут быть коварны.

Британский биолог (Stephen Curry) призвал снабжать журнальные метрики предостережениями об их вреде, по аналогии с антитабачной рекламой на пачках сигарет, справедливо полагая, что эти метрики являются корнем многих зол при оценке исследований [138]. Немецкий главный редактор журнала по морской геологии Бург Флемминг [63], проанализировавший 20 журналов в этой области, пришел к выво-

>

ду, что импакт-фактор - это «великое заблуждение». Поэтому понятен эмоциональный призыв британского молекулярного биолога, Нобелевского лауреата 1993 года Ричарда Робертса [115] относительно им-пакт-фактора:

«<...>. Его никогда не следовало использовать, и он нанес огромный вред науке. Давайте похороним его раз и навсегда!»

Тем не менее, несмотря на обильную доказательную критику библиометрических показателей в плане их практического применения к оценке статей и ученых со стороны большой части научного сообщества в мире, многие ученые и учреждения, различные комиссии по оценке работы исследователей и их групп никак не могут избавиться от ставшей для них привычной позиции ориентации на индексы. В Европе это наблюдалось в Чехии, Испании, Фландрии (часть Бельгии), Италии [130], в скандинавских странах [31].

Различные количественные показатели все чаще становились частью инструментария управлением исследованиями [141] и нередко рассматриваются как простой удобный показатель «качества» ученых, в том числе для отсеивания их при подачи своих резюме или заявок на гранты [91]. Большей частью это происходит в развивающихся странах Азии, Латинской Америки и Восточной Европы, где имеет место некоторое преклонение перед известными западными журналами [110]. В этой группе до сих пор по собственному выбору находится и Россия.

Увы, именно такая пагубная для науки позиция весьма характерна для части российских ученых22 и особенно для управленцев наукой на всех ее этажах.

В оправдание опоры на индикаторы (метрики) указывают на то, что в условиях взрывного характера развития науки использование экспертных оценок ограничено их крайней ресурсоемкостью (нехваткой квалифицированных экспертов, большими затратами времени) и другими проблемами. Кроме того, метрики якобы уже глубоко вросли в ткань науки, формируется новое поколение исследователей с «индикативным мышлением», за которым будущее. Использование индикаторов прагматично безотносительно наличия «глупых чиновников». Оно соответствует развитию "evaluation society" («оценочное общество»), которое характеризуется повсеместностью рейтингов, тотальной измеримостью и сравнимостью [31]. Заметим, что автор этой статьи несколько цинично характеризует ДОРА как «хрестоматийный пример академического популизма с красивой заглавной страницей» и заодно иронизирует над двуличностью самих ученых, критикующих индикаторы, но по факту пользующихся ими.

И.А. Стерлигов23 [31] осознает наличие как положительных, так и отрицательных аспектов наукометрических индексов. Он предложил различать два типа рейтингов: ранжирующие, которые по определению довольно антинаучны24, и категориальные, которые, по его мнению, в науке очень важны и применяются почти везде. В случае последних речь идет о разбиении множества объектов (журналов, ученых, публикаций, организаций, грантовых заявок и т. д.) на несколько, обычно не более пяти, уровней для принятия решений. Такое разбиение может совершаться с помо -щью формальных индексов и/или экспертной оценки.

Даже сторонники журнального импакт-фактора признают, что при оценке деятельности индивидуальных ученых он должен применяться вместе с другими индикаторами и экспертным заключением [110]. Правда, это не мешает морскому биологу А.И. Пудовкину [110] утверждать, что импакт-фактор позволяет просто и быстро отличить «плохих исполнителей» от «хороших». Идентификация первых, по его мнению, проста: раз нет публикаций в журналах с высоким им-пакт-фактором, то и цитирование будет низким, если вообще будет. А далее, вероятно, должны последовать столь же простые практические административные выводы, о чем, правда, сам автор не пишет. С такой незамысловатой «топорной» логикой можно погубить не одного полезного специалиста, например, в области зоологии или ботаники. Исходя из нее, необходимо было бы давно уволить выдающегося математика Г.Я. Перельмана (см. ниже).

Многие недостатки, указанные критиками журнального импакт-фактора, попытались исправить в другой базе данных, названной Индикаторы эффективности журнала (Thomson Scientific database Journal Performance Indicators, JPI). В ней каждый источник связан со своим собственным уникальным цитированием, что делает подсчет импакта более точным. Это полезно для решения, какой журнал лучше купить для библиотеки, или куда лучше (престижнее) послать свою рукопись. Однако использование даже Journal Performance Indicators для оценки ученых вместо реального цитирования их работ весьма спорно [69].

Большинство ученых-наукометристов признают, что в общем случае не существует одного или даже двух количественных параметров, на основании кото -рых можно было бы уверенно и всеохватывающе выстраивать иерархию и рейтинги участников научного процесса. Принятие решений должно осуществляться на базе многоаспектного анализа, принимающего во

22 Согласно социологическому опросу российских экономистов, 30,1% респондентов считает, что «цитируемость и есть критерий качества публикации» [27].

23 Стерлигов Иван Андреевич - советник и начальник Аналитического отдела Высшей школы экономики (Москва).

24 «Как мы можем строго научно утверждать, что Колмогоров выше или ниже, а то и "круче" Гильберта? По числу ссылок в WoS? Сама постановка такой задачи вызовет у математика недоумение. У его начальника может не вызвать <...>» [31: 57].

внимание целый ряд характеристик, которые отражают различные стороны научной деятельности [22, 23].

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В целом, благодаря критике, сторонники библиоме-трических показателей в последние десятилетия провели большую работу по усовершенствованию индексов, подсчет которых становился все сложнее и более трудоемким. Фактически сформировалось новое самодостаточное научно-аналитическое направление со своими журналами и институциями. Библиометрия активно обсуждается и в России25. Это можно только приветствовать в рамках анализа тенденций развития науки на национальном и международном уровнях, как вклад в развитие поисковых информационных систем, как помощь библиотечному делу в условиях интернета и т. д. Но только при одном условии: они не должны становить -ся инструментом для решения судеб исследователей.

Удивительно, но даже руководители научного отдела издательства Elsevier уже более 20 лет назад предостерегали от формального использования журнального импакт-фактора, разработанного Юджином Гарфилдом и его институтом (ISI), проанализировав целый ряд обстоятельств, влияющих на его значения. Более того, отмечая полезность анализа индексов для понимания развития тех или иных направлений науки и важности того или иного журнала, они прямо указали на то, что индексы, построенные на цитировании, следует применять с большой осторожностью, и их нельзя использовать для прямой оценки качества исследования [42]26.

Подводя итоги своей многолетней деятельности, сам Юджин Гарфилд [69] пришел к выводу, что использование журнального импакт-фактора при оценке деятельности ученых имеет присущие этому показателю опасности. В идеале эксперты должны читать каждую статью того, кого оценивают, и выносить свои личные суждения.

Наукометрия и издательский бизнес

С некоторых пор речь уже не идет о выплате авторских гонораров. Напротив, именно авторы, по сути, содержат издательства. И чем выше формальные показатели авторитетности издательства во всевозможных рейтингах, тем дороже обходится авторам их публикация. Средняя стоимость публикации для автора в журнале, реферируемом библиографическими системами WoS и Scopus и на этом основании принимаемыми к отчетам по грантам Российского научного фонда (РНФ),

25 См., например, специальный выпуск «Наукометрия и экспертиза в управлении наукой» сборника «Управление большими системами» (№ 44, 2013), изданный московским Институтом проблем управления имени В.А. Трапезникова РАН ( http://ubs.mtas.ru/archive/index. php?SECTION_ID=685); [1].

26 Mayur Amin — директор, а Michael A. Mabe — заместитель директора Elsevier Science Group (publishing strategy, research interests and expertise). Впервые данная статья была опубликована в 2000 году [42: 347].

составляет около 2000 американских долларов, евро или швейцарских франков (журналы в PLOS, BMC, MDPI). Если журнал имеет высокие показатели в рейтингах, то цена доходит до 4-6 тысяч за стандартную публикацию (например, журналы издательства Frontiers).

Для авторов из стран Европы и Северной Америки имеется широкий спектр скидок, основанных на участии в поддержке издательств образовательными и исследовательскими учреждениями. Однако наша страна не участвует в таких проектах, поэтому стоимость публикации полностью ложится на плечи авторов. Некоторые издания предлагают постраничную тарификацию; в этом случае стоимость зависит от объема рукописи. Такая тарификация часто встречается в восточноевропейских издательствах, а также в издательствах республик бывшего СССР. Тем не менее эти журналы далеко не всегда удовлетворяют требованиям критериев WoS и Scopus, а значит и РНФ.

Издательство Springer, чья редколлегия с некоторых пор переехала в Индию и имеет возможность языкового редактирования на уровне носителей, в зависимости от финансовых возможностей авторов предлагает несколько уровней переработки текста в соответствии с требованиями грамматики английского языка. Широкая государственная поддержка периодических научных изданий обеспечила авторам, например из Китая, Южной Кореи и Индии, возможность выбора и помощь с платным редактированием текста. Иногда такая поддержка оказывается авторам безвозмездно, например, в журналах издательства LIDSEN. Однако несмотря на высокий уровень цитирования, они не реферируются в WoS, хотя в последнее время стали реферироваться в Scopus.

Несомненно, можно понять мощное лоббирование индексов (импакт-фактора) со стороны влиятельных западных корпораций, продвигающих WoS и/или Scopus. Ведь для них это - бизнес, приносящий неплохие доходы, а в случае со Scopus, связанным с транснациональной издательской компанией Elsevier (точнее Reed Elsevier), заодно еще и продвижение своих журналов. Как показали экономисты [47, 55], имеется положительная связь между уровнем цитирования (или импакт-фактором журнала) и ценами.

В связи с этим особенно странным выглядит требо -вание управленцев к ученым публиковаться в высоко -рейтинговых журналах, издатели которых, пользуясь высокими формальными показателями, взвинчивают стоимость своих услуг [127].

Пять крупнейших издательств ("big publishers"), включая Wiley-Blackwell, Springer Nature, Elsevier и Taylor & Francis, фактически создали олигополию на мировом рынке научных журналов, увеличив долю своих изданий в естественных науках и медицине с 20% в 1973 году до 53% в 2013-м. Рост числа статей, издаваемых Elsevier, увеличился с 1990 года в 1,5

>

раза и достиг 24,1%, у Springer - в 2,9 раза и составил 11,9%, у Wiley-Blackwell - в 2,2 раза до 11,3%, у Taylor & Francis - в 4,9 раза до 2,9% мирового объема [90].

Такая же монополизация журнального рынка происходила в социальных и гуманитарных науках, где пять главных издательств захватили к 2013 году 51% мирового рынка (в 1973 у них было только 10%). У Elsevier доля составила 16,4% всех статей в этой сфере (рост 4,4 раза), у Taylor & Francis - 12,4% (рост в 16 раз), у Wiley-Blackwell - 12,1% (рост в 3,8 раза), у Springer - 7,1% (рост в 21,3 раза) и у SAGE Publications - 6,4% при росте в 4 раза [90].

Захват рынка осуществлялся двумя путями: созданием новых журналов и приобретением действующих. В состав корпорации Elsevier вошли многие другие издательства разной величины, в том числе Academic Press, North-Holland, Pergamon Press, Cell Press, Harcourt и т. д. В 2004 году Springer присоединил известное издательство Kluwer Academic Publishers. В 2001-2004 годах Wiley-Blackwell поглощал в среднем по 39 журналов в год [90]. В итоге Elsevier, Springer и Wiley-Blackwell скупили многих своих конкурентов и в настоящее время публикуют в своих журналах 42% общего числа статей в мире.

В отличие от ситуации в химии, клинической медицине, инженерных науках, науках о Земле, изда-тельства-«акулы» наименьшего успеха достигли в контроле журналов по физике, где им противостояли сильные научные общества, сами издающие профильные журналы [90].

Издательства Wiley-Blackwell, Springer Nature и Elsevier прямо обвиняются в заоблачных ценах за публикацию научных статей. Цены на научные статьи только за период с 1984 по 2002 год выросли в 6 раз, а в США с 1984 по 2010-й - в 8 раз, далеко обогнав инфляцию [123]. Особой жадностью отличилось издательство Elsevier, цены у которого в 2000-х годах были почти в 6,5 раза выше средних. Алчная политика привела к тому, что большинство научных библиотек не в состоянии покупать полные пакеты журналов, хотя те и нужны исследователям [47]. Поэтому не удивительно, что от покупки журналов отказались даже такие небедные организации, как Библиотека Конгресса США, Гарвардский, Стэнфордский, Калифорнийский и другие университеты.

К этому надо добавить введение, начиная с 1990-х годов, издательствами в свою финансовую стратегию платного доступа (так называемые пэйволлы, paywall) к цифровым версиям статей, выложенным на сайтах журналов, что стало возможным благодаря развитию интернета. Так, Elsevier создал платный портал ScienceDirect, на котором в 2017 году было выложено 13 миллионов статей и 33 000 книг. Фактически это - невозможность ознакомиться с содержанием статьи до предварительной оплаты (разовая

или постоянная подписка). Стоимость прочтения (или скачивания) статьи варьирует от 10 и более долларов, в среднем примерно 30-40 американских долларов.

В конце января 2012 года западные ученые начали бойкот Elsevier, отказавшись от всех форм сотрудничества с этим издательством, включая отказ публиковаться в его журналах. Десять редакторов журналов, приносящих сверхприбыли издательству, в знак протеста ушли в отставку. В 2015 году даже Ассоциация университетов Нидерландов пригрозила бойкотом Elsevier, в результате чего издательству пришлось пойти на уступки. С 2018 по 2023 год почти все исследовательские институты Германии отказались от подписки на журналы Elsevier из-за их высокой цены. Перестали сотрудничать Академия наук Франции, университеты Венгрии, Норвегии, Швеции, Южной Кореи, Тайваня, Перу и Украины (с июня 2020). Elsevier активно борется с политикой открытого доступа к публикациям, используя свои большие лоббистские возможности [50, 59, 117]27.

Подсчеты показали, что средняя стоимость журнальной подписки в коммерческих издательствах, примерно в три раза выше, чем в некоммерческих; причем наиболее дорогие они у Elsevier [47, 55]. Публикация научных журналов превратилась в одну из наиболее прибыльных отраслей в мире с рентабельностью свыше 30%28. Так, рентабельность в период 19911997 годов у компании Elsevier (Scientific, Technical & Medical Division) выросла с 17 до 26%, а в 2006-2013 годах с 30,6 до 38,7%, достигнув прибыли в 2 миллиарда американских долларов в 2012 и 2013 годах [90, 123]. Поэтому понятен призыв печататься не в коммерческих журналах, а в изданиях научных обществ, поскольку в последнем случае грантовые деньги на оплату статьи пойдут на благо самого научного общества, а не в карман корпорации [127].

Активная монополизация мирового рынка научных изданий осознается и в нашей стране (см. [10]). Однако российские ученые в бойкоте Elsevier, естественно, не участвовали, так как Министерство образования и науки РФ (далее Минобрнауки РФ)29 в приказном

27 См. также https://en.wikipedia.org/wiki/Elsevier.

28 Кстати, цена журналов на английском языке выше на 20-60% по сравнению с изданиями на других языках. Имеются пока необъяснимые различия в цене журналов в зависимости от научной области: самые дешевые в правоведении, самые дорогие в физике и химии, промежуточные в экономике [55].

29 Министерство, отвечающее за науку в России, несколько раз меняло свое название: Министерство науки и технической политики РСФСР (ноябрь 1991), Министерство науки, высшей школы и технической политики РСФСР (ноябрь-декабрь 1991), Министерство науки, высшей школы и технической политики РФ (1991-1993), Министерство науки и технической политики РФ (1993-1996), Министерство науки и технологий РФ (1997-2000), Министерство промышленности, науки и технологий РФ (2000-2004), Министерство образования и науки РФ (2004-2018), Министерство науки и высшего образования РФ (с 2018).

порядке заставляло их делать всё ровно наоборот, то есть печататься как раз в журналах, индексированных в Scopus, принадлежащем Elsevier! Даже среди западной научной общественности вызвала удивление позиция российского министерства, направленная на такое сотрудничество и ориентированная на коммерчески успешные (алчные) журнальные проекты. Более того, российские журналы были отданы министерством на аудит западным издательствам, в частности Nature Publishing Group (см. http://www.jspb. ru/academic_joumals.pdf).

Неизбежно возникает вопрос, почему многие отечественные администраторы и чиновники на всех уровнях, от руководителей институтов и вузов до руководства Минобрнауки РФ, в течение многих лет так рьяно отстаивают не национальные российские, а чужие интересы, связанные с коммерцией, занимая явно компрадорские позиции? Ответ на этот вопрос требует тщательного всестороннего расследования и не только в научной области.

Отечественная административная политика по оценке деятельности ученых

В советское время существовала система оценки научной деятельности, основанная на отчетах о выполнении тематик государственного задания. В такой системе были как плюсы (предполагалась экспертная оценка), так и минусы. Однако из-за формальности отчетов терялся их смысл и развивались предпосылки для снижения эффективности работы целых организаций.

Тем не менее система отчета научных сотрудников и оценка их научной деятельности в целом была более объективна и демократична, чем сейчас. Сотрудник должен был раз в 5 лет выступить с устным (помимо бумажного) отчетом на Ученом совете института, куда могли прийти и его заинтересованные коллеги. Могла при желании состояться открытая дискуссия (за или против). Были понятны доводы сторон. Сейчас же приказом директора создается комиссия, которая рассматривает «бумажки» в закрытом режиме, без участия самого сотрудника. Тот, естественно, не ведает, что там происходило, если с ним потом не поделятся его друзья-коллеги из членов комиссии.

В поздне-советское время, по крайней мере, в системе Академии наук СССР в качестве мерила стали использовать количество публикаций сотрудника за отчетный период. Соответственно «научный народ» ответил резким увеличением числа тезисов докладов и коротких сообщений в материалах конференций. Стали также дробить большие статьи на ряд более коротких, чтобы увеличить их число [19]. Такая практика получила ироничное название salami slicing («нарезание колбасы»), а статьи - salami publications

[88, 125]. Это позволяет искусственно увеличивать показатели благодаря росту числа опубликованных работ, а также путем самоцитирования, так как иначе невозможно связать разрозненные куски воедино. Научная ценность всего труда от такого «нарезания», может быть, и не падает, но это формирует не совсем верное представление о результатах и искажает восприятие достижений [101].

Вообще-то в те годы среди «серьезных» ученых (например, среди физиков-экспериментаторов) считалось неприличным иметь много статей в году, так как это свидетельствовало о легковесности научного поведения. Респектабельно было опубликовать одну-две солидных статьи в приличном журнале. В гуманитарных и классических биологических науках издание монографии, над которой работали несколько лет, оценивалось как предел мечтаний.

Другой вариант увеличения числа статей (salami science) - повторное опубликование одних и тех же данных в другом журнале [88]. Для борьбы с обоими вариантами искусственного умножения публикаций предлагаются разные методы [100, 125]. Однако такие надуманные «нарезки» надо отличать от публикации серии статей (частями) на одну тему вместо одной слишком крупной публикации [88]. Нередко это вызвано требованиями журнала по числу страниц. Не является «нарезкой» предварительная краткая публикация полученных данных с последующей подробной публикацией [125]. Иногда ту или иную статью, кото -рая привлекает внимание, перепечатывают в других изданиях по инициативе редакторов. В таких случаях это надо четко указывать.

20 июня 1993 года Правительством РФ по предложению Администрации Президента РФ был создан Центр информационных технологий и систем органов исполнительной власти30. ЦИТиС был определен в ка -честве российского участника Международного цент -ра по информатике и электронике и собирает всю информацию о научных исследованиях, проводимых в нашей стране за счет средств федерального бюджета. Главными целями деятельности ЦИТиС являются исследование, внедрение и развитие информационных, телекоммуникационных и других систем на основе средств вычислительной техники, связи и оргтехники для создания информационно-коммуникационной инфраструктуры органов государственной власти и управления РФ. Создание, модернизация и эксплуатация информационной системы обеспечиваются Минобрнауки России, являющимся оператором и заказчиком информационной системы (см. Постановле-

>

30 Федеральное государственное автономное научное учреждение «Центр информационных технологий и систем органов исполнительной власти имени А.В. Старовойтова» координируется Федеральной службой по надзору в области образования и науки (Рособрнадзор). См. https://www.citis.ru/citis_about.html.

ние Правительства № 327 от 12.04.2013 с последующими изменениями; https://base.garant.ru/70359576/).

Активно пропагандировавшие свои методы аналитики компаний Thomson Reuters и Elsevier с помощью российских лоббистов нашли способ убедить чиновников Минобрнауки РФ в большей эффективности именно своих инструментов, которые стали обязательными31. За государственные средства во все институты и образовательные учреждения страны были куплены лицензии на использование WoS и Scopus. Остался без внимания откровенный конфликт интересов с частными владельцами зарубежных периодических изданий, которые не были заинтересованы ни в развитии нашей науки, ни в сохранении научных периодических изданий в России. Всероссийским институтом научной и технической информации (ВИНИТИ) РАН были изданы методички для российских журналов, в том числе медицинских, по подготовке их к включению в зарубежные индексы цитирования (О.В. Кириллова: [13, 15]), а также красиво оформленные рекламные материалы (А.П. Локтев32: [17]). В 2008-2013 годах в Scopus попали 25 российских журналов, из них 8 за первую половину 2013 года (О.В. Кириллова: [13]). При участии Thomson Reuters в Екатеринбурге на русском языке было издано руководство по наукометрии (М.А. Акоев и соавт.: [1]).

Начало активного внедрения библиометрической оценки деятельности научных сотрудников и учреждений на высшем официальном уровне датируется 7 мая 2012 года33, когда был подписан Указ Президен-

31 В советское время были созданы два института, предоставлявшие сведения о научных публикациях, включая зарубежные издания. В 1952 году был учрежден Институт научной информации, затем переименованный во Всесоюзный институт научной и технической информации (ВИНИТИ), который с 1953 года стал издавать реферативный журнал из более чем 200 отдельных ежемесячных выпусков по естественным, техническим и точным наукам. Короткие рефераты на публикации составляли на платной основе научные сотрудники из разных учреждений. На эти выпуски, стоимость которых была невысокой, на почте могли подписаться не только организации, но любые желающие. Например, один из авторов (ЛБ) несколько лет готовил для ВИНИТИ рефераты иностранных статей по герпетологии и выписывал «Зоологию позвоночных», а также выпуск по общей и эволюционной биологии. С 1998 года ВИНИТИ РАН - головная организация Государственной системы научно-технической информации (ГСНТИ) России, с 2010 года базовая организация государств-участников Содружества Независимых Государств (СНГ) по межгосударственному обмену научно-технической информацией. В 1969 году был создан Институт научной информации по общественным наукам (ИНИОН), ставший крупнейшим центром научной информации в области социальных и гуманитарных наук.

32 Кириллова Ольга Владимировна - кандидат технических наук, эксперт-консультант БД Scopus, член Advisory Board Elsevier Russia и Консультативного совета по формированию контента БД SCOPUS (Content Selection and Advisory Board, CSAB), Elsevier (2009—2012). Локтев Андрей Петрович — кандидат экономических наук, консультант по ключевым информационным решениям Elsevier S&T в России и Республике Беларусь.

33 Министром образования и науки в это время был Андрей

та Российской Федерации № 599 «О мерах по реализации государственной политики в области образования и науки». В Указе было предусмотрено увеличение к 2015 году доли публикаций российских исследователей в общем количестве публикаций в мировых научных журналах, индексируемых в базе данных WoS, до 2,44%. Как позже отметили А.Г. Голубев и соавт. [8: 2]: «<...> в истолковании юристов и экономистов, доминирующих в управленческих структурах, в зависимость от которых поставлена наука, достичь указанной цели надлежало всеми правдами и неправдами, причем неправды в конечном счете возобладали».

2 ноября 2013 года был принят Федеральный закон от № 291-ФЗ «О Российском научном фонде и внесении изменений в отдельные законодательные акты Российской Федерации». В критериях конкурсного отбора программ и проектов, подаваемых в РНФ, а также в требованиях отчетности по выполняемым проектам, была прямо записана ориентация на журналы, индексированные в Scopus и WoS, без публикации в которых грант практически получить невозможно. Таким образом, главный (а потом и единственный) федеральный фонд, финансируемый из российского бюджета, открыто демонстрировал пренебрежение к отечественным журналам, что было воспринято российскими учеными, особенно молодого и среднего возраста, как однозначный сигнал к ориентации только на западные журналы.

10 декабря 2013 года вышел Приказ Минобрнауки РФ № 1324 «Показатели деятельности образовательной организации высшего образования, подлежащей самообследованию». В Приложении № 4 («Показатели научной деятельности вузов») подпункты 2.4 и 2.5 требовали от вуза указывать число статей в научной периодике, индексируемой в системах цитирования WoS и Scopus (соответственно) в расчете на 100 научно-педагогических работников34. Подпункт 2.6 касался числа публикаций в РИНЦ. Доктор юридических наук Н.А. Боброва [2] назвала этот приказ антиконституционным.

Продолжение принудительной компании по интеграции в WoS было связано с так называемой реформой Российской академии наук, формально инициированной Минобрнауки РФ летом 2013 года и официально законченной в 2018 году. Было заявлено, что реформа будет способствовать развитию науки в стране и уси-

Александрович Фурсенко (р. 1949), который занимал этот пост с 9 марта 2004 года. Через две недели, 21 мая 2012 года, он стал помощником Президента Российской Федерации. Сторонник Болонской системы высшего образования (24 мая 2022 года Россия начала выход из Болонского процесса) и ЕГЭ. Награжден государственными, региональными и иностранными наградами «за большие заслуги в развитии образования и науки» (см. статью в «Википедии»). 34 https://normativ.kontur.ru/document?moduleId=1&documentId=295062. Подпункты 2.4 и 2.5 не применяются с 08.07.2022 до 31.12.2024 (Приказ Минобрнауки РФ от 06.05.2022 № 442, пункт 2).

лению ее позиции на международном уровне, росту эффективности и наукометрических показателей работы ученых, а также избавлению от злоупотреблений в околонаучной сфере.

На деле всё свелось к разгрому РАН и созданию сомнительного Федерального агентства научных организаций (ФАНО), под ведомство которого перешло имущество РАН, включая институты. Резко выросло влияние бюрократии, не имеющей отношения к исследованиям. Появилось большое число управленцев («эффективных менеджеров») из финансово-экономического блока, очень уверенных в себе, но плохо понимающих специфику научной деятельности. Вскоре ФАНО, созданное для управления имуществом, фактически подмяло под себя институты и стало вмешиваться в их работу, чем вызвало возмущение подавляющего большинства академического сообщества, как членов РАН, так и научных сотрудников институтов. В 2018 году ФАНО к большой радости научного сообщества было упразднено. Однако радость была недолгой, так как вскоре бывший директор ФАНО и финансист (!) был назначен министром науки и высшего образования России35.

В результате реформы власти надеялись повысить общее число научных публикаций и показатель индекса цитируемости, чтобы поднять место России среди других стран в мире. Необходимость реформы РАН объяснялась также якобы низкой, согласно наукометрическим показателям, эффективностью работы академии. Однако объективный анализ ситуации говорит о другом [5].

Согласно международным данным, по удельному весу страны в общемировом числе статей в научных изданиях, индексируемых в системе WoS, в 2018 году Россия занимала 14-е место, между Бразилией и Ираном, с показателем 2,97% (общее число статей в мире - 1 983 790). Однако указанной базой данных не учитывается большое число российских журналов и книг. Поэтому реальная доля российских публикаций была выше. По внутренним затратам на исследования и разработки в процентах к валовому внутреннему продукту (ВВП) в 2018 году Россия находилась на 36-м месте, между Ирландией и Хорватией, с пока-

35 Директором ФАНО стал Михаил Михайлович Котюков (р. 1976), который до этого работал заместителем министра финансов и занимался вопросами финансирования социального сектора, включая науку. В 2018 году после упразднения ФАНО он был назначен министром науки и высшего образования РФ. По мнению огромного большинства научных работников, а также членов РАН, нанес своей деятельностью большой ущерб развитию науки в стране, а также провалил выполнение Указа Президента России № 597 от мая 2012 года, согласно которому зарплата ученого должна была быть равна двойной (200%) средней по региону (см. [4]). 15 января 2020 года М.М. Котюков неожиданно был отправлен в отставку вместе с Правительством Д.А. Медведева и вернулся на должность заместителя министра финансов. В сентябре 2023 года был избран губернатором Красноярского края. Награжден орденами и медалями.

зателем 0,99%. По численности персонала, занятого исследованиями и разработками, в расчете на 10 000 занятых в экономике в том же 2018 году России досталось 33-е место, между Литвой и Италией, с показате -лем 57 человек на 10 000 занятых [9]36.

Если сопоставить рейтинги по численности исследователей и количеству публикаций (к тому же заниженному), то уровень публикационной активности наших ученых оказывается почти в 2,5 раза выше, чем можно было бы ожидать. Если же дополнительно учесть низкий уровень финансирования исследований, то степень эффективности российской науки станет еще выше (см. также [22]).

Это подтверждается и свежими данными по 15 наиболее развитым странам мира за 2022 год. По американским сведениям [10537, Figure PBS-2, Table PBS-1, p. 11 и 13], по числу публикаций, индексируемых в базе Scopus, Россия заняла 8-е место в мире (2,52% от общего числа статей в мире, 3 344 037), опередив Южную Корею, Канаду, Францию и других. Рост числа публикаций в России составил 2,3 раза, с 36 532 в 2012-м до 84 252 статей в 2022 году.

Для сравнения приведем цифры по опережающим нас странам: Китай (1-е место, 898 949 статей, 26,88%), США (2-е место, 457 335, 13,68%), Индия (3-е место, 207 390, 6,20%), Германия (4-е место, 113 976, 3,41%), Объединенное Королевство (5-е место, 105 584, 3,16%), Япония (6-е место, 103 723, 3,10%) и Италия (7-е место, 90 586, 2,71%).

Однако структура научных исследований в разных странах оказалась различной [105, Figure PBS-4, p. 15]. Так, в США публикации в области медицины и биологии составили 51% всех американских статей, а инженерные, информационные науки и физика суммарно дали всего лишь 23%, тогда как в Китае впереди оказались именно они (46%), а не медицина и биология (26%). В странах Европейского союза статьи в последних областях в сумме достигли примерно 41%. Россия заняла 1-е место в мире по росту статей в области медицины, почти 450% от 2010 к 2022 году, и вслед за Индией - 2-е место в области инженерных наук, 230% [105: 18].

По данным за 2020 год, среди 15 наиболее развитых стран мира чаще всего российские статьи цитировались коллегами из Европы (Италия, Германия, Франция, Великобритания), затем из США, Австралии, Канады и Ирана. Меньше внимания российским публикациям уделяли исследователи Китая, Японии, Индии, Южной Кореи и Бразилии [105: 42].

>

36 К сожалению, эти данные нельзя сопоставить с таковыми за 2022 год [7], так как отчетность в последнем сузилась до 13 стран, включая Россию.

37 Авторами отчета, представленного National Science Board, являются научные аналитики Benjamin Schneider, Jeffrey Alexander и Patrick Thomas [105: 64].

Любопытно, что отечественные статистики науки [7] отвели России в 2022 году лишь 12-е место в мире по суммарному числу публикаций из списка Scopus (109 222, 3% общего мирового числа), хотя в 2020 году она была на 8-м месте с 12 7924 публикациями. В 2022 году, по их данным, Канада (8-е место), Франция (9-е место) и две неназванные страны (10-е и 11-е места) опередили Россию [7: 12 и 58].

Конечно, ко всем этим цифрам надо относиться спокойно, так как вряд ли уровень научных исследований, например, в Индии, выше, чем у германских или британских ученых. Кроме того, число отечественных статей занижено, поскольку в нашей стране число журналов вне списка Scopus достаточно велико.

Таким образом, в целом рассуждения чиновников о якобы недостаточной эффективности российской науки связаны не со слабой деятельностью самих ученых, работающих на энтузиазме в условиях явно недостаточного финансирования, а должны относиться к плохой системе управления наукой и угнетающему воздействию всё возрастающей бюрократии. Отметим, что, начиная с 2010 по 2022 год, финансирование науки в стране неуклонно падало, от 1,13 до 0,94% от ВВП [7: 38].

В соответствии с распоряжениями федеральных властей по всей стране началась кампания по попаданию отечественных журналов в список Scopus, получившая среди ученых меткое название «оScopление» российских журналов. На многочисленных семинарах (вебинарах) представители Scopus рассказывали, что надо предпринять, чтобы достичь желанного статуса. При этом происходило (и происходит) откровенное вмешательство в редакционную политику журналов. Некоторые журналы получают отказ от включения в Scopus, что вовсе не означает, что журнал плохой.

Так, совсем недавно такой отказ получили «Истори-ко-биологические исследования» (Санкт-Петербург). Это - единственный в нашей стране по данному направлению журнал вполне академического уровня, с международной редколлегией, включающей известных специалистов из разных стран в области истории биологии. Причина отказа несколько издевательская: история российской биологии якобы не представляет интереса для мировой науки (А.И. Ермолаев, устн. сообщ. 4.03.2024). В прошлом году Scopus рекомендовал другому петербургскому журналу, который входит в их список, не публиковать интересную статью по истории отечественной зоологии. К сожалению, редколлегия пошла на поводу у столь сомнительного указания.

Внесение в список Scopus и особенно в WoS до сих пор расценивается в учреждениях как большое, радостное событие, которое сразу же отражается на сайтах, рапортуется в отчетах «наверх» и т. д. В целом это напоминает поведение туземцев, неожиданно по-

лучивших от иноземцев стеклянные бусы. Известны случаи, когда руководство вуза грозило закрыть (и закрывало) свой ведомственный журнал, если тот не попадал в список Scopus. Само научное содержание журнала начальство не волновало.

Результатом погони за показателями о публикациях в западных журналах, обусловленной приказами Минобрнауки РФ, стало возмущение научных сотрудников. Однако никакие обращения, призывы, инициативы со стороны главного заинтересованного в науке участника, то есть самого научного сообщества, не действовали на тех, кто принимал и реализовывал пагубные решения, ведущие к разрушению отечественной системы научных журналов и научного книго -издания, а также, что еще прискорбнее, к насаждению неуважения, а подчас и презрения к русскоязычным публикациям среди российских исследователей молодого и среднего поколений [8].

«Игра в цифирь» стала главным инструментом бюрократического управления наукой на всех уровнях: от Администрации Президента, Минобрнауки РФ, руководства РАН и ВАК до дирекций научных организаций, ректоратов вузов и фондов поддержки науки и образовании. Цитируемость, трактуемая как измеритель эффективности науки, превратилась «в административную дубинку». Такая разновекторность мнения научного сообщества и противоположной по направлению административной политики была справедливо названа «управленческим провалом», а точнее наукометрическим провалом со стороны государства [27].

Гонка за цитированием и другими показателями превратилась в самоцель. Все участники процесса: авторы, научные организации, журналы, - в какой-то степени пытаются манипулировать данными, чтобы повышать свои показатели, ведь от этого зависит многое [10].

На политику Минобрнауки России бурно отреагировал рынок околонаучных услуг. На электронные адреса научных сотрудников посыпались многочисленные предложения, в которых предлагалось за определенную плату обеспечить публикацию статьи в Scopus или WoS. Мы (ЛБ) провели небольшое расследование, запросив расценки. Так, в декабре 2021 года нам пообещали помочь с ростом индекса Хирша, «в построении карьеры ученого и публиковать научные статьи в Scopus и WoS». Оказалось, что можно самому статью даже не писать, а получить место соавтора в публикации Scopus Q1-4 или WoS Core Collection за 20-30 тысяч рублей. В некоторых случаях «продавцы престижа», думая, что клиент клюнул, даже не скрывали своего адреса (Украина) и предлагали гарантии с заключением юридически обязывающего договора (Москва).

В литературе можно найти и другие расценки на размещение статей в журналах: от 42 тысяч рублей в Scopus и от 42-52 тысяч рублей в WoS. Для сравнения:

публикация в списке ВАК стоила всего от 10 тысяч рублей [26]. Указывалась также стоимость от 3000 до 4000 американских долларов за статью в Scopus [2].

Такая торговля статьями в рейтинговых журналах Scopus существует и за рубежом. Так, один наш колле-га, живущий в Италии, получил сведения о возможно -сти опубликоваться в 2019 году (с указанием месяца) в журналах Scopus Q3 по экологии, зоологии, экономике, бизнесу в Англии, Q1 по медицине в Италии, Q3 по медицине в Канаде, Q3 по гуманитарным, социальным наукам, искусству и культуре в Венесуэле. Сообщалось, что возможны и другие варианты.

Российский индекс научного цитирования (РИНЦ). В 1999 году по инициативе Российского фонда фундаментальных исследований (РФФИ)38 была создана платформа eLibrary.ru, которая должна была, среди прочего, обеспечить российским ученым электронный доступ к ведущим иностранным научным изданиям. В 2005 году частная компания «Научная электронная библиотека» вместе с eLibrary. ru победила в конкурсе Минобрнауки РФ на создание национального индекса научного цитирования, предложив Российский индекс научного цитирования (РИНЦ). Его инициаторами стали президент компании Pleiades Publ. Inc.39, американский бизнесмен российского происхождения А.Е. Шусторович и председатель РФФИ академик РАН М.В. Алфимов. eLibrary. ru стала ведущей электронной библиотекой научной периодики на русском языке в мире.

РИНЦ - это национальная библиографическая база данных научного цитирования, аккумулирующая более 12 миллионов публикаций российских авторов, а также информацию о цитировании этих публикаций из более 6000 российских журналов. Она предназначена не только для оперативного обеспечения научных исследований актуальной справочно-библиографиче-ской информацией, но является также аналитическим инструментом, позволяющим осуществлять оценку результативности и эффективности деятельности научно-исследовательских организаций, ученых, уро-вень научных журналов и т. д. (https://www.elibrary.ru/ projects/citation/cit_index.asp).

38 В 2020 году полезный фонд РФФИ был упразднен путем слияния с Российским научным фондом (РНФ), который стал единственным государственным фондом финансирования науки в стране. Уничтожение РФФИ вызвало волну возмущений в научном сообществе и расценивается как грубая ошибка в федеральной научной политике с печальными последствиями. На базе РФФИ в 2022 году был создан Российский центр научной информации, РЦНИ (см. https:// rcsi.science/org/).

39 Американская издательская группа Pleiades Group издает свыше 180 журналов на английском языке практически по всем направлени-

ям современной науки, контролирует англоязычные версии бывших журналов РАН. Свою цель видит в наведении мостов между учеными Восточной Европы и других стран. Сотрудничает с компанией Springer Nature, которая является официальным дистрибьютором журналов Pleiades Group.

Основной целью проекта РИНЦ было создание объ -ективной системы оценки и анализа публикационной активности и цитируемости отечественных исследователей, организаций и изданий. Решение о создании национального индекса научного цитирования было обусловлено тем фактом, что лишь 1/10 от всех публикаций российских ученых попадала в международные базы данных научного цитирования WoS или Scopus. Кроме того, многие направления российской науки (например, общественно-гуманитарные) в них вообще практически не были представлены.

Создание национальной базы данных не было российским изобретением. Подобные базы сформированы в Японии, на Тайване, в Сингапуре, Индии, существуют индексы испаноязычной литературы, формируется арабский индекс. Наиболее известны индексы научного цитирования по общественным, естественным и техническим наукам КНР. Появление таких баз данных, помимо прочего, связано с недоста -точным отражением национальной науки в международных базах данных по цитированию.

«<...> Кроме языковых ограничений, есть и другое обстоятельство: потребителю информации из международной базы данных что-то будет интересно, а что-то нет. Можно обсуждать объективность отбора журналов в эти базы, но если журналы по какой-то тематике мало интересны с точки зрения международного потребителя, в базу цитирования они скорее всего не попадут, что и объясняет необходимость национального индекса научного цитирования» [10: 148-149].

В основе системы РИНЦ лежит библиографическая реферативная база данных, в которой индексируются статьи в российских научных журналах. В последние годы в РИНЦ стали включаться также и другие типы научных публикаций, как-то: доклады на конференциях, монографии, учебные пособия, патенты, диссертации. База содержит сведения о выходных данных, авторах публикаций, местах их работы, клю -чевых словах и предметных областях, а также аннотации и пристатейные списки литературы. Помимо российских, в РИНЦ стараются учитывать и издания из сопредельных стран: Украины, Белоруссии, Казахстана, Армении, Болгарии и других [10].

Утверждается, что РИНЦ на основе объективных данных позволяет оценивать результативность исследовательской работы и детально исследовать статистику публикационной активности более 600 тысяч российских ученых и 11 тысяч научных организаций, относящихся ко всем отраслям знаний. Хронологиче -ский охват системы - с 2005 года, но по многим источникам глубина архивов больше.

Приказом Минобрнауки РФ № 406 от 10 октября 2009 года в число показателей результативности работы научных учреждений были введены сведения,

>

отражаемые в РИНЦ (число публикаций и цитируе-мость научных сотрудников), наряду с WoS.

В 2010 году РИНЦ договорился с компанией Elsevier о предоставлении сведений о публикациях российских авторов и ссылающихся на них работах из международного индекса цитирования Scopus с целью их совместного анализа при оценке публикационной активности и цитируемости российских ученых и научных организаций. Это позволило учесть не только публикации в российских журналах, индексируемых в РИНЦ, но и публикации российских авторов в зарубежных научных журналах (https://www.elibrary.ru/ projects/citation/cit_index.asp).

В сентябре 2014 года компания Thomson Reuters (ныне Clarivate) и Научная электронная библиотека заключили соглашение, целью которого с российской стороны было выбрать лучшие отечественные журналы в РИНЦ и разместить их на платформе WoS в виде отдельной базы данных Russian Science Citation Index (RSCI). Как было отмечено в пресс-релизе Thomson Reuters, в котором компания скромно назвала сама себя «мировым лидером в области предоставления аналитической информации для бизнеса и профессионалов»40, ранее аналогичные соглашения были подписаны с южнокорейским, китайским и латиноамериканским индексами научного цитирования. До конца 2015 года планировалось включить в эту базу данных до 1000 ведущих российских журналов по всем научным направлениям (все выпуски за последние 10 лет) из более чем 4000 журналов, то есть менее 25%.

Полагали, что размещение РИНЦ на платформе WoS и идентификация взаимных цитирований между публикациями в WoS и RSCI позволит значительно улучшить видимость российских научных журналов в международном информационном пространстве. Для российских журналов, попавших в RSCI, это будет своего рода плацдарм для их продвижения в ядро WoS. Все это должно было содействовать совершенствованию системы оценки эффективности научной деятельности на основе учета статей в коллекции лучших российских журналов (ядра РИНЦ).

Для организации работы по оценке и отбору российских научных журналов была создана рабочая группа под председательством вице-президента РАН А.И. Григорьева (1943-2023). Его заместителем стал первый проректор Высшей школы экономики (ВШЭ) директор Института статистических исследований и экономики знаний Л.М. Гохберг. В состав рабочей группы вошли представители РАН, ВШЭ, НЭБ, ведущих университетов и государственных научных центров (https://www.elibrary.ru/rsci_about.asp).

Тем не менее РИНЦ негласно считается второсте-

40 См. https://www.elibrary.ru/projects/science_index/Thomson_Reuters_ Collaborates_with_Russias_Scientific_Electronic_Library.pdf.

пенной системой, что отражается, например, в балльной системе ПРНД (см. ниже) при оценке деятельности научных сотрудников. Предпочтение явно, даже сейчас, отдается показателям Scopus и WoS. Многие, в том числе в научном сообществе, скептически относятся к списку журналов РИНЦ, полагая, что тот содержит много так называемых мусорных журналов, которые публикуют за деньги статьи без научного рецензирования или с низким его качеством. Так, согласно опросу российских экономистов, лишь 24,9% респондентов считают, что качество научных исследований повысилось в результате создания РИНЦ [27]. В 2017 году из РИНЦ были исключены 344 журнала (см. https://www.elibrary.ru/retraction_faq.asp?). Надо отметить, что изъятия из своего списка осуществляет и система Scopus, у части журналов которой были выявлены к тому же манипуляции разного сорта (https:// en.wikipedia.org/wiki/Elsevier).

Однако «всеядность» РИНЦ с ее неизбежными минусами была заложена изначально. Как заявил в своем интервью 2014 года генеральный директор ООО «Научная электронная библиотека» (eLibrary.ru) Г.О. Ерёменко [10], если в WoS или в Scopus отбираются журналы по определенным критериям, то в РИНЦ отбираются не только журналы. Здесь целью является собрать все публикации российских ученых. Поэтому нет критериев и порогов: берется всё, что создает российское научное сообщество. В этом есть свои методические плюсы, ибо, имея полный массив, всегда можно отобрать лучшее. Это будет более объективно, чем сначала отбирать какое-то подмножество журналов, так как массив информации шире, в том числе ссылок из всех публикаций. При создании исчерпывающей базы данных всех публикаций российских ученых можно получить более правильную картину для анализа. Отсутствие слабых публикаций в открытом доступе работает только на поддержку слабой науки. Задача же РИНЦ - отразить картину как она есть. Если кто-то написал халтуру, но научное общество должно знать и о ней, увидеть это все и спросить с авторов [10]. Однако при такой позиции, во многом обоснованной, нельзя использовать показатели РИНЦ для оценки деятельности научных сотрудников, как это повсеместно делается в стране.

Интересно сегодняшнее отношение Минобрнауки РФ к РИНЦ. На запрос депутата Законодательного собрания Санкт-Петербурга А.В. Шишлова министру науки и высшего образования России В.Н. Фалькову от 27 февраля 2024 года о случаях «размещения в базе данных РИНЦ низкокачественных и псевдонаучных публикаций»41 11 апреля по поручению министра от-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

41 Упоминалась в частности «статья о рептилоидах» («Российская се-

мья как основа государственности»), опубликованная в журнале «Юридическая наука: история и современность» (№ 9, 2023), не имеющая никакого отношения к правоведению.

ветила врио директора Департамента государственной политики в сфере научно-технологического развития Е.Н. Грузинова42:

«РИНЦ представляет из себя информационно-аналитическую наукометрическую систему, функционирующую на базе электронной библиотеки научных публикаций elibrary.ru (далее - Библиотека). Несмотря на то что Библиотека создана в 2005 году по решению Минобрнауки России, она разработана и поддерживается обществом с ограниченной ответственностью "Научная электронная библиотека" (далее - ООО "НЭБ"). Минобрнауки России не является учредителем ООО "НЭБ" и не имеет полномочий, по -зволяющих вмешиваться в хозяйственную деятельность данного юридического лица.

Одно из направлений деятельности ООО "НЭБ" связано с созданием различных наукометрических инструментов и проведением наукометрических расчетов. При расчете индексов цитирования и иных наукометрических показателей используются электронные версии научных изданий, размещенные в сети "Интернет" и доступные для обработки с использованием научно-методического и программного обеспечения ООБ "НЭБ".

Ответственности за содержание электронных версий научных изданий ООО "НЭБ" не несет <...>.

В связи с изложенным необходимо отметить, что обязательный учет показателей РИНЦ при выделении бюджетного финансирования на исследования и разработки нормативными документами Минобрнауки России не установлен. Использование тех или иных наукометрических показателей относится к компетенции финансирующих организаций» (подчеркнуто нами. - Л.Б., А.С.).

Из письма, во-первых, вытекает, что никто ни за что не отвечает и ответственности не несет. Во-вторых, можно напомнить, что, например, подпункт 2.6 Приложения № 4 («Показатели научной деятельности вузов») приказа Минобрнауки РФ № 1324 от 10 декабря 2013 года прямо касался количества публикаций в РИНЦ, требуемого от научных организаций. С трудом верится, что подведомственные Минобрнауки РФ научные учреждения (институты и вузы) выпускают приказы по ПРНД, где речь идет и о показателях РИНЦ, исключительно по своей инициативе и без ведома министерства.

Не удивляет то, что все библиометрические индикаторы, которые использует РИНЦ (индекс Хирша, импакт-факторы и пр.) особого доверия, например, у экономического научного сообщества не вызывают. Ответ «не важен» в отношении того или иного показателя был получен от 66,7-97,4% респондентов [27].

Показатель результативности научной деятель-

42 Выдержки из переписки приводятся с личного разрешения депутата А.В. Шишлова (20.04.2024).

ности (ПРНД) был введен совместным приказом Минобрнауки РФ № 273, Минздравсоцразвития РФ № 745, РАН № 68 от 3 ноября 2006 года «Об утверждении видов, порядка и условий применения стимулирующих выплат, обеспечивающих повышение результативности деятельности научных работников и руководителей научных учреждений и научных работ -ников научных центров Российской академии наук»43. От Минобрнауки приказ был подписан министром А.А. Фурсенко, от РАН ее президентом академиком Ю.С. Осиповым. Его сокращенное название (ПРНД) в научном фольклоре сразу получило толкование как «параноидальный индекс», что красноречиво говорит об отношении научного сообщества к этой бюрократической инициативе, которую подвергли критике (см. [19, 22, 30]). Лишь 29,8% опрошенных российских экономистов полагают, что зависимость оплаты труда от публикационной активности положительно влияет на повышение качества исследований [27].

Объявленной целью чиновников было стимулировать деятельность ученых с помощью формальных критериев по балльной системе. Однако на самом деле планировалось 15% сокращение штатов [19]. Поэтому неудивительно, что «тройственный приказ» воспринимался «внизу» как изощренная форма издевательства околонаучных властей, особенно если учесть чрезвычайно низкие оклады сотрудников, резкую нехватку денег в самих научных учреждениях и сильное недофинансирование науки в стране в целом.

Хотя потом (см. совместный приказ Минобрнауки, Минздравсоцразвития и РАН № 1 от 1 ноября 2010) приказ 2006 года формально был отменен, но он заме -щался другими столь же одиозными приказами, суть которых не изменяется вплоть до наших дней44.

Министерские приказы, спущенные вниз по «вертикали власти», покорно превращались в директорские приказы по институтам, которые в свою очередь становились обязательными для всех научных сотрудников. Раз в год вся научная рать страны, от Калининграда и Кольского полуострова до Магадана и Владивостока, плюясь и возмущаясь (не публично), занимается этим весьма сомнительным делом (первые отчеты были затребованы за 2005-2006 годы). Жаль, что никто из экономистов не посчитал, во сколько обходились и обходятся такие бюрократические затеи. Многочисленные примеры институтских приказов с указаниями сотрудникам, как исчислять ПРНД и сколько баллов присуждается за ту или иную категорию публикаций, можно легко найти в интернете.

Уже с самого начала в требования были включены публикации, индексированные в WoS и Scopus, счи-

>

43 https://www.ras.ru/news/shownews.aspx?id=328a9bb8-b7ba-4275-93f6-f63698c471d9.

44 Документы Министерства образования и науки Российской

Федерации см. https://rulaws.ru/minobrnauki/.

тавшиеся наиболее приоритетными и престижными, а также из списков РИНЦ и ВАК. Тем не менее первоначально всё же учитывались все публикации сотрудников, даже не входившие в эти списки, включая тезисы докладов и материалы конференций. Однако далее абсурд нарастал, и в итоге публикации из изданий вне указанных списков в приказном порядке перестали включаться в отчетность. Какому умнику эта идея пришла в голову, к сожалению, неизвестно. В результате тысячи статей, написанные сотрудниками, но опубликованные во внесписочных журналах, в сборниках или материалах конференций, как бы пере -стали существовать, хотя многие из них весьма полезны и ранее оценивались бы положительно.

Помимо индивидуального показателя, ПРНД рассчитывался и для научных организаций, для чего федеральными органами власти, включая государственные академии, создавались соответствующие комиссии (см. например, Приказ Минобрнауки РФ от 14 октября 2009 года № 406)45.

Ориентация российской компрадорской бюрократии на формальные библиометрические индексы в оценке эффективности работы ученых с упором на коммерческие WoS и Scopus, даже несмотря на то, что в научно развитых странах Европы и США от этих критериев стали отказываться (см. выше), нанесла заметный вред отечественной науке, особенно для российских журналов (см. ниже). К сожалению, управленческая лысенковщина в нашей науке продолжается уже 18 лет, с косметической заменой одних индексов и списков на другие (см. ниже).

Еще один аспект бюрократического абсурда в ПРНД проявился в учете участия ученых в научных конференциях. Само по себе это полезно, если бы в ПРНД не нашло отражение стремление наших «эффективных менеджеров» к гигантомании, удобной для докладов «наверх». Если сначала в ПРНД попадали все научные собрания, то затем принимались лишь те, где число участников было не менее 150 человек, потом планку подняли до 200. Однако часто наиболее эффективны выступления как раз на относительно небольших по численности конференциях, научных собраниях и семинарах, где собираются специалисты по данной научной проблематике и где есть возможность в деталях обсуждать возникающие научные вопросы. Подготовка к большому серьезному докладу на научном семинаре подчас требует гораздо больше времени, нежели стандартный, более краткий доклад на конференции. Однако теперь они не попадают в ПРНД, баллы за них не начисляются и «стимулирующая» надбавка не уве -личивается. Что она в таких случаях «стимулирует»: отказ от традиционного научного общения и «показуху», выражаясь армейским языком?

https://normativ.kontur.ru/document?moduleId=1&documentId=149267.

Особенно в отчетах ПРНД котируются конференции (симпозиумы, конгрессы) международного уров -ня. Естественно, это вызвало повсеместную ответную реакцию по «очковтирательству», умельцы по которому всегда были в нашей стране в достатке. Стали приглашать по несколько западных коллег (хотя бы онлайн или в качестве соавторов) или за неимением их - русскоязычных коллег, например, из республик Средней Азии или Кавказа. Все конференции сразу же становились «международными», или, по крайней мере, «российскими с международным участием»!

Научная карьера. Бюрократический хайп от библиометрии не мог не коснуться служебного положения самих научных сотрудников, а не только оценки качества их публикаций. Судя по копиям приказов, начиная с 2007 года (например, совместный приказ Минобрнауки, Минздравсоцразвития и РАН от 23 мая 2007 года № 144/352/33), имеющихся в нашем распоряжении, квалификационные требования к научным должностям стали включать сначала публикации из списка ВАК (российские и зарубежные), а потом из РИНЦ, WoS и Scopus.

Например, в сведения о научной и научно-организационной деятельности научных сотрудников, представляемые в связи с переаттестацией в 2018 году, входили следующие параметры: число публикаций в РИНЦ (в том числе за последние 5 лет), число публикаций в изданиях списка ВАК, индекс Хирша по РИНЦ, индекс Хирша по WoS (все базы данных), число публикаций в WoS и Scopus (в том числе за последние 5 лет).

Ранжирование российских журналов ВШЭ. В 2014 году Высшая школа экономики (ВШЭ) начала разрабатывать собственный проект по экспертному ранжированию российских научных журналов. Во многом это было обусловлено внутренними причинами, так как прием на работу научно-педагогических работников и назначение им надбавок к зарплате сопровождается в ВШЭ оценкой их публикационной активности. Значение имеет не только количество, но и качество публикаций, о котором можно судить в том числе по статусу научных журналов, в которых они появляются. По мнению руководства, в ВШЭ понимают несовершенство любых систем формальных количественных измерений, но игнорировать их невозможно. В международных базах российских журналов социально-экономической тематики почти нет, а к «рейтингу» РИНЦ есть немало вопросов. Тем не менее проект ВШЭ не призван заменить РИНЦ. Это, скорее, еще один, дополнительный инструмент для оценки качества журналов.

Проект был представлен 8 апреля 2024 года на круглом столе в рамках XVI Апрельской международной научной конференции «Модернизация экономики и общества» (см. [36]). Для оценки были взяты россий-

45

ские журналы (за исключением ежегодников), присутствующие в базе РИНЦ. Они были распределены по 13 тематическим направлениям на основе классификатора, используемого в ВШЭ. В оценку не были включены журналы по химии, биологии и другим естественным наукам. Сначала по каждому тематическому направлению отбиралось не менее семи экспер -тов верхнего уровня, а затем каждый из них предлагал еще не менее 25 кандидатур конечных экспертов. Всего к участию в проекте было привлечено 630 экспертов, которые заполнили больше 10 тысяч анкет (по каждому отмеченному им журналу). Ответы аффилированных с журналом респондентов не учитывались. На основе этих анкет журналы по каждому направлению были распределены по трем группам: высокого уровня и широкого профиля (группа А1), высокого уровня, но узкого профиля (А2) и среднего уровня (В).

В итоге по 8 из 13 направлений (прикладная математика, компьютерные науки, менеджмент, право, психология, история, экономика, социология) эксперты не смогли выделить ни одного журнала высшей категории (А1), а по психологии - ни одного журнала даже категории А2. В некоторых случаях это связано с сильной специализацией журналов внутри одного направления (например, журналы по различным отраслям и сферам права). В области компьютерных наук, по мнению экспертов, основным способом представления результатов научных трудов являются не публикации в журналах, а выступления на международных конференциях. Обещано, что подробный отчет о методологии и полные результаты проекта будут опубликованы на сайте НИУ ВШЭ в ближайшее время.

Как заметил в ходе дискуссии генеральный директор eLIBRARY.ru Г.О. Ерёменко, два подхода к оценке жур -налов (библиометрический и экспертный) достаточно сильно отличаются друг от друга, в том числе по конечному результату. Библиометрический подход оправдывает себя лишь в тех случаях, когда все участники процесса (журналы, ученые и рецензенты) соблюдают определенные правила научной этики. В этом смысле сравнение результатов библиометрии и экспертной оценки может служить мерилом уровня научной этики в конкретных областях знания. Поэтому, как было обещано, отбор журналов для их размещения в базе данных Russian Science Citation Index на платформе WoS будет опираться не только на библиометрию, но и на мнения экспертов, будет использован опыт, полученный авторами проекта из ВШЭ (см. [36]).

Протесты научного сообщества. Формальные наукометрические критерии, насаждаемые Минобрнау-ки РФ сверху, вызывают возмущение у большинства научных работников. Очевидно, что по числу цитиро -ваний невозможно в полной мере оценить реальный вклад ученого в науку [34]. На ошибочность внедрения этих формальных показателей для оценки ученых ука-

зывали на Первом профессорском форуме в Москве 1 февраля 2018 года [3]. На 4-й конференции научных работников РАН, состоявшейся 27 марта 2018 года в Физическом институте РАН (Москва), в ряде докладов членов РАН была показана несостоятельность наукометрических методов оценки деятельности ученых и неприменение их во многих ведущих университетах Европы и Северной Америки. Против неадекватного использования наукометрии выступают многие члены Санкт-Петербургского союза ученых.

Тем не менее федеральные чиновники настойчиво продолжали проталкивать наукометрию. 14 января 2020 года Минобрнауки РФ направило письмо «О корректировке Государственного задания с учетом методики расчета комплексного балла публикационной результативности» (№ МН-8/6-СК от 14.01.2020). 6 февраля того же года Ученый совет Института философии РАН выступил с резкой критикой предлагаемой методики, фактически обвинив Минобрнауки РФ в пренебрежении к общественным и гуманитарным наукам, к русскому языку и духовному развитию страны. В письме справедливо указывалось, что

«<...> критерии оценки социогуманитарной сферы выносятся за пределы страны и отдаются на откуп двум коммерческим иностранным компаниям - WoS и Scopus. Такого нет ни в одной из развитых стран мира. В результате вектор научной деятельности в социогуманитарной сфере будет определяться политикой этих организаций, а не собственной логикой и потребностями российской науки и не отечественным научным сообществом. Следует учитывать, что наиболее важные и актуальные темы российских общественных наук и отечественной гуманитаристики могут и должны обсуждаться прежде всего на русском языке, в российском научном сообществе и публичном пространстве, а не в западных журналах, часто обходящих эти проблемы по соображениям как тематической, так и идейно-политической ориентации. Гипертрофированный акцент на WoS и Scopus ведет к вытеснению русского языка из сферы социогуманитарных наук, а в перспективе - и из сферы интеллектуальной культуры» (https://iphras.ru/pismo_06_02_2020.htm).

10 февраля 2020 года Ученый совет Института мировой литературы имени А.М. Горького РАН также заявил протест, отметив вред, который может нанести гуманитарным наукам исполнение столь необдуманного решения Минобрнауки РФ46. Была выражена солидарность с заявлением академика-секретаря Отделения историко-филологических наук РАН В.А. Тишкова, прямо указавшего на ущербность би-блиометрических показателей.

>

46 https://imli.ru/2020/4011-zayavlenie-uchenogo-soveta-instituta-mirovoj-literatury-im-a-m-gorkogo-rossijskoj-akademii-nauk-po-voprosu-otsenki-publikatsionnoj-rezultativnosti-nauchnykh-organizatsij-gumanitarnogo-profilya.

11 февраля 2020 года протестное письмо министру В. Фалькову было направлено Музеем этнографии и антропологии имени Петра Великого (Кунсткамера) РАН. В нем указывалось, что под угрозу ставится сущность научной деятельности, что подмена науки наукометрией ведет к ее деградации до стадии имитации научной деятельности47.

Несогласие с навязыванием западных наукометрических показателей и с ненормальностью сложившейся ситуации выразил ряд институтов, подведомственных федеральному Министерству культуры. Российский научно-исследовательский институт культурного и природного наследия имени Д.С. Лихачева направил в Минобрнауки письмо (№ 390-ВА-ВА от 19.08.2021) по поводу проекта постановления Правительства РФ об утверждении государственной программы «Научно-техническое развитие Российской Федерации», в котором в очередной раз указывалось на необходимость роста российских статей в базе WoS. В письме справедливо отмечалось, что в сфере гуманитарных наук издание монографий, коллективных трудов, энциклопедий, архивных документов, словарей и т. д. гораздо важнее, чем публикация статей, которые «имеют дополнительное, но не определяющее значение»48.

Бюрократическое применение библиометрии и ориентация только на так называемые высокорейтинговые журналы не только искажает реальную картину многогранной деятельности ученых, но оно опасно тем, что на этой основе принимаются неправильные административные решении относительно продвижения ученых по службе. Известны случаи понижения в должности и даже увольнения научных сотрудников на основе низких формальных индикаторов.

Показателен нашумевший случай с выдающимся пе -тербургским математиком Г.Я. Перельманом, который решил одну из семи величайших математических загадок (теорему Пуанкаре), но не имеет ни одной ссылки, поскольку не публикует свои работы в научных журналах, представляя результаты своих исследований в интернете либо в других источниках [20]. Тем не менее в 2006 году он был номинирован на Филдсовскую премию (самая престижная премия по математике для ученых до 40 лет, аналог Нобелевской премии) за две электронные статьи на сайте arxiv.org., которые формально не считаются журнальными [25]49. С очень показательным комментарием о таком необычном поведении выступил директор Петербургского отделения Математического института РАН С.В. Кисляков [16]:

47 См. https://www.kunstkamera.ru/news_list/science/obrashchenie-uchenogo-soveta-mae-ran-k-ministru-nauki-i-vysshego-obrazovaniya-valeriyu-falkovu/.

48 Копия письма имеется в архиве авторов данной статьи.

49 В 2010 году частный фонд Математический институт Клэя (The Clay Mathematics Institute, США) присудил Г.Я. Перельману премию в 1 миллион американских долларов, от которой тот отказался.

«<...> оно - редкий пример абсолютного примата Сути над видимостью. В бюрократических системах действует противоположный принцип, сформулированный, кажется, Паркинсоном (известным памфлетистом): грамм видимости дороже килограмма сути.

Печально наблюдать за тем, как в последние годы бюрократы упорно стремятся ввести этот принцип в оценку эффективности фундаментальных исследований, ставя во главу угла всевозможную видимость вроде импакт-фактора, индекса цитирования, числа публикаций, числа страниц в монографиях, числа патентов и т. п.

Беда в том, что, хотя нормальному человеку заниматься таким делом глубоко противно, технически эта видимость легко обеспечивается - в общем так и происходит в тех странах, где упомянутые формальные показатели уже актуальны. Последствия легко просчитать: при полном торжестве этой системы в ее бюрократическом идеале решить еще одну "проблему тысячелетия" (неважно, в математике или нет) в России уже вряд ли получится».

В мае 2008 года накануне выборов в РАН тогдашний вице-президент РАН Г.А. Месяц [20] на вопрос об индексах цитирования работ у кандидатов в президенты академии ответил, что

«<...> для нас это не самый важный показатель. Мы их [кандидатов] достаточно хорошо знаем и можем оценить достоинство каждого без каких-либо внешних факторов».

Но ведь это применимо не только к кандидатам в президенты РАН и к членам академии, но и ко всем научным сотрудникам, которые собственно и проводят научные исследования.

Последствия ошибочной наукометрической политики для российской науки

Как справедливо заметил еще в 2014 году Г.О. Ерёменко [10: 147],

«.конечно, жизнь гораздо сложнее любых, самых хитроумных показателей. Поэтому и сам Гарфилд, и многие специалисты по наукометрии, и мы вслед за ними постоянно повторяем, что нельзя полагаться только на цифры. Они полезны для статистического анализа исследований, но оценивать конкретных ученых или отдельные статьи только по индексу цитиро -вания без экспертной оценки нельзя. В общественных науках это еще очевиднее, чем в естественных».

Главными толкачами порочной системы наукометрических показателей в нашей стране следует признать федеральное руководство наукой. Последнее не раз спускало вниз «по вертикали власти» через Минобрнауки РФ приказы, которые послушно выполнялись руководителями научных учреждений. При этом мнение возмущенной научной общественности

полностью игнорировалось50. Руководство РАН также внесло свою лепту в библиометрию, подписывая совместные приказы с Минобрнауки РФ (см. выше), а также в национальном аспекте, в течение нескольких лет составляя базу ведущих российских журналов Russian Science Citation Index (RSCI), как об этом поведал вице-президент РАН А.Р. Хохлов (см. [35]).

Неразумная наукометрическая политика, насаждаемая Минобрнауки РФ в течение многих лет, нанесла заметный вред развитию отечественной науки.

1. Резко сократился поток статей в российские жур -налы, несмотря на бесплатность публикации в них. Их качество в целом также понизилось, так как более «сильные» рукописи посылаются за рубеж. Это коснулось даже журналов, которые переводились на английский язык. Некоторые известные журналы, например «Экология» (Екатеринбург, в английском варианте Russian Journal of Ecology), были вынуждены публично посылать сигнал «SOS» из-за нехватки поступавших рукописей. В еще большей степени были затронуты менее известные или региональные журналы.

Это привело к недооценке роли публикаций в отечественных журналах, занижению их рейтингов и, как следствие, сокращению публикации научных трудов на русском языке, что увеличивает образовательный разрыв в обществе и затрудняет формирование интереса к науке у молодежи.

2. Параллельно с этим падала доля опубликованных на русском языке не только результатов качественных оригинальных научных исследований, но и обзорных статей, роль которых, в первую очередь, состоит в первичной систематизации данных, а также в расширении аудитории с привлечением обучающихся всех уровней. Это сокращает доступность достижений науки для широких слоев, что не может не оказывать негативного влияния на подготовку кадров.

3. В научной среде развивается пренебрежение к российской науке в целом, а также к статьям, журналам и научным сотрудникам, публикующимся в отечественных журналах.

4. Происходит негативное изменение в понимании ценностей науки и ее национальных интересов, особенно у молодых научных сотрудников.

5. Все это, а также зависимость от необходимости публиковаться в зарубежных журналах проявляется в ущербности поведения, вплоть до принятия унизительных ограничений со стороны иностранных из-

50 Формально призывы «разработать новую систему оценки с учетом мнения профессионального и экспертного сообщества»» раздаются на высоком уровне, в том числе министром (с 21 января 2020 года) науки и высшего образования В.Н. Фальковым (см. [35]). Однако наше «глубинное государство» (бюрократический аппарат) знает, что надо делать, и весьма преуспело в отписках разной длины, которые регулярно получает, например, Санкт-Петербургский союз ученых в ответ на свои озабоченности в области науки.

дательств (см. ниже), и сказывается на политическом восприятии происходящего.

Однако остается вопрос, а зачем же тогда платить огромные средства за публикации в «авторитетных» зарубежных изданиях с высокими показателями импакт-фактора? А дело в том, что таковы условия выполнения показателей эффективности освоения средств, выделенных на научные исследования. Неповоротливая система, дополнительно связанная коррупционными механизмами, создала кормушку для издателей. Для ученых же из нашей страны в последнее время это дополнительно отягощено сложностями перевода средств за границу, зачастую в так называемые «недружественные страны». По сути, если раньше заставить платить за такую публикацию ученого могло только его личное тщеславие, то сейчас это - вынужденная необходимость, без которой невоз -можно выполнить условия финансирования, будь то исследования по грантам, или госзадание в научной организации.

Парадокс состоит в том, что на издательские цели зарубежных компаний расходуются бюджетные средства страны, выделяемые на проведение исследований и заработную плату. При этом финансирование идет на поддержку уже раскрученных коммерческих западных изданий, а не на популяризацию и поддержку собственных российских научных журналов, ко -торые вынуждены прозябать в нищете и закрываться.

Тем не менее некоторые отечественные журналы принципиально не желают вступать в бюрократические «игры» со Scopus и WoS, сохраняя свою независимость (см. [8]). Имеется немногочисленная часть научных сотрудников, которая, в том числе и на принципиальной основе, продолжает публиковаться в российских журналах, не входящих в Scopus и WoS, понимая при этом, что теряет деньги при балльной оценке их деятельности (ПРНД, см. выше). Такое поведение журналов и научных сотрудников можно расценивать как сознательную оппозицию компрадорской политике Минобрнауки РФ.

Порочная наукометрия в условиях западных санкций и проведения специальной военной операции

Итак, на протяжении десятилетия сменяющие друг друга федеральные министры, отвечающие за науку и образование, А.А. Фурсенко (2004-2012), Д.В. Ливанов (2012-2016), О.В. Васильева (2016-2018), М.М. Ко -тюков (2018-2020) и В.Н. Фальков (с 2020) настойчиво проводили линию на приоритетное использование наукометрических критериев Scopus и WoS и публикаций за рубежом, полностью игнорируя возмущение научного сообщества. Кстати, такое постоянство при разных министрах позволяет сделать вывод, что решения в области науки принимаются в другом, более

>

важном месте, в Администрации Президента России (вероятно, Управление по научно-образовательной политике), а Минобрнауки РФ лишь послушно их выполняет51. В какой-то мере поставить под сомнение эту пагубную политику, хотя бы на бумаге, помог сам Запад, введя жесткие ограничения.

Санкции против России, начатые в 2014 году (возвращение Крыма), приняли лавинообразный характер после начала российской специальной военной операции (СВО) на востоке Украины (24 февраля 2022). Политика русофобии и «отмены России» довольно быстро затронула и научные связи, которые стали сворачиваться западными партнерами в одностороннем порядке. Уже 25 февраля Массачусетский технологический институт (Massachusetts Institute of Technology, USA) прекратил свое многомиллионное партнерство со Сколковским институтом науки и технологий [133]; последний был внесен в западные санк-ционные списки.

3 марта 2022 года Европейская Комиссия (the European Commission) остановила подготовку соглашения с Россией по программе «Горизонт» (the Horizon Europe research program), а также решила не участвовать в дальнейших совместных проектах52. Национальные научные советы Франции, Германии, Италии и Нидерландов также заморозили свои отношения с нами [133].

11 марта компания Clarivate, владеющая WoS, объявила о прекращении своей деятельности в России, закрыв свой офис53. Этот список можно было бы дополнить многими другими примерами.

В связи с этим давно накипевший вопрос о необходимости новой национально-ориентированной политики в области науки достиг, наконец-то, высокого федерального уровня. Постановление Правительства РФ от 19 марта 2022 года № 414 «О некоторых вопросах применения правовых актов Правительства Российской Федерации, устанавливающих требования, целевые значения показателей по публикационной активности» отменило до 31 декабря 2022 года требования по наличию публикаций в журналах, индексируемых в WoS и Scopus, по участию в зарубежных конференциях, к целевым значениям показателей, связанных с этим, при оценке результативности и эффективности деятельности научных работников и учреждений, а также при осуществлении мер государственной поддержки (предоставлении грантов, грантов в форме субсидий, субсидий из федерального

51 Однако такое происходит не всегда. Так, Минобрнауки вместе с Министерством финансов РФ успешно провалили майский (2012) Указ Президента России о повышении зарплаты ученым до двойной (200%) от средней по региону. Ответственности за невыполнение этого указа никто из высокопоставленных чиновников не понес (см. [4]).

52 https://ec.europa.eu/commission/presscorner/detail/en/STATEMENT_ 22_1528.

53 https://clarivate.com/news/clarivate-to-cease-all-commercial-activity-in-

russia/.

бюджета). Позже действие Постановления было продлено до 31 декабря 2024 года54.

Было решено создать Национальную систему оценки результативности научных исследований и разработок, что было поручено курировать заместителю Председателя Правительства РФ Д.Н. Чернышенко, отвечающему за государственную политику в сфере науки55. На ее обсуждении 22 марта 2022 года министр науки и высшего образования РФ В.Н. Фальков заявил:

«Однако сегодня мы вынуждены констатировать примеры недружественных действий со стороны зарубежных коллег, которые занимают политическую позицию и отказываются от сотрудничества с нашими учеными. В этой связи мы предлагаем пересмотреть требования к наличию у ученых публикаций в зарубежных научных изданиях, включенных в системы цитирования WoS и Scopus при выполнении федеральных проектов и программ, а также государственных заданий на научные исследования. При этом необходимо разработать новую систему оценки с уче -том мнения профессионального и экспертного сообщества» (см. [35]).

Как было отмечено в пресс-релизе на сайте Ми-нобрнауки, на прошедшем заседании экспертное сообщество отметило, что в числе наукометрических показателей, используемых для оценки научной деятельности, также учитывается количество докладов на ведущих международных научных конференциях, в том числе за рубежом, доля статей в соавторстве с иностранными учеными в общем числе публикаций, участие иностранных ученых в научных исследованиях и т. д. (см. [35]).

Заметим, что эти показатели неназванные эксперты рекомендовали после начала СВО, введения жесточайших западных санкций и массовой отмены сотрудничества с российскими научными учреждениями (!). В качестве скандального примера можно привести решение ЦЕРНа (CERN: Conseil européen pour la Recherche nucléaire, Европейский совет по ядерным исследованиям), крупнейшей в мире организации по ядерным исследованиям, которая в марте 2022 года приостановила статус России как страны-наблюдателя «из-за вторжения на Украину». В декаб -ре 2023 года ЦЕРН объявил о прекращении сотрудничества с Россией с ноября 2024 года, проголосовав за исключение нашей страны из списка своих партнеров, а также за окончание работы на коллайдере ученых с аффилиацией в российских институтах и вузах (см. ЦЕРН, Википедия). Это коснулось 500 человек, рабо-

54 Постановление было изменено и дополнено 19 сентября 2022 года и 10 ноября 2023 года (см. http://publication.pravo.gov.ru/ Document/View/0001202203210040?index=2 и https://base.garant. ru/403731094/#friends).

55 В нее входят, помимо прочих, также оценка результатов деятельности научных организаций и государственная политика в сфере аттестации научных кадров (см. http://government.ru/rugovclassifier/59/events/).

тавших в ЦЕРНе. Данный случай получил широкую публичную огласку благодаря средствам массовой информации, тогда как о множестве других западных отказов меньшего масштаба российские учреждения деликатно умалчивают.

«У нас есть наработки для создания собственной, суверенной, отвечающей интересам Российской Федерации системы оценки научной деятельности. Сегодня, с учетом текущей ситуации, требуется взвешенный и прагматичный подход, основанный на национальных интересах, в том числе в области наукометрии и публикационной активности. Необходимо предложить принципиально новые показатели, индикаторы и оценки исследовательской деятельности, задать ориентиры для работы не только отдельного ученого, но и больших и малых научных коллективов, лабораторий, университетов и НИИ», - сказал глава Минобрнауки России В.Н. Фальков [35].

Среди выступивших в дискуссии вице-президент РАН академик А.Р. Хохлов обратил внимание на возрастание роли экспертной оценки деятельности ученых и на наличие полноценного корпуса экспертов (порядка 5000 человек), сформированного РАН. Он также призвал расширить использование базы ведущих российских журналов Russian Science Citation Index (RSCI, 897 журналов), статьи в которых в текущих условиях могут приравниваться к публикациям в журналах из списков WoS и Scopus. Это было бы значимой мерой поддержки российских научных журналов (см. [35]).

Весьма здравые соображения, отражающие мнение большинства научных сотрудников, высказал главный ученый секретарь Объединенного института ядерных исследований С.Н. Неделько, который прямо выступил против использования наукометрических индексов для оценки деятельности ученых [35]. Он справедливо заметил, что целью науки является получение фактических научных результатов, которые, как правило, плохо поддаются измерению примитивными наукометрическими средствами. Настойчивые попытки измерения и непрерывный контроль научного процесса всегда искажают, а зачастую и полностью разрушают исходное целеполагание. Многолетнее доминирование формальных наукометрических подходов к оценке научной деятельности, глубоко встроенное в нормативную правовую базу сферы исследований и разработок, приводит к грубому дисбалансу между естественным для исследователя стремлением решать новые сложные научные задачи и проблемы и вынужденным жестким следованием общепринятой конъюнктуре ради высоких наукометрических показателей с недопустимым перекосом в пользу последней. «Применять наукометрию непосредственно для управления наукой на микроуровне (отдельные ученые и небольшие коллективы, ор-

ганизации), на мой взгляд, недопустимо» (выделено нами. - Л.Б., А.С.).

Однако на этом совещании С.Н. Неделько оказался единственным, кто занял такую позицию. Остальные остались в плену наукометрических заблуждений, заявив политически корректно о необходимости в условиях антироссийских санкций больше ориентироваться на отечественные журналы и показатели. Таким образом, смены парадигмы в критериях оценки деятельности ученых, увы, не произошло.

29 июля 2022 года Постановлением Правительства РФ № 1357 Российский фонд фундаментальных исследований (РФФИ), относительно хорошо работавший и непонятно зачем ликвидированный, был преобразован в Российский центр научной информации (срок его работы был утвержден до 31.12.2023). Задача РЦНИ была определена следующим образом: «предложить новую национальную систему оценки результативности НИР». За основу был взят метод установления качества периодического научного издания, разработанный ВШЭ на основе ранее предложенного алгоритма РИНЦ.

В апреле 2022 года, то есть, получается, еще до свое -го формального рождения, Российский центр научной информации запустил собственный индекс научного цитирования (ИЦ РЦНИ), что было вызвано отказом компаний Clarivate и Elsevier предоставлять российским ученым доступ к своим сервисам. ИЦ РЦНИ содержит более 1,98 миллиарда цитирований и ежемесячно пополняется из российских и доступных зарубежных баз данных.

Сведения о цитирующих и цитируемых публикациях собирали из баз данных CrossRef COCI, Dimensions, Semantic Scholar, Scopus и других. Объявлено, что значения метрик, получаемых с помощью ИЦ РЦНИ, сопоставимы со значениями из международных индексов цитирования (подробнее см. [18]). Для резидентов Российской Федерации доступ бесплатный и предоставляется по запросу (см. https://rcsi. science/activity/data/indeks-tsitirovaniya-rtsni/).

Минобрнауки РФ по поручению заместителя Председателя Правительства РФ создана Межведомственная рабочая группа по формированию и актуализации так называемого «Белого списка» научных журналов (протокол совещания у заместителя Председателя Правительства РФ от 27.06.2022 № ДЧ-П8-60 пр), которая регулярно утверждает актуальную версию этого списка и публикует ее на сайте Российского центра научной информации (РЦНИ)56, 57. Был также

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

>

56 Российский центр научной информации, Москва (РЦНИ, https://rcsi. science/org/), в прежней жизни Российский фонд фундаментальных исследований (РФФИ), появился по Постановлению Правительства России от 29 июля 2022 года .№ 1357 и выполняет функцию оператора «Белого списка». См. также http://publication.pravo.gov.ru/Document/ View/0001202208020006.

57 Список журналов см. https://joumalrank.rcsi.science/ru/record-sources/.

запущен веб-портал «Национальная платформа периодических научных изданий» (см. https://rcsi.science/ activity/zhurnalnaya-platforma/).

Как сообщается на сайте РЦНИ, «Белый список» был создан «в целях обеспечения мониторинга и оценки публикационной активности». Он «содержит регулярно обновляемую информацию об индексации журналов в более чем 20 международных общих и специализированных базах данных и сервисах». На основе показателей цитирования статей в них за предыдущие годы с ранжированием по областям знаний журналы были разделены на три категории. Таким образом, это уже третья попытка (после РИНЦ и ВШЭ). Однако суть осталась прежней.

На наш взгляд, это можно расценивать как некое ограничение прав авторов в том, как и где публиковать свои достижения, а согласно Закону о науке РФ таких ограничений быть не должно. К тому же это не способствует появлению и развитию новых научных изданий, в которых могут печататься весьма полезные статьи, и сужает публикационную деятельность ученых новыми административными рамками. Создание в России официальных списков не спасает от попадания в них сомнительных журналов и, как любое ограничение, способствует коррупции. Как отмечалось ранее, только в России появляется около 200 изданий в год, а старых «отмирает» около 20-40. За последние 15-20 лет количество журналов в мире удвоилось [10].

Исходя из постановления Правительства и заявлений министра науки и высшего образования РФ, условия оценки деятельности научных сотрудников с упором на западные журналы WoS и Scopus, казалось бы, должны были быть изменены еще два года назад. Однако, как сообщают нам ученые из разных регионов страны58, в реальности этого не произошло.

Например, даже в феврале 2023 года, то есть спустя год после начала специальной военной операции, для аттестации на научные должности требовалось иметь: главному научному сотруднику - не менее 7 статей в журналах, индексированных в WoS и Scopus (из них 2 с рейтингом не ниже Q2); ведущему научному сотруднику - 6 и 2, соответственно; старшему научному сотруднику - 4 статьи в журналах WoS и Scopus (из них 1 с рейтингом не ниже Q3); научному сотруднику - 3 статьи в журналах WoS и Scopus, а младшему научному сотруднику - 2.

Требования по грантам Российского научного фонда (РНФ), полученным до начала СВО, также фактически, несмотря на некоторую лакировку, остались прежними. Это привело к тому, что руководители и

58 По просьбе научных сотрудников их фамилии и названия учреждений, в которых они работают, нами не упоминаются. Некоторые участники 33-й годичной конференции Санкт-Петербургского союза ученых, прошедшей 20 апреля 2024 года, также подтвердили, что от них требуют публикаций в журналах WoS и Scopus.

исполнители по грантам были вынуждены искать спо -собы оплаты публикаций, прибегая к услугам посредников, иностранных банков. Зачастую для этого они обналичивали средства, выделенные на проведение научных исследований, с целью перевода их в так называемые недружественные страны, проводящие антироссийскую политику.

Анализ сетевой переписки между грантодержателя-ми РНФ показывает, что они стали искать различные способы публикации статей за рубежом, чтобы можно было отчитаться перед фондом. Один из вариантов -поиск приемлемого баланса между статусом журнала, стоимостью и скоростью публикации статьи в нем. Пусть рейтинг журнала менее высок, но важно, что он индексирован в WoS и Scopus, быстро публикует представленные статьи и требует меньшую оплату за публикацию. Однако некоторые такие журналы, внешне привлекательные для исполнителей по грантам, стали выставлять свои политические условия.

В качестве примера можно привести журнал Method X издательства Elsevier, стоимость публикации в котором составляет всего 840 американских долларов. Журнал, конечно, числится в списках Scopus, которым владеет Elsevier. После принятия статьи в печать от российских авторов требовалось собственноручно поставить галочку, подтвердив согласие с политикой журнала, согласно которой на период СВО тот переводит все средства, полученные из России, на поддер -жку вооруженных сил Украины. Таким образом, отечественные исследователи-исполнители по грантам ставятся в условия морально-политического выбора.

После начала СВО ряд ученых, научных обществ и других организаций за рубежом под воздействием агрессивной политической пропаганды стали призывать к полному и повсеместному бойкоту российских коллег, в том числе к запрету на их участие в конференциях и к отказу в публикации их статей в журналах. Особенно большую активность в этом направлении развернули украинские научные сотрудники, проживающие как на Украине, так и вне ее [87, 106, наши данные].

Тем не менее многие западные организации, например, Международный астрономический союз (International Astronomical Union), университеты в Британии и других странах, как и многие, если не большинство журналов, отказались присоединиться к украинским призывам бойкотировать российскую науку [133]. Их позицию четко выразил знаменитый журнал Nature, который в своей редакционной статье от 4 марта 2022 года [58] сообщил, что продолжит прием рукописей, поскольку бойкот принесет больше вреда, нежели пользы.

По мнению журнала, бойкот разделит мировое научное сообщество и ограничит обмен научными знаниями, что может нанести ущерб здоровью и благополучию человечества и планеты. Возможность

свободно распространять исследования и знания через национальные границы была основополагающей для науки и международных отношений и сохранялась во время некоторых из самых страшных исторических конфликтов в мире.

Примерно таких же взглядов придерживаются и British Médical Journal [37], Brain Communications и многие другие журналы.

Однако ряд организаций и журналов под влиянием русофобии принимают недружественные меры в отношении российских авторов. Статьи последних принимают к печати, но при этом не публикуют сведения о принадлежности к российским учреждениям, в котором авторы работают. Такую политику с 27 марта 2023 года проводит уже упоминавшийся ЦЕРН. Научные сотрудники из России и Белоруссии могут публиковаться в его статьях, но только без указания их аффилиации (см. ЦЕРН, Википедия).

Недавно, как нам стало известно, к отказу российским авторам в указании их аффилиации присоединилось международное издательство Wiley (Journal of Morphology), расположенное в США, объясняя это необходимостью соблюдения введенных против России международных санкций. Поэтому российские авторы могут публиковаться только как частные лица, не связанные с государством (по аналогии с нейтральным статусом российских спортсменов на Олимпийских играх).

Можно привести и другие примеры. Вопиющий случай произошел с одной статьей [114], опубликованной московским зоологом А.Н. Решетниковым с большим числом соавторов в январе 2023 года в журнале Neo-biota (София): указания на аффилиацию лишили сразу 19 граждан России (unaffiliated!). Однако даже в таком виде, как написал один из авторов, опубликовать статью было неимоверно трудно. Для всех других соавторов по данной статье из разных стран, включая даже Белоруссию, аффилиация была сохранена.

Эта явная массовая политическая дискриминация ученых (российских авторов) нарушает принципы научной этики и прав человека, а в случае самого журнала, принадлежащего болгарскому издательству Pen-soft, противоречит и правилам его этики. На их сайте (см. https://neobiota.pensoft.net/about#Policies) имеется четкое утверждение о том, что "NeoBiota" занимает позицию нейтральности по геополитическим пробле-мам, включая территориальный аспект. В редакционной политике журнала также утверждается, что они не принимают решения об аффилиации авторов.

Давлению могут подвергаться даже западные коллеги российских авторов. Нам известен случай, когда в одном европейском журнале после извещения российского автора об отмене его аффилиации молодой соавтор предложил в знак солидарности снять также и свою аффилиацию. Реакция последовала не только в

журнале, но и в университете, где его предупредили, что в таком случае статья не будет учтена при защите диссертации.

В статьях, по крайней мере, некоторые украинские исследователи, даже находясь в составе международного авторского коллектива, стали выражать благодарность вооруженным силам Украины. Соответственно, перед российскими учеными сразу возникает дилемма: что делать? Отказаться от участия в данной, может быть, неплохой с научной точки зрения статьи или остаться в авторском коллективе, получив потом хороший балл в отчете по ПРНД (см. выше). Однако в последнем случае российские авторы автоматически становятся соучастниками публичной благодарности ВСУ и тем самым вступают в противоречие с текущим российским законодательством (и, возможно, со своей совестью). Принципиальные ученые, конечно, не соглашаются, но не всё так просто.

Вопрос об отношении к отмене аффилиации был вынесен на обсуждение в одном научном сетевом сообществе. К сожалению, у целого ряда молодых научных сотрудников такие заведомо дискриминационные политические действия не вызвали никакого удивления или сопротивления. Более того, они полагают, что ради публикации по гранту вполне можно пойти на соглашения и даже унижения, поскольку без статей в западных журналах из списков WoS и/или Scopus они могут остаться без грантов и потерять в зарплате при составлении годовых отчетов в своих учреждениях (ПРНД, от которого зависит так называемая стимулирующая надбавка в зарплате).

Выбор гражданской позиции не для всех научных сотрудников является легким делом. Известно, что многие из них лично не поддерживают проведение СВО на Украине. Однако сохранение западных показателей в требованиях к отчетам, заявкам на гранты, учет их при аттестации научных сотрудников заставляет подчас даже тех, кто нейтрален или согласен с СВО, идти на соглашательства и принимать унизительные требования некоторых журналов.

На наш взгляд, моральная ответственность в немалой степени ложится не только на самих российских авторов, но и на тех администраторов, которые своими неразумными наукометрическими требованиями прямо или косвенно вынуждают сотрудников, особенно молодых, к такому поведению.

Проведенный нами небольшой опрос научных сотрудников показал, что библиометрические требования к персональным отчетам за 2022 и 2023 годы, выраженные в квартилях по публикациям WoS и/или Scopus, особенно нелепые в период СВО, спускались приказами по так называемым институтам РАН59,

59 Формально бывшие научно-исследовательские институты системы РАН после реформы последней в 2014-2018 годах (см. выше) были переданы в подчинение Минобрнауки РФ. Таким образом, добавле-

>

по крайней мере, биологического и геологического профиля, в самых разных городах России от Санкт-Петербурга и Москвы до Поволжья, Урала и Сибири60. Возникает вопрос, неужели руководство учреждениями и Минобрнауки РФ не осознает, что такая административная настойчивость, достойная лучшего применения, в условиях проведения СВО и оголтелой западной русофобии отдает антироссийским душком, за который рано или поздно придется нести ответственность?

20 апреля 2024 года на 33-й годичной конференции Санкт-Петербургского союза ученых была единогласно принята резолюция о недопустимости оценки научных достижений исследователей на основе формальных библиометрических показателей. В ней также отмечено, что, несмотря на введенный Правительством РФ мораторий на использование показателей WoS и Scopus, последние продолжают широко применяться.

Заключение

В истории науки известно множество примеров, по -казывающих, что открытия в науке большей частью непредсказуемы. Нельзя творческую деятельность оценивать методом простых индексов. Количественные наукометрические показатели вполне применимы для анализа тенденций развития науки, но не для оценки «качества» научных сотрудников. Необходимо также помнить, что деятельность ученого многогранна и не исчерпывается только публикациями, несмотря на всю исключительную важность последних.

Сами научные труды, включая квалификационные работы молодых исследователей, рефераты, диссертации, монографии, исследовательские статьи в журналах и сборниках, а также тезисы докладов, обзоры и научно-популярные публикации, - это всего лишь часть научной активности (жизни) ученого. По ним можно судить о направлении развития науки и их обязательно нужно реферировать самыми современными методами для повышения эффективности развития научной мысли, но недопустимо использовать формальные количественные показатели для оценки эффективности труда ученого в целом.

Реальный вклад исследователя (его «качество») можно оценить лишь на основе тщательного анализа (серьезного рецензирования и ответственной экс-

ние аббревиатуры РАН к названиям этих институтов по сути является фикцией, поскольку они никакого отношения к РАН с тех пор не имеют. Исключение составляют только организации, непосредственно юридически входящие в структуру РАН (ее региональных научных центров).

60 Судя по выложенным на сайте документам (Приложения 1 и 2 к Приказу № 1252-59 от 12.03.2024), такие же библиометрические требования к оценке деятельности научных сотрудников практиковались и в учреждениях Южного научного центра РАН (см. https://www.ssc-ras.ru/documents/dokumenty_po_prnd).

пертизы) всех аспектов его деятельности, которая в первую очередь предполагает понимание содержания его публикаций, а не того, где они изданы.

Мы прекрасно понимаем большую важность би-блиометрических баз данных и поисковых систем для работы современного ученого, которые сильно облегчают поиск необходимой информации, помогают находить необходимые публикации (журналы, в меньшей степени книги). Собственно говоря, с этим никто и не спорит. Опасность представляет использование этих количественных показателей в административных целях для оценки деятельности научных сотрудников, определения их заработных плат (стимулирующих надбавок), должностного положения и т. д., что в течение последнего десятилетия в приказном порядке активно проталкивает Минобрнауки России, откровенно пренебрегая мнением научного сообщества и нанося ущерб отечественной науке.

Открытая наука предполагает широкий доступ исследователей к инструментам публичной огласки своих результатов с возможностью фиксации своего авторства и предоставления возможности для дальнейшего развития научной мысли. Для предотвращения использования этих инструментов для публикации лженаучных идей, а также откровенного плагиата все работы подвергаются независимому рецензированию. Сегодня существуют различные варианты рецензирования научных статей. Они имеют свои плюсы и минусы и наиболее эффективно выполняют свои задачи в тех областях, где работает достаточно большое число независимых исследователей и специализируется достаточно много отдельных научных журналов, принадлежащих разным издательствам.

В новых развивающихся областях, а также на стыке наук, к сожалению, система такой экспертизы иногда дает сбои. В узких научных сообществах «неограниченные права на истину в последней инстанции» способствуют возникновению своего рода закрытых «элитарных научных клубов». История науки уже доказала, что такой путь рано или поздно приводит к стагнации.

Поэтому важно расширять круг издательств и поддерживать доступ авторов к публикации своих трудов, как в отечественных, так и в иностранных изданиях, обеспечивая свободную конкуренцию редакций и издательств. В издательском деле не должно быть монополии! Нужно поощрять появление отечественных изданий с разной формой собственности, обеспечивать им поддержку; сделать это элементом престижа. Наряду с журналами, имеющими государственную поддержку, по крайней мере, моральное со -действие, а еще лучше, соответствующие финансовые (налоговые) льготы должны получить и частные научные издательства, выпускающие рецензируемые журналы и книги добротного научного качества. Таких журналов в России уже немало, в частности в об-

ласти биологии. Финансовая поддержка нужна также журналам, издающимся научными обществами, которые сами по себе находятся в бедственном состоянии. Полезно напомнить, что в Российской империи и в Советском Союзе изданиям обществ выделялись необходимые средства.

«В реальной жизни мы видим, что несмотря на международный характер науки общение ученых в наших лабораториях идет на русском языке, обучение студентов, будущих ученых и инженеров - тоже на русском языке. В каждом научном направлении есть своя русскоязычная терминология, отличающаяся от международной. Поэтому принижать роль отечественных журналов, а тем более отказываться от них, было бы неправильно. На наш взгляд, правильная по -литика должна заключаться в создании условий для качественного развития российских научных журналов и их активного продвижения на международный уровень» [10: 148].

Таким образом, оценка научной деятельности ученого не может строиться на основе формальных би-блиометрических индексов, вне зависимости от того, разработаны ли те за рубежом или имеют доморощенный характер (индекс цитирования, импакт-фак-тор, индекс Хирша и другие). Ни один из них не дает объективной оценки труда научных сотрудников. Непригодность показателей доказана многочисленными аналитическими публикациями и не принимается большей частью научного сообщества в России и за рубежом. Бюрократическое злоупотребление индексами отвергается различными научными обществами, организациями, национальными и международными советами, фондами, университетами, ведущими научными журналами и т. д. в мире.

К сожалению, несмотря на это, федеральные российские власти в области науки продолжают упорствовать и планируют и дальше использовать библиометрию. Это было прямо указано в уже упоминавшемся нами официальном ответе Минобрнауки России депутату А.В. Шишлову от 11 апреля 2024 года № МН-13/698:

«В настоящее время на основании поручения Правительства Российской Федерации разрабатывается оте -чественная система оценки результативности научных организаций, составной частью которой станет система расчета наукометрических показателей. В рамках разработки уже созданы Национальная платформа периодических научных изданий и Национальный список научных журналов (далее - 'Белый список')».

Однако для понимания реального вклада исследователя и для реальной оценки его научной деятельности необходимо читать (вникать в) его работы, то есть проводить экспертный анализ силами специалистов, а не манипулировать сомнительными цифрами. Содержание статей не может быть заменено их индексацией. Поэтому необходимо вернуться к традиционной

экспертизе, основанной на анализе качества (содержания) научных работ (статей и книг). В этом отношении интересен большой инициативный проект по созданию «Корпуса экспертов», разрабатывавшийся группой энтузиастов [32].

Упорное многолетнее нежелание российских управ -ленцев, проникших в науку на разных уровнях, и некоторой части ученых отказаться от культа библиометрии, уже нанесшей большой вред отечественной науке, трудно объяснить. Наукометрический Франкенштейн хорошо прижился в коридорах отечественной бюрократии.

К сожалению, искаженный подход к оценке деятельности ученых и их коллективов вполне вписывается в общую довольно печальную картину федеральной политики в области науки, которая пребывает в кризисном состоянии уже более 30 лет. Как выразился вице-президент РАН А.Р. Хохлов (2020),

«<...> мы находимся в странной ситуации: различные решения об организации этой сферы принимаются людьми, которые никогда не занимались собственно научными исследованиями».

К этому можно добавить, что к этим людям примыкают и те, кто презирает российскую науку и ее работников, полагая, что все хорошие ученые давно уехали из страны, и те, кто занимает компрадорскую позицию, и те, кто, к сожалению, ориентируясь лишь на личный опыт в своей научной дисциплине, не осознает сложного устройства науки как социокогнитив-ной системы во всем ее разнообразии и, увы, не понимает специфики разных областей науки.

Рекомендации

1. Необходимо исключить использование библио-метрических показателей (индекс цитирования, им-пакт-фактор журнала, индекс Хирша и другие) для оценки научной деятельности ученых и научных организаций, в вопросах финансирования (выделения грантов и пр.), кадровых назначений и продвижения по службе. Эти показатели должны быть изъяты из квалификационных требований к должностям научных работников.

2. В приоритетном порядке необходимо оценивать содержание статей (качество исследования), а не «играть» формальными показателями.

3. Следует развивать библиометрические базы данных как полезные поисковые системы для улучшения коммуникаций в научном сообществе на национальном и международном уровнях, а также для общества в целом. Такие системы могут быть полезны для исследований в области науковедения (социологии и истории науки и технологий), библиотечного дела и т. д. (но см. пункт 1).

4. При оценке деятельности научного работника необходимо учитывать все его публикации, независимо

>

от того, включены ли они в тот или иной бюрократический список, национальный или международный. Исключение публикаций из годовых и прочих отчетов научных сотрудников из-за отсутствия их в формальных списках абсурдно и может приводить к искажению (недооценке) публикационной активности ученого.

4. Научная деятельность ученых имеет многогранный характер и включает не только публикацию научных статей, но и рецензирование, редактирование, организацию и доклады на научных семинарах и конференциях, экспертную работу и консультирование, участие в советах и комиссиях разного уровня, в работе научных обществ, организацию и проведение экспедиций, чтение лекций, руководство студентами и аспирантами, участие в популяризации науки и в просвещении и многое другое, требующее затрат личного времени и усилий. Поэтому оценка результативности (эффективности) научной работы ученого должна строиться не по одному или двум отдельным произвольно выбранным параметрам, а с учетом всех аспектов деятельности ученого.

5. Необходимо отменить показатель результативно -сти научной деятельности (ПРНД), который строится преимущественно на библиометрических показателях (см. пункт 1) и от которого зависит так называемая стимулирующая надбавка в зарплате. ПРНД не дает адекватной (объективной) картины работы научного сотрудника, искажает публикационную деятельность и приводит лишь к ухудшению психологического климата в научном коллективе.

6. Необходимо повысить оклады научных сотрудников (и базовое финансирование научных организаций), что будет способствовать стабильности положения ученого и содействовать его научным исследованиям.

7. Необходимо разработать меры поддержки российских рецензируемых журналов (на русском или на английском, или на обоих языках). Увеличение их числа, а также количества томов и выпусков в году позволит сократить срок между подачей рукописи и ее опубликованием. Это будет содействовать увеличению числа публикаций и приоритету российских ученых.

8. Необходимо содействовать публикации монографий, руководств, сборников научных работ и материалов научных конференций, особенно на русском языке, которые дискриминировались в последние десятилетия в угоду зарубежным журналам. Наука является частью национальной культуры. Поэтому следует поддерживать издания на русском языке, имеющие национальную ориента-

цию (отечественная природа, социальные и гуманитарные науки). Публикации обобщающего характера (монографии, руководства) также обязательно следует издавать на русском языке, чтобы они были доступны всем интересующимся, особенно молодежи (студенты, аспиранты, молодые ученые); это не мешает их изданию при желании и на других языках (английском и пр.).

9. Следует прекратить дискриминацию публикаций российских ученых (и журналов) на русском языке, которая широко практиковалась в институтах, университетах и Российском научном фонде на основе предпочтения зарубежных журналов из списков WoS и Scopus. Надо оценивать, что, а не где, опубликовано.

10. Публикации российских исследователей в зарубежных журналах желательны, в том числе в соавторстве с коллегами из других стран. Однако они не должны осуществляться за счет унижения российских ученых в различной форме (лишение указания на аффилиацию, согласие на антироссийские заявления и пр.).

11. Административное принуждение (прямое или косвенное) публиковаться в журналах Scopus и WoS недружественных стран и пренебрежение российскими журналами недопустимо, особенно в условиях проведения специальной военной операции, и должно пресекаться.

12. Решения в области науки на федеральном и региональном уровнях должны учитывать мнение научного сообщества, а процесс их обсуждения должен проходить при участии научных обществ и организаций (научно-исследовательских институтов и т. д.).

13. Чиновники любого ранга должны нести персональную ответственность за тот вред (ущерб), который они наносят российской науке своими неразумными решениями и приказами.

Благодарности. Мы благодарны нашим коллегам по Санкт-Петербургскому союзу ученых (СПбСУ) за полезные обсуждения данной статьи, особенно физику С.В. Козыреву, ознакомившемуся с полным текстом. Большую помощь в вычитке верстки оказали А.Ф. Науменко и А.О. Доморацкий. Мы признательны редколлегии журнала «Биосфера» за возможность опубликовать статью. Ее основные положения были изложены в двух докладах авторов, представленных на заседании семинара СПбСУ по молекулярной и эво -люционной биологии 4 марта 2024 года на тему «Наукометрия и суверенитет российской науки» (руководитель семинара проф. А.П. Козлов), а также на 33-й годичной конференции СПбСУ, состоявшейся 20 апре-ля 2024 года.

Дополнение к верстке

Когда данный номер «Биосферы» уже верстался, авторы этой статьи получили только что опубликованный доклад: Гусев А.Б., Юревич М.А. Научная политика России - 2023: преодолевая кризис идентичности (по результатам социологического исследования, май-июнь 2023 г.); М.: Перо; 2024, 36 с. (pdf доступен по ссылке https://disk.yandex.m/i/DJ7dTomXOaWiHg). Авторы доклада исследовали влияние антироссийских санкций и специальной военной операции (СВО) на российское научное сообщество. Онлайн-опрос был проведен в конце мая - начале июня 2023 года. В нем приняли участие 3719 исследователей из 79 субъектов Российской Федерации, публиковавших в 2016-2021 годах свои статьи в научных изданиях, индексируемых в базах данных Web of Science Core Collection и Russian Science Citation Index. Половина респондентов, вклю -чая одного из авторов данной статьи (ЛБ), представляла естественные науки.

Предлагая респондентам для самоопределения формулировки «Я - часть России», «Я - гражданин Мира», «Я - часть Европы», «Я - часть Азии», «Иное», «Затрудняюсь ответить», авторы опросника выяснили, что с Россией связывают себя лишь 58% респондентов. С возрастом доля национально ориентированных исследователей увеличивается от 45,5% (30-39 лет) до 71% и выше у тех (70 лет и старше), кто воспитывался ещё в Советском Союзе.

Что особенно печально, в возрасте до 29 лет доля тех, кто считает себя частью России, составляет всего 32,5%, а среди аспирантов - 31% от числа ответивших. Таким образом, уровень космополитизма (термин авторов опроса) максимален среди тех, кто родился после развала СССР в «свободной» и «независимой» (от чего?) России. На наш взгляд, такая политически деформированная позиция у молодёжи - прямое следствие пагубной компрадорской политики, проводимой руководством наукой в нашей стране в последние десятилетия.

Отмечается усиление миграционных настроений во всех группах. Наиболее сильно оно выражено у космополитически настроенных респондентов.

Авторы опроса справедливо отмечают, что в лице своего кадрового состава наука в России переживает кризис идентичности. Национально ориентированная часть российского научного сообщества в силу возрастной динамики близка к потере своего небольшого численного преобладания, а в молодежном сегменте пророссийски мыслящие уже находится в меньшинстве. Между тем, «сегодняшние аспиранты, сменив в ближайшем будущем нынешних кандидатов и докторов наук, кратно усилят космополитичность научной сферы, если, конечно, с возрастом эти люди не пересмотрят свои взгляды. Такая ситуация стала следствием многолетней политики по встраиванию российской науки в международную» (Гусев, Юревич, 2024: 10; курсив наш - Л.Б., А.С.).

Однако, на наш взгляд, беда не в интеграции отечественной науки в мировую, что само по себе полезно и следует лишь приветствовать, а в той политике пренебрежения к российским учёным и в тех мерах их бюрократического принуждения, которые проводило (и, увы, проводит) руководство

наукой, полагая, что «все хорошие учёные давно уехали». Примечательно, что такие взгляды высших бюрократов, которые, казалось бы, должны печься о благополучии отечественной науки, совпадают с нарциссическим самолюбованием космополитически настроенных респондентов, которые именно себя позиционируют в качестве российской научной элиты.

Многолетнее пренебрежительное отечественной наукой проявляется также и в том, что исследования, особенно фундаментальные и поисковые, не являются приоритетом в понимании властей, особенно высших чиновников финансово-экономического сектора. Это доказывается явно недостаточным финансированием науки, характерным для постсоветской России, где (расходы госбюджета на науку резко упали в сравнении с расходами в СССР).

Авторы социологического опроса, обращая внимание на опасную деформацию личностно-профессиональных установок научной молодежи как наиболее уязвимой части российского научного общества и на негативное влияние «внешней среды», утверждают, что гражданская наука в России близка к точке невозврата. Необходимо принимать срочные меры по улучшению ситуации, особенно в отношении начинающих исследователей.

А.Б. Гусев и М.А. Юревич также полагают, что продолжающиеся внешние санкции показали ошибочность в долгосрочной перспективе проводимого ранее курса государственной научно-технической политики по встраиванию гражданской науки России в мировую. Новая парадигма ее развития на основе национальных интересов формируется и в системе управ -ления, и у самих ученых. Однако ментальный разворот на 180 градусов происходит с большой инерцией. Ее преодоление становится ключевой тактической задачей.

По мнению авторов опроса, его результаты, как и многие другие исследования государственной научно-технической политики, говорят о необходимости срочного принятия комплекса мер по восстановлению суверенности российской науки, которое может быть достигнута только при ее полной погруженности в решение конкретных целей и задач, отвечающих государственным интересам и отраслям национальной экономики, включая высокотехнологичные.

Предлагаются следующие принципы трансформации гражданской науки:

— «отечественная государственная наука [?!] служит интересам российского государства, а не является подчиненной частью науки в ее космополитической интерпретации (мировой, европейской и др.), не является придатком частного бизнеса или исключительно сферой самоуправления для научного сообщества»;

— «эффективность российской государственной науки выражается в решенных задачах и проблемах, актуальных для государства»;

— «российская государственная наука возвращает себе элитарность, которая сопряжена с мобилизационной нагрузкой и ответственностью».

Эффективность должна оцениваться по степени решения задачи или проблемы, актуальной для государства, что требует получение ряда продуктов, зависящих от научных результа-

>

тов. «В этой парадигме распространенные в настоящее время критерии оценки публикационной или патентной активности остаются лишь вспомогательными формами закрепления новых знаний» (Гусев, Юревич, 2024: 32; курсив наш. - Л.Б., А.С.).

Однако, на наш взгляд, реализация изложенных принципов, отражающих интересы в первую очередь управленцев, а не исследователей, приведет к еще большему подчинению научного сообщества бюрократическому (государственному) аппарату, и так грубо попирающему интересы учёных, и нанесет непоправимый вред развитию фундаментальных и поисковых

исследований. Такие исследования, как известно, в отличие от прикладной (заказной) науки, могут успешно развиваться лишь в условиях свободы, определенной независимости, творческой инициативности, как на личностном уровне, так и на уровне научного сообщества. Подчинение административному диктату вместо саморегуляции в рамках научного самоуправления для них губительно. Фундаментальные исследования служат не государству, т.е. совокупному аппарату чиновников, а расширению знаний человечества и тем самым не имеют политических границ.

Литература

1. Акоев МА, Маркусова ВА, Москалева ОВ, Писляков ВВ. Руководство по наукометрии: индикаторы развития науки и технологии. Екатеринбург: Издательство Уральского университета; 2014. 249 с. doi: 10.15826/B978-5-7996-1352-5.0000.

2. Боброва НА. Зачем мы кормим чужую науку в условиях санкций и кто нас заставляет делать это? 2018. https://www.rospisatel.ru/bobrova-nauka.html.

3. Боброва НА. О вредоносности современных критериев оценки научных достижений. Мир политики и социологии. 2018;(3-4):89-93.

4. Боркин Л. День науки и обман «по вертикали власти». Троицкий вариант-Наука. 2021;4(323):14-5. https://www.trv-science.ru/tag/323/.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

5. Боркин Л, Козырев С, Мелконян М. Актуальные проблемы федеральной и региональной научной политики (взгляд Санкт-Петербургского союза ученых). Экономист. 2021;(11):17-31.

6. Боркин ЛЯ, Литвинчук СН, Мазепа ГА, Па-сынкова РА, Розанов ЮМ, Скоринов ДВ. Западные Гималаи как арена необычного три-плоидного видообразования у зеленых жаб группы Bufo viridis. Отчетная научная сессия по итогам работ 2011 г. Тезисы докладов. 3-5 апреля 2012 г. СПб.: Зоологический институт РАН; 2012. С. 10-12.

7. Власова ВВ, Гохберг ЛМ, Дитковский КА, Ко-цемир МН, Кузнецова ИА, Мартынова СВ, Нестеренко АВ, Ратай ТВ, Репина АА, Росо-вецкая ЛА, Сагиева ГС, Стрельцова ЕА, Тара-сенко ИИ, Фридлянова СЮ, Юдин ИБ. Наука. Технологии. Инновации. 2024. Краткий статистический сборник. Москва: ИСИЭЗ ВШЭ, 2024.

8. Голубев АГ, Большаков ВН, Боркин ЛЯ, Дра-гавцев ВА, Исаченко ГА, Новиков АИ, Фрис-ман ЕЯ, Чурилов ЛП, Розенберг ГС. Уроки

прошлого для научных журналов в новой реальности. Биосфера. 2022; 14(1): 1-7. doi: 10.24855/biosfera.v14i1.664.

9. Гохберг ЛМ, Дитковский КА, Евневич ЕИ, Ко-цемир МН, Кузнецова ИА, Мартынова СВ, Не -федова АИ, Полякова ВВ, Ратай ТВ, Росовец-кая ЛА, Сагиева ГС, Стрельцова ЕА, Суслов АБ, Тарасенко ИИ, Фридлянова СЮ, Фурсов КС. Индикаторы науки 2020. Статистический сборник. Москва: НИУ ВШЭ; 2020.

10. Еременко ГО, Кокарев КП. eLIBRARY.ru и РИНЦ в информационной инфраструктуре российской науки. Беседа с гендиректором НЭБ Геннадием Еременко. Полис. Политические исследования. 2014; (1): 146-54. https://doi. org/10.17976/jpps/2014.01.10.

11. Животовский ЛН. Российская наука на краю ямы: куда ее заведут чиновничьи указы. Московский комсомолец. 9 февраля 2018; (27613). https://www.mk.ru/science/2018/02/09/ rossiyskaya-nauka-na-krayu-yamy-kuda-ee-zavedut-chinovnichi-ukazy.html.

12. Захарцев СИ, Сальников ВП. Наукометрия и индексы цитирования: сегодня и завтра. Правовое государство: теория и практика. 2016;4(46):7-13.

13. Кириллова ОВ. Редакционная подготовка научных журналов для включения в зарубежные индексы цитирования. Методические рекомендации. Москва: ВИНИТИ РАН; 2012.

14. Кириллова ОВ. Редакционная подготовка научных журналов по международным стандартам. Рекомендации эксперта БД Scopus. Часть 1. Москва; 2013.

15. Кириллова ОВ. Состояние и перспективы представления российских медицинских журналов и публикаций в базе данных Scopus. Вестник экспериментальной и клинической хирургии. 2014;7(1):10-24.

16. Кисляков СВ. О причинах ухода Г. Перель-мана из ПОМИ. Троицкий вариант-Наука. 2010;6(50):6. https://www.trv-science.ru/2010/03/ o-prichinax-uxoda-g-perelmana-iz-pomi/.

17. Локтев АП. Scopus в помощь исследователю и научной организации. Elsevier Research Intelligence; 2017.

18. Лутай АВ, Черченко ОВ, Чернова ИН. Индекс цитирования РЦНИ v.1.0 - анализ данных. Мо -сква: Российский центр научной информации (электронный текст). https://podpiska.rfbr.ru/ materials/citation_index_v1/. Дата публикации: 18.04.2023.

19. Максимова НН, Максимов АЛ. Некоторые аспек-

ты применения наукометрических показателей в оценке эффективности научной деятельности. Вестник Дальневосточного отделения Российской академии наук. 2009;(5):149-56.

20. Месяц ГА. «Индекс цитирования не всегда объективно отражает заслуги ученого». STRF. Наука и технологии РФ. 15.05.08. http://www.strf. ru/material.aspx?CatalogId=347&d_no=14318.

21. Молини А, Боденхаузен Д. Библиометрия как оружие массового цитирования. Вестник РАН. 2017;87(1):70-7.

22. Москалева ОВ. Можно ли оценивать труд ученых по библиометрическим показателям? Управление большими системами. Специальный выпуск 44: «Наукометрия и экспертиза в управлении наукой». Москва: Институт проблем управления имени В.А. Трапезникова; 2013. С. 308-31.

23. Писляков ВВ. Наукометрические методы и практики, рекомендуемые к применению в работе с Российским индексом научного цитирования. Отчет о научно-исследовательской работе по теме «Разработка системы статистического анализа российской науки на основе данных российского индекса цитирования». Москва: 2005; 24 с. http://www.elibrary.ru/projects/ citation/docs/scientometrics.pdf

24. Писляков ВВ. Самоцитирование и его влияние на оценку научной деятельности: обзор литературы. Часть I. Научные и технические библиотеки. 2022;(2):49-70. https://doi. org/10.33186/1027-3689-2022-2-49-70.

25. Полянин АД, Журов АИ. Электронные публикации и научные ресурсы Интернета. Природа. 2008;(2):5-13.

26. Розенберг ГС. «Хиршивость» науки и период полураспада цитируемости научных идей. Биосфера. 2018;10:52-64. http://dx.doi.org/10.24855/ biosfera.v10i1.425.

27. Рубинштейн АЯ. Государственный патернализм: наукометрический провал. J Insti-

tut Stud. 2021;13(3):20-36. doi: 10.17835/20766297.2021.13.3.020-036.

28. Сайфитдинова АФ. Научная публикация: истинное назначение и навязанные роли. Личность и культура. 2023;(6):32-9.

29. Свердлов ЕД. Инкрементная наука: статьи и гранты - да, открытия - нет. Молекулярная генетика, микробиология и вирусология. 2018;36(4): 168-76. doi: 10.17116/ molgen201836041168.

30. Сказ РА. Над учеными экспериментируют. ЭКО.2008;(1):64-75.

31. Стерлигов ИА. Рейтинги в науке: кто-то виноват? Социодиггер. 2021;2(7):55-61.

32. Фейгельман МВ, Цирлина ГА. Библиометриче -ский азарт как следствие отсутствия научной экспертизы. Управление большими системами. Специальный выпуск 44: «Наукометрия и экспертиза в управлении наукой». Москва: Институт проблем управления имени В.А. Трапезникова; 2013. С. 332-45.

33. Хохлов А. «Чтобы управлять наукой, надо понимать, как она устроена». Троицкий вариант-Наука. 2020;(318):3.

34. Чурилов ЛП, Бубнова НА, Варзин СА, Матвеев ВВ, Пискун ОЕ, Шишкин АН, Эрман МВ, Голубев АГ. Ученые и наукометрия: в поисках оптимума для России. Биосфера. 2017;9:1-12. doi: 10.24855/biosfera.v9i1.327/www.21bs.ru.

35. Эксперты обсудили создание Национальной системы оценки результативности научных исследований и разработок 11.03.2022 https:// www.minobrnauki.gov.ru/press-center/news/ novosti-ministerstva/48219/ (последняя дата обращения: 30.03.2024).

36. Эксперты оценили качество российских научных журналов. Новости науки в НИУ ВШЭ. 8 апреля 2024 года. https://www.hse.ru/news/sci-ence/147954841.html.

37. Abbasi K. Russia's war: Why the BMJ opposes an academic boycott. Brit Med J (BMJ). 2022;376 (8329):o613, doi: 10.1136/bmj.o613.

38. Abramo G, D'Angelo CA, Di Costa F. Correlating article citedness and journal impact: an empirical investigation by field on a large-scale dataset. Scien-tometrics. 2023. doi: 10.1007/s11192-022-04622-0.

39. Aksnes DW. A macro study of self-citation. Scientometrics. 2003;56(2):235-46. doi: 10.1023/A:1021919228368.

40. Aksnes DW. Citation rates and perceptions of scientific contribution. J Am Soc Informat Sci Tech-nol (JASIST). 2007; 57(2):169-85. doi: 10.1002/ asi.20262.

41. Alberts B. Impact factor distortions. Science. 2013;340:787. doi: 10.1126/science.1240319.

42. Amin M, Mabe MA. Impact factors: use and abuse. Medicina (Buenos Aires). 2003;63:347-54.

43. Anseel F, Wouter Duyck W, De Baene W, Brys-baert M. Journal impact factors and self-citations: implications for psychology journals. Am Psychologist. 2004;59(1):49-51. doi: 10.1037/0003.066X.59.1.49.

44. Archambault E, Lariviere V. History of the journal impact factor: contingencies and consequences. Scientometrics. 2009;79:635-49. doi: 10.1007/ s11192-007-2036-x.

45. Ball P. Achievement index climbs the ranks. Nature. 2007;448:737.

46. Beel J, Gipp B. Academic search engine spam and Google Scholar's resilience against it. J Electron Publ. 2010;13(3):1-24. doi:10.3998/3336451.0013.305.

47. Bergstrom TC, Courant PN, McAfee RP, Williams MA. Evaluating big deal journal bundles. Proc Natl Acad Sci USA. 2014;111:9425-30. doi:10.1073/pnas.1403006111.

48. Bornmann L, Daniel H-D. The state of h index research. Is the h index the ideal way to measure research performance? EMBO Rep. 2009;10(3):2-6. doi:10.1038/embor.2008.233.

49. Bornmann L, Mutz R, Daniel H-D. Are there better indices for evaluation purposes than the h index? A comparison of nine different variants of the h index using data from biomedicine. J Am Soc Informat Sci Technol. 2008.9:830-7. doi: 10.1002/asi.

50. Borrego A, Anglada L, Abadal E. Transformative agreements: do they pave the way to open access? Learned Publishing. 2020;1-17. doi: 10.1002/ leap.1347.

51. Brembs B. Prestigious science journals struggle to reach even average reliability. Front Hum Neurosci. 2018;12(37):1-7. doi: 10.3389/fn-hum.2018.00037.

52. Browman HI, Stergiou KI. Factors and indices are one thing, deciding who is scholarly, why they are scholarly, and the relative value of their scholarship is something else entirely. Ethics Sci Environ Polit. 2008;8:1-3. doi: 10.3354/esep00089.

53. Chou P-N. A comparison study of impact factor in WoS and Scopus databases for engineering education and educational technology journals. Iss Inform Sci Informat Technol. 2012;9:187-94. doi: 10.28945/1615.

54. Coleman R. Impact factors: use and abuse in biomedical research. Anatom Rec. 1999;257(2):54-7.

55. Dewatripont M, Ginsburgh V, Legros P, Walck-iers A. Pricing of scientific journals and market power. J Eur Econ Assoc. 2007;5(2/3):400-10.

56. Editorial. The impact factor game. It is time to find a better way to assess the scientific litera-

ture. PLoS Med. 2006;3(6):e291:0707-0708. doi: 10.1371/journal.pmed.0030291.

57. Editorial. Beware the impact factor. Nat Materials. 2013;2:89.

58. Editorial. Russia's brutal attack on Ukraine is wrong and must stop. Nature;2022;603;201. doi: 10.1038/d41586-022-00647-w.

59. Else H. Thousands of scientists run up against Elsevier's paywall. Nature; 2019. doi: 10.1038/ d41586-019-00492-4.

60. Fagan JC. An evidence-based review of academic web search engines, 2014-2016: implications for librarians' practice and research agenda. Informat Technol Librar. 2017;6(2):7-47. doi: 10.6017/ital. v36i2.9718.

61. Falagas ME, Pitsouni EI, Malietzis GA, Pappas G. Comparison of PubMed, Scopus, WoS, and Google Scholar: strengths and weaknesses. FASEB J. 2008;22:338-42. doi: 10.1096/fj.07-9492LSF.

62. Flatt JW, Blasimme A, Vayena E. Improving the measurement of scientific success by reporting a self-citation index. Publications. 2017;5(3):1-6. doi: 10.3390/publications5030020.

63. Flemming BW. Impact Factors: the grand delusion. Geo-Marine Lett. 2012;32(1):1-3. doi: 10.1007/s00367-011-0272-9.

64. Fricke S. Semantic Scholar. J Med Library Assoc. 2018;106(1):145-7. doi: dx.doi.org/10.5195/ jmla.2018.280.

65. Garfield E. Citation indexes for science: a new dimension in documentation through association of ideas. Science. 1955;122:108-11. doi: 10.1126/ science.122.3159.108.

66. Garfield E. "Science Citation Index" - a new dimension in indexing: This unique approach underlies versatile bibliographic systems for communicating and evaluating information. Science. 1964;144:649-54. doi: 10.1126/science. 144.3619.649.

67. Garfield E. Citation analysis as a tool in journal evaluation: journals can be ranked by frequency and impact of citations for science policy studies. Science. 1972;178:4719.

68. Garfield E. Impact factors, and why they won't go away. Nature. 2001;411:522. doi: 10.1038/35079156.

69. Garfield E. The history and meaning of the journal impact factor. JAMA. 2006;295(1):90-3.

70. Garfield E, Pudovkin AI. Journal Impact Factor strongly correlates with the citedness of the median journal paper. Collnet J Scientometrics Informat Manag. 2015;9(1):5-14. doi: 10.1080/09737766. 2015.1027099.

71. Garfield E, Sher IH. New factors in the evaluation of scientific literature through citation indexing. J Assoc Informat Sci Technol

(JASIST). 1963;14(3): 195-201. doi: 10.1002/asi. 5090140304.

72. Guerrero-Bote VP, Moya-Anegon F. A further step forward in measuring journals' scientific prestige: the SJR2 indicator. J Informetrics. 2012;6:674-88. doi: 10.1016/jjoi.2012.07.001.

73. Glanzel W, Debackere K, Thijs B, Schubert A. A concise review on the role of author self-citations in information science, bibliometrics and science policy. Scientometrics. 2006;67(2):263-77. doi: 10.1007/s11192-006-0098-9.

74. Grant B. WoS sold for more than $3 billion. The Scientist. 2016. https://www.the-scientist. com/web-of-science-sold-for-more-than-3-bil-lion-33184 (accessed 11.03.2024).

75. Gray E, Hodkinson SZ. Comparison of Journal Citation Reports and Scopus Impact Factors for ecology and environmental sciences journals. Iss Sci Technol Librarianship. 2008;(54):1-9. doi: 10.29173/istl2451.

76. Gusenbauer M. Google Scholar to overshadow them all? Comparing the sizes of 12 academic search engines and bibliographic databases. Scientometrics. 2019;118(1):177-214. doi: 10.1007/ s11192-018-2958-5.

77. Harzing A-W. Two new kids on the block: how do Crossref and Dimensions compare with Google Scholar, Microsoft Academic, Scopus and the WoS? Scientometrics. 2019;120(1):341-9. doi: 10.1007/s11192-019-03114-y.

78. Heibi I, Peroni S, Shotton D. Software review: COCI, the OpenCitations Index of Crossref open DOI-to-DOI citations. Scientometrics. 2019;121(2):1213-28. doi: 10.1007/s11192-019-03217-6.

79. Herzog C, Hook D, Konkiel S. Dimensions: bringing down barriers between scientometricians and data. Quantit Sci Studs. 2020;1(1):387-95. doi: 10.1162/qss_a_00020.

80. Hicks D, Wouters P, Waltman L, de Rijcke S, Ra-fols I. Bibliometrics: the Leiden Manifesto for research metrics. Nature. 2015;520:429-31.

81. Hirsch JE. An index to quantify an individual's scientific research output. Proc Natl Acad Sci USA. 2005;102:16569-72. doi: 10.1073/ pnas.0507655102.

82. Hirsch JE. Does the h index have predictive power? Proc Natl Acad Sci USA. 2007;104:19193-8.

83. Ioannidis JPA, Boyack K, Wouters PF. Citation metrics: a primer on how (not) to normalize. PLoS Biol. 2016; 14(9):e1002542:1-7. doi: 10.1371/jour-nal.pbio.1002542.

84. Jacso P. Google Scholar revisited. Online Informat Rev. 2008;32(1):102-14. doi: 10.1108/14684520810866010.

85. Jacso P. The plausibility of computing the h-index of scholarly productivity and impact using reference-enhanced databases. Online Informat Rev. 2008;32(2):266-83.

86. Jacso P. Metadata mega mess in Google Scholar. Online Informat Rev. 2010;34(1):175-91. doi: 10.1108/14684521011024191.

87. Kangas A, Mäkinen S, Dubrovskiy D, Pallot J, Shenderova S, Yarovoy G, Zabolot-na O. Debating academic boycotts and cooperation in the context of Russia's war against Ukraine. New Perspect. 2023;31(3):250-64. doi: 10.1177/2336825X231187331.

88. Koul M, Majumder P, Laskar S. Salami publication: an outlook from the lens of ethical perspective. J Oral Health Commun Dentistry. 2021;15(2):84-6. doi: 10.5005/jp-journals-10062-0099.

89. Kousha K, Thelwall M. Google Scholar citations and Google Web/URL citations: a multi-discipline exploratory analysis. J Am Soc Informat Sci Technol. 2007;57(6):1055-65. doi:10.1002/ asi.20584.

90. Lariviere V, Haustein S, Mongeon P. The oligopoly of academic publishers in the digital era. PLoS ONE. 2015; 10(6):e0127502:1-15. doi: 10.1371/ journal.pone.0127502.

91. Lariviere V, Kiermer V, MacCallum CJ, McNutt M, Patterson M, Pulverer B, Swaminathan S, Taylor S, Curry S. A simple proposal for the publication of journal citation distributions. BioRxiv. 2016. doi: 10.1101/062109.

92. Lariviere V, Sugimoto CR. The Journal Impact Factor: a brief history, critique, and discussion of adverse effects. In: Glänzel W, Moed HF, Schmoch U, Thelwall M. (eds.). Springer Handbook of Science and Technology Indicators. Cham (Switzerland): Springer International Publishing; 2018. P. 3-24.

93. Lawani SM. On the heterogeneity and classification of author self-citations. J Am Soc Informat Sci. 1982;33(5):281-4.

94. Litvinchuk SN, Mazepa GO, Pasynkova RA, Saidov A, Satorov T, Chikin YuA, Shabanov DA, Crottini A, Borkin LJ, Rosanov JM, Stöck M. Influence of environmental conditions on the distribution of Central Asian green toads with three ploidy levels. J Zool Systemat Evolut Res. 2011;49:233-9. doi: 10.1111/j.1439-0469.2010.00612.x.

95. Lopez-Illescas C, de Moya Anegon F, Moed HF. Comparing bibliometric country-by-country rankings derived from the WoS and Scopus: the effect of poorly cited journals in oncology. J Informat Sci. 2009;35(2):244-56. doi: 10.1177/0165551508098603.

96. Lopez-Cozar E, Robinson-Garcia N, Torres-Salinas D. The Google Scholar experiment: how

to index false papers and manipulate bibliomet-ric indicators. J Assoc Informat Sci Technol. 2014;65:446-54. doi: 10.1002/asi.23056.

97. Martin BR. Editors' JIF-boosting stratagems -which are appropriate and which not? Res Policy. 2016;45:1-7. doi: 10.1016/j.respol.2015.09.001.

98. Martín-Martín A, Thelwall M, Orduna-Malea E, Lypez-Cyzar ED. Google Scholar, Microsoft Academic, Scopus, Dimensions, WoS, and OpenCitations' COCI: a multidisciplinary comparison of coverage via citations. Scientomet-rics. 2021;126:871-906. doi: 10.1007/s11192-020-03690-4.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

99. Meho LI, Yang K. Impact of data sources on citation counts and rankings of LIS faculty: WoS versus Scopus and Google Scholar. J Am Soc Informat Sci Technol. 2007;58:2105-25. doi: 10.1002/asi.20677.

100. Mendes-Da-Silva W, Leal CC. Salami science in the age of open data: déjà lu and accountability in management and business research. J Contemp Administr Brasil. 2021;25(1):1-11. doi: 10.1590/1982-7849rac2021200194.

101. Menon V, Muraleedharan A. Salami slicing of data sets: what the young researcher needs to know. Ind J Psychol Med. 2016;38:577-8. doi: 10.4103/0253-7176.194906.

102. Metze K. Bureaucrats, researchers, editors, and the impact factor - a vicious circle that is detrimental to science. Clinics. 2010;65(10):937-40.

103. Monastersky R. The number that's devouring science: the impact factor, once a simple way to rank scientific journals, has become an unyielding yardstick for hiring, tenure, and grants. Chronicle Higher Educ. 2005;52(8), 1-17.

104. Moskaleva O, Akoev M. Non-English language publications in Citation Indexes - quantity and quality. In: G. Catalano G. et al., eds. Proc 17th Conf Int Soc Scientometrics Infometrics. Vol. 1. Roma: Edizioni Efesto; 2019. P. 35-46.

105. National Science Board, National Science Foundation. Publications Output: U.S. Trends and International Comparisons. Alexandria (Virginia, USA): Science and Engineering Indicators 2024. NSB-2023-33. https://ncses.nsf.gov/pubs/ nsb202333/ (accessed 3 April 2024).

106. Nazarovets M, Teixeira da Silva JA. Scientific publishing sanctions in response to the Russo-Ukrainian war. Learned Publishing. 2022;35:658-70.

107. Neill US. A conversation with Aaron Ciech-anover. J Clin Invest. 2013;123:4093-4. doi: 10.1172/JCI71859.

108. Opthof T. Sense and nonsense about the impact factor. Cardiovascr Res. 1997;33(1):1-7.

109. Pislyakov V. Comparing two thermometers: impact factors of 20 leading economic journals according to Journal Citation Reports and Scopus. Scientometrics. 2009;79(3):541-50. doi: 10.1007/ s11192-007-2016-1.

110. Pudovkin AI. Comments on the use of the journal impact factor for assessing the research contributions of individual authors. Front Res Metrics Analytics. 2018; 3(2):1-4. doi: 10.3389/ frma.2018.00002.

111. Pudovkin AI, Garfield E. Percentile rank and author superiority indexes for evaluating individual journal articles and the author's overall citation performance. Collnet J Scientometrics Informat Manag. 2009; 3(2):3-10.

112. Pulverer B. Dora the brave. EMBO Journal. 2015;34(12): 1601-2. doi: 10.15252/embj. 201570010.

113. Redner S. Citation statistics from 110 years of Physical Review. Physics Today. 2005;58(6):49-54. doi: 10.1063/1.1996475.

114. Reshetnikov AN, Zibrova MG, Ayaz D, Bhatta-rai S, Borodin OV, Borzée A, Brejcha J, Çiçek K, Dimaki M, Doronin IV, Drobenkov SM, Gichi-khanova UA, Gladkova AY, Gordeev DA, Ioan-nidis Y, Ilyukh MP, Interesova EA, Jadhav TD, Karabanov DP, Khabibullin VF, Khabilov TK, Khan MMH, Kidov AA, Klimov AS, Kochet-kov DN, Kolbintsev VG, Kuzmin SL, Lotiev KY, Louppova NE, Lvov VD, Lyapkov SM, Marty-nenko IM, Maslova IV, Masroor R, Mazanaeva LF, Milko DA, Milto KD, Mozaffari O, Nguyen TQ, Novitsky RV, Petrovskiy AB, Prelovskiy VA, Serbin VV, Shi H-t, Skalon NV, Struijk RPJH, Taniguchi M, Tarkhnishvili D, Tsurkan VF, Tyu-tenkov OY, Ushakov MV, Vekhov DA, Xiao F, Yakimov AV, Yakovleva TI, Yang P, Zeleev DF, Petrosyan VG. Rarely naturalized, but widespread and even invasive: the paradox of a popular pet terrapin expansion in Eurasia. NeoBiota. Sofia. 2023;81:91-127. doi: 10.3897/neobiota.81.90473.

115. Roberts RJ. An obituary for the impact factor. Nature. 2017;546:600. doi: 10.1038/546600e.

116. Sauermann H, Haeussler C. Authorship and contribution disclosures. Sci Adv. 2017;3:e1700404:1-13. doi:10.1126/sciadv.1700404.

117. Schiermeier Q, Mega ER. Institutes lose access to Elsevier journals. Nature. 2017;541:13. doi: 10.1038/nature.2016.21223.

118. Schmid SL. Five years post-DORA: promoting best practices for research assessment. Mol Biol Cell. 2017;28:2941-4. doi:10.1091/mbc.E17-08-0534.

119. Schreiber M. Self-citation corrections for the Hirsch index. Europhys Lett. 2007;78(3):1-6. doi: 10.1209/0295-5075/78/30002.

120. Seglen PO. Citations and journal impact factors: questionable indicators of research quality. Allergy. 1997;52:1050-6.

121. Seglen PO. Why the impact factor of journals should not be used for evaluating research. Brit Med J. 1997;314:498-502.

122. Schekman R, Patterson M. Reforming research assessment. eLife. 2013;2:e00855:1-2. doi: 10.7554/ eLife.00855.

123. Shu F, Mongeon P, Haustein S, Siler K, Alperin JP, Lariviere V. Is it such a big deal? On the cost of journal use in the digital era. College Res Libraries. 2018;79:785-98. doi: 10.5860/crl.79.6.785.

124. Singh VK, Singh P, Karmakar M, Leta J, Mayr P. The journal coverage of WoS, Scopus and Dimensions: a comparative analysis. Scientometrics. 2021;126(6):5113-42. doi: 10.1007/s11192-021-03948-5.

125. Smolcic VS. Salami publication: definitions and examples. Biochem Med. 2013;23(3):137-41. doi; 10.11613/BM.2013.030.

126. Spires-Jones TL, Belin D. Impact fact(or) fiction? Brain Comm. 2022;4(6):1-2. doi: 10.1093/brain-comms/fcac261.

127. Spires-Jones TL, Belin D. Put your publication money where your mouth is. Brain Comm. 2023;5(5):1-2. doi: 10.1093/braincomms/fcad220.

128. Stahlschmidt S, Stephen D. Comparison of WoS, Scopus and Dimensions Databases. KB Forschungspoolprojekt 2020. Hannover: German Centre for Higher Education Research and Science Studies (DZHW); 2020.

129. Steck N, Stalder L, Egger M. Journal- or article-based citation measure? A study of academic promotion at a Swiss university. F1000 Res. 2020;9:1188:1-16. doi: 10.12688/f1000re-search.26579.1.

130. Stephan P, Veugelers R, Wang J. Blinkered by bib -liometrics. Nature. 2017;544:411-2.

131. Stöck M, Schmid M, Steinlein C, Grosse W-R. Mosaicism in somatic triploid specimens of the Bufo viridis complex in the Karakorum with examination of calls, morphology and taxonomic conclusions. Ital J Zool. 1999; 66(3):215-32.

132. Stöck M, Lamatsch DK, Steinlein C, Epplen JT, Grosse W-R, Hock R, Klapperstück T, Lampert KP, Scheer U, Schmid M, Schartl M. A bisexual-ly reproducing all-triploid vertebrate. Nat Genet. 2002;30:325-8.

133. Stone R. Western nations cut ties with Russian science, even as some projects try to remain neu-

tral. Science. 2022;375:1074-6. doi: 10.1126/sci-ence.adb1928.

134. Surridge C. Patterns of co-suppression in plants. Nature Milestones. December 2019; S6 (Milestones in antisense RNA research. Milestone 2). http s: //www.nature. c om/article s/d42859-019-00077-1 (accessed 11.03.2023).

135. Thelwall M. Microsoft Academic: a multidisci-plinary comparison of citation counts with Scopus and Mendeley for 29 journals. J Informetrics. 2017;11(4):1201-2. doi:10.1016/j.joi.2017.10.006.

136. Thelwall M. Dimensions: a competitor to Scopus and the WoS? J Informetrics. 2018;12(2):430-5. doi: 10.1016/j.joi.2018.03.006.

137. Valderrama P, Escabias M, Valderrama MJ, Jiménez-Contreras E, Baca P. Influential variables in the Journal Impact Factor of Dentistry journals. Heliyon. 2020;6(3):e03575:1-4. doi: 10.1016/j.heliyon.2020.e03575.

138. Van Noorden R. Impact factor gets heavyweight rival. CiteScore uses larger database and gets different results. Nature. 2016;540:325-6.

139. Wang K, Shen Z, Huang C, Wu C-H, Dong Y, Kanakia A. Microsoft Academic Graph: when experts are not enough. Quantitat Sci Stud. 2020;1(1):396-413. doi: 10.1162/qss_a_00021.

140. Wilhite AW, Fong EA. Coercive citation in academic publishing. Science. 2012;335:542-3. doi: 10.1126/science.1212540.

141. Wilsdon J, Allen L, Belfiore E, Campbell P, Curry S, Hill S, Jones R, Kain R, Kerridge S, Thelwell M, Tinkler J, Viney I, Wouters P, Hill J, Johnson B. The Metric Tide. Report of the Independent Review of the role of Metrics in Research Assessment and Management. HEFCE [Higher Education Funding Council for England]; 2015. doi: 10.13140/RG.2.1.4929.1363.

142. Wood S. Ghost authorship on the wane, but guest authorship still common. Medscape. 2009. https://www.medscape.com/viewarticle/708781? form=fpf.

143. Zhang L, Rousseau R, Sivertsen G. Science deserves to be judged by its contents, not by its wrapping: revisiting Seglen's work on journal impact and research evaluation. PLoS ONE. 2017;12(3):e0174205:1-18. doi: 10.1371/journal. pone.0174205.

144. Zhivotovsky LA, Krutovsky KV. Self-citation can inflate h-index. Scientometrics. 2008;77(2):373-5. doi: 10.1007/s11192-006-1716-2.

i Надоели баннеры? Вы всегда можете отключить рекламу.