Web of Science


#1

Решил всех повеселить: посмотрел, что в 2015 году опубликовано в Web of Science от South* Federal University по теме Computer Science. 29 статей. Web of Science.pdf (172,5 КБ)

Mechanics - 24 papersWeb of Science Mechanics.pdf (164,5 КБ)

Mathematics - 20 papers Web of Science Math.pdf (156,6 КБ)

А всего 457 статей опубликовал ЮФУ в 2015 году.

Поиск автоматический, как есть.


#2

В 2015 году количество публикаций российских ученых составило 2,12% от общемирового

Общее количество публикаций в базе данных Scopus составляет 2 363 947 — это значит, что доля российских статей равна 2,12%. К сожалению, получить статистику за 2015 год от базы данных Web of Science не удалось, так как она еще полностью не обработана, но для Scopus порог в 2,44% пока не преодолен. Впрочем, по сравнению с 2012 годом, когда были опубликованы майские указы, рост все же есть — тогда доля российских статей составляла 1,64%. Несмотря на то что число публикаций российских ученых постепенно растет, основная их доля приходится всего лишь на несколько областей науки. Так, согласно данным Web of Science, в 2014 году отечественные исследователи опубликовали более тысячи статей только в десяти областях науки: физике, химии, материаловедении, инженерных науках, математике, оптике, астрономии и астрофизике, космических технологиях, геологии, биохимии и молекулярной биологии, а также механике


#3

Вот из любви к механике - список журналов, попадающих в первую половину по версии Web of Science JournalHomeGrid (1).xlsx (30,9 КБ)

Computer Science тоже есть - только я весь список скопировал - все квартили. JournalHomeGrid (2).xlsx (81,3 КБ)

А зачем это надо - а затем, чтобы математиков с химиками не мерять по импакт-фактору журналов :wink: Все, попадающие в Q1 - молодцы. Это вместо деления журналов по импакту - делить их по четвертям.


#4

Очередной анализ, подтверждающий на мой взгляд очевидную мысль: публиковаться лучше в хороших, чем в плохих.

Эффективность VS формализм в управлении научными исследованиями

Ну и какие выводы из этого мы делаем.

Первый: формализм в управлении научными исследованиями - плохо. Призывы “публиковаться только в индексируемых ведущими международными базами данных изданиях” - и особенно оценка деятельности по валу таких публикаций - заставляет многих учёных выбирать путь наименьшего сопротивления и публиковаться там, где проще, но при этом аудитория у таких изданий составляет не более тысячи человек. Это действительно увеличивает публикационную активность, но снижает цитируемость, по которой у России дела обстоят и вправду плохо.

Второй: решение “Мы добавим 5 наших журналов в ведущие международные базы данных” - верный способ потерять драгоценное время, и к 2020му году не то что не попасть ни в какие рейтинги, а испортить себе все основные показатели, связанные с цитируемостью. Оставьте инициативы по продвижению журналов редакциям самих журналов.

Третий: любая инициатива, смещающая акцент в управлении научными исследованиями с более активного и креативного продвижения научных результатов (которым, как правило, является научная публикация) на агрессивное продвижение научных журналов, гарантированно затягивает цитируемость научных исследований вот в этот квадрант:

В третьем выводе квадрант показан на рисунке, который тут не приводится. Плохой квадрант.

К сожалению, люди, принимающие решения, судя по всему не читают Павла Касьянова, хотя мудрость известная: тысяча мышей не заменяет одного слона.


#5

А тем временем Минобрнауки изменило оценку качества работы ученых по фундаментальным исследованиям

“Для государственной работы по выполнению фундаментальных научных исследований в государственных заданиях организаций установлены показатели, характеризующие объем работы, - это количество научно-исследовательских тем, а также показатели, характеризующие качество работы, в перечень таких показателей входит количество научных публикаций в журналах, индексируемых в базе данных “Сеть науки” (WEB of Science) и Scopus <…> Подход к установлению показателя, характеризующего качество работы по выполнению фундаментальных научных исследований, изменен”

Было бы интересно, так сказать чисто теоретически, посмотреть, во что это выльется…


#6

Ну вот как бы и результат. Один из многих. Для начала ссылка

Закон (принцип) Гудхарта заключается в том, что когда экономический показатель становится целью для проведения экономической политики, прежние эмпирические закономерности, использующие данный показатель, перестают действовать

И вот замечательный пример - Броня крепка Суть проста, осознав, что требуются хирши и цитирования, человек нагнул всех остальных и вот результаты - 1 статья в Web of Science имеет 860 цитирований. Как? Да просто - вот так:

Всего в этом выпуске «Трудов ВИАМ» 12 статей (видимо, именно их порядковые номера указывает eLibrary рядом с буквой С, так как номера страниц явно не совпадают…). Каждая из 12 цитирует любимого автора / главного редактора от трех до семи раз (обычно в начале библиографического списка).

Ну понятно, надеюсь. И результат вот:

В 2012 году, когда в базу «Корпуса экспертов» были впервые введены все академики, полное цитирование автора Эпо по WoS составляло 136, при пересчете в 2013-м — 183. Как видно из eLibrary, машинка тогда уже была запущена. И сейчас благодаря ловкости рук виамовских редакций и существованию RSCI цитирование данного автора по WoS достигло 6558

В общем-то молодцы, как известно, в математике есть доказательство от противного, вот этот автор довел использование этого библиометрического критерия до абсурда. Чем и прославится среди многих других подобных себе. Лечится это все элементарно и просто все той же библиометрией, однако любопытно. В основном, зачем это? Все таки успехи института авиационных материалов должны оцениваться не хиршем директора.