Решил всех повеселить: посмотрел, что в 2015 году опубликовано в Web of Science от South* Federal University по теме Computer Science.
29 статей. Web of Science.pdf (172,5 КБ)
Общее количество публикаций в базе данных Scopus составляет 2 363 947
— это значит, что доля российских статей равна 2,12%. К сожалению,
получить статистику за 2015 год от базы данных Web of Science не
удалось, так как она еще полностью не обработана, но для Scopus порог
в 2,44% пока не преодолен. Впрочем, по сравнению с 2012 годом, когда
были опубликованы майские указы, рост все же есть — тогда доля
российских статей составляла 1,64%.
Несмотря на то что число публикаций российских ученых постепенно
растет, основная их доля приходится всего лишь на несколько областей
науки. Так, согласно данным Web of Science, в 2014 году отечественные
исследователи опубликовали более тысячи статей только в десяти
областях науки: физике, химии, материаловедении, инженерных науках,
математике, оптике, астрономии и астрофизике, космических технологиях,
геологии, биохимии и молекулярной биологии, а также механике
Вот из любви к механике - список журналов, попадающих в первую половину по версии Web of Science JournalHomeGrid (1).xlsx (30,9 КБ)
Computer Science тоже есть - только я весь список скопировал - все квартили. JournalHomeGrid (2).xlsx (81,3 КБ)
А зачем это надо - а затем, чтобы математиков с химиками не мерять по импакт-фактору журналов Все, попадающие в Q1 - молодцы. Это вместо деления журналов по импакту - делить их по четвертям.
Первый: формализм в управлении научными исследованиями - плохо.
Призывы “публиковаться только в индексируемых ведущими международными
базами данных изданиях” - и особенно оценка деятельности по валу таких
публикаций - заставляет многих учёных выбирать путь наименьшего
сопротивления и публиковаться там, где проще, но при этом аудитория у
таких изданий составляет не более тысячи человек. Это действительно
увеличивает публикационную активность, но снижает цитируемость, по
которой у России дела обстоят и вправду плохо.
Второй: решение “Мы добавим 5 наших журналов в ведущие международные
базы данных” - верный способ потерять драгоценное время, и к 2020му
году не то что не попасть ни в какие рейтинги, а испортить себе все
основные показатели, связанные с цитируемостью. Оставьте инициативы по
продвижению журналов редакциям самих журналов.
Третий: любая инициатива, смещающая акцент в управлении научными
исследованиями с более активного и креативного продвижения научных
результатов (которым, как правило, является научная публикация) на
агрессивное продвижение научных журналов, гарантированно затягивает
цитируемость научных исследований вот в этот квадрант:
В третьем выводе квадрант показан на рисунке, который тут не приводится. Плохой квадрант.
К сожалению, люди, принимающие решения, судя по всему не читают Павла Касьянова, хотя мудрость известная: тысяча мышей не заменяет одного слона.
“Для государственной работы по выполнению фундаментальных научных исследований в государственных заданиях организаций установлены показатели, характеризующие объем работы, - это количество научно-исследовательских тем, а также показатели, характеризующие качество работы, в перечень таких показателей входит количество научных публикаций в журналах, индексируемых в базе данных “Сеть науки” (WEB of Science) и Scopus <…> Подход к установлению показателя, характеризующего качество работы по выполнению фундаментальных научных исследований, изменен”
Было бы интересно, так сказать чисто теоретически, посмотреть, во что это выльется…
Ну вот как бы и результат. Один из многих. Для начала ссылка
Закон (принцип) Гудхарта заключается в том, что когда экономический показатель становится целью для проведения экономической политики, прежние эмпирические закономерности, использующие данный показатель, перестают действовать
И вот замечательный пример - Броня крепка Суть проста, осознав, что требуются хирши и цитирования, человек нагнул всех остальных и вот результаты - 1 статья в Web of Science имеет 860 цитирований. Как? Да просто - вот так:
Всего в этом выпуске «Трудов ВИАМ» 12 статей (видимо, именно их порядковые номера указывает eLibrary рядом с буквой С, так как номера страниц явно не совпадают…). Каждая из 12 цитирует любимого автора / главного редактора от трех до семи раз (обычно в начале библиографического списка).
Ну понятно, надеюсь. И результат вот:
В 2012 году, когда в базу «Корпуса экспертов» были впервые введены все академики, полное цитирование автора Эпо по WoS составляло 136, при пересчете в 2013-м — 183. Как видно из eLibrary, машинка тогда уже была запущена. И сейчас благодаря ловкости рук виамовских редакций и существованию RSCI цитирование данного автора по WoS достигло 6558
В общем-то молодцы, как известно, в математике есть доказательство от противного, вот этот автор довел использование этого библиометрического критерия до абсурда. Чем и прославится среди многих других подобных себе. Лечится это все элементарно и просто все той же библиометрией, однако любопытно. В основном, зачем это? Все таки успехи института авиационных материалов должны оцениваться не хиршем директора.
Компания Clarivate Analytics, которая владеет базой данных научных статей Web of Science, подготовила статистику российских научных исследований в преддверии визита своего управляющего директора в Россию. Полный текст доклада доступен по ссылке.
Согласно нацпроекту «Наука», количество российских журналов в базе данных Web of Science (WoS) должно к 2021 году вырасти до 400. Согласно новой опубликованной статистике, их уже насчитывается 356. Это на 80% больше, чем в 2015, согласно тому же документу.
Кроме того, в докладе были приведены данные по количеству исследователей, имеющих Web of Science Researcher ID. Оказалось, что Россия по этому показателю обходит Соединенные штаты (130582 против 120522).
Отсюда следуют вывод и вопрос:
опубликоваться стало проще, опубликоваться веселей.
Осторожно - 60 страниц. В общем сразу видно, кто есть научная сверхдержава, а кто так, мимо проходил. Когда 3-4 страны обеспечивают больше половины научный статей в мире…
Казалось бы недавно задавал столь риторический вопрос, а он уже в какой-то степени потерял актуальность. Clarivate Analytics решила соединить свои продукты в один:
Exciting news! ResearcherID and Publons, both part of the Web of Science Group, are coming together so you can get all the benefits of Web of Science, ResearcherID, and Publons in one place.
From 15 April Publons will be the new environment where you can add your publications, track citations, and manage your publication records across Web of Science. Your current ResearcherID account will be inaccessible from 12 - 14 April while it is moved to Publons.
With your Web of Science ResearcherID hosted on Publons you will also be able to track your peer review history and journal editing work right alongside your publications and citations — showing a more complete record of your research impact.
Так что вопрос теперь звучит так: а у тебя есть профиль на Publons?
Можно будет меряться публонами
Ну вот, обещанное слияние двух платформ ResearcherID и Publon состоялось. Посмотрев, что же получилось, честно скажу - мне не очень понравилось. Скорее всего “Боливар не вынес двоих” - Clarivate не смогла поддерживать две платформы одновременно и оставила последнюю. Так что если хочется посмотреть, каким некто является рецензентом, то приглашаю. А некоторые функции ResearcherID просто пропали. Например, теперь просто нельзя посмотреть, кто же и откуда цитирует конкретного доцента.
Пока замечены “фичи” Publon’a:
неактуальная информация - казалось бы должны брать информацию о статьях из базы, ан нет, откуда-то еще. Поэтому в Web of Science Core Collection статья есть, и ее цитирования есть, а в Publon’е нет.
один и тот же журнал по странной причине оказался отнесенным и неотнесенным к Web of Science - как-то это странно.
статья пристутвует, но почему-то без журнала - как поправить непонятно
В общем, на текущий момент, если отбросить рецензирование, то Scopus дает больше информации и ее получить проще. А, положа руку на сердце, нужно сказать, что при оценке научного сотрудника, его характеристики как рецензента несколько вторичны. Основное - что, сколько, как и где он опубликовал.
Наверное, надо будет поковыряться еще.
P.S. Впрочем, Scopus, это та еще контора, нелинейная, для нее характерны спонтанные бифуркации - откусывание от профиля каких-то статей и образование на их основе нового профиля. Вот только что почти слил два дубля, и вот, здравствуйте, отгрызли снова две статьи…
Попробовал я такую опция Publon - автоматическая генерация информации о себе, любимом. Называется Generated verified record. Что выдается: число рецензий по журналам, для которых писались рецензии, распределение по годам (в таком-то году рецензировал для такого-то журнала), можно выдать названия рецензированных статей. Ну наконец выдается список статей и кое-какая ерунда типа рейтингов.
Можно сразу сгенерировать короткую версию, ну а полную версию зачем-то высылают на почту.
Резюме. Годится, если надо убедить, что ты - рецензент. К этой части претензий нет.
Все остальное не годится. Библиометрии (индекс Хирша, число цитирований, число цитирований без самоцитирований, и все остальное) - нет. Список работ не годится - нет ни списка авторов, ни выходных данных.
А тем временем Scopus расширил выдачу параметров - в частности, появилось финансирующие фонды, распределения публикаций по странам, по соавторам, по институтам, ну и так далее.
Кстати анекдот - обнаружил у себя фонды - Massachusetts Department of Fish and Game (DFG), California Department of Fish and Game - прямой вред сокращений - надо было Deutsche Forschungsgemeinschaft (DFG), вот и попал в поддержку департамента рыбы и игр
Вышел новый отчет от Web of Science (Clarivate Analytics) об импакт-факторах журналов. Ищется легко в сети кому надо.
20 июня Web of Science Group выпустила ежегодный аналитический отчет о цитировании журналов (Journal Citation Reports). В нем собраны данные по итогам 2018 года. Всего в рейтинг попал 151 российский журнал. Впервые журнал из нашей страны преодолел отметку импакт-фактора в четыре пункта. Indicator.ru выяснил, как изменились показатели цитирования российских журналов по сравнению с предыдущим отчетом.
Journal Citation Reports составляется не для всех журналов базы Web of Science (всего в ней индексируется 356 российских журналов), а только для индексируемых в двух основных индексах: Science Citation Index Expanded (SCIE) и Social Science Citation Index (SSCI). В отчете рассчитаны классический двухлетний импакт-фактор журнала (отношение числа цитирований, полученных в отчетном году статьями журнала, которые вышли за два предыдущих года, к числу этих статей), пятилетний импакт-фактор, импакт-фактор без учета самоцитирования, показатели оперативности цитирования и другие.
Что говорит новый отчет о российских журналах из двух самых авторитетных индексов цитирования? Прежде всего, их стало чуть меньше: в Journal Citation Reports 2018 года было 153 журнала из России, на два больше, чем теперь. Зато впервые журнал из нашей страны («Успехи химии») преодолел показатель в четыре пункта импакт-фактора (любопытно, что второе и третье место тоже занимают «Успехи» — физических наук и математических наук.
Судя по спискам, исключены журналы Measurement Techniques (перевод русскоязычной «Измерительной техники») и Journal of Applied Mathematics and Mechanics («Прикладная математика и механика»).
ПММ - жалко… Исторический журнал. Мог вылететь не за накрутки, а просто так - по вине редакции, в общем-то.
Общее распределение журналов из России по квартилям (учитывая повторы…) выглядит так:
Q1 — 3 журнала
Q2 — 4 журнала
Q3 — 25 журналов
Q4 — 130 журналов
В лидерах по своим предметным областям оказались в основном математические журналы
Вывод - математики - молодцы!!!
Однако же борьба за вход журналов Web of Science, даже заканчивается успехом, то получается 4й квартиль. А это, в общем-то, фигня. С библиометрической точки зрения.
P.S. Впервые опубликовал статью в журнале с импакт-фактором, больше 9. Хотя максимальный - 223, что как бы намекает на бренность бытия.
Посмотрел в очередной раз на свою страничку в Publon (дело идет к грантовым заявкам). В очередной раз оплакал покинувший нас ResearcherID.
Потому что с ходу обнаружил как минимум два дефекта:
один и тот же журнал то есть в Web of Science, а то нет. Почему - непонятно.
левые описания.
не показывается, что журнал в Web of Science, хотя он там есть.
Про левые описания. Пример. Внезапно обнаружил у себя 6 публикаций в Nondeterministic mechanics. Очень удивился, откуда и что же такого недетерминистического я породил. Оказалось все просто - почему-то название серии книжек поменялись. Пикантно то, что если смотреть эти публикации не через Publon, а через Web of Science, то там все нормально. То есть при передаче оттуда что-то портится, или у кого-то кривые ручки. Вывод прежний - Скопус лучше, а Publon годится для оценки только сквозь призму рецензирования. А кому надо пользоваться Web of Science, надо будет учиться создавать сложные запросы
Publon дает возможность посмотреть список исследователей, аффилированных (вот какие слова знаю ) с данной организацией. Посмотрел и обнаружил одного лидера по рецензированию - за последние 12 месяцев им написано более 90 рецензий. Интересно то, что статей у него нет. От слова вообще. И тут у меня возник элементарный вопрос, как к этому относиться, я конечно понимаю, что у нас все критики и всё могут раскритиковать. Форум - прямое доказательство. Однако я думал, что peer-review - это нечто другое, это так сказать критика равных, а тут вот на тебе. Так и хочется спросить в грубой форме - а ты кто такой, чтобы рецензии писать?
На самом деле всем известный экспоненциальный рост числа публикаций вообще говоря должен порождать соответствующий рост рецензентов. А рецензентов почему-то нет, не хватает. В результате в рецензенты попадают и аспиранты, и вообще непонятно кто. В данном конкретном случае, зная польские реалии, это скорее всего ошибка публона - нельзя работать, ничего не публикуя. Хотя все бывает.