Библиометрия

Все эти скопусы сейчас почему-то используются в основном для подсчета хирша, цитирований и всего такого, что называется библиометрией. Хотя помимо всего перечисленного они дают возможность искать и, что более важно, находить нужные публикации.

А как это влияет на жизнь научных сотрудников обсуждалось много раз, как и то, как к этому относятся научные сотрудники. (По-разному :wink: ) Вот последняя статья на эту тему, с говорящим названием (и на мой взгляд неправильным),

Статья остается холодным жанром ради звездочек и погон

В заключении написано:

Внедрение всего нескольких наукометрических индексов кардинально изменило понимание того, кто считается ученым, по крайней мере, на управленческом уровне: это уже не просто человек, который проводит исследования в лаборатории, «поле», архиве или библиотеке, а автор публикаций в довольно узкой группе международных журналов.

На мой взгляд в этом-то ничего криминального нет: публикации - результат исследований. По крайней мере один из.

А вот далее

Может быть, уже через десять лет ученого будет определять заполненность профиля на Publons или количество токенов за конференции за год?

Ну посмотрим, мне лично вот такого развития не хотелось бы. Всему же должен быть предел :slight_smile:

3 лайка

А для поиска статей scholar.google.com + sci-h… :wink: :slight_smile:

Scholar очень хорош. А еще хорош тем, что позволяет брать информацию о публикации в формате бибтеха. Только иногда слишком много мусора попадается, в Scopus/Web of Science там все-таки есть некоторой пороговый фильтр. Цитирую Хохлова:

Напомню, что в Российской Федерации издается более 6 тысяч журналов, которые называют себя научными. Из них около 3 тысяч журналов входят в «список ВАК». Но согласно заключению совместного проекта Российской академии наук, Научной электронной библиотеки elibrary, и компании Clarivate Analytics (издающей Web of Science) только 771 российский научный журнал удовлетворяет набору минимальных требований, которые позволяют включить этот журнал в базу данных Russian Science Citation Index.

1 лайк

Неоднократно упоминаемый на нашем форуме Михаил Соколов написал интересную статью на Индикаторе: «Россия обречена на наукометрию».

Если коротко, то мне понравилось - все разумно. Что достаточно удивительно на фоне всеобщих плачей об ужасах библиометрии. Просто несколько цитат.

Есть два принципиальных подхода к построению таких систем. Одна из них основана на рецензировании — собирается жюри экспертов, и они оценивают плоды труда коллег в своей дисциплине.

Второй подход — использовать метрики, данные о количестве публикаций, о наукометрических показателях журнала и о числе цитирований.

В целом преимущество первого, экспертного подхода в том, что эксперты могут оценить качество текста непосредственно, не опираясь на косвенные показатели типа качества журнала. Кроме того, такой подход не дискриминирует дисциплины с разными практиками публикаций и цитирований … С другой стороны, у него есть два недостатка. Во-первых, он гораздо дороже. Во-вторых, его применение упирается в вопрос о том, кто и на каких основаниях будет назначать экспертов.

высокоцитируемые англоязычные журналы и правда отказывают российским ученым по идеологическим причинам — но не совсем в том смысле, в каком это подразумевают коллеги из РАН. Мне рассказывали о мытарствах казахстанского ученого, который стремился опубликовать в англоязычном политологическом журнале статью, резюмирующую выводы его диссертации «Личность Н.А.Назарбаева как фактор геополитической стабильности в Центральной Азии» (воспроизвожу услышанную несколько лет назад историю по памяти, так что ее нужно воспринимать как фольклорный сюжет). Статью не брали, но, вероятно, не столько даже в силу предубеждения против Н.А. Назарбаева, сколько потому, что по жанру это была не исследовательская статья, а ода. И это, мне кажется, основная проблема столкновения академических цивилизаций.

Примерно половина того, что в них приходит от российских авторов — это не то, что англоязычный журнал вообще воспримет как исследовательскую статью, а обозначение авторской позиции по какому-то вопросу с некоторым количеством цитат и примеров. По жанру это часто больше похоже на проповедь. … Есть чисто теоретические или обзорные статьи, но они тоже имеют свои правила и на оды и проповеди не похожи.

Проблема в том, что передача такого решения на усмотрение экспертных панелей опять возвращает нас к проблеме доверия к экспертам, которого в России нет и не предвидится. В этом плане, я боюсь, нас ждет какое-то единообразное решение для всех дисциплин, и оно будет основано на метриках. Но лучшее, возможно, что может спровоцировать КБПР и прочие неприятности — это научную самоорганизацию в ответ на кризис. Если бы министерство встретило ассоциации, которые объединяли бы большинство специалистов в своей области, чью легитимность бы никто не оспаривал изнутри, которые бы предлагали бы проделать адскую работу, связанную с созданием экспертных панелей и качественной оценкой, и, казалось бы, правдоподобным, что они и правда ее проделают, оно могло бы оказаться куда уступчивей. И даже если нет, прецедент такой самоорганизации был бы важным событием. Опять же, министры приходят и уходят, а навыки самоорганизации остаются

2 лайка

В продолжение к статье Михаила Соколова “«Россия обречена на наукометрию» За КБПР замолвите слово” Индикатор опубликовал следующую - “«Наука одна, а языки у нее разные» Аршином общим не измерить?”. В ней приведены мнения экспертов. Много и разных. Иногда просто даже удивительные, например,

в решении ученого совета Института философии есть и предложение оценивать книжную продукцию по числу авторских листов. Легко представить себе, к какому взрыву «научной» продуктивности может привести массовое применение такого количественного параметра.

Вот еще:

Как мне кажется, нынешняя конфликтная ситуация вызвана кризисом доверия между учеными и государством. Государство форсирует наукометрию и фактически делегирует принятие решений о качестве рецензентам и редакторам журналов Web of Science потому, что подозревает (и нередко справедливо!), что экспертиза внутри научного сообщества часто некачественная и половина, если не больше, того, что в России публикуется как гуманитарные и общественные науки, — или очень слабая наука, или вообще не наука.

(выделение мое).

Вспоминая вывод Соколова об оценках монографий:

Монографии — головная боль для любой формальной системы оценки научных достижений. …

мой прогноз здесь – никакое удовлетворительное здесь решение не будет найдено, ни за неделю, ни за более долгий срок, и учет монографий будет обсуждаться в этом контексте еще годами, их авторы будут чувствовать себя дискриминированными, а младшие поколения — мигрировать в сторону статей как доминирующего жанра.

нас ждут любопытные обсуждения и “интересные” времена. Странички на фейсбуке, этому делу посвященные, тоже очень интересные.

UPD. “Троицкий вариант” как раз опубликовал “О бедной монографии замолвите слово” Единственное, что хотелось бы сказать, что монографии есть и в остальных науках, и там с их оценкой все то же самое.

“Сложившаяся система отчетности привела к погоне за показателями публикационной активности, тиражированию статей, легковесных в научном плане, однако публикуемых в индексируемых, но зачастую малоизвестных или непрофильных изданиях. Выросший на этой почве бизнес издателей также ни для кого не является секретом. Объявленная «Методика расчета качественного показателя государственного задания “Комплексный балл публикационной активности”» лишь усугубляет это прискорбное положение. Так, сама по себе абсурдна идея постоянного повышения количества публикаций, поскольку по объективным причинам есть предел скорости создания качественного научного продукта, обусловленный не только трудно прогнозируемыми затратами времени на проведение самих научных исследований, но и тем, что даже статьи, принятые по результатам рецензирования в «топовые» журналы, нередко должны ждать годы до самой публикации”.

Из открытого письма Ученого совета Института славяноведения РАН Министру науки и высшего образования Российской Федерации Фалькову В.Н., Президенту Российской академии наук Сергееву А.М., Академику-секретарю Отделения историко-филологических наук РАН Тишкову В.А. от 25 февраля 2020 г.

Поиск” опубликовал статью, из которой стали ясны некоторые конструктивные предложения по оценке организаций.

Предложения трех социогуманитарных отделений, принципиально меняющие методику, представил В.Тишков. Они касаются в основном оценки трудов гуманитариев, но не только их.

Если раньше планировалось сделать основной упор на журналы, индексируемые в Web of Science Core Collection (статьи в изданиях из Scopus, предполагалось оценивать на уровне четвертого квартиля WoS), теперь решено использовать обе базы данных на равноправной основе. Получила поддержку идея учитывать статьи гуманитариев в «безквартильных» изданиях из списка WoS и Scopus с коэффициентом три (а не один, как в исходном варианте методики), из Russian Science Citation Index (российская полка WoS) - с коэффициентом два (вместо единицы), из списка ВАК - с коэффициентом единица (вместо 0,5).

Я лично не понимаю, что значит “на равноправной основе” - предполагаю, что по максимуму. То есть квартиль будет определяться как максимальное число из квартилей этих баз. Ну а если его нет, то и нет, и все равны.

Был дан положительный ответ и на претензию гуманитариев по поводу учета монографий.

Выделены три типа таких изданий. За научные монографии (в том числе отдельные тома многотомных изданий) предложено начислять один балл, за энциклопедические издания, академические словари и грамматики - 0,75 балла, за комментированные публикации источников, литературных и фольклорных текстов, переводы классиков науки и литературы - 0,5. Во всех случаях результат умножается на количество печатных листов (один лист - 40 тысяч знаков).

Круто! Это я про количество печатных листов :slight_smile: Ну и что же за монографии будут приниматься в учет? А вот и критерии.

Это, во-первых, наличие на титуле грифа организации науки или высшей школы, во-вторых, утверждение монографий учеными советами НИИ или вузов первой и второй категорий, в третьих, положительные отзывы внешних рецензентов.

Это конечно очень сильные требования. Например, монография, изданная ЮНЦ РАН, с грифом РАН, рекомендованная ученым советом и имеющая двух внешних рецензентов, оказывается зачитывается. А монография, изданная Springer, Cambridge University press, и так далее, не проходит.

Собственно говоря, у меня претензии вовсе не содержательные даже. А проблема с доступом. Если со Шпрингером и всеми остальными - есть Интернет. А тут, что?

2 лайка

Приведу почти полностью мнение Ивана Стерлигова о равноправии баз данных:

В пятницу судьбоносное обсуждение методики оценки российской науки, где РАН будет продвигать приравнивание квартилей Scopus к WoS. Сами понимаете, насколько это опасный и глупый fail (глупый еще и потому, что играет на руку слабым вузам вместо РАН). А если понимание не окончательное, то вот мои тезисы по случаю:

  • В Scopus более чем в два раза больше журналов с квартилями, чем в WoS, за счет гораздо менее селективной политики. В среднем журналы в Scopus существенно слабее.
  • Это значит, что в среднем у журнала, индексируемого в двух базах, в Scopus будут существенно более высокие квартили.
  • В Scopus в среднем каждый журнал приписан к гораздо большему числу тематик, чем в WoS, соответственно, ситуация, когда у одного журнала совсем разные квартили, встречается гораздо чаще. Это значит, что для данной базы просто брать максимальный квартиль совсем нельзя.
  • Приписка к тематикам в Scopus гораздо хуже, чем в WoS, гораздо больше ошибочных привязок (ссылка на масштабное исследование https://doi.org/10.1016/j.joi.2016.02.003)
  • Квартили Scopus в отличие от WoS присваиваются всем журналам, включая гуманитарные, где плотность сети ссылок недостаточна для адекватных расчетов, из-за чего квартили по ним скачут от Q1 до Q4 за один год и зачастую совсем не отражают их реальный уровень.
  • В Scopus гораздо больше мусорных журналов, и даже после их исключения из базы ссылки из них продолжают учитываться при расчете квартилей оставшихся журналов, а мусорные журналы, удаленные самой базой, продолжают занимать места в квартильных рейтингах SciMago.
1 лайк

Вот и Elibrary посвятило библиометрии большую статью СРАВНЕНИЕ УРОВНЯ ПУБЛИКАЦИЙ РОССИЙСКИХ УЧЕНЫХ В БАЗАХ ДАННЫХ WEB OF SCIENCE, SCOPUS И RSCI

Первое сделанное предположение говорит о том, что “уровень” или “качество” - это нечто иное, о чем можно подумать сначала. На самом деле сравнивается уровень цитируемости за 2018 г.

Для этого сравним среднее количество цитирований российских публикаций в журналах из разных баз данных. Чтобы это сделать, мы взяли весь массив публикаций российских ученых за 2018 год, и рассчитали для каждого журнала число публикаций в этом массиве. Это дает нам информацию о том, какую долю тот или иной журнал имеет в общем потоке публикаций российских ученых.

Затем для каждого журнала мы рассчитали число ссылок из ядра РИНЦ (WOS + SCOPUS + RSCI) в 2018 году на публикации в этом журнале за все годы. Опять же, учитываем только цитирования публикаций российских авторов. Это дает нам информацию о том, какой вклад тот или иной цитируемый журнал дает в общее число цитирований статей российских ученых.

Поделив число цитирований на число статей, мы получили для каждого журнала показатель, позволяющий сравнивать журналы и коллекции журналов. Для простоты назовем его условно средней цитируемостью. Абсолютные значения этого показателя смысла не имеют, но в сравнении они довольно точно отражают эффективность публикации в разных категориях журналов с точки зрения их потенциальной цитируемости.

Ну вот и вполне ожидаемые результаты - WoS лучше Scopus

увеличение числа российских статей в Scopus по сравнению с WOS CC примерно на четверть приводит к снижению средней цитируемости примерно на четверть.

А ядро WoS лучше не ядра

Получается, что 21 тыс. российских статей, попавших в ESCI, цитируются в среднем в 12 раз хуже, чем статьи, попавшие в основные базы Web of Science.

Ну и подтверждение выводов о так называемом равноправии двух баз:

квартили в WOS и Scopus нельзя считать даже примерно одинаковыми по качеству журналов

Доказательство основано на цитируемости. И, действительно, первый квартиль WoS цитируется лучше всего.

Вот собственно выводы (выделение мое):

  1. Коэффициенты качества КБПР для первых трех квартилей WOS явно завышены. По-видимому, они считались на основе средних показателей в квартилях по всем публикациям WOS. Однако, уровень российских публикаций в этих квартилях заметно ниже среднего.

  2. Четвертый квартиль WOS, ESCI и SCOPUS имеют одинаковые коэффициенты качества КБПР, тогда как в реальности российские публикации в журналах ESCI и SCOPUS, не входящих в WOS, примерно в 3-4 раза хуже по качеству, чем WOS Q4.

  3. RSCI имеет коэффициент качества 0,75, хотя уровень публикаций в этой базе данных даже после удаления пересечений с предыдущими БД, находится на том же уровне, что и SCOPUS и почти в полтора раза лучше, чем ESCI. Чем обусловлена такая дискриминация российских журналов в методике расчета КБПР, непонятно.

  4. Публикации в журналах ВАК имеют вес 0,5, то есть всего в два раза ниже, чем WOS Q4. Здесь несоответствие методики и реального распределения качества статей особенно заметно, поскольку публикации в журналах ВАК после удаления пересечений с другими базами данных примерно в 25 раз хуже по качеству, чем WOS Q4.

  5. Если методика предполагает учет публикаций в журналах из Перечня ВАК, то тогда нужно, по-видимому, учитывать и оставшиеся журналы из РИНЦ, поскольку их уровень даже после удаления всех дублей отличается от ВАК незначительно (0,03 и 0,04 соответственно).

Я бы вместо п.5 сделал бы другой вывод - список ВАК не учитывать вовсе.

Заключение: если кто-то хочет получить больше цитирований, он должен опубликоваться в лучшем журнале, чем в худшем :slight_smile: Ну правда же, кажется, очевидным? :wink: Ну зато теперь есть доказательство.

1 лайк

Ну вот я оказался в хорошей компании

Для меня главный вывод из этих данных: не имеет никакого смысла учитывать публикации из списка ВАК в формуле для КБПР помимо тех, которые включены в RSCI (да еще с весом лишь немного меньшим, чем для журналов RSCI). В среднем качество таких публикаций «ниже плинтуса». Это полностью соответствует предложению, которое уже два раза формулировал Президиум РАН: необходимо планомерно сокращать список ВАК и приводить его к списку RSCI.

1 лайк

А где не учитывать? Вот у нас в рейтинге он есть. Вместе со списком публикаций в e-library. А там и учебники и всё-всё-всё.

И вообще - не учитывать - это значит не произносить вслух?

1 лайк

Где надо :slight_smile: А у нас в рейтинге его нет. У нас и Скопус не существует. Только WoS? причем журналы, а не конференции. :stuck_out_tongue:

Если серьезно, то это вот о чем. Обсуждаемая форма отчетности по госзаданию касается научных организаций. Сейчас. Например, ЮНЦ РАН. Но планы есть распространить это все и на вузы. ЮФУ - это же научная организация? Так что это небезинтересно.

Ну а еще конечно публикации в е-library можно подать в завке на грант, например, в РНФ. Только не пройдет. Есть есть пороговое значение и “все-все-все” там не проходит. Насколько я знаю, в грантах РФФИ, РНФ, мегагрантах, есть требования именно по WoS. E-library добавить можно, ну или не добавлять - большого значения это не имеет. Даже если эксперт пропустит, ему вежливо напомнит “монитор”, что не фиг.

Ну можно и так сказать, по примеру обсценной лексики… Например.

Еще раз, обсуждается некая методика типа оценки научных организаций. Так вот, за статью в WoS в первом квартиле дают 19.7 баллов. А за РИНЦ типа 0.75 (не помню точно). Ну так проще эту вот мелочь вовсе не считать. Идея высокого начальства - мотивировать публикации в топ-журналах. И это понятно, потому что это - то, что остается. А “всё-всё-всё” останется просто никому неизвестным.

Хотя конечно можно и набрать мелочью. Инсайдерская информация, например, от ЮНЦ требуется за 2020 год набрать 107 баллов. На тему - чуть больше 5. В общем, совсем не страшно. Учитывая численность научного персонала, совсем не страшно. Так что если что-то похожее попросят с мехмата, не думаю, что проблемы возникнут.

Ну это мы все о таком, ничтожном - баллы там всякие, квартили, децили, сентили. А не высокой науке. К сожалению, по гамбургскому счету, никакой экспертной оценки нет, она невозможна, да и никого она на самом деле не интересует, народ привык по понятиям. Остается считать баллы. Кому интересно, считает, кому надо - тоже считает, а кому не надо, просто любопытствует, вот как я ну или @Admin. Ну а вот @KAM может и придется, а может и нет :wink:

2 лайка

Здесь к правильному первому высказыванию о ЮНУ РАН примешивается паровозиком второе в корне неправильное утверждение.

Южный федеральный университет - это прежде всего организация, реализующая высшее образование. Это образовательная организация. Потому что без студентов она существовать не может. Студенты - это первичное условие существования ЮФУ.

Так вот, в этой самой образовательной организации в рейтинге преподавателя учитываются в частности учебники, которые представлены в РИНЦ. Не в списке ВАК - заметьте, а в списке РИНЦ, котоый вообще уровнем ниже.

ЮНЦ РАН - это другое. ЮНЦ РАН прекрасно может существовать без студентов. То, что там учитывать для рейтинга, меня особо не заботит, но выглядит логичным, что те, кто профессионально занимается единственным делом - получением научных результатов - будут публиковать эти научные результаты в приличных местах.

Это все так, все правда. Но не вся. К счастью, не вся. К счастью, потому что научная компонента - это как раз то, что отличает ЮФУ от РИНХа. Ну одно из таких отличий, и оно важное. Ну посмотрите, НИИ Физики, НИИ ФОХ - это что, образовательные подразделения?

Если ЮФУ окажется просто образовательной организацией, не ведущей научные исследования, то тогда там не эти институты не нужны, не нужны научные гранты, не нужны аспиранты, не нужны диссосветы, и не нужно много других разных плюшек. Однако же ЮФУ, оказавшись на каком-то месте хоть в каком рейтинге, помещает это на главной странице своего сайта. А вот всех этих рейтингах есть научная компонента - типа число публикаций, число цитирований и т.п. Да и недавняя категоризация университетов и институтов учитывала именно научную составляющую.

Что же касается внутреннего рейтинга ЮФУ - ну так сегодня один рейтинг, завтра - другой. Вот, к примеру, кого на самом деле интересует как устроен рейтинг ВШЭ? И что там внутри?

Ну и касательно внутреннего рейтинга ЮФУ - если там оставить только статьи WoS, то у большиства сотрудников рейтинг окажется нулевой (даже мехмата), они станут неразличимы. И такой рейтинг очевидным образом окажется бесполезным в плане оценки сотрудников, разве что в плане висящего над ними дамоклова меча. Но это плохая мотивация, депрессивная.

Так что вот это вот

как раз таки и есть пример неправильного утверждения. Почему это организация, заявляющая о своей активной научной деятельности не должна оцениваться как именно научная? :stuck_out_tongue: Она есть научная, и должна именно так и оцениваться - с научной стороны. А образовательная сторона должна оцениваться по-другому, на основании других параметров, но это - другая история, не библиометрическая.

2 лайка

Nature опубликовала статью про мнение Хорхе Хирша по поводу индекса Хирша. В общем, ничего нового там нет - про недостатки этого индекса писали кому только не лень, особенно те, у кого он невысокий (ну или не толстый/длинный).

Мне вот что понравилось - средний хирш по дисциплинам у высокоцитируемых ученых - Computer Science -20; Mathematics - 30; Economical sciences - 30; Social sciences - 40; Physics - 60; Chemistry - 81; Clinical medicine - 97 - это максимум.

Это конечно так сказать уровень мировой научной элиты. Однако же годится как верхняя граница. Интересно, что у экономистов выше, чем у математиков, а у социальных наук - такой же средний хирш. В ЮФУ все логично - самый высокий хирш у научного руководителя ЮФУ.

3 лайка

В качестве эпиграфа: «Он и меня посчитал».

Введение.

SciVal - онлайн-платформа для мониторинга и анализа международных научных исследований с использованием инструментов визуализации и современных метрик цитируемости, экономической и социальной эффективности.

Модульная платформа SciVal обеспечивает представление и оценку результатов научно-исследовательской деятельности более 12000 организаций (вузов, государственных и корпоративных научно-исследовательских центров) из 230 стран, позволяет организациям и их руководителям оптимизировать стратегическое вложение средств, а также эффективно определять дальнейшие направления исследовательской работы и принимать рациональные решения при выборе персонала и партнеров.

Ну и собственно содержание. На сайте ЮФУ есть файлик для SciVal - и там есть все сотрудники мехмата с их идентификаторами Scopus, а также номерами Orcid. Кстати говоря, это становится практически общим местом - наличие этого номера при публикации статей. Тут он есть не у всех.

1 лайк

Вирус-вирусом, а тема библиометрии продолжается. ELibrary подсчитала рейтинг организаций согласно предлагаемой методике Комплексного балла…

Показатели рассчитываются по публикациям организации за 5 лет (2015-2019), за исключением h-, g- и i-индексов, которые учитывают все публикации организации, и КБПР, который учитывает только публикации за 2018 год

Показываются только организации, имеющие не менее 50 публикаций за 5 лет (2015-2019)

Ну а “Поиск” тоже опубликовал статью по этому поводу.

Вот по поводу университетов (выделение мое)

у нас нет точных данных о научных сотрудниках по всем российским организациям. Доверять статистическим данным, которые существуют, тоже не очень верно. Там подсчитаны сотрудники, работающие и на полставки, и просто «мертвые души». Мы знаем число уникальных авторов организации, которые за последние пять лет написали хотя бы одну статью (это означает, что они выдают научный результат), но есть сотрудники, которые только числятся и ничего не пишут, – про них нам ничего не известно. Поэтому нужно понять, как именно нормировать. Например, в вузах профессорско-преподавательский состав неоднородный. Нужно ли всех преподавателей учитывать (даже тех, кто не пишет статей), тоже не очень понятно. Это, скорее, вопрос научной политики, а не наукометрии.

Выделенный вопрос, по-моему, правильный. Только ответы могут быть разные, и не все понравятся.

А так вот по КБПР за 2018 у ЮФУ - 10 место. В общем, можно померяться…

2 лайка

А нам тут всем преподавателям предлагают пройти в навязчивой форме повышение квалификации по библиометрии. Потому что других курсов кроме библиометрии конечно же нет.

2 лайка

Ещё интересна 42 позиция в списке организаций РФ: Белорусский государственный университет (Минск). :slight_smile:

ДГТУ - 57.

Померились.

1 лайк

Ну с одной стороны, некие первичные знания о библиометрии не помешали бы. Потому как дремучесть встречаемой профессуры в этом вопросе иногда просто поражает. А ингода я бы сказал, агрессивная дремучесть. А иногда эта дремучесть выливается в неприятные последствия типа неполучения гранта по формальным причинам, например, руководитель не прошел порог по публикациям. Ну или закрытие дисссовета.

С другой стороны, библиометрия и применение соответствующей статистики и программ требует знаний и умений. Так что кому-то это бы не помешало. Но не всем. Например, заму по науке, правда ведь, @KAM?

Например, я тут столкнулся с требованием подсчитать число цитирований за год в WoS без самоцитирований. Ну так вот, мое “наглое” требование показать мне как это сделать, не считая руками, оказалось невыполнимым. Типа “как-то можно, но мы не знаем как”. Я зануда, пришел в комиссию и попросил показать, убили полтора часа и без толку. Потом я нашел, что можно составить так запрос, чтобы получить искомое, но потратил на это полдня. Только уже забыл как :slight_smile:

Ну тут не очень осмысленая мерялка, мне так кажется. Можно, например искать параметр, при котором организация будет выгдлядеть наилучшим образом. Но зато все можно посмотреть.

P.S. У меня знакомая в Германии оказалась безработной. Возраст около 60. Ее направили на обязательные курсы по языку Питон. 8 часов в день. Отказаться нельзя. А смысл, скажете, вы? Ну зато занятие… Все заняты.

2 лайка