авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 |   ...   | 8 | 9 || 11 | 12 |   ...   | 13 |

«Институт проблем управления им. В. А. Трапезникова РАН УПРАВЛЕНИЕ БОЛЬШИМИ СИСТЕМАМИ Специальный выпуск 44 ...»

-- [ Страница 10 ] --

5. Традиция писать очень краткие аннотации (объемом до 100 символов), часто основанные на двух предложениях: «В работе рассмотрено …. Получено ….». При современных объе мах научной литературы качество аннотации часто определяет, будет ли прочитана данная статья.

6. Как правило, выполняется условие: чем меньше статей публикует журнал за год, тем меньше его импакт-фактор.

3. Научное индексирование российских ученых в различных базах данных 3.2. ОСОБЕННОСТИ ФОРМИРОВАНИЯ БАЗЫ ДАННЫХ E-LIBRARY Подчеркнем, что РИНЦ и база данных системы e-library различаются, поскольку последняя помимо журналов, входящих в РИНЦ, содержит: 1) иные русскоязычные журналы (включая научно-популярные, рекламно-информационные);

2) неперио дические издания на различных языках (монографии, учебники, пособия и т.п.);

3) зарубежные журналы на иностранных язы ках, издатели которых в обозримом будущем не планируют процедуру вхождения в РИНЦ. Зафиксируем, что e-library учи тывает и ненаучную литературу. Хотя ее относительная доля может быть невелика, но известны примеры изменения индекса цитируемости в десятки и даже сотни раз.

Системы WoS/Scopus построены на данных жестко ограни ченного списка изданий. Если ученый А имеет значение NWos, то мы знаем, сколько он имеет публикаций в журналах из строго Значение качества библиометрической информации определенного перечня. В случае e-library на главной странице поиска «Авторский указатель» выдается общее число проиндек сированных документов и ссылок на них из любых источников.

В принципе, в результате дополнительных запросов можно получить данные по РИНЦ и списку ВАК, но в этом случае будут потеряны данные от зарубежных журналов.

На наш взгляд большой ошибкой является включение моно графий, пособий, разовых сборников (фактически, любых тек стов) в базу для расчета количества публикаций, цитирования, индекса Хирша. Такой подход противоречит международной практике, в частности, основанной на WoS, Scopus, Citation Database for Japanese Papers (CiNii, Япония), Chinese Science Citation Database, Chinese Sci-Tech Paper and Citation Statistical Database (Китай), Taiwan Humanities Citation Index, европейской Euro-Factor. Пожалуй, только Google Scholar учитывает доку менты помимо научных журналов, что связано со спецификой работы данного веб-сервиса.

3.3. СРАВНЕНИЕ ПОКАЗАТЕЛЕЙ ДЛЯ ВЫБОРКИ УЧЕНЫХ Среди значительной части научного сообщества принято критиковать систему e-library с самых различных позиций.

Мы видели при сравнении WoS и Scopus (см. рис. 4), что значения импакт-факторов журналов, основанных на подсчетах числа цитирований, заметно разнятся. Неудивительно, что различаются соответствующие наукометрические показатели NWoS, NSс, CWoS, CSс, HSс, HWoS и для конкретного научного работ ника. Даже для ученых с первой публикацией после 1996 года (год полноты Scopus) имеем расхождения. Как правило, WoS дает более высокие показатели для фундаментальных дисцип лин. В случае прикладных направлений параметры Scopus оказываются выше. Но это правило может нарушаться в каждом конкретном случае – расхождения могут быть значительными, например, отличаться в два раза.

Одна из проблем при расчете наукометрических показате лей ученого связана с трудностями привязки конкретной статьи с данным лицом. Трудности обусловлены изменениями места Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

работы, одновременным наличием нескольких аффиляций и написаний фамилии и имени. В системе Scopus эта проблема решается лучше, чем в WoS (полнота с начала 60-х годов). Это обусловлено формированием списка ученых средствами самой поисковой системы.

Качество результата запроса в e-library (полнота с 2006 го да) в первую очередь определяется наличием регистрации уче ного и тем, насколько оперативно и добросовестно отнесся он к процедуре выбора своих работ и ссылок на них (например, фамилия Петров может потребовать анализа нескольких тысяч источников). Появление e-library имеет объективные основания, связанные с традицией писать научные тексты на родном языке.

Аналогичные системы развивают в ряде стран (см. п. 3.2), на пример, в Китае имеется две базы данных Chinese Science Cita tion Database и Chinese Sci-Tech Paper and Citation Statistical Database [24].

Система e-library прошла стадию первичного накопления данных и можно начинать практику ее использования для полу чения наукомерических характеристик как ученого, так и отече ственного журнала. Проверим, насколько данные e-library согла суются с данными Scopus. Следует выбрать ученых в рамках одного научного раздела, который был бы хорошо представлен в Scopus и e-library. Выберем астрономию, для которой имеется специальный раздел в e-library, что не потребует ручного выде ления, как в случае других физических специальностей. Данное направление хорошо представлено в международных журналах на английском языке. Scopus индексирует основной массив международных астрофизических изданий, включая российские журналы из таблицы 1. Исключением является только Astrophysical Bulletin.

Из общего числа 1610 человек, находящихся в этом разделе, ограничимся 200 учеными, имеющими наибольшее число пуб ликаций Nel. Дополним этот список теми, кто зарегистрирован в системе и имеет Nel 20 и Сel 100. Общее число персон в нашей выборке равно 263. Выбранный критерий обеспечивает и достаточно высокие значения NSc и CSc из базы данных Scopus.

Значение качества библиометрической информации Для этой выборки сравним параметры Nel, Cel, Hel по e-library с величинами NSc, CSc, HSc из Scopus для одного и того же ученого.

Отдельно будем учитывать 84 ученых, зарегистрированных в системе e-library. На рис. 5 приведены значения параметров, показывающих, что число статей на одного ученого из выборки в e-library в среднем в два раза меньше, чем по Scopus. Система e-library также недооценивает цитируемость.

Рис. 5. Положения ученых на плоскости параметров (NSс, Nel) и (CSс, Cel) (красный цвет – полная выборка, черный – только зарегистрированные в e-library). Прямые линии – аппроксимация МНК. Для всей выборки r(Nel, NSc) = 0,83;

r(Cel, CSc) = 0,81. Для Р.А. Сюняева и Д.Д. Соколова значения их параметров выходят за границы рисунков Индекс Хирша в среднем по выборке слабо отличается в системах e-library и Scopus (рис. 6) при высоком уровне корре ляции r(Hel, HSc) = 0,90.

Если сравнивать данные e-library и Scopus для авторов с ма лым числом публикаций и цитирований (Nel 20 и Сel 100), то корреляция существенно ухудшается. Предварительное сравнение для представителей других научных разделов по теоретической физике, физике твердого тела, химической физике, чистой матема тике (pure mathematics) показывают близкие результаты.

Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

Рис. 6. Положения ученых на плоскости параметров (HSс, Hel) (обозначения, как на рис. 2) 3.4. ДИНАМИКА НАУКОМЕТРИЧЕСКИХ ПОКАЗАТЕЛЕЙ Структура мировой науки претерпевает быстрые и сущест венные изменения, легко отслеживаемые временными зависимо стями наукометрических характеристик.

На рис. 7 показано изменение цитируемости за последние 15 лет для РФ в сравнении с некоторыми странами по данным Scopus (ресурс www.scimagojr.com). Отличительной особенно стью России является отсутствие заметного роста CSc на протя жении всего интервала наблюдений Scopus. Такое поведение встречается преимущественно у слаборазвитых стран с CSc 1000. Отметим, что Китай обогнал Россию в 1998 году и в 2011 году его цитируемость достигла 365 421, быстро прибли жаясь к показателю США – 471 524.

Значение качества библиометрической информации Рис. 7. Цитируемость CSc (тысяч ссылок) для различных стран в период 1996–2011 гг.

4. Заключение Использование международных баз данных для определе ния наукометрических показателей в наибольшей степени спо собствовало бы сохранению потенциала отечественной науки.

Однако поскольку WoS/Scopus охватывают 2–10 % от научных работников, то создание национальной базы данных РИНЦ на основе e-library, несмотря на все проблемы, связанные с непол нотой и способом формирования данных (индексирование из любых источников), является важным положительным шагом в сохранении российской науки.

Анализ перечней WoS/Scopus за разные годы показал за метные потери отечественных журналов в этих системах. Име ются примеры, когда потери произошли не в начале 90-х годов, а существенно позже. Например, Industrial Laboratory (Заводская лаборатория) в 2000 г вышла из WoS;

«Membrane and Cell Biology» в 2001 г;

журнал «Кардиоваскулярная терапия и про Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

филактика» вошел в WoS в 2010 г с результатом IF = 0 и в 2011 г уже не индексировался.

Статистика импакт-факторов IF для выборки так называе мых переводных отечественных журналов показала отставание в формировании данных e-library на 1 год. Величина IF журналов может сильно разниться при использовании разных баз данных.

По нашей выборке журналов в среднем импакт-фактор Scopus в 2 раза ниже, чем по базе данных WoS, – этот эффект наблюдает ся и по всему массиву индексируемых журналов.

Импакт-фактор РИНЦ имеет в 2011 году значение в сред нем ниже, чем в 2009 и 2010 годах. Для рассмотренной выборки журналов эта разница составляет примерно 20–25%, несмотря на значительное увеличение числа индексируемых источников в 2011 г. Этот эффект отсутствует в базах данных WoS и Scopus.

На протяжении трех последних лет средние импакт-факторы IFWoS и IFSс по выборке российских журналов не изменились, что на фоне роста показателей других стран (см., например, рис. 7) представляется тревожным фактом. Имеется характерная статистическая особенность расположения журналов на плоско сти параметров (IFWoS, IFРИНЦ): чем меньше рейтинг журнала по IFWoS, тем сравнительно выше у него IFРИНЦ. У журналов с высо ким импакт-фактором WoS (IFWoS 0,5), как правило, относи тельная разница между IFWoS и IFРИНЦ уменьшается.

Точка зрения о высоком уровне современной российской науки в целом не подтверждается на примере переводных жур налов. Разумеется, имеются журналы и отдельные направления, сохраняющие высокий уровень.

Российские журналы, индексируемые WoS/Scopus, имеют импакт-факторы ниже в среднем в 2–3 раза по сравнению с показателями для всей выборки. По-видимому, за счет органи зационных решений можно сократить данное отставание. Отли чительной особенностью наших журналов является их реальный немеждународный статус из-за небольшой доли зарубежных ученых в редколлегиях, практически отсутствия зарубежных авторов, пишущих только на английском языке. Не улучшает ситуацию, что большинство переводных журналов в интернете Значение качества библиометрической информации доступно только на платной основе. Отметим, что журналы с высоким IF – «Успехи физических наук», «Astrophysical Bulletin», «Геотектоника», «Журнал экспериментальной и теоре тической физики», «Геология и геофизика», «Успехи химии» – бесплатно доступны по крайней мере на русском языке, либо цена статьи в системе e-library в несколько раз дешевле, чем стандартная цена в 30–40 $. Безусловно, никакие организацион ные мероприятия не могут заменить высокое качество работ.

Необходимо особо указать на преимущество изданий, в ко торых статьи доступны в интернете на бесплатной основе. В качестве довода укажем на два факта. Электронные журналы, например, «Вычислительные методы и программирование», «Сибирские электронные математические известия», European Researcher показывают быстрый рост своих показателей в РИНЦ. Для международных электронных журналов этот вопрос требует отдельного рассмотрения, но быстрое (за 3–4 года) массовое вхождение в базы WoS/Scopus электронных изданий издательских домов «Hindawi Publishing Corporation», «WSEAS», «Academy Publisher», «Hikari Ltd», «Academic Journals» указывает на востребованность электронных журналов. Вторым является пример астрофизических журналов из таблицы 1, которые имеют сравнительно высокий импакт-фактор в немалой степени благодаря системе ADS (Astrophysics Data System), которая привязывает препринты из arXiv.org с соответствующими рабо тами из журналов. В результате читателю доступны тексты даже в случае отсутствия подписки на журнал.

Состояние российского образования и, как следствие, нау ки, ухудшается на протяжении многих лет. С учетом сильной инерционности этих институтов (школа – вуз – наука) эта тен денция будет сохраняться определенное время при любых изме нениях правил игры. Однако внедрение сверху количественных показателей будет способствовать повышению интенсивности научной работы, заканчивающейся публикацией в журнале, формированию сложных научных коллективов с участием зарубежных коллег, привлечению молодых людей в науку. Из опыта работы в университете видно, с каким энтузиазмом сту Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

денты вовлекаются в исследование, которое в ближайшем буду щем может привести к публикации в журнале, что в свою оче редь даст возможность участвовать в заявках на гранты и т.п.

Учет наукометрических показателей уже внедрен в системе РАН в рамках ПРНД (показатель результативности научной деятель ности). В университетах эта работа только начинается.

Разумеется, требование публикаций приведет к дополни тельной генерации к уже имеющемуся большому числу текстов низкого уровня, особенно, в педагогических и некоторых гума нитарных, информационных, социально-экономических облас тях. Решение проблемы отделения «зерен от плевел» потребует кропотливой и долгой работы повышения качества научных журналов.

Литература 1. АЛЕСКЕРОВ Ф.Т., КАТАЕВА Е.С., ПИСЛЯКОВ В.В., ЯКУБА В.И. Оценка вклада научных работников методом порогового агрегирования // Управление большими систе мами. – 2013. – № 44 – С. 172–189.

ВОРОНИН А.А. Какая эффективность нужна российской 2.

науке // Управление большими системами. – 2013. – № 44 – С. 56–66.

ДОБРОВ Г.М. Наука о науке. Введение в общее науковеде 3.

ние. – М.: Наука, 1966. – 271 с.

ДОБРОВ Г.М. Прогнозирование науки и техники. – М.:

4.

Наука, 1977. – 209 с.

5. Игра в цыфирь, или как теперь оценивают труд ученого (cборник статей о библиометрике) – М.: МЦНМО, 2011. – 72 с.

КАПИЦА П.Л. Столетие «Журнала экспериментальной и 6.

теоретической физики» и роль журналов в развитии нау ки // Успехи физических наук. – 1973. – Т. 111, №11. – С. 535–543.

Значение качества библиометрической информации НАЛИМОВ В.В., МУЛЬЧЕНКО З.М. Наукометрия. Изуче 7.

ние развития науки как информационного процесса. – Мо сква, 1969. – 192 с.

ОРЛОВ А.И. Два типа методологических ошибок при 8.

управлении научной деятельностью // Управление больши ми системами. – 2013. – № 44 – С. 32–54.

ADLER R.J. The impact of impact factors // Bulletin IMS. – 9.

2007. – Vol. 36, №5. – P. 5.

ADLER R., EWING J., TAYLOR P. Citation Statistics // 10.

Statistical Science. – 2009. – Vol. 24, №1. – P. 1–14.

11. ANNIBALDI A., TRUZZI C., ILLUMINATI S., SCAR PONI G. Scientometric analysis of national university research performance in analytical chemistry on the basis of academic publications: Italy as case study // Analytical and bioanalytical chemistry. – 2010. – Vol. 398, №1. – P. 17–26.

DIEM A., WOLTER S.C. The Use of Bibliometrics to Measure 12.

Research Performance in Education Sciences // Research in higher education. – 2013. – Vol. 54, №1. – P. 86–114.

EGGHE L. Theory and practice of the g-index // Scientometrics.

13.

– 2006. – Vol. 69, №1. – P. 131–152.

FU H.-ZH., HO Y.-S. Independent research of China in Science 14.

Citation Index Expanded during 1980-2011 // Journal of infor matics. – 2013. – Vol. 7, №1. – P. 210–222.

GARCIA-PEREZ M.A. An extension of the h index that covers 15.

the tail and the top of the citation curve and allows ranking re searchers with similar h // Journal of informatics. – 2012. – Vol. 6, №4. – P. 689–699.

GLANZEL W. On reliability and robustness of scientometrics 16.

indicators based on stochastic models. An evidence-based opin ion paper // Journal of informatics. – 2010. – Vol. 4, №3. – P. 313–319.

GOTTSCHALK CH.M., DESMOND W.F. Worldwide Census 17.

of Scientific and Technical Serials // American Documentation.

– 1963. – Vol. 14, №3. – P. 188–194.

Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

18. HIRSH J.E. An index to quantify an individual’s scientic research output // Proc. National Academy of Sciences USA. – 2006. – Vol. 102, №46. – P. 569–573.

19. JACSO P. Comparison of journal impact rankings in the SCI mago Journal & Country Rank and the Journal Citation Re ports databases // Online information review. – 2010. – Vol. 34, №4. – P. 642–657.

20. PISLYAKOV V., DYACHENKO E. Citation expectations: are they realized? Study of the Matthew index for Russian papers published abroad // Scientometrics volume. – 2010. – Vol. 83, №3. – P. 739–749.

21. SHAO, JU-FANG, SHEN HUI-YUN. Research assessment and monetary rewards: the overemphasized impact factor in Chi na // Research evaluation. – 2012. – Vol. 21, №3. – P. 199–203.

22. TATAVARTI R., SRIDEVI N., KOTHARI D.P. Assessing the quality of university research – RT facto r // Current science. – 2010. – Vol. 98, №8. – P. 1015–1019.

23. WINNIK S., RAPTIS D.A., WALKER J.H. From

Abstract

to impact in cardiovascular research: factors predicting publica tion and citation // European heart journal. – 2012. – Vol. 33, №24. – P. 3034–3045.

24. WU Y., PAN Y., ZHANG Y., MA Z., PANG J., GUO H., XU B., YANG Z. China Scientific and Technical Papers and Citations (CSTPC): History, impact and outlook // Scientomet rics. – 2004. – Vol. 60, №3. – P. 385–397.

Значение качества библиометрической информации SCIENTIFIC JOURNALS AND EFFICIENCY OF SCIENTIFIC WORK: SEARCH SYSTEMS AND DATABASES Julia Savelieva, Volgograd State University, Volgograd (721987@bk.ru).

Alexander Khoperskov, Volgograd State University, Volgograd (khoperskov@volsu.ru).

Abstract: Problems of scientometric indicators application to re search performance assessment are discussed. We compare the impact factors of Russian journals using the database of scholar search systems Scopus, Web of Science and e-library and show that they are two times lower in average than those for the full sample.

We consider some reasons for such a poor average result of Rus sian journals. Statistical analysis shows that high values of re searcher’s scientometric indicators in international bibliographic and reference databases correlates with high values of those indica tors in e-library.

Keywords: scientometric indicators, statistical analysis of distri butions, correlation, e-library, Web of Science, Scopus.

Поступила в редакцию 01.04.2013.

Опубликована 31.07.2013.

Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

УДК 001: ББК 12. ЭФФЕКТИВНОСТЬ ОТЕЧЕСТВЕННОЙ СОЦИОГУМАНИТАРНОЙ НАУКИ:

НАУКОМЕТРИЧЕСКИЙ ПОДХОД* Юревич А. В.1, (ФГБУН Институт психологии РАН, Москва) Цапенко И. П. (ФГБУН Институт мировой экономики и международных отношений РАН, ГБОУ ВПО Московский городской психолого-педагогический университет, Москва) Демонстрируются многочисленные недостатки методов коли чественной оценки эффективности национальной науки, полу чивших в последнее время широкое распространение по ини циативе чиновников от науки и встречающих все более актив ное сопротивление научного сообщества. Показано также, что при оценке эффективности национальной науки ее вкладу в мировую придается гипертрофированное значение. В частно сти, осуществленный авторами анализ выявил отсутствие значимых корреляций показателей этого вклада с различными индикаторами национального благополучия.

Ключевые слова: социогуманитарная наука, эффективность, вклад национальной науки в мировую, количественные оценки, импакт-фактор, экспертные оценки.

* Статья подготовлена при финансовой поддержке Российского гу манитарного научного фонда, проект №11-03-00513а, Российского фонда фундаментальных исследований, проект №12-06-00208-а.

Андрей Владиславович Юревич, член-корреспондент РАН, доктор психологических наук, заместитель директора (yurev@orc.ru).

Ирина Павловна Цапенко, доктор экономических наук, ведущий науч ный сотрудник (tsapenko@bk.ru).

Значение качества библиометрической информации 1. Введение В последние годы все чаще предпринимаются попытки ко личественной оценки эффективности отечественной науки, в том числе и социогуманитарной, а адекватность результатов та кой оценки стала очередной ареной противостояния реформато ров и их оппонентов. При этом используются критерии и мето дики, широкое применение которых за рубежом рассматривает ся как гарантия их адекватности, хотя и там они имеют немало противников. Соответствующие дискуссии политизированы, нередко увенчиваются обвинениями в полной неэффективности, которые особенно часто раздаются в адрес нашей социогумани тарной науки. Ведь, согласно данным зарубежной статистики, по числу научных публикаций в международных журналах, Рос сия отстает не только от многих развитых государств, но и от целого ряда развивающихся стран, в частности, от Китая и Ин дии [14, с. 384–385].

2. Однополярный смысл наукометрических показателей Число журнальных публикаций и уровень их цитируемости чаще всего анализируются на основе базы данных Web of Science (WoS), принадлежащей компании Thomson Reu ters Corporation, а это подчас дает довольно-таки нелепые ре зультаты. Так, согласно этой информационной системе, которая является старейшей и наиболее авторитетной в данной области [6, с. 3], все отечественные философы вместе взятые в 2000-е гг.

публиковали во включенных в WoS международных журналах, издаваемых за рубежом, порядка 3–4, а социологи – 2–3 статей в год, в то время как в действительности, например, только со трудники Института философии РАН, далеко не исчерпываю щие весь корпус отечественных философов, ежегодно публику ют там от 40 до 80 статей [4, с. 141].

Аналогичные расхождения реальности и баз данных WoS проявляются и в других социогуманитарных дисциплинах. Вряд ли столь респектабельное учреждение, как Корпорация Томсо на, можно заподозрить в заведомой некомпетентности или в Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

умышленном принижении вклада российской науки. Но даже базы данных WoS неспособны объять необъятное – учесть пуб ликации российских ученых во всех международных научных журналах, а та подборка журналов, на основе которых формиру ется оцениваемая выборка, хотя и впечатляет своим размером, вряд ли может считаться репрезентативной. Налицо проблема адекватности источников данных, имеющая много общего с хо рошо известной в социогуогуманитарных дисциплинах пробле ме репрезентативности используемых выборок.

Среди журналов, включенных в базы данных WoS (Master Journal List), на основе которых принято делать выводы о вели чине вклада в мировую науку, от 25% до 70% (в разных дисцип линах – по-разному) издается в США, а от 10% до 35% – в Анг лии. На долю России приходится менее 1% подобных журналов, причем в экономических, политических и юридических науках отечественных изданий и вовсе нет в списке WoS. Американо центризм используемых выборок отражает доминирование за падной, в первую очередь американской науки в мировом мейн стриме. На долю Северной Америки приходилось свыше 52% статей по социальным наукам, опубликованных в 1998-2007 гг. и индексированных компанией Thomson (Social science citation index), на долю Европы (без стран СНГ) – 38%, а собственно стран СНГ – всего 1,2% [14, с. 144]. Подобный пере кос угрожает неблагоприятными последствиями для общего со стояния социогуманитарных исследований [14, с. 150]. Так, эс тонский психолог А. Тоомела сетует, что последние 60 лет раз вития психологической науки прошли впустую из-за того, что она развивалась по американскому пути [12].

Известны и другие принципиальные недостатки баз данных WoS: их лингвистическая асимметрия – явный крен в сторону англоязычных публикаций и принижение значимости работ на других языках, порождающие «асимметрию в международной видимости» и иерархии результатов научной деятельности [14, с. 3]. Так, среди статей по социальным наукам, опублико ванных в 1998-2007 гг. и индексированных компанией Thomson (Social science citation index), 94,5% были изданы на английском языке [14, с. 151]. Очевидно, что «лингвистические преимуще ства англоязычных стран способствуют усилению конкурент Значение качества библиометрической информации ных преимуществ этих стран в науке и в связанном с ней бизне се, в частности, издательском» [14, с. 154].

Отмечается также отсутствие учета прочих видов печатной научной продукции – монографий, статей в сборниках, материа лов конференций и т.д. [5]. Однако проблема не сводится лишь к неадекватности источников данных и способов их формиро вания, она коренится в неадекватности самого сложившегося подхода к оценке мирового вклада национальной науки.

Прежде всего, нельзя сводить вклад в мировую науку к вкладу в мировой массив научных публикаций. Например, такие ученые, как И.В. Курчатов и С.П. Королев по понятным причи нам не публиковались ни в отечественных, ни тем более в меж дународных научных журналах. Можно ли на этом основании сделать вывод о том, что они не внесли никакого вклада в миро вую науку? Или задать другой, не менее нелепый вопрос: к ка кому количеству публикаций можно приравнять запуск первого в мире космического аппарата? А в социогуманитарных дисци плинах аналогичной нелепостью была бы оценка вклада таких мыслителей, как, например, М.К. Мамардашвили, по количеству их публикаций.

В данной связи следует упомянуть и о том, что вообще одна из главных функций социогуманитарной науки – сделать чело века и общество лучше, причем не столько все человечество, сколько общество в той стране, в которой та или иная нацио нальная наука развивается. В результате отечественная социо гуманитарная наука в основном изучает те проблемы, которые характерны для современного российского общества. Однако далеко не всякий международный научный журнал примет пуб ликации на внутрироссийские темы, дабы не загружать читате лей из других стран не слишком интересными для них пробле мами, скажем, отношения россиян к богатству и бедности. На лицо и очевидная несостыковка «национальной привязки» на ших статей с тематическим америко-центризмом журналов, включенных в базы данных WoS. Подчас наши социогуманита рии вынуждены выбирать между повышением своего цитат индекса в международных журналах и, например, тем, как найти пути уменьшения безработицы или беспризорности в России, а Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

выбор ими последнего свидетельствует не об их неэффективно сти, а об их патриотичности.

Трудно не заметить, что используемые ныне показатели вклада в мировую науку имеют достаточно выраженный одно полярный смысл. Если ученый имеет много публикаций и высо кий индекс цитирования в международных научных журналах, то действительно есть весомые основания считать, что он вно сит ощутимый вклад в мировую науку. Но нет оснований кон статировать, что ученые, не преуспевшие по подобным показа телям, вклада в нее не вносят. Делать выводы об их низкой про дуктивности, а тем более начислять им зарплату в соответствии с этими показателями, означает искажать достаточно очевидный (но, к сожалению, не для всех) логический смысл последних.

Достаточно известны и механизмы обретения известности в мировой науке. Причем оно не всегда предполагает публикации именно в американских научных журналах, а, например, публи кации в интернете, как в случае Г. Перельмана. Однако гораздо чаще, особенно в социогуманитарных науках, обретение ученым мировой известности предполагает механизмы «социализации»

самого произведенного им научного знания.

Известный исследователь науки У. Корнхаузер разделил всех ученых на «местников», которые осуществляют научную деятельность в основном в рамках своих организаций и публи куются преимущественно в национальных научных журналах, и «космополитов», ориентированных на международные научные контакты и реализующих свою научную активность в основном за пределами организаций, в штате которых состоят [10]. «Ме стники» имеют худшие, нежели «космополиты», шансы обрести известность в мировой науке, в силу своих личных особенно стей. К тому же действуют хорошо известный в социологии науки принцип «снежного кома», описанный Р. Мертоном «эф фект Матвея» и т.п. В результате научные журналы предпочи тают публиковать статьи хорошо известных авторов, обретение же известности предполагает не только научные заслуги учено го, но и упомянутые социальные механизмы.

Значение качества библиометрической информации 3. Многообразие функций науки Необходимо различать мировую науку и мировой мейнстрим научных публикаций, русло которого сформировано на Западе.

Мировая наука – не этот мейнстрим, а совокупность национальных наук, какими бы непохожими на англо-американскую науку они ни были. Российская наука вносит вклад в мировую по определению, являясь ее частью, а отрицать это так же нелепо, как не считать нашу страну частью человечества.

Помимо национальной специфичности науки любой стра ны, необходимо учитывать и многообразие ее функций, не по зволяющее судить о ее эффективности по чему-либо одному, например, по количеству публикаций. Не пытаясь в данном кон тексте охватить все многообразие последних, упомянем лишь две – образовательную и прикладную.

Как хорошо известно, значительная часть наших социогу манитариев, в том числе и работающих в академических инсти тутах, преподают в вузах, многие из которых созданы на базе этих институтов. В результате очевидна необходимость оценки продуктивности отечественных ученых не только по количеству и резонансности их публикаций в международных научных журналах, но и по их вкладу в учебный процесс, который тоже можно количественно (труднее качественно, но и это тоже воз можно) оценить – например, по количеству подготовленных под их руководством дипломных работ, диссертаций и т.д.

Еще чаще недооценивается прикладная функция социогу манитарной науки. Очевидный парадокс состоит в том, что это происходит в стране, в течение 70 лет испытывавшей на себе последствия воплощения в жизнь марксистского учения, а за тем – монетаристских экономических концепций. И ее потенци альная востребованность пропорциональна остроте социальных проблем.

Подобные сюжеты выводят еще на один важный аспект проблемы: влияние национальной науки и конкретных ученых на мировую науку нельзя сводить лишь к их непосредственному влиянию. Приведем наиболее банальный пример: некий россий ский ученый не имеет международного признания и никогда не публиковался в международных научных журналах, а группа Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

его учеников, уехав за рубеж, выходит там на ведущие позиции.

Подобное косвенное влияние с учетом сложности механизмов распространения научных идей и знаний по объему и значимо сти нередко намного превышает влияние прямое.

Возникает вопрос и о прагматическом смысле для той или иной страны вклада ее ученых в мировую науку. Вроде бы здесь все просто: чем больше этот вклад, тем продуктивнее нацио нальная наука, тем значительнее ее вклад и в социально экономическое развитие страны, тем больше преуспевает страна и тем лучше живут ее граждане. Но так ли это на самом деле?

Таблица 1. Корреляции между вкладом стран в мировую науку и рядом их социально-экономических показателей 2 3 1. Вклад в 0,12 0,11 0, мировую науку 2. ВВП в долл. на 0,791 0, душу насе ления 3. Благопри 0, ятность для жизни 4. Индекс раз вития челове ческого потен циала Как видно из таблицы 1, рейтинги стран по трем использо ванным показателям национального благополучия – ВВП на душу населения, благоприятности для жизни и Индексу разви тия человеческого потенциала – в значительной мере коррели руют между собой, но ни один из них не обнаруживает стати Корреляция значима на уровне 1%.

Источник: расчеты Института психологии РАН на основе данных [7, 9, 11, 13].

Значение качества библиометрической информации стически значимой корреляции с величиной вклада в мировую науку. Это можно трактовать по-разному, например, как наличие у той или иной страны латентного потенциала, который скажет ся на ее благосостоянии лишь по прошествии некоторого време ни. Но самым естественным представляется наиболее «крамоль ное» объяснение, состоящее в том, что «лучше живут» не те страны, которые вносят наибольший вклад в мировую науку, а те, которые больше «выносят» из нее, т.е. наиболее эффек тивно используют результаты научно-технического прогресса.

Соответственно, если рассмотреть данный вопрос в прагма тическом плане, то гипертрофированное значение вклада на циональный науки в мировую предстает как стереотип, имею щий не прагматическое, а, скорее, символическое значение. Но надо ли стране, запустившей первого в мире космонавта и имевшей немало других выдающихся научных достижений, по стоянно доказывать, что ее ученые на что-то способны? А если согласиться, например, с тем, что «Россия может и должна по качеству жизни сравняться с лидерами мирового развития»

[5, с. 586], то путь к этому лежит явно не в наращивании коли чества публикаций в англо-американских журналах, а совсем в другом. Учитывая выше сказанное, стоит ли придавать столь гипертрофированный смысл символическим и к тому же много кратно искаженным, напоминающим, по выражению Н.В. Мотрошиловой, систему кривых зеркал [4], показателям?

4 Система «кривых зеркал»

Наукометрические методы оценки научного вклада встре чают активное сопротивление не только отечественных, но и зарубежных ученых, регулярно подвергающих эти методы раз рушительной критике, примеры которой приведены ниже.

«Использовать лишь только импакт-фактор при оценке журналов – это все равно, что при оценке здоровья человека учитывать только его вес» [1, с. 7].

«В некоторых случаях h-индекс (индекс Хирша – А.Ю., И.Ц.) или его варианты используются государственными орга нами, оценивающими исследования. Это не что иное, как ис пользование данных не по назначению» (там же: 25).

Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

«Ученых стали вынуждать отойти от общепринятых целей научного исследования, заменив стремление совершать откры тия на желание публиковать как можно больше статей, пытаясь при этом помещать их непременно в журналах с высоким им пакт-фактором. Как следствие, научная деятельность деформи ровалась, а полезность, качество и объективность статей ухуд шились» [3, с. 39].

«Меня, как главного редактора журнала Nature, беспокоит имеющаяся среди академической администрации тенденция со средоточиваться на импакт-факторе журнала при оценке значи мости научного вклада исследователя, влияющая на его про движение прием на работу и, в некоторых странах, на финансо вые вознаграждения за каждую статью» [2, с. 46].

Исследования импакт-фактора выявили и другие обстоя тельства, крайне неудобные для его адептов:

Примерно 90% ссылок, например, на математические жур налы, выходят за пределы двухлетнего окна, в пределах которо го он подсчитывается, т.е. «импакт-фактор основывается всего лишь на 10% ссылочной активности и игнорирует подавляющее большинство ссылок»

Импакт-фактор существенно варьируется в зависимости от выбора научной дисциплины, в результате чего с его помощью нельзя сравнивать журналы, представляющие разные дисциплины.

Нельзя с его помощью сравнивать и разные типы журналов.

Его нельзя использовать для сравнения отдельных работ, конкретных ученых, теоретиков и экспериментаторов, исследо вательских программ и даже целых областей знания.

Значительная часть цитирований носит «риторический», «признательный» и т.п. характер [1, с. 14].

Следует подчеркнуть и то, что даже корпорация Thomson Scientific, являющаяся цитаделью распространения импакт фактора и других подобных показателей, предостерегает от его неосторожного использования: «Импакт-фактор не может быть использован без учета многочисленных показателей, влияющих на цитируемость, например среднего числа ссылок в одной ста тье. Импакт-фактор должен быть дополнен компетентной экс пертной оценкой» [1, с. 18].

Значение качества библиометрической информации Похожая ситуация наблюдается и в нашей стране. Несмотря на постоянные предупреждения разработчиков РИНЦ (Россий ского индекса научного цитирования) о том, что этот индекс пока несовершенен, не учитывает значительную часть необхо димой информации и в целом пока не готов к широкому приме нению, чиновники от науки настаивают именно на этом. В чем главная причина подобной, вполне интернациональной ситуа ции? Это интернациональная «магическая вера» в примат стати стики, которая дополняется магической верой отечественных реформаторов в то, что любые сложившиеся в западных странах практики эффективны там и применимы без какой-либо их кор рекции в наших условиях. При этом наблюдаются также систе матическое запаздывание и вообще странный характер их пере носа на нашу почву: мы заимствуем на Западе в основном те практики, от которых там начинают отказываться.

В заключение отметим, что в условиях, когда мы уделяем столь гипертрофированное внимание тому, как российская нау ка выглядит в базах данных Корпорации Томсона, имеет смысл учитывать и то, как ее оценивает сама эта Корпорация. В анали тическом отчете Корпорации, вышедшем в январе 2010 г. и по священном состоянию российской науки, действительно отме чается снижение ее вклада в мировую науку в период 1994-2006 гг., что подается авторами Отчета как тенденция, с одной стороны, достаточно парадоксальная, с другой, – вполне понятная на фоне уровня финансирования российских исследо вательских институтов, который оценивается в Отчете как со ставляющий 3-5% от уровня финансирования исследователь ских учреждений аналогичной численности в США. Отмечается и то, что по «валовым» показателям вклада в мировую науку Россия сейчас отстает от целого ряда стран, которые она раньше опережала, – Китая, Индии, Канады, Австралии и др. Вместе с тем, ситуация в нашей науке характеризуется как неоднознач ная. Авторы Отчета подчеркивают, что ухудшение ее мировых позиций в «науках 20-го века», таких как физика и технические науки, сочетается с улучшением в «науках 21-го века», таких как нейронауки и науки о поведении. Отмечается и то, что сни жение общего представительства российской науки в мировой в Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

1994-2006 гг. до 22000 статей в год впоследствии – в 2007 2008 гг. – сменилось его повышением до 27600 статей [8].

Но главное, общий тон отчета Корпорации Томсона в отно шении российской науки полон сочувствия и одновременно опти мизма. А завершается он констатацией необходимости не более активного включения российской науки в мировую, а равноправ ного сотрудничества с нашей наукой других стран. Три же по следние фразы звучат особенно поучительно. «Выгоды партнеров России обещают быть значительными уже хотя бы в силу ее исто рического вклада в науку. Но эти партнеры должны обеспечить финансовые ресурсы для участия России в сотрудничестве. Вло жения в российскую науку впоследствии принесут финансовые и интеллектуальные дивиденды для всего мира» [5, с. 8].

Похоже, в том, что наша страна имела и имеет великую науку, не сомневается никто, кроме нас самих, точнее, наших чиновников от науки, которые не только сами ею не занимают ся, но и имеют очень смутные представления о количественных практиках ее оценивания.

Литература АДЛЕР Р., ЭВИНГ ДЖ., ТЕЙЛОР П. Статистики цитиро 1.

вания // Игра в цыфирь, или как теперь оценивают труд уче ного (Сборник статей по библиометрике). – М.: Изд-во МЦНМО, 2011. – С. 6–38.

КЕМПБЕЛЛ Ф. Бегство от импакт-фактора // Игра в цы 2.

фирь, или как теперь оценивают труд ученого (Сборник ста тей по библиометрике). – М.: Изд-во МЦНМО, 2011. – С. 46–51.

ЛОУРЕНС П.А. Потерянное при публикации: как измерение 3.

вредит науке // Игра в цыфирь, или как теперь оценивают труд ученого (Сборник статей по библиометрике). – М.:

Изд-во МЦНМО, 2011. – С. 39–45.

МОТРОШИЛОВА Н.В. Недоброкачественные сегменты 4.

наукометрии // Вестник РАН. – 2011. – №2. – С. 134–146.

РОГОВ С.М. Россия должна стать научной сверхдержа 5.

вой // Вестник РАН. – 2010.– №2. – С. 579–590.

Значение качества библиометрической информации САВЕЛЬЕВА И.М., ПОЛЕТАЕВ А.В. Публикации россий 6.

ских авторов в зарубежных журналах по общественным дисциплинам в 1993–2008 гг.: количественные показатели и качественные характеристики // Препринт WP6/2009/02. – М.: Изд. дом ГУ – ВШЭ, 2009. – 52 c.

2010 Quality of Life Index.

7. – URL:

http://internationalliving.com/2010/02/quality-of-life-2010 (дата обращения: 25.04.2011).

Global research report – Russia: Research and collaboration in 8.

the new geography of science. January 2010. – URL:

http://researchanalytics.thomsonreuters.com/m/pdfs/ grr-russia-jan10.pdf (дата обращения: 20.03.2010).

Human Development Report 2009.

9. – URL:

http://hdr.undp.org/en/media/HDR_2009_EN_Complete.pdf (дата обращения: 22.04.2010).

KORNHAUSER W. Scientists in industry conflict and accom 10.

modation. – Berkeley: University of California Press, 1962.

Science and Engineering Indicators 2010. – URL:

11.

http://www.nsf.gov/statistics/seind10/pdf/seind10.pdf (дата об ращения: 20.03.2010).

TOOMELA A. 60 Years in Psychology Has Gone Astray // Inte 12.

grative Psychology & Behavioral Science. – 2007. – Vol. 41, №1.– Р. 75–82.

Wikipedia. List of countries by GDP (PPP) per capita. – URL:

13.

http://en.wikipedia.org/wiki/List_of_countries_by_GDP_(PPP)_ per_capita (дата обращения: 13.08.2012).

World Social Science Report. – Paris: UNESCO Publishing, 14.

2010. – 422 р.

Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

EFFICIENCY OF NATIONAL SOCIAL SCIENCE AND HUMANITIES: SCIENTOMETRICS APPROACH Andrey Yurevich, Institute of Psychology of RAS, Moscow, RAS associate member, Doctor of Science, deputy director (yurev@orc.ru).

Irina Tsapenko, Institute of World Economy and International Rela tions of RAS, Moscow State University of Psychology and Educa tion, Moscow, Doctor of Science, leading research fellow (tsapen ko@bk.ru).

Abstract: We demonstrate multiple defects of methods of quantitative assessment of national science efficiency, which have been lately wide spread by science ombudsmen and encounter active resistance of the academic community. We also show that significance of con tribution of national science to the world one is exaggerated while assessing efficiency of national science. In particular, our investiga tion revealed the absence of significant correlation between these indicators of contribution and various indicators of national wellbe ing.

Keywords: social science and humanities, efficiency, contribu tion of national science to the world one, quantitative assessment, impact-factor, expert assessment.

Поступила в редакцию 21.02.2013.

Опубликована 31.07.2013.

ПРОБЛЕМЫ ОЦЕНКИ ЭФФЕКТИВНОСТИ В КОНКРЕТНЫХ ОБЛАСТЯХ НАУКИ Управление большими системами. Специальный выпуск УДК 002. ББК ПОВЕСТЬ ОБ ИСТИНЕ Гусейн-Заде С. М. (Московский государственный университет им. М. В. Ломоносова, Москва) На примере системы ИСТИНА, используемой в Московском го сударственном университете им. М.В. Ломоносова, мы пыта емся показать, что использование показателей публикуемости и цитируемости для сравнения ученых различных специальностей неправомерно.

Ключевые слова: публикуемость, цитируемость, импакт-фактор.

Введение. Warum?

В этом разделе я сформулирую цель моего «исследования»

и договорюсь об использовании некоторых терминов. Я сразу же подумал, что может быть и зря я заключил слово «исследования»

в кавычки. Работа потребовала усилий, сравнимых с моими на стоящими исследованиями, а кроме того я более-менее уверен, что содержание Главы 2 может рассматриваться как некое науко метрическое исследование, ранее не проводившееся. (Впрочем, возможно, кто-то такое исследование и проводил, но не предал его результаты гласности как «вредные» для использования Том соновской базы данных.) Отправной точкой послужил список сотрудников МГУ, име ющих в первой половине 2012 года публикации в высокорейтин говых журналах (см. определение ниже). (Этот список создавался (и это немаловажно для понимания привлечения внимания к рей тингам ниже) для поощрения сотрудников, печатающихся в высо корейтинговых журналах, с целью активизации работы, по росту Сабир Меджидович Гусейн-Заде, доктор физико-математических наук, профессор (sabirg@list.ru).

Проблемы оценки эффективностив конкретных областях науки цитируемости сотрудников — показателю, по которому МГУ су щественно проигрывает в этих рейтингах.) Сейчас этот список наших университетских Top workers (я не обзываюсь, а просто использую слова из интернет-адреса) можно найти на [2]. Од нако там он приведен в алфавитном порядке и надо еще разби раться, кто откуда. Изначально была (предварительная) версия, в которой было упорядочение по подразделениям МГУ и тогда (на некотором этапе таблица, видимо, немного корректировалась в ходе проверки) было явно видно, что в нем были: 97 предста вителей химфака, 82 — института ядерной физики, 75 — физфака, 43 — биофака, 36 — НИИ Белозерского, 29 — астрономического института, 6 — мехмата. (Прошу простить меня за использование сокращенных, возможно, — сленговых, названий подразделений.

Это делается для того, чтобы длинные названия не отвлекали от чисел. Кроме того, в тот момент я не списал данные по другим подразделениям (о чем сейчас жалею), а считать по новой таб лице мне лень. В конце концов, эти данные — только источник вопроса и на мои исследования в Главе 2 они никак не влия ют. Впрочем, сейчас доступна не менее впечатляющая (для меня) таблица «Распределение суммарных коэффициентов среди под разделений МГУ» (Top departments): [3]. Итак, согласно распре делению Top workers по подразделениям, в смысле цитируемости мехмат работает в 16 раз менее эффективно, чем химический фа культет, в 14 раз менее эффективно, чем НИИ ядерной физики, в 12 с лишним раз менее эффективно, чем физический факуль тет, в 7 раз менее эффективно, чем биологический факультет, в раз менее эффективно, чем НИИ физико-химической биологии...

Таким образом в смысле «публикуемости» мех.-мат. факультет никуда не годится.

Видимо, предполагается, что следует признать объективную реальность, отраженную в Списке, созданном ИСТИНой (см.

определение ниже), смириться с ситуацией (в частности, пони мать место, которое занимает мехмат, который я (в некотором смысле без спроса) представляю) и учиться жить в этих услови ях. Однако мне казалось, что прежде чем пойти по этому пути, Управление большими системами. Специальный выпуск необходимо понять ответы как минимум на следующие вопросы.

В «Шанхайском» рейтинге университетов ARWU: http :

//www.shanghairanking.com/index.html [4] (кстати, в кото ром, в отличие от большинства других, МГУ попадает в первую сотню, занимая вполне уважаемое 77-е место) только по матема тике МГУ попадает в первую сотню, занимая 29-е место (см. [5]) http : //www.shanghairanking.com/Institution.jsp?param = M oscow State U niversity.

Ни по физике, ни по химии, ни по биологии,... МГУ там в первую сотню не попадает. (Поскольку, как я упоминал, одна из основных целей поощрения сотрудников, имеющих публика ции в высокорейтинговых журналах, состоит в стимулировании активности, способствующей повышению рейтинга МГУ, есте ственно обратить внимание на причины, по которым МГУ занял в рейтинге то или иное место. Полагаю, что 29-е место МГУ по математике внесло заметный вклад в общее 77-е место. К сожа лению, мне удалось найти очень немного рейтингов, в которых приводятся сравнительные данные по различным дисциплинам.

Между прочим, некоторым подтверждением определенной объ ективности Шанхайского рейтинга может служить то, что будучи разработанным в Китае, он не нацелен на «проталкивание» ки тайских университетов. В соответствии с ним они в первую сот ню далеко не попадают. См. краткое обсуждение рейтингов ни же.) Как такое могло произойти при описанной выше неэффек тивности мехмата с точки зрения публикуемости?

Как я указал, мне удалось найти очень немного рейтингов, в которых приводятся сравнительные данные по различным дис циплинам.

Еще в одном рейтинге университетов QS World University Rankings МГУ занимает 112-е место. При этом по математике он поставлен на 63-е место в мире, по физике — на 66-е, ни по хи мии, ни по биологии МГУ не входит в первые 200: см. [6] (эта ссылка относится к математике;

внизу той страницы находятся ссылки, по которым можно ознакомиться с ситуацией по неко Проблемы оценки эффективностив конкретных областях науки торым другим дисциплинам). В 2013 г. в том же рейтинге МГУ занял 42-е место по математике, а по физике и астрономии попал в группу с 51-го по 100-е места.


Имеется еще источник, сравнивающий научные организации (не только университеты) по различным наукам. Более того, он прямо построен на основе оценки цитируемости! Это [7]. Здесь результаты следующие (в ссылках я поставил для сравнения РАН, просто чтобы не отвлекаться на сравнение с каким-либо универ ситетом):

Физика – 100-е место [8];

Математика – 143-е место [9];

Химия – 259-е место [10];

Биология – 644-е место [11].

Тот же самый вопрос: как это могло случиться?

Ниже я попытаюсь привести и обосновать некоторые ответы на эти вопросы.

Несколько слов о терминологии. Именем ИСТИНА я назы ваю Систему сбора и анализа публикационной активности со трудников МГУ, запущенную в мае 2012 года, результаты дея тельности которой я обсуждаю. Я знаю, что позже она была пе реименована в «Наука-МГУ». Однако следует полагать, что ИС ТИНА было изначальное название, которое было придумано со здателями и разработчиками, а потому и нравилось им. (Оно про исходит от сокращения полного названия «Интеллектуальная Си стема Тематического Исследования НАучно-технической инфор мации» [12].) Морально-этическая Для того чтобы понять причины «провала» мехмата по вер сии ИСТИНы, я решил провести некоторые вычисления: см. ни же главу «Математическая». Явных данных для этих вычислений не хватало и я решил, что получить некоторое приближение к ним можно из самого списка работ, отобранных ИСТИНой. Ко гда я начал этот список соответствующим образом обрабатывать, я просматривал список и волей-неволей мое внимание привлека Управление большими системами. Специальный выпуск ли некоторые статьи и авторы. Уже здесь меня ждали открытия, которых я никак не ожидал.

Всего ИСТИНА отобрала чуть менее 400 работ (точнее – 390). ИСТИНА сообщает, что «На 1 июня 2012 года в систему ввели свои публикации в этих (т.е. в Top25% – С.Г.) журналах 384 зарегистрированных сотрудников университета...» и скром но добавляет, что «... многие имеют несколько публикаций». Вот загадка, которую я задавал ряду людей (математикам, конечно:

они были «под рукой»), и никто из них не смог даже прибли зиться к ответу: «Сколько из этих 390 работ принадлежат одному человеку?» Ответ: «Сотруднику XXXL принадлежат 52 работы, а сотруднику XXXK — 42, причем совершенно других!» Оба со трудника из НИИ ядерной физики. Таким образом на двоих им принадлежит практически четверть всех отобранных работ!

Так, XXXL опубликовал за 5 месяцев 2012 года 60 статей, из которых 52 — в журналах из Top25%! Более того, это статьи солидной длины в 15-20 страниц (по крайней мере в тех случаях, когда страницы указаны). Получается, что за 5 месяцев XXXL опубликовал в высокорейтинговых журналах более тысячи стра ниц. (Конечно, в соавторстве, но все равно впечатляюще много!) Математикам, конечно, не угнаться, да и пытаться бессмысленно:

как можно соревноваться, когда у противника 52 туза в колоде?!

Такая высокая результативность меня, конечно, впечатлила.

У меня сначала даже возникла некоторая обида на родной уни верситет, который должен был бы не просто наградить денежно таких выдающихся исследователей, но и широко рекламировать их не только в МГУ, но и в стране и в мире. Более того, я с удив лением обнаружил, что их просто обделили. Так, в ИСТИНЕ у работ XXXL указаны по 6 авторов, а у 4 — по 10, что дает в со вокупность почти 21 балл, а ему засчитали почти в 6 раз меньше.

(Может быть для того, чтобы не слишком выделялся?) Решив прикоснуться к высокой науке, я кликнул на одной из статей. То, что я увидел, меня озадачило. Статья длиной 18 с половиной страниц. Четыре из них — сам текст статьи, пол стра ницы — список литературы, а остальные 14 страниц — список Проблемы оценки эффективностив конкретных областях науки авторов! Их — немногим более 2000. (Получается, что на каж дого автора приходится по 4 буквы собственно статьи, а из всех 52 статей XXXL собственно на него приходится около четырех строчек! Впрочем, ИСТИНА учит, что делить надо не на n, а на n. Тогда результат будет вполне солидный! Однако и в этом случае указанные товарищи набирают около одного балла. Отку да у них взялись 3,5-4 — одной ИСТИНЕ известно! Надеюсь, что это ошибка, а не подтасовка. Кстати, многие люди, с которыми я на эту тему разговаривал, были удивлены этим самым корнем квадратным, который непонятно откуда взялся. По их мнению (да и по моему) делить было бы разумно на количество соавторов.

Почему за статью с 1000 авторов надо давать премию в 30 раз больше, чем за индивидуальную?

Очевидно, что деление на корень квадратный из n — мера явно дискриминационная по отношению к математикам. В си туации, когда математики и так отстают от физиков-химиков биологов по публикуемости/цитируемости (в том числе и по причинам объективным: см. следующий раздел), введение та кого «корректирующего множителя» представляется совершенно неоправданным.

За что еще награждает простодушная ИСТИНА? Для того чтобы произвести некоторые вычисления, отраженные в следую щем разделе, мне надо было просмотреть весь список статей в Top25% журналов, отобранных ИСТИНОЙ за первое полугодие 2012 г. (Я выписывал, сколько авторов имеют статьи, относящи еся к разным наукам.) Этот список упорядочен по журналам и поэтому мне (но, видимо, не ИСТИНЕ) было нетрудно заметить 3 статьи одного и того же автора (BBH), опубликованные в одном выпуске одного (высокорейтингового!) журнала. Думаю, что да же физикам типа XXXL и XXXK такое трудно себе представить.

Надо почти одновременно подать в (высокорейтинговый!) жур нал как минимум 3 статьи и они почти одновременно должны быть отрецензированы и приняты. Еще можно было бы предста вить ситуацию, когда публикуется несколько частей одного труда типа «О звуках, издаваемых лягушками. I», «О звуках, издавае Управление большими системами. Специальный выпуск мых лягушками. II» и «О звуках, издаваемых лягушками. III». Так ведь нет: статьи о звуках, издаваемых совсем разными животны ми: лисами, оленями и птичками. Любопытство подтолкнуло от крыть одну из статей, кликнув на DOI. Сначала я не обнаружил ни ожидаемого названия, ни ожидаемых авторов. Я увидел 40 страничный текст, озаглавленный «Abstracts of oral presentations».

Оказалось, что 1,3 балла (больше, чем автор полноценной инди видуальной статьи!) BBH получил за трое тезисов длиной по 10 15 строчек (из которых треть занимают благодарности РФФИ и т.п.)! Конечно, можно упрекнуть автора за то, что он забыл ука зать, что это не статьи, а тезисы докладов. А можно и похвалить (не знаю кого: автора или ИСТИНУ) за то, что премии выписа ны не за все пять тезисов, опубликованных BBH в этом выпуске, а только за 3 из них. Видимо, это — результат проверки, обе щанной ИСТИНОЙ. Кстати, поскольку целью ИСТИНЫ являет ся исключительно стимулирование публикуемости/цитируемости сотрудников МГУ, отмечу, что в Томсоновской базе данных, от куда и берутся показатели для международных рейтингов подоб ные «статьи» (Abstracts of oral presentations) регистрируются как не имеющие авторов (и, следовательно, их мест работы). Так что в публикуемость/цитируемость сотрудников МГУ они никакого вклада не вносят.

«Математическая»

Я провел некоторые вычисления, оценивающие относитель ную трудность попадания в Top25% журналов для математиков (с механиками), физиков, химиков и биологов. Я знаю, что специа листы легко раскритикуют мои вычисления, например за то, что в них я оценивал среднюю корня квадратного из величины корнем из среднего этой величины и делал другие подобные прикидки.

Я хорошо знаю, что это неправильно. Однако, я полагаю, что это достаточно для моих утверждений, сформулированных в следу ющем разделе. Более того, относительная ошибка таких подмен очень разная для случая сильно отличающихся распределений, а это само по себе будет в пользу моих утверждений.

Проблемы оценки эффективностив конкретных областях науки Итак, я находил (оценивал) следующие показатели.

1. St — количество статей, опубликованных в Top25% журналов по соответствующим направлениям в 2010 г. (по которому и брался импакт-фактор (данные по 2011 г. появились только в июле 2012 г.). Данные брались непосредственно из Том соновской базы данных. Если было не вполне ясно, к какой науке относятся журналы из некоторого раздела (скажем, химфизика), я делил их пополам между науками (а иногда и на 3 части). В конце концов, моей основной целью было сравнение с матема тикой, а не «выяснение отношений» между, скажем, физиками и химиками.

Результаты:

математика/механика — 14 449;

физика — 87 571;

химия — 118 367;

биология — 157 964.

2. Au — среднее количество соавторов в статьях по соот ветствующим направлениям. Бралось среднее количество соав торов в статьях, отобранных ИСТИНой. Здесь была проблема у физиков, когда в базе данных ИСТИНы было, скажем, указано соавторов, реально было 2000, а сколько в конце-концов учитыва лось —никому (кроме самой ИСТИНы) неизвестно. Вычисления проводились для двух вариантов. В указанном случае для 10 со авторов (ниже условно называется «не вполне честным») и для 2000 (ниже условно называется «сверхчестным»).

Результаты:

математика/механика — 1,40;

физика («не вполне честно») — 7,23;

физика («сверхчестно») — 747,4;

химия — 5,98;

биология — 6,00.

2. U ch — количество ученых в мире по соответству ющим направлениям. Эти данные было очень сложно (ес ли вообще возможно) найти. Был использован следующий при ем, который, конечно, дает сильно завышенные данные, но до Управление большими системами. Специальный выпуск ля ошибки, видимо, не должна зависеть от науки, и поэтому относительным данным (а они-то мне и были нужны) мож но в разумной мере доверять. Бралось количество авторов в http://academic.research.microsoft.com/. При этом система не раз личает разные написания имени одного и того же автора и, ска жем, S.M. Gusein-Zade и Sabir Gusein-Zade — (а, скажем, биологи по имени I.V. Ermakova — один человек, хотя таковых как ми нимум две). Однако не видно причин, по которым эти ошибки могли бы сильно различаться для разных наук.


Результаты (в тысячах):

математика/механика — 384,7;

физика — 1 560,8;

химия — 2 774,8;

биология — 3 034,8.

Теперь можно вычислить относительные шансы опублико ваться в Top25% журналов: Au·St и (относительные) средние на U ch бираемые баллы (по системе ИСТИНА): Au·St.

U ch Результаты.

A. Относительные шансы опубликоваться в Top25% журна лов (после нормирования делением на результат для математи ков):

математика/механика — 1;

физика («не вполне честно») — 8,02;

физика («сверхчестно») — 829;

химия — 5,04;

биология — 6,17.

Б. Относительные средние набираемые баллы (опять после нормирования делением на результат для математиков):

математика/механика — 1;

физика («не вполне честно») — 3,53;

физика («сверхчестно») — 35,9;

химия — 2,98;

биология — 2,44.

Итак, видно, что шансов быть награжденным ИСТИНОЙ у математиков изначально в разы меньше. Это доказывает мое Проблемы оценки эффективностив конкретных областях науки утверждение о несправедливости системы.

Заключение. Кто виноват, и что делать?

Прежде чем обсуждать кто виноват, и что делать, я выска жу некоторые соображения о том, как такое могло произойти.

Эти соображения можно понять как утверждение, что виноват Thomson Reuters, однако обвинять их в этом — все равно, что об винять производителей вилок в том, что их продукцией трудно открывать пивные бутыли, да и пораниться при этом можно.

Грубо говоря, я предполагаю, что в Томсоновскую базу дан ных попадает относительно меньше математических журналов, чем, скажем, физических или биологических. Это может быть связано с тем, что отбор осуществляется на основе показате ля цитируемости. Однако хорошо известно, что различия в тра дициях публикаций и цитирования в различных науках приво дят к огромным различиям в показатели цитируемости (импакт факторе). Математических журналов с импакт-фактором выше меньше десятка, а у физиков «солидные» импакт-факторы не ни же 5, у биологов — за десятку (и имеются журналы с импакт фактором за 20). Если Томсон обнаруживает журнал с импакт фактором, скажем, 0,1, то он его может и проигнорировать как слишком низкий. Но ведь 0,1 у математиков может соответство вать 0,3-0,5 у физиков и ближе к 1,0 у биологов. Журналы с та кими показателями уже грех игнорировать.

Теперь «Кто виноват?» Думаю, что в данный момент ни кто. Заранее, без какой-то пробы или вычислений, было труд но понять несправедливость применяемой системы. Вот если бы ИСТИНА изначально взяла Top25% журналов из общего списка, всем было бы ясно, что математикам там делать нечего, да и у физиков были бы невысокие шансы: биологи бы забили. Так что попробовать было надо.

«Что делать?» Очевидно (по крайней мере мне), что Томсо новская база данных совершенно не годится для сравнения пуб ликаций по различным наукам. (Хотя в пределах одной науки она, по-видимому, может использоваться. Мне не вполне ясно, можно Управление большими системами. Специальный выпуск ли ее применять к двум «популяциям» физиков: тех, кто публи куется небольшими коллективами, и тех у кого тысячи соавторов.

Но это тем более аргумент за то, что разные науки следует вы делить в «отдельные производства», а там уж им между собой разбираться).

Я считаю, что ИСТИНУ (более менее в существующем ви де: с использованием импакт-факторов журналов) допустимо ис пользовать только в пределах отдельных наук и ни в коем случае не для сравнения наук разных. Поэтому «подушевое» премиро вание должно определяться для разных наук (факультетов) на ос нове других показателей (например, по рейтингам МГУ по соот ветствующим специальностям: см. выше). А в пределах факуль тета можно и использовать ИСТИНУ (т.е. опираться на импакт факторы журналов). Это, с моей точки зрения, тоже не вполне справедливо, теперь по отношению к российским журналам (см.:

[1]), но это уже другая история. Если целью является только рей тинг МГУ в международных оценках, то можно и не обращать внимание на российские журналы. (Кстати, именно так поступа ют в Высшей школе экономики, где премируют за любую публи кацию в иностранном журнале из списка Science Citation Index Expanded на иностранном языке!) Когда эта «Повесть» была практически написана, я бесе довал о ней с создателями ИСТИНЫ (создателями не «физиче скими», а «идеологическими»). Я пытался убедить их в «соци альной несправедливости» системы по отношению к математи кам (в том числе с использованием аргументов из предыдущего раздела) и в необходимости соответствующей ее корректировки.

Эти мои утверждения не встретили понимания. Мне было объ яснено, что целью системы является исключительно (!!!) стиму лирование публикуемости/цитируемости и поэтому требования справедливости или поощрения чего бы то ни было другого к ней совершенно неприменимы. То, что показатели публикуемо сти/цитируемости у математиков объективно или исторически ниже, чем у физиков-химиков-биологов, для них ясно и без моих вычислений. Однако коли это так и поэтому математики вносят Проблемы оценки эффективностив конкретных областях науки меньший вклад в публикуемость/цитируемость Университета в целом, то и требовать большего премирования от ИСТИНЫ они не вправе. Чуть позже зашел разговор о «делении на корень из ко личества авторов», которое, как я указывал, дополнительно «при земляет» математиков. На вопрос, чем объясняется такой подход, мне стали объяснять, что он введен для поощрения сотрудниче ства ученых (в том числе (?) разных специальностей) и в целях справедливости по отношению к членам больших научных кол лективов. На вопрос, как это согласуется со сформулированным выше тезисом, что система поощрения ставит целью исключи тельно (!!!) стимулирование публикуемости/цитируемости, отве та, конечно, не было. (Более того, было признано, что деление на количество авторов более обоснованно и что, пожалуй, на него следует перейти. Боюсь, что это был единственный реальный ре зультат беседы).

Литература 1. ГУСЕЙН-ЗАДЕ С.М. Вокруг импакт фактора // Успехи математических наук. – 2004. – Т. 59, №5(359). – С. 186– 188.

2. [Электронный ресурс] URL:

http : //istina.imec.msu.ru/statistics/workers/top/ (дата обращения 21.07.2013).

3. [Электронный ресурс] URL:

http : //istina.imec.msu.ru/statistics/top_departments/) (дата обращения 21.07.2013).

4. [Электронный ресурс] URL:

http : //www.shanghairanking.com/index.html (дата обращения 21.07.2013).

5. [Электронный ресурс] URL:

http : //www.shanghairanking.com /Institution.jsp?param = M oscow State U niversity (дата обращения 21.07.2013).

6. [Электронный ресурс] URL:

http : //www.topuniversities.com/university Управление большими системами. Специальный выпуск rankings/worlduniversity rankings/2011/subject rankings/natural sciences/mathematics (дата обращения 21.07.2013).

7. [Электронный ресурс] URL:

http : //academic.research.microsof t.com/ (дата обращения 21.07.2013).

8. [Электронный ресурс] URL:

http : //academic.research.microsof t.com/ Comparison?entitytype = 7&id1 = 10069&id2 = &topdomainid = (дата обращения 21.07.2013).

9. [Электронный ресурс] URL:

http : //academic.research.microsof t.com/ Comparison?entitytype = 7&id1 = &id2 = 2639&topdomainid = (дата обращения 21.07.2013).

10. [Электронный ресурс] URL:

http : //academic.research.microsof t.com/ Comparison?entitytype = 7&id1 = 10069&id2 = &topdomainid = (дата обращения 21.07.2013).

11. [Электронный ресурс] URL:

http : //academic.research.microsof t.com/ Comparison?entitytype = 7&id1 = 10069&id2 = &topdomainid = (дата обращения 21.07.2013).

12. [Электронный ресурс] URL:

http : //istina.imec.msu.ru/ (дата обращения 21.07.2013).

Проблемы оценки эффективностив конкретных областях науки TALE OF THE “ISTINA” Sabir Gusein-Zade, Moscow State Lomonosov University, Moscow, Doct.Sc., professor (sabirg@list.ru).

Abstract: Taking the ISTINA system (used in Moscow State Lomonosov University) as an example we try to show that the use of publication- and citation-based indices to compare scholars from different fields is not rightful.

Keywords: publication, citation, impact-factor.

Поступила в редакцию 20.02.2013.

Опубликована 31.07.2013.

Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

УДК 316.2 + 021. ББК 78. ИНДЕКСЫ ЦИТИРОВАНИЯ: ВЗГЛЯД СОЦИОЛОГА Жукова И. А. (Национальный исследовательский университет Высшая школа экономики, Москва) Статья посвящена обзору и сравнению основных теоретиче ских концепций, существующих в социологии науки относи тельно индексов цитирования и возможности их применения при изучении научного сообщества. Представлена краткая эволюция взглядов основателя первого индекса цитирования, Ю. Гарфилда. Сделаны выводы о границах использования ин дексов цитирования для оценки ученых и в социологическом анализе.

Ключевые слова: социология науки, наукометрия, индексы цитирования.

1. Введение Одна из ключевых проблем, которой посвящен данный сборник – это индексы цитирования и их использование для оценки ученых.

В современном науковедении и социологии науки уже дав но накоплен обширный пласт литературы, посвященной этому вопросу. Если кратко изложить его содержание, то существуют две противоположные точки зрения: о том, что использовать показатели цитируемости для оценки ученых можно, но с ого ворками, и о том, что использовать совсем нельзя. Первый подход в целом предполагает, что количественные показатели деятельности ученого (число публикаций, данные о цитируемо Ирина Анатольевна Жукова, аспирант факультета социологии (izhukova87@gmail.com).

Проблемы оценки эффективности в конкретных областях науки сти) каким-то образом коррелируют с эффективностью его работы [24, 27]. Поэтому, чтобы избежать искажений и снизить риски неадекватной оценки, предлагается учитывать ряд нюан сов: возможную «накрутку» цитирований (путем самоцитирова ния и взаимного цитирования, использования возможностей своего институционального положения), особенности культуры цитирования в различных научных дисциплинах, специфику оценивания российских ученых по зарубежным базам данных цитирования и т.д. [3, 10].

Второй подход имеет принципиальные возражения против самой возможности подобной оценки, в корне сводящиеся к тому, что, несмотря на кажущуюся «беспристрастность» цифро вых показателей (которые кажутся «объективными» в сравнении с субъективностью экспертных оценок), мы не можем до конца быть уверенными в том, что именно отражают эти цифры.

Поэтому мы не можем делать на их основе релевантные выводы об эффективности работы ученого. То есть «качество» понима ется как сложная категория, которую невозможно напрямую вывести из показателей, характеризующих публикационную активность. Более того, насаждение принципов оценки при помощи количественных показателей, по мнению сторонников этого подхода, может даже оказаться пагубным для развития науки, поскольку способно привести к искусственному завыше нию этих показателей, «гонке за цифрами», а, следовательно, и к падению качества самих научных исследований [26].

2. Постановка проблемы Н. Каплан пишет о том, что в научном сообществе не суще ствует учебников, в которых были бы зафиксированы нормы цитирования, и эта культура усваивается студентами неявным образом, во многом интуитивно. Поэтому он призывал сначала разобраться в том, какие существуют актуальные нормы и прак тики цитирования в науке, и только потом приступать к прове дению библиометрических исследований [22].

Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

При проведении любой оценки нужно понимать, что и как мы измеряем, поэтому, когда мы пользуемся индексами цитиро вания, неплохо было бы владеть основными теориями, касаю щимися анализа цитирований (citation analysis) и соответствую щей методологией. За любыми цифрами должна стоять их содержательная интерпретация, а ее может обеспечить только удовлетворительный теоретический базис.

Нам кажется, что было бы полезно отвлечься на некоторое время от практической стороны дела и обратиться к теории, т.е.

посмотреть на корень, из которого растут все проблемы с ис пользованием индексов цитирования. А растут они из того, что мы, по сути, не понимаем, что же на самом деле отражают цитирование и ссылочные связи, и какой смысл ученые вклады вают в цитирование друг друга. Все эти вопросы широко обсуж дались на самой заре появления индексов цитирования – в тогдашней социологии науки и зарождающейся наукометрии (scientometrics). В своей работе мы обозначим магистральные направления, по которым ведутся дискуссии.

Также в самом начале хотелось бы прояснить терминоло гию и обозначить то, что мы будем понимать под «индексом цитирования». В русском языке с самим термином «индекс цитирования» произошел любопытный казус. Английский термин «citation index» правильнее было бы перевести как «спи сок литературы» или «указатель ссылок», потому что он пред ставляет собой базу библиографических ссылок. В русском же языке понятие «индекс» отчетливо несет оценочную составляю щую, подразумевающую значимость данной статьи, которая вычисляется на основе последующих публикаций, ссылающихся на данную работу. При этом даже в официальных конкурсных документах не всегда определено, что же отражает этот показа тель – суммарное количество цитирований автора, среднее число ссылок на статью или что-нибудь еще, в отличие от анг лийской терминологии, где применяются понятия «citeness», «сitations per paper». В своей работе мы будем относить термин «индекс цитирования» применительно к самой библиографиче ской базе данных.

Проблемы оценки эффективности в конкретных областях науки 3. Экскурс в историю. Создание Science Citation Index Традиционно возникновение и развитие индексов цитирова ния связывают с деятельностью Юджина Гарфилда и созданного им Института научной информации (г. Филадельфия, США). В 1963 г. был издан первый выпуск Science Citation Index (SCI).

Разумеется, библиографические указатели литературы су ществовали задолго до этого момента, но SCI обладал двумя принципиальными особенностями: а) в нем одновременно учи тывалась текущая периодическая литература сразу по несколь ким научным дисциплинам и б) в него включались библиогра фические ссылки, используемые в индексируемой работе. Эти особенности и открывали широкое поле новых возможностей по его использованию.

Ключевая идея Гарфилда состояла в том, чтобы вместо формальных дескрипторов, применявшихся для обработки статей и распределения их по тематическим категориям, исполь зовать библиографические ссылки. При помощи ссылок можно было уловить связи между идеями, высказываемыми в статьях, которые были незаметны при использовании традиционных дескрипторов. Эту идею Гарфилд отстаивал еще в 1953 г. на первом международном симпозиуме по машинным методам обработки научной литературы в Лондоне, выступив там со статьей «The preparation of printed indexes by automatic punched card techniques». В доработанном виде его мысли впервые поя вились в 1955 г. в первой ключевой работе «Citation indexes for science» в журнале «Science» [14].

Здесь нужно упомянуть о том, что в СССР первым, кто стал рассматривать ссылки как особый язык научной информации, показывающий влияние публикаций на развитие мировых информационных потоков, стал В.В. Налимов, ему же принад лежит изобретение самого термина «наукометрия». Он также придерживался мнения о том, что кодирование работы при помощи библиографических ссылок полнее отражает ее идей ную полноту, чем кодирование дескрипторами. Высоко отзыва ясь о возможностях, предоставленными индексами цитирова Управление большими системами. Специальный выпуск 44:

«Наукометрия и экспертиза в управлении наукой»

ния, Налимов первым поставил вопрос о создании специального информационного центра для статистического изучения разви тия науки [4, 5].

4. Эволюция взглядов Гарфилда По мнению Гарфилда, индексы должны были представлять собой хорошее дополнение к привычным библиографическим справочникам, в которых литература распределялась по авторам или темам. Для него индексы цитирования являлись в первую очередь удобным библиографическим инструментом, который был призван облегчить исследователям поиск релевантных публикаций во все возрастающей лавине научной информации [15, 19].

Во время создания и разработки первого индекса цитирования Гарфилд и его коллега Ирвинг Шер работали над проблемой созда ния топологических карт науки и написания истории развития отдельных научных идей [20]. Поэтому они были одними из пер вых, кто предложил и теоретически обосновал возможность ис пользования языка библиографических ссылок для изучения самой науки – анализа связи между идеями, прослеживания истории развития этих идей и их влияния друг на друга.

При помощи SCI можно было выделять наиболее перспек тивные и быстро развивающиеся области науки, отслеживать возникновение новых проблемных областей, видеть междисци плинарную связь между проблемами, а также выстраивать мини-историю развития научных направлений или прослежи вать влияние собственных работ на развитие научного направ ления [20].

Таким образом, помимо вышеупомянутой библиографиче ской функции, материалы индекса предлагалось использовать как основу для исторических и социологических исследований в изучении науки.

Любопытно, что на самой заре возникновения индексов ци тирования Гарфилд несколько раз прямо предостерегал об опасности использования индексов цитирования для оценки ученых. По его мнению, невозможно оценивать качество или Проблемы оценки эффективности в конкретных областях науки значимость работы на основании подсчетов частоты или коли чества цитирований, поскольку цитирование отражает «влия ние» (impact), а это не то же самое, что «важность» или «значе ние» [12].

Тем не менее, впоследствии он поменял свою точку зрения и уже разрабатывал вопросы практического применения индек сов цитирования в области сравнения ученых или исследова тельских организаций между собой. Например, статья «Is citation analysis a legitimate evaluation tool?» посвящена анализу некоторых искажений, которые могут возникнуть при попытках проведения подобного рода оценки: речь идет о «негативном цитировании», «самоцитировании», взаимном цитировании внутри узкой группы [17].

Кроме того, Гарфилд ввел в оборот понятие импакт-фактора.

Впервые это понятие появляется еще в статье 1955-го года, где оно связывается с влиянием отдельной работы на научную мысль:

«...when one is trying to evaluate the significance of a particular work and its impact on the literature and thinking of the period... such an “impact factor” may be much more indicative than an absolute count of the number of a scientist's publications...» [14].

В настоящее время под импакт-фактором понимается пока затель значимости научного журнала, представляющий собой среднее число ссылок, приходящихся на одну статью журнала.



Pages:     | 1 |   ...   | 8 | 9 || 11 | 12 |   ...   | 13 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.