Наукометрические данные о развитии научных и образовательных организаций как основа оценки их деятельности

Создание представления об объективных количественных исследованиях процессов и результатов научных изысканий. Использование количественных методов для оценки эффективности деятельности организаций и отдельных ученых. Инициатор применения наукометрии.

Рубрика Педагогика
Вид статья
Язык русский
Дата добавления 13.06.2018
Размер файла 55,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Наукометрические данные о развитии научных и образовательных организаций как основа оценки их деятельности

Поляк Ю.Е.

к.э.н., доцент, в.н.с. ЦЭМИ РАН

В последние полвека наукометрические методы все шире используются в различных ситуациях. Появилось немало терминов на русском и других языках с окончаниями -метрия, -metrics: «Librametrics» (Ш. Ранганатан, 1948), «Bibliometrics» (А. Причард, 1969), «Scientometrics», «Informetrics» (Л. Блакерт, 1979), «Cybermetrics», «Webometrics» (Т. Альминд и П. Ингверсен, 1997). Они создают представление об объективных количественных исследованиях процессов и результатов научных изысканий; закономерностей информационной деятельности и принятия решений в информационной практике; первичных и вторичных источников информации с помощью формализованных методов для получения данных об эффективности, динамике, структуре и развитии исследуемых областей; характера и свойств сети Интернет и сетевых информационных ресурсов.

С развитием информационных технологий растет число попыток использовать количественные методы для оценки эффективности деятельности научных организаций и отдельных ученых. Одним из важных показателей является публикационная активность, которую пытаются оценивать с помощью наукометрических инструментов.

Один из основоположников наукометрических методов Ю.Гарфилд еще в 1955 г. предложил «Citation index of science», из которого впоследствии выросла мощная индустрия. Организованный Гарфилдом в Филадельфии Институт научной информации с начала 1960-х гг. выпускал Science Citation Index (SCI); сейчас медиакорпорация Thomson Reuters предоставляет науко- и библиометрическую службу Web of Knowledge, содержащую базу данных Web of Science, объединяющую 12 тысяч журналов по естественным и гуманитарным наукам; системы индексов цитирования Science Citation Index Expanded (SCIE) и Social Science Citation Index (SSCI).

Другим популярным наукометрическим инструментом является Scopus _ библиографическая и реферативная база данных с сервисом для отслеживания цитируемости, созданная издательской корпорацией Elsevier. Базы Web of Science и Scopus содержат преимущественно англоязычные журналы. Сравнительно недавно появился бесплатный сервис Google Scholar, содержащий данные о значительно большем количестве работ на русском языке, чем «Российский индекс научного цитирования» (РИНЦ), разрабатываемый с 2005 г. ООО «Научная электронная библиотека» http://www.elibrary.ru. по контракту с Министерством образования и науки РФ.

Инициатором применения наукометрии в нашей стране был профессор МГУ В.В. Налимов. К задачам наукометрии он относил прогноз и управление развитием науки; изучение основной метрологической задачи (что измерять, как измерять, какое значение придавать показателям развития науки); изучение структуры организации науки; оценку эффективности труда научных коллективов и научных работников; выявление факторов, влияющих на эффективность; исследование проблемы подбора и подготовки кадров. В монографии [1] им была предложена информационная модель процесса развития науки, где публикации - это носители информации, журналы - каналы связи, система библиографических ссылок - особый язык научной информации, показывающий влияние публикаций на развитие мировых научных информационных потоков. Наука представляет собой процесс получения новой информации. Новые научные работы появляются в результате развития или переосмысления ранее выполненных исследований. Наука является самоорганизующейся системой, развитие которой управляется ее информационными потоками. Внешние условия - ассигнования на развитие науки, организационные формы, идеологическое давление, секретность - это элементы среды, в которой развивается наука. Из измеряемых параметров наиболее распространены число публикаций, число научных сотрудников, размеры научных коллективов и пр. Эти косвенные показатели характеризуют лишь отдельные аспекты процесса роста науки, но даже в точных науках часто приходится ограничиваться измерением и изучением косвенных показателей. Налимов утверждал, что вряд ли существует некий единственный показатель, определяющий этот процесс. Он также считал, что обращение к наукометрии становится возможным после выяснения структуры науки, которая задается системой библиографических ссылок. Ссылки связывают публикации между собой и тем самым структурируют информационный поток. Поэтому в наукометрии анализ структуры библиографических ссылок занимает особое место [2].

В то же время и Гарфилд, и Налимов, и другие известные науковеды, признавая большие возможности этих методов в решении ряда исследовательских задач, предостерегали от их широкого применения для оценки ученых и научных институций. Однако практика управления наукой развивается в направлении того, от чего они предостерегали. Как указывает А. Юревич, «наукометрические индексы имеют целый ряд недостатков. Возникла целая индустрия искусственного «накручивания» наукометрических показателей, основанная на так называемых китайских технологиях. Речь идет о таких «штучках», как «договорное» взаимное цитирование, размножение количества статей за счет множественного авторства, публикации обзоров с большим числом ссылок на данный журнал и т.п. Погоня ученых за повышением наукометрических показателей негативно сказывается на качестве их научной деятельности и на практической реализации ее результатов». И далее: «В науковедческом сообществе общепризнано, что наукометрические методы имеют весьма ограниченную область применения (о чем предупреждали и их основатели). В случаях их использования для оценки научной деятельности они должны как минимум дополняться такими методами как экспертная оценка (которая тоже может быть формализована и сведена к количественным показателям), а также показателями количества патентов, международных премий и наград, присужденных ученым, и т.д.» http://www.ras.ru/news/shownews.aspx?id=1a3bfa61-a7e3-4216-8b08-2f07bae6cd9a#content..

Характерно, что в Великобритании при периодической оценке деятельности всех научных организаций данные формальной библиометрики разрешается использовать только в 11 дисциплинах (науки о земле, физика, химия, биология, медицина, экономика и ряд других) и то лишь в качестве вспомогательного средства. Это означает, что такие данные не могут служить основным показателем для определения научной значимости работы. Запрещается использовать любую библиометрику в 24 дисциплинах (математика, механика, инженерные и все гуманитарные науки). Для всех дисциплин запрещено использовать какие-либо рейтинги журналов, где опубликованы работы, прежде всего импакт-фактор журнала http://www.echo.msk.ru/blog/parshin_a/1183156-echo.. Этот подход разделяет и Бюро отделения химии и наук о материалах РАН (постановление № 93 от 15.10.2013 «О наукометрических методах оценки деятельности учреждений РАН»).

Приведем еще несколько мнений о применимости формальных критериев. «В рамках РАН разрабатываются различные методики по подсчету показателей цитирования. На мой взгляд, эти методики не учитывают синонимию и омонимию фамилий ученых и названий научных организаций и другие аспекты библиометрической оценки, и поэтому нуждаются в доработках. Необходимо отметить отсутствие единой методической базы со стороны РАН, а лишь желание администраторов РАН иметь какие-то количественные показатели для сравнения институтов, используя для этого библиометрическую статистику. Все обсуждаемые методики основывались на алгоритмах поиска информации в базе Web of Science (в отдельных случаях привлекалась база Scopus), не затрагивали никаких семантических проблем оценок и, как правило, такие методики были опробованы на материале естественных наук в рамках одной организации. Некоторые предлагаемые показатели для оценки ученых, на мой взгляд, просто чудовищны и показывают абсолютное непонимание со стороны разработчиков и администраторов РАН показателей цитирования, представленных в базах данных ISI/Thomson Reuters» [3]. «В том виде, в котором РИНЦ представлен в настоящее время на сайте НЭБ, использовать систему как «инструмент, позволяющий осуществлять оценку результативности и эффективности деятельности научно-исследовательских организаций, ученых, уровень научных журналов и т.д.» ни в коем случае нельзя» [4]. «Если мы сравниваем библиометрические показатели двух организаций, работающих в одной и той же области примерно одинаковый период времени и сравнимых по количеству работающих в них ученых, то любой из показателей может показать превосходство одной из организаций или их равенство. Однако если одна из организаций существует 20 лет, а другая 5, или они осуществляют исследования в разных научных областях, или сильно отличаются по количеству ученых, то ни один из показателей напрямую не может использоваться, необходимы либо нормирования, учитывающие как область науки, так и количество авторов, либо выбор каких-либо конкретных промежутков времени с нормированиями, перечисленными выше» [5]. «Cугубо формальное исчисление индексов цитирования, показателя Хирша и тому подобная «бухгалтерская» деятельность не ведут, без ключевого участия реальных научных экспертов, к сколь-нибудь полезным результатам» [6]. «Бюрократы, стремящиеся управлять наукой, хотят иметь ясное представление о том, что, как и с какими результатами делают ученые, когда и какую конкретно прибыль можно ожидать от научных исследований. Они мечтают иметь объективные показатели для измерения продуктивности и креативности как отдельных ученых, так и научных коллективов, чтобы знать, на кого делать ставку и кому и какую платить зарплату, кого финансировать, а кого нет. Действительно, было бы очень удобно с помощью анкетирования ученых, рассмотрения их формальных научных отчетов об участиях в конференциях и публикациях, а также на основе анализа сетей цитирования определять, какие ученые, лаборатории и институты заслуживают поддержки и поощрения, а какие, может быть, следовало бы даже закрыть из-за их нерентабельности» [7].

При сравнении научных организаций и составлении различного рода рейтингов нужно иметь в виду особенности разных дисциплин. В частности, показатели цитирования в разных областях знаний резко различаются. Анализ данных по двум десяткам научных дисциплин показывает, что минимальные значения доли цитируемых работ соответствуют компьютерным наукам (38.23%) и математике (44.20%), а максимальные - иммунологии (78.48%) и молекулярной биологии (78.36%). В то же время Citation Impact (среднее число ссылок на публикацию) в Computer Science составляет 1.34%, в математике 1.36%: на другом полюсе - те же иммунология (9.98%) и молекулярная биология (12.97%) [3]. Имеются и другие значимые обстоятельства, которые непременно должны приниматься во внимание при применении наукометрических методик. На практике они учитываются далеко не всегда. Минобрнауки на основе сомнительных критериев объявляет вузы неэффективными http://polit.ru/article/2013/05/24/rossiyskie_reitingy.; рейтинги остаются одним из главных источников информации при распределении финансов.

Президентским указом от 7 мая 2012 года № 599 «О мерах по реализации государственной политики в области образования и науки» правительству Российской Федерации предложено обеспечить «вхождение к 2020 году не менее пяти российских университетов в первую сотню ведущих мировых университетов согласно мировому рейтингу университетов» (абзац 3 подпункта «в» пункта 1). Для решения этой задачи Минобрнауки России провело открытый конкурс на предоставление государственной поддержки ведущим российским университетам. По результатам конкурса Совет по повышению конкурентоспособности ведущих университетов Российской Федерации среди ведущих мировых научно-образовательных центров рекомендовал 15 вузов для получения государственной поддержки. 26 августа 2013 г. появилось правительственное распоряжение №1500-р «О распределении субсидий ведущим университетам России в целях повышения их конкурентоспособности среди ведущих вузов мира» http://government.ru/docs/4155.. Согласно этому распоряжению 14 университетов должны получить по 592.4 млн. рублей, и еще один - 406.4 млн. рублей. Нет сомнений, что эти 8.7 миллиарда будут успешно «освоены». Другое дело, насколько эффективно удастся потратить выделенные средства и реально ли выполнить поставленную задачу.

Указ, однако, ничего не указывает, в каком именно рейтинге следует занять высокие места. Попробуем разобраться, как выглядят сегодня (по состоянию на декабрь 2013 г.) отечественные вузы в авторитетных международных рейтингах.

В 2013 году в QS World University Rankings 2013/14 http://www.topuniversities.com/university-rankings/world-university-rankings. _ рейтинг 800 лучших мировых университетов из 76 стран мира, опубликованный британской компанией QS (Quacquarelli Symonds), вошли 18 российских вузов. Лучшим ожидаемо стал МГУ, набравший 63.9 балла и занявший в рейтинге 120-е место (100 баллов присвоено лидеру - Массачусетскому технологическому институту). За ним с 45.9 балла следует СПбГУ (240 место). Пятым из российских вузов (напомним, в указе шла речь именно о 5 университетах) стал МГИМО (386 место, 33.8 балла). Годом ранее МГУ был 116-м, а МГИМО - 367-м. Как видим, до первой сотни далековато, но это еще не худший результат. Academic Ranking of World Universities (ARWU) или «шанхайский рейтинг» http://www.shanghairanking.com. отслеживает более 1000 университетов, но публикуются данные только о 500 лучших. В 2013 г. в их число вошли МГУ (79 место) и СПбГУ, разделивший места с 301 по 400; налицо минимальный прогресс по сравнению с рейтингом 2012 года, тогда МГУ был на 80 месте, а СПбГУ - на 401-500-м. Эти же два вуза фигурируют в CWTS Leiden Ranking 2013 http://www.leidenranking.com/ranking. (составитель _ Centre for Science and Technology Studies) соответственно на 468 и 491 местах. В рейтинге 2011-12 года те же МГУ и СПбГУ занимали 499 и 500 места. Невысокий результат связан с тем, что в Лейденском рейтинге делается акцент на публикациях, регистрируемых в Web of Science. Еще один известный рейтинг, World University Rankings 2013-2014 top 400 http://www.timeshighereducation.co.uk/world-university-rankings., отпочковавшийся в 2009 г. от QS и поддерживаемый журналом THE (Times Higher Education) ставит МГУ на 226-250 места; другие наши вузы в число 400 не вошли (правда, в предыдущей версии присутствовал и МИФИ благодаря огромному числу ссылок на публикации всего одного сотрудника А.Романюка, участника экспериментов на БАК). Научный мир с интересом ожидает появления в начале 2014 г. рейтинга U-Multirank http://www.umultirank.org., где зарегистрировано 650 вузов. Заметим также, что в крупнейшем вебометрическом рейтинге Webometrics http://www.webometrics.info. Российская Федерация представлена 1188 организациями. До сотни немного не дотянул наш лучший университет (разумеется, МГУ - 102-е место в общем зачете), а пятым отечественным вузом оказался Санкт-Петербургский государственный политехнический университет (820-е место).

Укажем также, что в декабре 2013 г. все тот же британский журнал THE опубликовал рейтинг 100 лучших университетов стран с развивающейся экономикой BRICS & Emerging Economies Rankings 2014 http://www.timeshighereducation.co.uk/world-university-rankings/2014/brics-and-emerging-economies.. Две строки в нем занимают вузы из России: все те же МГУ (10 место, 41.4 балла) и СПбГУ (67 место, 23.7 балла). Для сравнения: 44 позиции из 100 принадлежат Китаю и еще 21 - Тайваню.

Достаточно скромные результаты наших вузов в глобальных рейтингах обусловлены рядом объективных причин. Перечислим основные. Одним из главных факторов успеха является международная публикационная активность, без которой невозможны высокие показатели цитирования. Однако большинство отечественных ученых предпочитают публиковать научные работы в русскоязычных изданиях. Другая причина _ традиционное разграничение образовательной и научно-исследовательской областей, а достижения исследовательских институтов в глобальных рейтингах университетов не учитываются. Необходимо упомянуть и низкое государственное финансирование научно-образовательной сферы; как следствие, низкие заработные платы профессорско-преподавательского состава вузов не в состоянии привлечь наиболее квалифицированных специалистов как российских, так и иностранных. А действующие сотрудники вузов вынуждены искать дополнительные заработки, отвлекаясь от основной работы.

Похоже, указ № 599 ждет трудная судьба. Однако напомним, что наша власть славится умением произвольно менять правила игры. Так, после появления закона о «реформе» РАН сотни научных организаций ожидают резких изменений в условиях работы. Многие из них планируется объединить с университетами, что, естественно, повлияет на рейтинги.

Говоря о влиянии рейтингов и других индикаторов качества и научно-педагогической деятельности на развитие науки и образования, можно отметить повышение качества информации, которые собирают и представляют организации о себе и своей работе. Вместе с тем результаты научной политики, основанной на якобы «объективных» измерениях, могут привести к самым неожиданным результатам. Так, финансирование австралийской науки было поставлено в зависимость от количественных показателей, что привело к резкому сокращению качества проводимых в Австралии научных исследований [7]. Одни библиометрические исследования не могут быть самодостаточной основой для научной политики и ведут к ошибочным выводам и прогнозам.

По результатам рейтингов может измениться понимание качества работы университета - теперь оно «привязано» к показателям рейтинга. Государственное финансирование обычно увеличивается для успешных организаций и сокращается для отстающих. Места в рейтингах, так или иначе, влияют на размер платы за обучение, выбор абитуриентов и качество студентов, моральное состояние сотрудников, перспективы академического сотрудничества [8]. В результате имеет место так называемый эффект Матфея: «всякому имеющему дастся и приумножится, а у неимеющего отнимется и то, что имеет» (Мф.25:29) http://ot-matfeya.ru/index.php?id_menu=38..

Рейтинги вовсе не являются безобидной вещью. Слишком большое внимание к ним означает значительно большую, чем раньше, степень контроля над вузом извне и значительно меньшую степень свободы в принятии решений. Появление мировых и не только мировых рейтингов университетов вызвало волну критики, в которой можно выделить два направления - идеологическое и методологическое. Продолжаются дискуссии о том, следует ли вообще составлять рейтинги и пользоваться их результатами, какое понимание образования они отражают, и насколько желательны или опасны социальные последствия, к которым их использование может привести. Основные моменты методологической критики существующих рейтингов таковы [8]:

отсутствие среди измеряемых показателей важных характеристик университета, отражающих качество процесса обучения и участие университета в жизни общества, и абсолютное преобладание характеристик, связанных с исследованиями (например, в Шанхайском рейтинге);

примитивные и некорректные схемы объединения непосредственно измеряемых показателей в интегральный индекс: обычно складываются взвешенные значения показателей, что далеко не всегда позволяет получить надежные результаты;

низкое качество собираемых данных (опросов экспертов, баз публикаций и цитирования, сведений, предоставляемых университетами), связанное как с неумышленными ошибками, так и в некоторых случаях умышленными манипуляциями.

Формой протеста против действующих рейтингов является разработка собственных университетских рейтингов. Примером может служить появившийся в 2007 г. французский рейтинг Professional Ranking of World Universities, разработанный Ecole Nationale Superieure des Mines de Paris. Существование множества противоречивых по своим результатам университетских рейтингов может расцениваться как результат несогласия администраций современных вузов с существующими рейтинговыми системами. Другой способ реагирования на рейтинги - это их бойкотирование, к которому порой прибегают достаточно сильные и успешные университеты. В 2012 г. Гамбургский университет решил бойкотировать как национальные (немецкий рейтинг CHE Centrum fьr Hochschulentwicklung), так и международные рейтинги университетов http://www.lenta.ru/news/2012/09/20/hamburg.. По мнению президента университета, рейтинговые исследования необъективны, а потраченные усилия не приносят ожидаемого результата: рейтинги не отражают реального положения дел в вузе, что приводит к искажению представлений о нем как у абитуриентов, так и у властей. Переизбыток бумажной работы, связанной с подобными проектами, во-первых, отвлекает от занятий наукой и управления университетом, а во-вторых, требует дополнительных средств. В 2013 году о бойкоте рейтинга CHE заявил университет Лейпцига; ожидается, что такое же решение вскоре примет университет Марбурга [7].

Из вышесказанного ясно, что нынешние позиции отечественных вузов в мировых рейтингах не могут удовлетворить ни сами вузы, ни руководящие органы. Среди популярных объяснений сложившейся ситуации - ссылки на неприменимость тамошних критериев к нашим реалиям (больше всего претензий к роли и весам показателей, связанных с публикациями и цитированием в иностранных изданиях). Определенный резон в этом есть, ранее мы обсуждали несовершенство рейтингов. Как следствие, возникает желание предложить иные критерии, чтобы российские организации выглядели более привлекательно («если измерять в попугаях, будет гораздо больше»). В частности, ректор МГУ имени М.В.Ломоносова в интервью «Независимой газете» от 09.10.2012 http://www.ng.ru/education/2012-10-09/8_rating.html. высказал уверенность, что России необходимо создавать собственный мировой рейтинг вузов со штаб-квартирой в Москве, причем к созданию такого независимого агентства должны подключиться ведущие СМИ. Эту же идею В.А. Садовничий повторил на совете экспертов по образованию «Российской газеты» 23.12.2013 http://rg.ru/2013/12/23/dz-site.html.. А министр обороны С.К. Шойгу на заседании правительства предложил создать российский рейтинг мировых высших учебных заведений с учетом достижений отечественной науки. «Следует подумать нам о том, чтобы наша высшая школа, наше образование начало делать свой рейтинг высших учебных заведений, университетов… Эти достижения, наш уровень подготовки специалистов забывать не надо, и, может быть, нам самим пора делать оценки по нашей шкале» http://ria.ru/society/20130821/957666311.html. - заявил он.

Различные рейтинги российских университетов существуют не один год, и постоянно появляются новые версии. В конце 2012 г. рейтинговое «Эксперт РА» при поддержке фонда «Вольное дело» подготовило «Рейтинг высших учебных заведений России» http://www.raexpert.ru/project/vuz_rating/2012/analytics.. В число участников рейтинга не входят вузы творческой, спортивной направленности, а также вузы силовых ведомств. Отличительной особенностью рейтинга является комплексная оценка деятельности вузов, исключающая ранжирование по одному показателю, а также проведение масштабных опросов наряду с анализом статистической информации. По утверждению организаторов, в ходе исследования был получен высокий процент отклика от высших учебных заведений: свои данные предоставили 116 вузов из 130 включенных в шорт-лист. В анкетировании приняли участие 4 тысячи человек - представители академических и научных кругов, работодатели, студенты и выпускники.

Методика рейтинга была представлена широкой общественности и скорректирована с учетом мнений представителей ведущих вузов РФ. Место вуза в рейтинге определялось исходя из трех составляющих: качество образования, востребованность работодателями, научно-исследовательская деятельность. Для оценки качества образования использовались группы показателей "уровень преподавания", "международная интеграция", "ресурсное обеспечение", "востребованность среди абитуриентов". Лучшие вузы по востребованности работодателями определялись по критериям "сотрудничество с работодателями" и "качество карьеры выпускников". Основанием для ранжирования вузов при оценке уровня научно-исследовательской активности являлся результат по группам показателей: "научные достижения", "инновационная активность", "инновационная инфраструктура".

Еще один проект, «Национальный рейтинг университетов» http://unirating.ru/txt.asp?rbr=30., инициирован в 2009 году информационным агентством «Интерфакс» при поддержке Министерства образования и науки РФ с целью разработки и апробации новых механизмов независимой системы оценки российских вузов. Структура модели этого рейтинга включает 6 групп критериев. Две из них входят в итоговый показатель с весовым коэффициентом 20%, это образовательная и научно-исследовательская деятельность вуза. Каждая из остальных четырех групп имеет удельный вес 15%. Это социализаторская деятельность вуза (где оцениваются, в частности, образовательные программы дополнительного образования, пространственный масштаб деятельности вуза, динамика активности выпускников на региональных рынках труда, зарплатные ожидания и карьерные притязания выпускников); международная деятельность вуза (академическая мобильность студентов, преподавателей, учёных; уровень международного сотрудничества; ресурсное обеспечение международной деятельности); бренд вуза, а также инновации и коммерциализация разработок (результаты интеллектуальной деятельности, регистрируемые Роспатентом, создание и развитие малых инновационных предприятий, инновационная инфраструктура вуза, участие вуза в госпрограммах развития технологий, доходы вуза от коммерциализации разработок).

Закончим обсуждением отечественных вебометрических рейтингов. В России вебометрические исследования проводятся с 2008 г. Среди пионеров этого направления следует назвать исследователей из Карельского научного центра РАН, изучавших университеты Северо-Запада России, а также университеты Финляндии. С 2005 г. рейтинговое агентство Белорусского госуниверситета совместно с информационно-аналитическим центром Минобразования составляет рейтинг сайтов белорусских вузов http://www.informetrics.ru/articles/sn.php?id=62..

Институт вычислительных технологий Сибирского отделения РАН с 2008 года публикует рейтинг сайтов научных организаций СО РАН, который разрабатывается по инициативе директора института академика Ю.И. Шокина. За основу взят рейтинг Webometrics в предпоследней версии, то есть считаются ссылки на ресурс, его цитируемость и объем научно-организационной информации, представленной на сайте. Веса показателей считаются одинаковыми. Рейтинг от 26 августа 2013 г. http://www.ict.nsc.ru/ranking. включает 94 организации, первое место занимает портал Сибирского отделения РАН http://www.sbras.ru..

Последняя редакция Российского индекса веб-сайтов научно-образовательных учреждений [9,10], выполненная в мае 2013 г., охватывает официальные веб-сайты 1827 учреждений, подведомственных государственным академиям (РАН, РАО, РАМН, РАСХН), а также вузов, имеющих государственную аккредитацию. Российская академия наук представлена 455 организациями; Российская академия медицинских наук - 59; Российская академия образования - 26; Российская академия сельскохозяйственных наук - 204. Кроме того, измерялись показатели для 637 и 446 негосударственных вузов. Лучшими государственными вузами стали НИУ ВШЭ и МГУ, негосударственными _ Российская экономическая школа и Современная гуманитарная академия, другие результаты см. в [11].

Методика формирования индекса претерпела некоторые изменения. В основном измерение показателей вебиндекса-2013 производилась по тем же показателям, что и вебиндекса-2012, с одним важным исключением. В предыдущем году в качестве показателя «публикационная активность» использовались данные Российского индекса научного цитирования (РИНЦ). В ходе обсуждения вебиндекса-2012, происходившего на различных научных форумах, высказывалось мнение, что использование данных РИНЦ не вполне корректно. Во-первых, РИНЦ приводит данные по всем публикациям научно-образовательных учреждений (НОУ), а не только электронным, как это делается в рейтинге Webometrics. Во-вторых, у научной общественности имеется множество претензий к качеству информационной базы РИНЦ и алгоритмам подсчета показателей, используемым в РИНЦ. В результате было принято решение в качестве показателя публикационной активности использовать результаты поиска публикаций НОУ и ссылок на них в системе Google Scholar (Академия Гугл) http://scholar.google.ru.. Еще одно изменение методики индекса заключалось в упрощении способа ранжирования. Обобщенный ранг НОУ вычислялся как сумма рангов по 4-м показателям. Все 4 показателя признавались равными по значению, т.е. никакого взвешивания не производилось. Единственный метод выравнивания результатов был применен к НОУ, получившим нулевые значения по какому-либо показателю. Все НОУ, имеющие нулевое значение показателя, получали одинаковый ранг. Это исключало преимущества в окончательном рейтинге для какого-либо НОУ по формальным признакам сортировки, например, по алфавиту.

Первоначально планировалось повторять измерения ежегодно. Однако в свете последних решений о «реформе» РАН, передаче научных институтов в ведение ФАНО, реорганизации «неэффективных» вузов, слияниях, поглощениях, ликвидациях и т.п. дальнейшая судьба Российского индекса веб-сайтов научно-образовательных учреждений выглядит неопределенной. Это же относится к другим рейтингам отечественных НОУ: до появления окончательного реестра организаций бессмысленно говорить о достоверных результатах их сравнения.

Список литературы

наукометрия ученый изыскание

1. Налимов В.В., Мульченко З.М. Наукометрия. Изучение развития науки как информационного процесса. - М.: Наука, 1969.

2. Грановский Ю.В. Наукометрия в Московском университете // Управление большими системами. - М., 2013. - № 44.

3. Маршакова-Шайкевич И.В. Роль библиометрии в оценке исследовательской активности науки // Управление большими системами. - М., 2013. - № 44.

4. Каленов Н.Е., Селюцкая О.В. Некоторые оценки качества Российского индекса научного цитирования на примере журнала «Информационные ресурсы России».

5. Москалева О.В. Можно ли оценивать труд ученых по библиометрическим показателям? // Управление большими системами. - М., 2013. - № 44.

6. Фейгельман М.В., Цирлина Г.А. Библиометрический азарт как следствие отсутствия научной экспертизы // Управление большими системами. - М., 2013. - № 44.

7. Горохов В.Г. Проблема измерения продуктивности отдельных ученых и целых институтов // Управление большими системами. - М., 2013. - № 44.

8. Кинчарова А. Мировые рейтинги университетов: методология, эффекты и критика. Препринт. - Томск, 2013.

9. Поляк Ю.Е. О новой методике оценки веб-сайтов научно-образовательных учреждений // Россия: тенденции и перспективы развития. Ежегодник. Вып. 8. / РАН. ИНИОН. Отд. науч. сотрудничества и междунар. связей; Отв. ред. Ю.С. Пивоваров. - М., 2013. - Ч. 2.

10. Антопольский А.Б., Поляк Ю.Е. О новом рейтинге веб-сайтов российских университетов // Дистанционное и виртуальное обучение. 2013. - № 1. - С. 40-47.

11. Антопольский А.Б., Поляк Ю.Е. Новый вебометрический индекс научно-образовательных учреждений России // Инновации на основе информационных и коммуникационных технологий: Материалы международной научно-практической конференции. - М.: МИЭМ НИУ ВШЭ, 2013. _ С. 105-109.

Размещено на Allbest.ru


Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.