В целом запросы потребителей, проблемы участников и параметры международных вузовских рейтингов весьма далеки друг от друга. Рейтинги замеряют показатели, малоинтересные для реальных потребителей. При этом студенты/работодатели думают каждый о своем, а аналитики и «образователи» также размышляют совсем об иных материях.
Во-первых, очевидно: главная продукция вузов – знания/ умения выпускников, а не научные достижения преподавателей. Как потребителю продукции вузов, работодателю не важно число ссылок на статьи преподавателей в научных журналах. Значимо то, чему научились выпускники. То же касается и студента. Для него важно, чему полезному профессор может научить.
Во-вторых, совершенно нелогично использование показателей, основанных на количестве публикаций, как главного критерия для оценки качества научной деятельности во многих предметных областях. Особенно когда мы готовим рейтинг, адресованный потенциальным потребителям. Если мы хотим построить дом и ищем хорошего архитектора, то не интересуемся его показателями цитируемости или индексом Хирша. Мы просим его показать, что он уже построил, и спрашиваем людей, живущих в этих домах, хорошо ли им там живется. То же самое в медицине. В поисках хорошей больницы мы не интересуемся количеством публикаций и индексом Хирша у врачей. Вместо этого мы хотим узнать мнение пациентов и оценку профессиональной медицинской среды. Многие аналитики также отмечали, что от таких критериев эффективности сильнее всего страдают те научные области, численность исследователей в которых невелика
[45].
В-третьих, также очевидно: качество научной работы и учебного процесса не имеют тесной связи. Например, не всякий хороший ученый является хорошим преподавателем, и наоборот.
В-четвертых, показатели количества публикаций/ссылок очень легко максимизируются практически без связи с реальным делом. Например, вуз приглашает «публикабельного» профессора раз в год прочитать лекцию, и все его статьи сразу повышают рейтинг вуза. А в КНР всех авторов статей просто обязали ссылаться на своих китайских коллег. Кроме того, китайским ученым выплачивают премию до 30 тыс. долл. за статьи в первоклассных мировых научных журналах. И, говорят, в США оказалось немало желающих приписать китайца третьим – пятым соавтором в уже готовую статью, причем «цена вопроса» всего 15 тыс. долл. В итоге «публикабельность» и рейтинги китайских вузов растут. А еще китайцы придумали свой Шанхайский рейтинг и последовательно его продвигают. Что тоже вполне логично.
Примеры и аргументы можно приводить бесконечно, но суть в том, что каждая дисциплина имеет собственную иерархию ценностей. Разработать адекватный рейтинг в той или иной предметной области, в том числе в образовании, – задача нелегкая. Но если стремиться, чтобы рейтинги соответствовали реальной ситуации, то надо искать разумные методы решения. Другое дело, если рейтинги в основном нужны для иных целей. Конечно, жизнь движется, появляются ростки нового. Причем во впечатляющих масштабах. Происходит это по нескольким направлениям.
Первое. Количество национальных рейтингов быстро увеличивается: 45 новых за последние 15 лет. Все эти рейтинги можно найти на веб-сайте IREG Observatory в разделе IREG Inventory of National Rankings. Этот раздел постоянно обновляется. Каждый новый рейтинг – национальный, региональный или мировой – стремится выделиться за счет модификации методологии, поэтому в данной области отмечается высокая активность.
Появляется также всё больше региональных рейтингов. Это вполне понятно, так как мобильность и академическое сотрудничество студентов и преподавательского состава осуществляются прежде всего в рамках определенных регионов. Наиболее привлекательными с маркетинговой точки зрения являются региональные рейтинги азиатских и арабских учебных заведений. Интересные показатели демонстрируют страны Латинской Америки. Основная проблема региональных рейтингов – методология. Эти рейтинги как две капли воды похожи на мировые, поскольку фактически представляют собой фрагменты мировых рейтингов, на которых основываются. Их пока вряд ли можно считать автономными и самостоятельными
[46].
Второе. Отмечается появление и развитие рейтингов по предметным областям. Их преимущества кажутся настолько очевидными, что трудно понять, почему составители рейтингов игнорировали эту возможность ранжирования ранее.
Вполне естественно, что в каждом университете есть разные – как сильные, так и более слабые – факультеты.
Здесь возникают два вопроса: сколько дисциплин и сколько университетов должны быть включены в анализ? Общее направление: количество дисциплин быстро растет. В 2017 году QS публикует рейтинги по 43 дисциплинам, рейтинг URAP включает 41 предметную область, а мировой рейтинг US News – 27. Шанхайский рейтинг уже объявил о намерении публиковать рейтинг, в который войдет несколько десятков предметных областей. Возможно, в ближайшие годы рейтинги будут включать не менее 50 дисциплин и не менее 500 учебных заведений или факультетов.
Несмотря на достигнутый прогресс, многое еще предстоит сделать, особенно в отношении рейтингов по предметным областям. Основной проблемой является определение критически важных характеристик данной дисциплины, а также поиск показателей, их отражающих. Предметный рейтинг научной продуктивности («публикабельности») университетов в 2016–2017 годах стал составляться и в России под эгидой АЦ «Эксперт»
[47].
Третье. Появление новых измерений. В настоящее время ведутся поиски способов включить в международные рейтинги другие аспекты деятельности образовательных организаций. Особенно важны такие достижения, как выдающиеся результаты в преподавании и так называемая «третья миссия», или социальная роль университета. Это серьезный вызов, который стоит сегодня перед системой рейтингования.
Простых ответов или согласованных международных стандартов здесь пока нет, но уже предпринимаются шаги по поиску возможных решений. Стоит упомянуть интересный проект Third Mission Ranking Project E3M, осуществленный по инициативе Европейской комиссии. Он пока не привел к появлению нового рейтинга, однако некоторые его результаты и выводы заслуживают внимания. Кстати, согласуются с глобальными тенденциями в развитии рейтингов и усилия российского академического сообщества и Совета ректоров по созданию нового рейтинга, который бы отражал, в том числе, достижения вуза в осуществлении «третьей миссии». Эта работа также дает шанс (хотя и связанный с определенными проблемами) для расширения диапазона показателей.
В сфере создания новых измерений заметным достижением можно считать появление критериев, связанных с востребованностью выпускников работодателями. Их преимущества также кажутся настолько очевидными, что трудно понять, почему составители рейтингов игнорируют эту возможность ранжирования. В России рейтинговое агентство «Эксперт РА» сформировало как национальный, так и международный рейтинг вузов с использованием показателя востребованности выпускников. Это также весьма серьезный вызов для всей системы рейтингов, ибо включает важнейший показатель – реальную оценку потребителей
[48].