Clasamentul academic al universităților lumii de către Shanghai Jiao Tong University sau Shanghai clasament (denumirea comună a Academic Ranking a Universităților Mondiale în limba engleză , sau ARWU ) este un clasament al principalelor lumii universități , stabilită de cercetători de la Shanghai Jiao-tong Universitatea din China .
Aceste instituții sunt clasificate în funcție de un singur indice calculat din șase criterii cantitative, în special numărul de publicații din cele două reviste științifice Nature and Science , numărul de cercetători dintre cei mai citați, numărul de premii Nobel științifice și Domenii medalii acordate absolvenților și personalului universitar și un criteriu de productivitate legat de mărimea personalului didactic, dacă este cunoscut.
Metoda clasamentului și relevanța sa sunt puternic criticate și, în special, afirmația că aceste criterii sunt relevante și obiective. Niciun criteriu de clasificare nu evaluează calitatea predării sau nivelul studenților absolvenți, ceea ce este paradoxal într-un clasament al instituțiilor în care una dintre cele două vocații primare, alături de cercetare, este predarea și formarea profesională pentru studenții care în cea mai mare parte nu intenționează a se documenta. În plus, clasamentul favorizează instituțiile mari, mai vechi și științele dure (în special medicina și biologia) în detrimentul științelor sociale și ale dreptului. Nici constrângerile asupra unităților, nici resursele acestora nu sunt luate în considerare.
Această clasificare este publicată în special în Franța și a avut un impact major asupra politicilor publice franceze: în măsura în care clasificarea unui stabiliment pare a fi puternic legată de dimensiunea sa, argumentul „creșterii clasamentelor” a fost adesea invocat în susținerea strategiilor de regrupare sau fuzionare a multor instituții universitare în anii 2010.
La începutul anilor 2000, Universitatea Shanghai Jiao-tong a căutat să dezvolte un plan strategic pentru a justifica fondurile publice furnizate, astfel încât să se ridice la nivelul celor mai bune universități internaționale. Profesorul Nian Cai Liu, chimist care lucrează pentru această universitate, a stabilit un prim clasament de universități în 2003, pentru a evalua decalajul care exista între universitățile chineze și cele care urmau să servească drept modele. Având doar doi colaboratori, acesta merge apoi la cel mai simplu, luând în considerare doar datele accesibile prin Internet și considerate obiective: numărul de premii Nobel și medalii Fields (pentru matematică), numărul de cercetători cei mai citați în disciplina lor, numărul de publicații în revistele științifice Nature and Science și numărul de articole enumerate în două baze de date de articole științifice, una despre științele umaniste, cealaltă despre științele pure. După publicarea sa în 2003, clasamentul a fost mai întâi ignorat și apoi criticat, dar ar avea un impact global semnificativ. Din 2009, este publicată și o clasificare pe discipline. Din 2009, echipa de clasament a Universității Jiao-tong a devenit o firmă de consultanță independentă, ShanghaiRanking.
Proiectanții clasamentului au publicat metoda de calcul în 2005, despre care au spus că „utilizează criterii obiective atent selectate” , „se bazează pe date internaționale comparabile pe care oricine le poate verifica” și „nu implică nicio măsurare subiectivă” , o serie de afirmații care au făcut obiectul unor critici serioase. Această metodă include următoarele criterii ponderate:
Criterii | Indicatori | Ponderare |
---|---|---|
Calitatea predării | Numărul de premii Nobel și medalii Fields printre absolvenți | 10% |
Calitatea instituției | Numărul de premii Nobel și medalii Fields în rândul cercetătorilor | 20% |
Numărul celor mai bine citați cercetători din disciplinele lor din ultimii zece ani | 20% | |
Publicații | Articole publicate în Nature and Science în ultimii cinci ani | 20% |
Articole indexate în Science Citation Index și Social Sciences Citation Index | 20% | |
Dimensiunea instituției | Performanță academică în raport cu dimensiunea instituției | 10% |
Datele brute utilizate de autorii clasamentului rămân confidențiale. Creatorii clasamentului subliniază ei înșiși unele dintre limitările sale, în special o părtinire în favoarea instituțiilor mari, precum cele din țările vorbitoare de limbă engleză , precum și dificultățile în definirea unor indicatori adecvați pentru a clasifica universitățile specializate în științele sociale .
Criticile clasificării se referă în principal la alegerea criteriilor utilizate și la metoda de calcul pentru a arăta caracterul lor arbitrar și irelevant. Într-un articol publicat în aprilie 2009, JC. Billaut, D. Bouyssou și Ph. Vincke disecționează funcționarea clasamentului din Shanghai, cu înțelegerea lor ca specialiști în sprijinirea deciziilor multicriteriale . Din aceasta reiese o critică foarte bine argumentată a criteriilor utilizate (pe care autorii le califică drept „irelevante” ), precum și a paradoxurilor în metoda folosită, autorii concluzionând că „clasamentul de la Shanghai, în ciuda acoperirii mediatice excelente pe care o primește în fiecare an, nu este un instrument relevant pentru a judeca „calitatea” instituțiilor academice, a îndruma alegerea studenților sau a familiilor sau a promova reformele sistemului de învățământ superior ” .
În ceea ce privește utilizarea numărului de premii Nobel pentru a măsura calitatea instituției, clasamentul contează premiul pentru instituția căreia îi aparține beneficiarul în momentul anunțării premiului, dar acest lucru se datorează unei descoperiri care ar putea fi foarte vechi și s-ar putea să fi fost conduse într-o altă instituție. Modul în care clasamentul contează premiile vechi favorizează țările cu un peisaj academic foarte stabil și instituțiile vechi (în special, au fost discutate afilierile câștigătorilor Premiului Nobel francez utilizate pentru clasament). În cele din urmă, clasamentul ignoră (cu excepția clasamentelor tematice pe subiecte) alte premii la fel de prestigioase ca Premiul Nobel, precum Premiul Turing în informatică sau Medalia Bruce în astronomie. Numărul premiilor Nobel și medaliilor Fields dintr-o instituție pare, așadar, să măsoare reputația veche și nu ne permite să estimăm calitatea actuală a cercetării sau predării în această instituție. Prin urmare, nu putem considera că calitatea actuală a pregătirii studenților este luată în considerare de clasament.
În ceea ce privește criteriul cercetătorilor a căror activitate este „cea mai citată” pe o perioadă de 10 ani, metoda utilizată nu ia în considerare în mod suficient mobilitatea cercetătorilor seniori, care probabil ar fi schimbat instituția pe parcursul carierei și este distorsionată de importanța prejudecăți culturale care afectează ghilimelele (italienii îi cită pe italieni etc.). Prin urmare, acest criteriu măsoară doar foarte imperfect capacitatea unei instituții de a produce în prezent cercetări cu impact ridicat.
În ceea ce privește publicațiile în natură și știință , importanța acordată numai acestor două reviste a fost criticată, la fel ca și metoda de ponderare a coautorilor.
Pentru toate criteriile legate de publicații, trebuie amintit că atribuirea corectă a unui articol unei anumite instituții este un exercițiu dificil, deoarece autorii nu își indică apartenența în mod standardizat la articolele lor. Alegerea bazelor de date utilizate favorizează articolele publicate în reviste internaționale și în domeniul științei în detrimentul științelor umaniste (proiectanții clasificării încearcă să corecteze această prejudecată prin atribuirea unui coeficient de 2 publicațiilor din științele umaniste și științele sociale). Clasamentul contează numărul total de articole publicate fără a ponderea articolele respective după impactul lor. În plus, cărțile, capitolele din lucrări colective sau chiar articolele de știință populară nu sunt luate în considerare. În rezumat, criticii indică faptul că criteriul publicării se bazează pe o abordare restrictivă a publicației științifice.
Criteriul de productivitate ia în considerare numărul echivalentelor cu normă întreagă ale corpului academic al fiecărei instituții, dacă ar putea fi determinat. Pentru Franța, acestea sunt datele disponibile în datele deschise pe site-ul Ministerului Învățământului Superior .
Autorii studiului critic rezumă evaluarea după cum urmează: „Criteriile au fost alese în principal pe baza disponibilității pe internet a informațiilor care le permit să fie informați, că fiecare dintre ele este legat într-un mod foarte aproximativ cu ceea ce ar trebui să măsoare și că evaluarea lor implică parametri arbitrari și micro-decizii nedocumentate. Impactul acestor elemente asupra rezultatului final nu este examinat. Datele inițiale utilizate nu sunt făcute publice și, prin urmare, nu pot fi verificate ” .
Majoritatea criteriilor sunt obținute prin numărarea prețurilor sau a publicațiilor, care favorizează instituțiile mari, astfel, „ marele se face frumos ” . Philippe Mahrer explică faptul că țările cu multe școli mici sau universități sunt dezavantajate în clasament, precum și universități, centre de cercetare sau școli care lucrează într-o rețea, așa cum se întâmplă adesea în Europa. Acest ultim punct este denunțat (și subliniat) în special de laureatul Nobel pentru fizică Albert Fert .
Cazul special al științelor umaneBazele de date utilizate pentru stabilirea listei de reviste în toate limbile. În științele exacte , revistele în alte limbi decât engleza au dispărut aproape, revistele revizuite sunt publicate în mod copleșitor în engleză, indiferent de țara lor de publicare (America de Nord, Europa, Japonia). Dintre acestea, Natura și Știința beneficiază în științele exacte de o notorietate inegalabilă. În domeniul științelor umaniste și sociale , pe de altă parte, promovarea muncii se face și la conferințe sau în reviste non-anglo-saxone, din mai multe motive (cost, accesibilitate, relevanță, impact etc.). De fapt, publicarea de lucrări în științele umane nu se face deci în principal în reviste internaționale în limba engleză și, ca atare, este mai puțin luată în considerare de această clasificare. Pentru a atenua acest eșec de a lua în considerare științele umane și sociale, clasificarea atribuie o pondere dublă, în numărul publicațiilor, publicațiilor la care se face referire în Indexul de citare a științelor sociale .
Un alt tip de critică se referă la modul aparent arbitrar în care scorurile normalizate ale diferitelor criterii sunt agregate folosind o sumă ponderată pentru a calcula un singur indice, permițând clasarea. În ciuda oricărei rigoări, normalizarea scorurilor se schimbă în fiecare an, fără ca ponderea criteriilor să fie modificată în consecință. Billaut, Bouyssou și Vincke explică modul în care acest lucru arată că „autorii clasamentului au căzut în aceste capcane elementare legate de standardizare” până la punctul „că nu se poate concluziona că îmbunătățirea unui criteriu face posibilă urcarea în clasament” . Metoda de calcul a clasamentului este de așa natură încât o instituție slabă pe un anumit criteriu ar avea chiar interesul să se ridice în clasament, astfel încât o instituție clasată chiar înaintea sa să îmbunătățească acest criteriu.
Mai mult decât atât, calcularea mediei ponderate a criteriilor care reprezintă producția (primele cinci) și productivitatea (ultimul) conduce neapărat la un rezultat lipsit de sens, ca și când am fi încercat să calculăm bogăția unei țări făcând o medie a PIB-ului și a PIB-ului pe cap de locuitor. .
Autorii clasamentului nu definesc ce este o universitate (până la punctul în care Collège de France , care nu acordă nicio diplomă, face parte dintr-un clasament pentru o vreme) și nici ce este o „universitate de talie mondială” . Ei ignoră constrângerile, foarte diferite de la o țară la alta, pe care le pot suferi instituțiile și resursele pe care le consumă (cu excepția dimensiunii „corpului academic”, dar numai dacă este cunoscut). Obiectivul realizării unei astfel de clasificări nu este discutat și bunele practici sunt uitate: instituțiile evaluate nu dispun de date care să le permită să înțeleagă cum au fost, iar autorii nu anticipează modul în care instituțiile lor își pot adapta comportamentul ca răspuns la sistemul de evaluare. De exemplu, deoarece scorurile pentru majoritatea criteriilor de clasare sunt sensibile la dimensiunea instituției, formarea unui grup de instituții ar putea face posibilă avansarea automată în clasament, fără a schimba natura sau calitatea cercetării (a se vedea cazul Franței de mai jos).
Influența reală a clasamentului de la Shanghai asupra alegerilor studenților este subiectul dezbaterii, deși ar putea fi un criteriu determinant pentru evaluarea relevanței unui astfel de clasament. Potrivit lui Philippe Mahrer, directorul Colegiului Inginerilor , acest clasament are puțină notorietate în China, chiar și în rândul studenților. Dimpotrivă, potrivit Ambasadei Franței în China: „[acest clasament] găsește într-adevăr un ecou important în rândul studenților chinezi, pentru care prestigiul universității este decisiv, deoarece face parte din criteriile de recrutare profesională în China”.
De fapt, clasamentul este considerat mai presus de toate de către administrații, echipe didactice și ministere (care au făcut din aceasta o metodă de evaluare a universităților), în timp ce orientarea studenților, în special spre universitățile de științe sociale, ia în considerare mulți factori, adesea personal.
Franța are o mână de universități în primele 100 ale clasamentului, în jur de 20 în primele 500 și în jur de 35 în clasamentul complet, extinse la 1000 de universități din anul 2018. Paris-Saclay intră pe site-ul 14 e în 2020.
Un premiu Nobel obținut de un profesor universitar francez poate valora de două ori mai puțin decât un premiu Nobel obținut de un profesor universitar american sau britanic. Într-adevăr, cercetarea franceză se desfășoară în general în unități mixte de cercetare care asociază cadrele universitare cu CNRS , clasamentul din Shanghai atribuind 50% din profit universității și 50% organismului CNRS. Dar, din moment ce CNRS și alte organizații de cercetare franceze nu apar în clasamentul de la Shanghai, aceasta înseamnă că „jumătate din beneficiul prețului nu aduce beneficii nimănui și se evaporă complet” ( Albert Fert ). În ceea ce privește 60% din marcă, care depinde de numărul de articole și de numărul de citări, „principiul general este același cu cel al prețurilor. (...) În cazul publicațiilor unui laborator universitar care asociază universitatea și o organizație precum CNRS, aproximativ 50% din profit va rămâne în general la universitate și 50% se va evapora prin a nu beneficia pe nimeni ”. Acest ultim punct se referă în special la lista celor mai citați cercetători: acesta este motivul pentru care în 2019 o instrucțiune a ministrului învățământului superior solicită cercetătorilor în cauză să corecteze acest efect menționând ca afiliere primară site-ul universității care găzduiește laboratorul lor.
Deoarece clasificarea unei unități este sensibilă la dimensiunea sa, s-a dedus adesea că o modalitate de a avansa în clasament a fost gruparea unităților, folosind mijloace constante.
Prin urmare, acest argument al clasamentului în creștere apare adesea în prim plan în prezentările referitoare la noile grupări universitare.
Clasamentul este foarte mediatizat în Franța, spre deosebire de anumite țări, cum ar fi Statele Unite sau Regatul Unit ale căror unități sunt totuși foarte bine clasificate și împinge Franța să facă alegeri care să contravină „spiritului” serviciului public ”, cum ar fi crearea regrupărilor universitare care sunt uneori artificiale, într-o logică a concurenței și raționalizării economice, cu obiectivul clar de a crește în clasament, dar fără ca efectele acestei politici să fie imediat detectabile.
Încă din 2005, Ministerul Educației Naționale în guvernul lui Dominique de Villepin , Gilles de Robien , a declarat că „pentru a face față concurenței internaționale [trebuie să ne] deplasa în sus în clasament, [astfel] să devină din nou capabilă să atragă talente din străinătate . " . În scrisoarea sa de misiune către Valérie Pécresse , pe atunci ministru al învățământului superior și cercetării , Nicolas Sarkozy a cerut „îmbunătățirea rangului unităților noastre de învățământ superior în clasamentele internaționale, cu obiectivul de a clasifica cel puțin două instituții franceze printre primele 20 și 10 dintre cele 100 ” , pe care ea a reafirmat-o spunând că „ obiectivul nostru este ca până în 2012 să avem zece universități franceze în prima sută a acestui clasament ” (în 2012 erau trei; erau încă doar cinci în 2020). Clasificarea a fost una dintre principalele motivații pentru crearea polilor de cercetare și învățământ superior (PRES). Valérie Pécresse , de fapt, și-a justificat influența după cum urmează: „Când își aleg viitoarea universitate, studenții americani, australieni, chinezi și indieni privesc acest clasament. Este globalizare. Nu îl putem ignora și, prin urmare, trebuie să câștigăm locuri, ceea ce nu contravine cerinței de excelență a universității franceze ” .
În 2013, în timpul unei noi publicații a clasamentului, ministrul învățământului superior Geneviève Fioraso părea să indice o ușoară schimbare de perspectivă față de clasament: „Fără a neglija imaginea și efectele de vizibilitate pe care le produc aceste clasamente, mă concentrez mai multe despre succesul studenților, introducerea limbii engleze pentru a atrage străini, stimulent pentru creșterea cooperării europene ”. Dar ea a afirmat „suntem pastile văzute din Shanghai” pentru a justifica regrupările universităților.
În 2018, pentru CEO-ul CNRS Antoine Petit , este necesar ca cercetarea franceză să ofere cercetătorilor vedetă, deoarece „putem spune că continuăm cu acest sistem de remunerare [pentru cercetători], dar atunci trebuie să încetăm să spunem că vom câștigă locuri în clasamentul Shanghai. Este una sau alta, depinde de noi să decidem ” .
Universitatea din Aix-Marseille a fost creată în 2012 prin fuziunea celor trei universități din Marsilia „ pentru a ajunge la locul 26 în clasamentul Shanghai faimosul“ în conformitate cu Valérie Pécresse , dar fără succes. În 2020, instituția Paris-Saclay , creată prin reunirea „13% din potențialul de cercetare francez” într-o singură universitate cu scopul foarte clar inclus în anexa la decretul „a fi printre cele mai mari instituții universitare din lume” , a atins 14 - lea la fața locului.
Traficul în publicațiile academiceÎntr-o coloană deschisă, Yves Gingras notează că anumite instituții oferă cercetătorilor lor bonusuri de publicare și este indignat că anumiți cercetători monetizează afiliații false în instituții care încearcă să se ridice în clasament.
Clasamentul, dintre care universitățile americane ocupă vârful, a devenit un element al soft power-ului american. Dar eseistul Ryan Craig crede că clasamentele distrag atenția universităților americane de la studenții lor: „Nu veți vedea nimic despre calitatea învățării și nici la locul de muncă. Mai rău: toate datele sunt ușor de manipulat. Vă puteți umfla artificial grupul de candidați pentru a vă îmbunătăți rata de selectivitate sau numărul de donatori ” .
Clasamentul este ignorat de studenții chinezi, care preferă anglo-saxonii mari, dar a avut o influență importantă asupra învățământului superior chinez, obiectivul liderilor chinezi încă din anii 1990 fiind de a ridica un sistem universitar inspirat inițial de sovietici unui alt modelat pe campusurile americane. De fapt, China progresează în fiecare an în propriul său clasament.
Principalele alternative la clasamentul din Shanghai sunt Times Higher Education World University Rankings (THE-WUR) și World University Rankings (sau „Clasamentul universităților mondiale”, QS WUR) ( pentru detalii, consultați articolul Premiile universității ) . Inițiativa U-Multirank a fost lansată de Comisia Europeană în fața riscului de a vedea clasamentul de la Shanghai marginalizând instituțiile europene și urmărește localizarea fiecărei instituții în conformitate cu cinci criterii principale: predare și învățare, cercetare, transfer de cunoștințe, orientare internațională, și angajamentul regional.