La qualità universitaria italiana continua ad abitare al Nord, da Verona a Trento, dal Politecnico di Milano a Bologna, e fra i poli non statali ripropone il solito terzetto di testa: la Luiss, però, supera di un’incollatura la Bocconi, che si piazza al secondo posto precedendo il San Raffaele.
Il Mezzogiorno continua invece a soffrire e occupa stabilmente gli ultimi scalini delle graduatorie, chiuse anche quest’anno dalla Parthenope di Napoli fra gli atenei statali e dalla Kore di Enna fra quelli non statali: anche a Sud, però, qualcosa si muove: Salerno consolida il proprio status di “eccezione territoriale”, e scala dieci posizioni passando dalla 26esima posizione del 2015 alla casella 16 e centrando il miglioramento più netto a livello nazionale, ma crescono anche le quotazioni di Foggia, che sale di cinque posizioni, di Messina, Campobasso e Lecce, tutte con un guadagno di quattro posti in classifica rispetto all’anno scorso, e del Politecnico di Bari, che di scalini ne guadagna tre. Al contrario viaggiano le università calabresi, con la Mediterranea che perde 7 posizioni (peggioramento più significativo a livello nazionale) e quella di Cosenza che ne lascia sul campo sei.
La nuova edizione dei ranking universitari del Sole 24 Ore, articolata sui 12 indicatori tradizionali che puntano a misurare i risultati di didattica e ricerca, mostra insomma una geografia della qualità accademica sempre più consolidata, soprattutto per i grandi atenei. Da segnalare i balzi di Modena e Reggio (sei posizioni in più dell’anno scorso, come Chieti) e del Politecnico di Torino (+5), mentre tra i grandi poli in arretramento si incontrano Genova (-5) e Firenze (-4). Questa architettura conferma che gli indicatori utilizzati per costruire il ranking riescono a misurare le dinamiche consolidate dell’accademia italiana, e che le performance delle diverse strutture sono figlie di fattori di lungo periodo che hanno bisogno di tempo per mostrare significativi cambi di ritmo.
Fin qui le classifiche generali, che servono a dare un’indicazione di massima (e per questo sono utilizzate anche dalle istituzioni che misurano in termini ufficiali la qualità universitaria spesso per distribuire una quota di fondi pubblici) e una sintesi di fenomeni complessi, ma che da sole non bastano certo a dare indicazioni complete sulla nostra accademia. O a dire, sempre da sole, quale università sia da frequentare e quale sia invece da trascurare.
Una scelta di questo tipo, da condurre con consapevolezza sempre maggiore soprattutto in tempi nei quali il mercato del lavoro non offre soluzioni facili, va basata sull’esame di una serie di dati molto più ampia, di cui gli indicatori e i punteggi pubblicati in queste pagine offrono solo la sintesi sommaria. Per questa ragione il Sole 24 Ore, con una scelta di trasparenza che conduce ormai da anni, offrirà dalla prossima settimana sul proprio sito Internet (www.ilsole24ore.com) un dossier di documentazione in cui per ogni indicatore sono disponibili i dati di base, consultabili in fogli excel in forma aperta per soddisfare le esigenze informative dei diversi pubblici che consultano il ranking. Studenti e famiglie hanno la possibilità di consultare i dati di base che producono ogni singolo indicatore, suddivisi per aree di studio quando le fonti ufficiali permettono questa scomposizione. Docenti e strutture tecniche delle università, dal canto loro, hanno la possibilità di utilizzare questi database per verificare gli effetti delle loro politiche e condurre verifiche e confronti con i risultati ottenuti dagli atenei “concorrenti”. Nascono da qui anche azioni di “autocorrezione” come quelle realizzate in questi anni da alcuni atenei su temi delicati come l’accreditamento degli stage o gli sforzi (talvolta affannosi) di allargare la platea degli studenti che ottengono davvero la borsa di studio dopo essersi visti riconoscere il diritto (si veda anche l’altro articolo in pagina).
Estrarre dal mare dei dati dodici indicatori sintetici, e da lì trarne una classifica complessiva, è insomma un esercizio inevitabilmente arbitrario, che mette a confronto strutture diverse per storia, dimensioni e contesto territoriale. I dati sul successo occupazionale o sulla trama degli stage certificati dal riconoscimento dei crediti formativi sono evidentemente influenzati dalla presenza di un tessuto produttivo e dei servizi dinamico e interessato alle competenze accademiche, e quindi “favoriscono” le aree più vivaci del Nord e le grandi città. I Politecnici hanno caratteristiche proprie, e fanno una gara a sé sulla base delle caratteristiche proprie degli studenti di ingegneria e architettura, mediamente più puntuali e mobili dei loro colleghi delle facoltà umanistiche. Così fondato, però, l’esercizio offre indicazioni solide che trovano nei singoli indicatori spunti articolati a seconda degli ambiti di interesse dei diversi lettori.
Come sempre, gli indicatori sono divisi in due grandi ambiti. I primi nove misurano il polso alle attività di didattica dei singoli atenei, dalla solidità della struttura dei docenti alla capacità di garantire puntualità negli studi, collegamenti internazionali ed esperienze lavorative durante il corso di laurea. Gli ultimi tre misurano invece i risultati della ricerca, in tre macro-ambiti esaminati dall’Agenzia nazionale di valutazione: la qualità della produzione scientifica, quella dei dottorati e la capacità dei dipartimenti di ottenere finanziamenti esterni per i loro progetti. Su questi ultimi aspetti l’Anvur ha diffuso nelle scorse settimane i primi dati generali del ciclo 2011-2014 di valutazione della qualità della ricerca (Vqr), ma i ranking utilizzano i dati di dettaglio che saranno diffusi solo nei prossimi mesi dall’agenzia. Per questa ragione, i tre indicatori si riferiscono inevitabilmente agli esiti della Vqr precedente, relativa al 2004-2010.
Gianni Trovati – Il Sole 24 Ore sanità – 2 gennaio 2017