Sei sulla pagina 1di 16

Estratto da “La Civetta della Liguria d’Occidente”

Anno XV – N. 1/2011 bimestrale glocal del


Circolo degli Inquieti (www.circoloinquieti.it)

Massimiliano Vaira

L’università
italiana è davvero
inadeguata?

Gennaio 2011
L’università italiana è davvero
inadeguata?
Si discute a senso unico sul fatto che ci posizioniamo male nei
rankings internazionali, derivandone automaticamente un
giudizio sulla qualità dell’università italiana negativo.
Questi giudizi ignorano altri dati che raccontano una storia
diversa.
Per chi ha voglia di seguirmi, prometto, dopo qualche
considerazione sui rankings, qualche interessante sorpresa.

Contenuti
1. Università: dibattito poco informato
2. Critiche ai World University Rankings
• European University Association
• Dibattito internazionale
3. Siamo davvero inadeguati?
• Formazione
• Ricerca
4. I veri problemi dell’Università italiana
• Frenesia riformista
• Bassi finanziamenti

• Mancanza di valutazione

Note sull’Autore

Fonte immagine copertina: http://loriscosta.ilcannocchiale.it


Tag: circolo degli inquieti, inquietudine, università, rankings, indicatori,
problemi università.

2
1. Università: dibattito poco informato

Puntuali da sette anni a questa parte arrivano i


rankings mondiali delle università e altrettanto puntuali
arrivano i cori da tragedia greca e gli stracciamenti di vesti
riguardo agli scarsi risultati ottenuti dalle nostre università
in termini di posizionamento nelle classifiche.
A costo di risultare antipatico, dico fin da subito che
il dibattito italiano sui temi universitari è quanto di più
provinciale, disinformato, disiformante e opinionistico si
possa avere.
Esempio: il ministro Gelmini, presentando il suo
disegno riforma, ha dichiarato che in Italia vi sono oltre
5.500 corsi di studio e che ciò non ha corrispettivo in nessun
paese europeo.
Tutti ad applaudire e a sottoscrivere; ma nessuno ha
detto che i corsi di studio in Francia sono 15.000, in
Germania sono quasi 10.000 (circa 7.000 quelli solo
universitari), in Gran Bretagna oltre 10.000. Qualcuno dei
nostri “opinionisti” ha opposto questi dati al ministro?
Lo stesso vale per il dibattito sui rankings: si discute
a senso unico sul fatto che ci posizioniamo male,
derivandone automaticamente un giudizio sulla qualità
dell’università italiana pessimo.
Questi giudizi ignorano altri dati che raccontano una
storia diversa. Per chi ha voglia di seguirmi, prometto
qualche interessante sorpresa, ma prima qualche
considerazione sulla costruzione dei rankings.

3
2. Critiche ai World University Rankings

Se si leggono con attenzione gli indicatori con cui i


vari rankings vengono costruiti si noterà come la variabilità
sia elevata tanto negli indicatori, quanto nei pesi attribuiti a
ciascuno.
Non è cosa irrilevante, dato che a indicatori e pesi
diversi corrispondono risultati diversi: a seconda di cosa i
misura e come lo si misura compaiono e scompaiono
istituzioni; in un ranking un’università ha un posto, in un
altro uno differente, in un altro ancora proprio non c’è.
Questo dovrebbe far riflettere sulla pretesa e presunta
oggettività delle costruzioni dei rankings e sull’ingenua
lettura che se ne dà.
E infatti c’è una specie di guerra in corso tra i diversi
produttori delle classifiche. L’”oggettività” non è solo una
costruzione sociale, ma è un fatto politico. Vale a dire,
scegliere un indicatore invece di un altro si fonda su una
certa visione politica di che cosa dovrebbe essere
un’università, il che, come ogni visione e scelta politica, non
è affatto neutrale, tecnica, oggettiva.

European University Association

Se n’è accorta
anche l’Europa tramite
l’European University
Association che giudica
non del tutto affidabili e
adeguati quei rankings e si sta muovendo per predisporre un
contro-ranking europeo [http://www.eua.be/News/09-01-
29/EUA_launches_rankings_working_group.aspx].

4
Dibattito internazionale

C’è poi un grande dibattito internazionale su


indicatori e pesi, che sono oggetto di critiche. Un dibattito
che coinvolge in primo luogo gli studiosi dell’istruzione
superiore di tutto il mondo. Americani, australiani, inglesi,
tedeschi, francesi e anche italiani hanno prodotto
approfondite analisi che dimostrano non solo la politicità di
quegli indicatori, ma spesso anche la fallacia e
l’inadeguatezza. La critica che questi studi rivolgono ai
rankings e al modo in cui sono costruiti possono essere così
riassunte:

1. riciclano e riproducono il vecchio ordine gerarchico


basato sulla reputazione. La reputazione si basa
largamente sulla rappresentazione delle istituzione di
élite come di per sé eccellenti. Di conseguenza i
rankings sono viziati da questa visione che di fatto
pre-definisce ciò che l’eccellenza dovrebbe essere,
anziché misurarla;
2. i rankings utilizzano un deficit model per costruire le
classifiche, vale a dire quantificano il livello di
“inferiorità” e di distanza delle varie istituzioni, dalle
istituzioni pre-definite eccellenti (Harvard, Princeton,
Cambridge, Oxford). Ciò produce grandi margini di
differenza in prossimità del vertice e scarsa
differenza nello strato medio e medio-basso della
classifica;
3. una parte non indifferente delle valutazioni è data
dalla rappresentazione che un numero relativamente
ridotto di accademici intervistati danno delle varie

5
istituzioni; tuttavia questi attori non possono avere che
un’idea vaga e generale della qualità delle attività
svolte in ciascuna istituzione e in ciascuna loro
articolazione su cui esprimono i loro giudizi. Di
conseguenza, spesso queste valutazioni si fondano su
un’immagine ricevuta e piuttosto tradizionale delle
istituzioni;
4. si fondano su un’idea di conoscenza tradizionale
(disciplinare, prevalentemente teorica) che esclude
altri tipi di conoscenza (interdisciplinare,
multidisciplinare, applicata) e sono language-biased,
cioè escludono tutta la produzione scientifica
prodotta in lingue diverse dall’inglese;
5. sottostimano il ruolo economico, sociale e culturale
delle istituzioni universitarie diverse per modello, per
tipo di conoscenza prodotta e trasmessa e per tipo di
mission rispetto a quelle considerate dai rankings;
6. usano una metodologia definita “pesa e somma” con
cui si valutano le diverse dimensioni considerate e
poi si fa la somma dei punteggi. Una metodologia
tanto semplice quanto fuorviante rispetto a ciò che
vorrebbe misurare. La mera somma aritmetica di
punteggi nasconde differenze interne a livello delle
articolazioni di ateneo (es.: tra dipartimenti, tra corsi
di studio, ecc.) spesso molto forti.
Questa aggregazione fonde insieme indicatori di
input, output e processo come se fossero la stessa
cosa, costruendo un indicatore totale di qualità
pseudo-scientifico;
Il fatto di usare punteggi aggregati come indicatore
totale di eccellenza è fuorviante perché enfatizza e
ingigantisce differenze minime e marginali; ad

6
esempio: che differenza ci può essere tra un’istituzione
collocata al 10° posto e una al 17°? Gli studi hanno
dimostrato che le diverse posizioni in classifica si
fondano su differenze statisticamente non
significative;
7. evidenze empiriche mostrano che i rankings producono
sulle istituzioni effetti disfunzionali e perversi. Esse
sono spinte a migliorare la loro posizione nelle
classifiche attraverso strategie manipolative anziché
attraverso processi di miglioramento delle attività;

Vi è poi il problema degli indicatori impiegati per


formare le classifiche. Non posso qui entrare nei dettagli di
analisi complicate, ma mi limito a fare tre semplici esempi:
1) il ranking ARWU usa l’indicatore dei premi Nobel e
Fields medal che si sono formati in una data istituzione
attribuendogli un 10% di peso contro il 20% attribuito
agli stessi premi che sono impiegati attualmente in una
data istituzione. Qualcuno può chiedersi: ma è più
importante dove un premio Nobel si è formato o dov’è
impiegato?
2) Il ranking del Times usa un indicatore connesso
all’attrazione di risorse private da parte delle
università. Ora è chiaro che questo indicatore funziona
in modo formidabile per gli USA.
Non funziona per niente per l’Italia dove la struttura
industriale è fatta prevalentemente di piccole
imprese in settori tradizionali e labour intensive
anziché knowledge intensive, ben poco interessate a
finanziare l’università. È colpa dell’università italiana
se le cose stanno così?

7
Le imprese italiane sono ultime per spesa in ricerca e sviluppo e hanno scarsa
propensione all’innovazione.

8
3) sempre il THES usa come indicatore la presenza o
meno nel sistema di istituzioni definite flagship
(ammiraglie). Queste istituzioni sono quelle altamente
selettive ed elitarie (ad esempio: alcune Grandes
Écoles francesi come l’ENA o l’École Politechnique,
Oxford, Cambridge e il sistema federato dei college
londinesi, in Inghileterra, l’Ivy League negli USA).
In Italia, a parte le piccole eccezioni della Normale e
del S. Anna di Pisa, dello IUS di Pavia e della Scuola
Superiore di Catania (dipendenti dalle rispettive
università), non ci sono istituzioni di quel tipo. Si può
discutere se sia il caso o meno di istituire questo tipo di
università nel nostro sistema, ma si dovrebbe anche
discutere se questo indicatore abbia o meno senso.

3. Siamo davvero inadeguati?

Ed eccoci alle sorprese, sia sulla formazione sia sulla ricerca

Formazione.

Nel ranking THES 2008 (stranamente non negli ultimi


due) c’era una parte dedicata alla valutazione dei sistemi di
istruzione superiore posta in questi termini: dove uno
studente può attendersi di ricevere una formazione di buon
livello?
L’Italia si pone al 3° posto nel mondo e al 1° in
Europa. Lo studente italiano è quello che
ha maggiori probabilità di studiare in una buona istituzione e
quindi di ricevere un’istruzione e una preparazione
altrettanto buona a livello mondiale ed europeo.

9
Come sistema universitario nel suo complesso, in
termini di qualità, il nostro si colloca al 12° posto nel
mondo.
Un po’ paradossale non trovate? non abbiamo
istituzioni nelle prime 200 ma siamo al top per la qualità
della formazione. Detto per inciso, una recentissima
pubblicazione dell’UNESCO sostiene che il sistema di
istruzione superiore americano, le cui istituzioni di vertice
egemonizzano i ranking, risulta essere
di bassa qualità quanto a
formazione erogata []
Il motivo è che le
istituzioni americane hanno un
certo numero di centri di
ricerca ben finanziati ed
efficienti, mentre sul lato
della didattica le cose non
funzionano così bene come si
pensa e si è indotti a
concludere da una lettura
acritica dei rankings.
Tornando all’Italia, il
http://www.unesco.org/new/en/natural-
sciences/science- paradosso di cui sopra, si
technology/prospective-studies/unesco- spiega in base a due fattori.
science-report/unesco-science-report-
2010/ Primo: il nostro non è
un sistema differenziato e stratificato in cui un certo
numero di istituzioni eccellenti vengono individuate,
come ad esempio in USA, Gran Bretagna e Francia (se
guardate quali istituzioni di questi paesi occupano le parti
alte dei rankings vi accorgerete che sono quelle selettive e
di élite) e non ha istituzioni pubbliche che reclutano gli
studenti attraverso la selezione ( a parte i casi di Pisa, Pavia
e Catania).

10
Secondo: il finanziamento al sistema non si fonda
sulla valutazione delle performance delle università ma è
tutt’ora ancorato al modello della spesa storica degli
atenei.
Un finanziamento differenziato sulla base della
valutazione individua se non l’eccellenza l’alta qualità di
un’istituzione. Noi su questo siamo in alto mare. Colpa
dell’università o della politica che vuol fare “riforme
epocali” a costo zero, anzi definanziando?
Giusto per dare l’idea: tra il 2000 e il 2007 la spesa
pubblica per l’istruzione superiore in Gran Bretagna è
cresciuta del 50%, in Italia del 12%. Sfido che le istituzioni
britanniche occupano posizioni elevate.
E permettetemi un po’ di polemica: ma la Gelmini
pensa davvero che con la trasformazione dei 15 atenei
virtuali (notate che la Gran Bretagna ne ha solo 1, la Open
University di Birmingham, pubblica), di cui una decina
accreditati dalla Moratti, e del CEPU (!!!) in atenei reali
privati possa innalzare il livello qualitativo dell’università
italiana?

http://rassegnastampa.unipi.it/rassegna/archivio/2010/11/18SI94007.PDF

11
Ricerca.

Il CNRS francese sulla base della banca dati Scopus


[http://www.scimagojr.com/countryrank.php] ci racconta
che nonostante le carenze finanziarie, di
infrastruttura e di personale, l’output della ricerca
italiana «in termini di pubblicazioni non solo è una delle
più prolifiche al mondo, ma anche altamente riconosciuta
i molti campi». Tradotto in cifre:

1) la ricerca italiana tra il 1998 e il 2008 ha prodotto


371.205 pubblicazioni scientifiche, piazzandosi
all’ottavo posto nel mondo e al quarto in Europa;
2) le pubblicazioni italiane si collocano al settimo posto nel
mondo come numero di citazioni (oltre 4 milioni di
citazioni);
3) la ricerca risulta essere eccellente nei campi della
medicina, matematica, fisica, biologia molecolare e
genetica, scienze spaziali, neuroscienze e scienze
del comportamento;
4) i giovani ricercatori italiani si piazzano al secondo posto
in termini di successo nell’ottenimento dei
finanziamenti del Consiglio Europeo della Ricerca.
5) Nel 2007 delle oltre 45.000 pubblicazioni prodotte il 40%
sono frutto di progetti internazionali.

Di paradosso in paradosso: poco finanziati, in posizioni


bassissime nei rankings, ma produttivi alla grande. Tenete
conto che i paesi che ci precedono in termini di
pubblicazioni e citazioni sono quelli che hanno un

12
finanziamento (pubblico e privato) dell’università e della
sua ricerca nettamente più alto del nostro.

Università inefficiente? L'investimento in R&S è basso e non è compensato dalla


spesa per R&S delle imprese (ultima posizione nella classifica OCSE). Ciò
nonostante, l'Italia mantiene l'ottava posizione mondiale come numero di
pubblicazioni scientifiche e la settima per le citazioni. La vera emergenza è il
sottofinanziamento.

Ma non viene il sospetto che qualcosa non funzioni in


questi rankings e nella rappresentazione dell’università
italiana che forniscono?

4. I veri problemi dell’Università italiana

Quali sono i veri problemi dell’università italiana?


Certamente ce ne sono e di rilevanti al suo interno, ma ce

13
ne sono tre che ritengo fondamentali e che riguardano in
primis la politica: la frenesia riformistica, il basso
finanziamento e mancanza di valutazione.

Frenesia riformista

Una frenesia riformista per apporre il proprio nome


in capo a una qualche pretesa riforma epocale. Anziché
sostenere, migliorare, innovare, si preferisce sfasciare tutto
e ricominciare ogni volta daccapo;

Basso finanziamento

Il finanziamento più basso dei paesi sviluppati e


colpito negli ultimi anni da tagli indiscriminati e insensati.
Le rilevazioni statistiche
dell’OECD evidenziano il
cronico
sottofinanziamento del
sistema universitario
italiano.
La spesa italiana per
formazione universitaria,
come percentuale del PIL,
vede l’Italia al trentesimo
posto. Per rapporto
docenti/studenti, l’Italia si
classifica ventiseiesima.
Siamo ultimi per
percentuale di studenti che
beneficiano di sostegni Rapporto 2010 sulla situazione
economici per il diritto allo dell’istruzione nei paesi OECD:
http://www.oecd.org/edu/eag2010
studio. In Francia,

14
Germania e Inghilterra stanno puntando sull’eccellenza,
mettendoci soldi extra (Francia circa 10 miliardi e Germania
circa 2 miliardi nel 2005 e 2,7 miliardi quest’anno) o
aumentando il finanziamento soprattutto alla ricerca
(Inghilterra: + 7,7% pari a 1,9 miliardi di euro per la ricerca,
nel 2009) [F. Corradi Alla ricerca dell’eccellenza, Milano LED
Edizioni, 2009];

Mancanza di valutazione

Manca completamente una reale valutazione delle


performance dell’università da cui far discendere il
finanziamento. Le strutture ci sono, le attività che svolgono
pure, le valutazioni anche. Quel che manca è una politica
che usi concretamente tutto ciò. Invece, si continuano a
cambiare le agenzie di valutazione (dal 1996 a oggi abbiamo
cambiato 3 volte), impedendo di fatto che esse facciano
quel che devono fare e di usare i risultati per orientare il
finanziamento.

Concludendo: non voglio dire che l’università non


abbia responsabilità o che i rankings sono una bufala totale.
Non tenere conto però della parzialità e della discutibilità di
questi rankings esaltandoli come prodotti oggettivi,
appiattendoci acriticamente sulle rappresentazioni che
veicolano, dimostra non l’inadeguatezza dell’università
italiana, ma quella del dibattito su essa. I problemi nella e
dell’università ci sono eccome, ma facciamo attenzione a
non mirare nella direzione e al bersaglio sbagliati.

15
Articoli correlati:

“Ranking, un fenomeno di vecchia data”, Raffaella Cornacchini


http://www.rivistauniversitas.it/Articoli.aspx?IDC=1321

“The Italian Paradox”, CNRS International magazine, n.15/10/2009


http://www2.cnrs.fr/en/1588.htm

“Le omissioni di Quagliariello”, Massimiliano Vaira, Il Fatto Quotidiano,


24/12/2010, pag.18
http://www.scribd.com/doc/45869812/ILFT20101224

Massimiliano Vaira insegna Sociologia dei Processi


Culturali e Sociologia dell’Educazione e Politiche
dell’Istruzione presso la Facoltà di Scienze
Politiche dell’Università degli Studi di Pavia.
È membro del Centro Interdipartimentale di
Ricerche e Studi sui Sistemi di Istruzione Superiore
(CIRSIS) della stessa Università, del Consortium of
Higher Education Researchers (CHER), della Sezione
Educazione (di cui è membro del comitato
scientifico) e della Sezione Economia, Lavoro,
Organizzazione dell’Associazione Italiana di
Sociologia (AIS).

16