Sei sulla pagina 1di 173

 

                   
UNIVERSITÀ  DEGLI  STUDI  DI  ROMA  “LA  SAPIENZA”  -­‐‑  FACOLTÀ  DI  FILOSOFIA  
DIPARTIMENTO  DI  RICERCHE  STORICO-­‐‑FILOSOFICHE  E  PEDAGOGICHE  
DOTTORATO  DI  RICERCA  CONSORTILE  IN  PEDAGOGIA  SPERIMENTALE  
 
 
 
 
 
 
 
IL  VALORE  AGGIUNTO  IN  EDUCAZIONE  
 
UN’INDAGINE  
NELLA  SCUOLA  PRIMARIA  
 

 
 
 
Cristiano  Corsini  
 
 
 
 
 
 
 
 
 
 
 
 
 

 
 
 
 

 
 
 
 

Copyright  ©  2008  Edizioni  Nuova  Cultura  –  Roma  


ISBN  9788861342521  
 
 
 
 
 
 
 
 
 
 
 
 
A  Laura  
perché  senza  di  lei    non  avrei  terminato  il  lavoro.  
A  Simona  e  Alfredo  
perché  senza  di  loro  non  l’avrei  iniziato.  
 
 

Premessa    

Il  valore  da  aggiungere  


di  PIETRO  LUCISANO  
 
Chi   passa   la   vita   per   mestiere   e   per   passione   nel   cercare   di   aiutare   i  
giovani  a  crescere  non  può  non  cogliere  i  molti  segnali  di  crisi  che  attra-­‐‑
versano   la   scuola.   In   questi   ultimi   anni   sembra   che   sia   diventato   tutto  
più  difficile  e  i  risultati  che  si  ottengono  sono  di  gran  lunga  inferiori  allo  
sforzo  che  si  compie.  È  facile  rendersi  conto  poi  di  come  il  livello  del  di-­‐‑
battito   pubblico   sulla   scuola   sia   sceso   di   qualità   e   viva   nei   discorsi   dei  
rappresentanti   istituzionali,   in   quelli   degli   inesorabili   giornalisti   che  
commentano  e  poi  di  conseguenza  tra  la  gente  tra  luoghi  comuni  e  ten-­‐‑
tazioni  nostalgico  reazionarie,  come  se  si  potesse  risolvere  una  crisi  che  
va  ben  oltre  la  scuola  con  ricette  del  tipo  grembiulini  e  voto  in  condotta.  
La  ricerca  educativa  e  la  sperimentazione  sono  quasi  del  tutto  scompar-­‐‑
se,   chi   governa   appare   occupato   nelle   due   convergenti   direzioni   di   far  
prediche  e  di  aumentare  le  richieste  di  adempimenti  formali  e  di  tagliare  
risorse,   con   una   certa   equità,   a   tutti   i   luoghi   in   cui   si   tenta   di   costruire  
conoscenza:  scuola,  università  e  ricerca.  Dicevo  che  la  ricerca  educativa  è  
quasi   del   tutto   scomparsa   e   se   si   eccettua   il   contributo   che   viene  
dall’adesione   a   indagini   internazionali   la   conoscenza   che   possediamo  
dei  processi  educativi  si  va  affievolendo.  Esistono  sì  dei  lavori  condotti  a  
livello   nazionale   dall’INVALSI,   ma   in   modo   così   dilettantistico   e   con  
una   tale   fretta   di   correre   in   soccorso   delle   ragioni   di   chi   vuole   operare  
tagli  da  non  rendere  conto  della  complessità  dei  problemi.  
La   mattina   si   entra   in   classe   e   ci   si   trova   di   fronte   a   una   ventina   di  
bambini,  adolescenti,  ragazzi  diversi  e  il  nostro  compito  è  quello  di  farli  
studiare,  etimologicamente  di  farli  appassionare,  agli  argomenti  che  pre-­‐‑
sentiamo  loro.  I  nostri  allievi  sono  distratti,  vivono  in  una  società  in  cui  
l’informazione  si  è  trasformata  in  un  continuo  e  fastidioso  rumore  di  sot-­‐‑
tofondo,   in   cui   la   cultura   è   sbeffeggiata,   in   cui   nei   dibattiti   pubblici  
l’insulto   prevale   sull’argomento   e   non   riescono   a   vedere   neanche   più  
quella  utilità  volgare  che  gli  allievi  di  Don  Milani  rimproveravano  ai  fi-­‐‑
gli  dei  ricchi  (“il  diploma  è  quattrini”).    
Eppure  l’educazione  rimane  una  possibilità  importante,  non  solo  per  
gli  individui,  ma  per  la  società  nel  suo  complesso.  Per  questo  vale  la  pe-­‐‑
na  fermarsi  a  ragionarci  sopra,  e  se  per  ragionarci  è  necessario  utilizzare  
strumenti  complessi  non  bisogna  avere   paura   di   farlo,   purché   di   questi  
VIII   Premessa  

strumenti   riusciamo   a   impadronirci,   a   farli   nostri,   e   a   usarli   con   intelli-­‐‑


genza,  con  la  consapevolezza  che  le  decisioni  le  dobbiamo  assumere  noi,  
a   partire   dalla   nostra   esperienza   e   considerando  tutti  quegli  aspetti  che  
sono   parte   integrante   di   una   decisione   educativa   che   i   nostri   strumenti  
non  riescono  a  cogliere.  
La  domanda  di  partenza  delle  ricerche  sul  “valore  aggiunto”  è  in  che  
misura  la  scuola  riesce  a  far  crescere  i  suoi  allievi  in  conoscenza,  in  altre  
parole  in  che  misura  la  scuola  è  efficace  e  raggiunge  i  suoi  obiettivi.  Det-­‐‑
to   così   appare   semplice,   ma   una   domanda   di   questo   tipo   richiede   tanti  
chiarimenti:   quali   sono   gli   obiettivi   della   scuola?   Far   memorizzare   nozioni?  
Quali?   Quante?   A   tutti   nello   stesso   modo?   Quelle   essenziali?   E   quali   sono  
quelle  essenziali?  Sviluppare  il  rispetto  dell’autorità  (che  intendiamo  per  autori-­‐‑
tà?),   sviluppare   il   senso   critico,   far   emergere   da   ciascuno   le   proprie   passioni,  
abituare   al   lavoro   comune,   a   essere   solidali,   a   competere?   Chiunque   esamini  
criticamente  indirizzi,  curricula,  programmi,  non  può  che  ricavare  l’idea  
che  si  tratti  di  tracce  vaghe  sulle  quali  l’insegnante  deve  innestare  il  suo  
lavoro   a   partire   in   primo   luogo   dalla   soggettività   dei   ragazzi   che   ha   di  
fronte.  
Tuttavia,   è   necessario   poter   confrontare   il   proprio   lavoro   con   quello  
dei  colleghi  e  fare  qualche  ragionamento  sul  funzionamento  del  sistema  
nel  suo  complesso.  Per  farlo  siamo  costretti  a  ricorrere  a  alcune  semplifi-­‐‑
cazioni.  Così  nelle  ricerche  sul  valore  aggiunto  per  semplificare  si  decide  
di  considerare  un  aspetto  specifico  del  lavoro  scolastico  e  assumerlo  co-­‐‑
me  criterio.  Nella  ricerca  di  Corsini  (come  nella  maggior  parte  delle  in-­‐‑
dagini  su  questo  fenomeno),  si  è  scelto  di  considerare  le  abilità  linguisti-­‐‑
che.   Ci   chiediamo,   dunque,   (definite   in   modo   misurabile   alcune   abilità  
linguistiche  e  costruito  uno  strumento  di  misura  adeguato)  quali  siano  le  
scuole   o   le   classi   che   ottengono   in   questo   insegnamento   i   risultati   mi-­‐‑
gliori,   con   l’obiettivo   di   poter   individuare   buone   pratiche   di   lavoro   e  
quindi  di  poterle  far  conoscere  ai  colleghi.  
È   evidente   tuttavia   che   il   solo   esame   dei   risultati   a   una   prova   finale  
rischia  di  non  rendere  giustizia  alla  complessità  del  fenomeno.  Il  sempli-­‐‑
ce   confronto   su   una   prova   di   gruppi   di   studenti   provenienti   da   realtà  
molto  diverse  potrebbe  portarci  a  risultati  fuorvianti.  Gli  errori  in  questo  
caso  possono  essere  generati  sia  dal  modo  in  cui  è  stata  concepita  la  pro-­‐‑
va  sia  dalla  non  considerazione  delle  condizioni  di  partenza  degli  allievi.  
Erano   chiari   entrambi   i   problemi   ai   ragazzi   di   Barbiana   quando   scrive-­‐‑
vano  la  celebre  Lettera  alla  professoressa.  Il  primo,  abbiamo  detto,  riguarda  
le  caratteristiche  della  prova,  ciò  che  viene  chiesto,  che  ad  alcuni  potreb-­‐‑
be   risultare   più   familiare   e   ad   altri   meno   (oggi   esistono   procedure   che  
  Misurare  l’efficacia  scolastica     IX    

riescono   a   controllare   in   parte   queste   difficoltà).   Il   secondo   è   più   com-­‐‑


plesso:  se  diamo  la  stessa  alimentazione  a  un  gruppo  di  studenti  denu-­‐‑
triti  e  a  un  gruppo  di  studenti  in  perfetta  forma  e  poi  ci  fermiamo  a  con-­‐‑
siderare  solo  i  risultati  finali,  magari  dopo  un  intervallo  di  tempo  breve,  
risulterà   che   il   gruppo   degli   studenti   in   perfetta   forma   in   partenza   ha  
raggiunto  risultati  migliori.  E  questo  avverrebbe  comunque  anche  se  in-­‐‑
vece  di  dare  ai  due  gruppi  la  stessa  alimentazione  fornissimo  un’ottima  
alimentazione   ai   ragazzi   denutriti   e   una   alimentazione   appena   decente  
ai   ragazzi   in   perfetta   forma.   In   questo   secondo   caso   rischieremmo   di  
concludere  che  l’alimentazione  migliore  è  quella  data  ai  ragazzi  in  per-­‐‑
fetta  forma,  con  tutti  i  rischi  di  questa  conclusione,  il  principale  quello  di  
peggiorare  l’alimentazione  anche  ai  ragazzi  denutriti.  
La  ricerca  ha  assunto  due  strade,  la  prima  si  basa  sul  confronto  tra  la  
condizione  di  ingresso  e  la  condizione  di  uscita,  la  seconda  prova  a  con-­‐‑
siderare  da  che  cosa  è  determinata  la  condizione  di  ingresso  e  in  che  mi-­‐‑
sura  in  uscita  sono  stati  ridotti  gli  effetti  di  questa  condizione.  In  alcuni  
casi   si   è   poi   provato   a   utilizzare   un   approccio   che   tenga   conto   dei   due  
aspetti.  Questo  viene  illustrato  e  verificato  nel  lavoro  di  Corsini.    
Ci  sono  alcuni  lettori  frettolosi  che  di  fronte  a  un  giallo  impegnativo  
preferiscono   saltare   alle   ultime   pagine   e   cercare   di   sapere   subito   come  
finisce.  Così  ci  sono  alcuni  decisori  che  vorrebbero  che  la  ricerca  fornisse  
evidenze   per   le   decisioni   che   hanno   già   deciso   di   assumere.   Questo   at-­‐‑
teggiamento  comporta  rischi  notevoli.  In  alcuni  paesi  sulla  base  di  ricer-­‐‑
che  ancora  allo  stato  embrionale  hanno  deciso  di  stilare  classifiche  delle  
scuole  più  efficienti  e  di  renderle  pubbliche,  altri  si  aspettano  di  poter  ri-­‐‑
cavare   da   queste   ricerche   soluzioni   per   differenziare   i   contributi   alle  
scuole  e  gli  stipendi  agli  insegnanti.  Questi  atteggiamenti  poco  scientifici  
producono  danni  incredibili  e  rendono  assai  più  difficile  la  ricerca  stessa  
e  la  comprensione  dei  fenomeni  che  cerchiamo  di  studiare.  
Il  primo  aspetto  che  mi  interessa  mettere  in  luce,  e  che  emerge  dal  la-­‐‑
voro   di   Corsini,   è   che   non   ha   senso   considerare   il   valore   aggiunto   rife-­‐‑
rendolo  alla  Scuola  nel  suo  complesso,  i  risultati  in  termini  di  apprendi-­‐‑
mento  dipendono  dal  lavoro  che  si  svolge  nelle  classi  e  la  sola  conside-­‐‑
razione  del  valore  aggiunto  medio  di  una  scuola  non  aiuta  a  capire  che  
cosa  avviene  al  suo  interno.    
Il   secondo   aspetto   è   più   complesso   e   riguarda   le   classi.   Chi   ha   inse-­‐‑
gnato  sa  che  pur  essendo  lui  più  o  meno  la  stessa  persona  in  alcune  clas-­‐‑
si   riesce   a   ottenere   buoni   risultati,   in   altre   risultati   appena   sufficienti,   e  
non  c’è  un  insegnante  bravo  e  in  buona  fede  che  non  ricordi  almeno  una  
classe   in   cui   le   cose   siano   andate   particolarmente   male.   Dunque   c’è   un  
X   Premessa  

effetto   del   clima   di   classe   che   gioca   un   ruolo   importante   quasi   quanto  
quello   dell’insegnante.   Dunque   per   avere   dati   affidabili   bisognerebbe  
poter  condurre  ricerche  in  modo  continuo  per  diversi  anni.  Un  ulteriore  
problema   è   dato   dal   fatto   che   anche   il   valore   aggiunto   calcolato  
all’interno  di  una  classe  (sempre  ancorando  questa  operazione  a  dati  di  
campioni   più   ampi)   rimane   una   media.   Alcuni   studenti   aumentano   di  
valore,  altri  rimangono  stabili,  altri  ne  perdono.  
  Lasciando  i  lettori  frettolosi  e  i  politici  al  loro  devastante  lavoro,  ri-­‐‑
cercatori  e  insegnati  possono  trarre  da  queste  ricerche  indicazioni  molto  
utili.  Capire  nel  corso  di  un  anno  quali  studenti  acquistano  valore  e  quali  
ne   perdano   in   un   determinato   settore   di   conoscenza   infatti   può   essere  
estremamente  utile  per  cercare  rimedi.  Gli  strumenti  di  ricerca,  con  que-­‐‑
sto  atteggiamento,  diventano  lenti  che  ci  aiutano  a  vedere  meglio,  a  os-­‐‑
servare   mettendoci   un   po’   al   di   fuori   di   un   processo,   quello  
dell’insegnamento,  che  altrimenti  ci  coinvolge  troppo.  Avere  la  possibili-­‐‑
tà   di   discutere   con   i   colleghi   di   andamenti   diversi,   a   patto   di   non   tra-­‐‑
sformare   questo   in   una   gara   a   chi   è   più   bravo,   consente   di   apprendere  
nuove  soluzioni.  
  Il  nostro  Dottorato  di  ricerca  si  muove  in  questa  direzione  e  cerca  
di  stabilire  con  la  scuola  e  con  gli  insegnanti  un  lavoro  di  confronto  con-­‐‑
tinuo   con   la   consapevolezza   che   se   c’è   urgenza   di   soluzioni,   la   ricerca,  
anche  quando  non  fornisce  ricette,  è  già  di  per  sé,  un  percorso  verso  so-­‐‑
luzioni.  In  questa  prospettiva  vorrei  aggiungere  che  i  ringraziamenti  di  
Corsini  rendono  evidente  come  questo  libro  sia  frutto  di  un  grande  sfor-­‐‑
zo  di  collaborazione  di  istituzioni  e  persone  animate  dallo  stesso  deside-­‐‑
rio  di  capire  meglio  e  di  provare  a  risolvere  problemi.  È  questa  la  scuola  
che  è  ragionevole  desiderare.  
     
 

Introduzione  

 
Coloro  per  i  quali  le  condizioni  che  si  erano    
provviste  erano  adatte  riuscivano  a  imparare.  
Gli  altri  se  la  cavavano  come  potevano.  
 
John  Dewey,  Esperienza  e  educazione.  
 
 
Quanto  incide  la  scuola  sulla  preparazione  degli  studenti?    
Negli  anni  sessanta,  le  risposte  fornite  a  questa  domanda  da  lavori  di  
diversa  natura,  come  quelli  di  Corda  Costa,  Milani  (in  Italia),  Coleman,  
Jencks  (negli  USA),  hanno  rappresentato  uno  shock  per  quanti  confida-­‐‑
vano   nel   ruolo   che   l’efficacia   dell’intervento   educativo   avrebbe   giocato  
nel  processo  di  diminuzione  delle  disuguaglianze  sociali.  Gli  studi,  infat-­‐‑
ti,  rilevavano  la  persistenza  del  notevole  peso  esercitato  dai  fattori  ascrit-­‐‑
tivi  sugli  esiti  scolastici  degli  studenti:  scarsamente  efficace,  la  scuola  ri-­‐‑
sultava  decisamente  iniqua.  
Nel  corso  degli  anni,  sulla  base  di  una  notevole  evoluzione  metodolo-­‐‑
gica,  la  generazione  successiva  di  ricerche  ha  però  evidenziato  quanto  fat-­‐‑
tori  interni  agli  istituti,  riscontrati  al  livello  delle  classi  (ad  esempio  gli  in-­‐‑
segnanti),  incidessero  sia  sul  rendimento  sia  sui  progressi  degli  studenti,  
“aggiungendo   valore”   alla   loro   preparazione.   In   un   quadro   generale   an-­‐‑
cora  caratterizzato  da  una  forte  relazione  tra  rendimento  e  caratteristiche  
di  sfondo  degli  allievi,  la  sottolineatura  della  capacità  di  incidere  sul  ren-­‐‑
dimento  e  sui  progressi  degli  alunni  ha  rappresentato  una  svolta  rispetto  
al  pessimismo  ingenerato  dai  primi  studi.  Tale  svolta,  in  alcuni  paesi,  si  è  
legata   alla   scelta   di   incentrare   i   sistemi   di   valutazione   dell’operato   degli  
educatori   proprio   sull’impianto   metodologico   alla   base   di   molte   ricerche  
sull’efficacia  scolastica.    
 
Un  primo  tema  affrontato  dal  presente  lavoro  è  proprio  quello  relativo  
alla   maggiore   incidenza,   sul   rendimento   degli   studenti   e   sull’incremento  
delle   loro   conoscenze,   del   livello   classe   rispetto   al   livello   istituto.   Una   se-­‐‑
conda  problematica  presa  in  esame  è  quella  legata  all’utilizzo,  allo  scopo  di  
rendere   conto   del   lavoro   svolto   da   istituti   ed   educatori,   di   metodi   e   stru-­‐‑
menti  sviluppati  dalla  ricerca  sull’efficacia  scolastica.  Il  lavoro,  infine,  vuole  
XII   Introduzione  

rappresentare   un   contributo   nei   confronti   dell’analisi   di   possibili   iniquità  


nella  distribuzione  del  “valore  aggiunto”  all’interno  della  popolazione  stu-­‐‑
dentesca;  nella  convinzione  che  la  questione  dell’equità,  che  ha  determinato  
la  nascita  e  accompagnato  lo  sviluppo  della  ricerca  sull’efficacia  scolastica,  
non  possa  essere  messa  tra  parentesi.  Da  questo  punto  di  vista  va  ricono-­‐‑
sciuto   alle   due   generazioni   di   ricerche   sull’efficacia   scolastica   il   merito   di  
aver  minato,  sulla  base  dell’evidenza  empirica,  due  miti  particolarmente  in-­‐‑
sidiosi  per  chi  si  occupa  di  educazione:  se  i  lavori  di  Coleman  e  Jencks  han-­‐‑
no  messo  infatti  in  crisi  il  primo,  che  considera  la  scuola  un  “surrogato  di  
un  più  fondamentale  cambiamento  sociale”,  gli  studi  successivi  hanno  im-­‐‑
pedito   al   secondo,   che   sostiene   che   “una   possibile   strategia   per   l’egua-­‐‑
glianza  sociale  possa  permettersi  di  ignorare  la  scuola”,  di  sostituirlo,  come  
temevano,   nel   1977,   i   ricercatori   Karabel   e   Halsey   (cfr.   Benadusi   1984,   p.  
129).  
 
Introduzione  

Ringraziamenti  
 
Si  ringraziano  gli  studenti  e  il  personale  delle  scuole  romane  che  hanno  
partecipato  alla  ricerca:  
Ferrini,   Fratelli   Bandiera,   Graziosi,   Malaspina,   Montezemolo,   Pirandello,   Po-­‐‑
dere   Rosa,   Pollenza,   Principessa   Mafalda,   San   Cleto,   Santi   e   Calvino,  Solidati  
Tiburzi,  Toti.  
 
Desidero   ringraziare   la   prof.ssa   Maria   Lucia   Giovannini   e   il   prof.   Pietro  
Lucisano   per   l’aiuto   e   i   suggerimenti   offertimi   nel   corso   della   ricerca,   i  
docenti  del  Collegio  di  Dottorato,  in  particolare  il  prof.  Guido  Benvenuto  
e   il   prof.   Giorgio   Asquini,   per   i   frequenti   e   preziosi   consigli.   Un   ringra-­‐‑
ziamento,  per  le  feconde  occasioni  di  confronto,  va  alla  dottoressa  Clau-­‐‑
dia  Tordi,  che  sta  conducendo,  a  Bologna,  una  ricerca  parallela  a  questa.  
 
Ringrazio  inoltre,  per  il  supporto  scientifico  e  organizzativo:  
Manuela   Montebello,   Laura   Taffara,   Rosella   Ambrosino,   Cristiana   Assante,  
Paola   Battisti,   Pierpaolo   Brutti,   Gabriella   Catenacci,   Laura   Cavaliere,   Andrea  
Giacomantonio,  Valeria  Lebano,  Giangiacomo  Liguori,  Antonella  Lupi,  Valerio  
Natoli,  Alessandra  Patitucci,  Francesca  Pensa,  Eleonora  Renda,  Stefano  Scippo,  
Rosa  Sessa,  Anna  Tassi.  
 
Hanno   contribuito   alla   costruzione   delle   prove,   alle   somministrazioni   e  
all’inserimento  dei  dati:  
Antonella  Antonacci,  Luana  Arduini,  Riccardo  Bolo,  Elvira  Buonuomo,  Serena  
Cacciamani,   Ilaria   Carducci,   Elisabetta   Corsi,   Dominga   Criscuolo,   Sara  
Dell’Ariccia,  Elisa  De  Sanctis,  Angela  De  Simio,  Laura  Di  Stefano,  Elisabetta  
Fantin,  Federico  Feliciani,  Lorenzo  Gasparrini,  Francesco  Giovannelli,  Simona  
Iacozza,  Barbara  Iuliano,  Emanuela  Lulani,  Simona  Iacozza,  Federico  Massari-­‐‑
Luceri,  Mauro  Micci,  Silvia  Nicoletta,  Valentina  Pambianco,  Alessia  Pannun-­‐‑
zi,Tatiana   Pierguidi,   Francesca   Proietti,   Valeria   Ramenghi,   Maria   Vittoria  
Rocchi,   Angela   Saccoccio,   Lucia   Scaringella,   Anna   Sessa,   Silvia   Sisti,   Giorgia  
Sonnino,  Claudia  Stefanizzi,  Daniela  Tarabusi,  Paolo  Verticchio.  
 
 

Prima  Parte  
 
MISURARE  L’EFFICACIA  SCOLASTICA:  
TEORIE,  STORIA,  PROBLEMI  
 
 

Capitolo  primo  
Efficacia  scolastica  

Il  concetto  di  Efficacia  Scolastica  


 
Che  cosa  si  intende  quando  si  afferma  che  una  scuola  è  efficace?  La  “ca-­‐‑
pacità   di   una   scuola   di   raggiungere   i   propri   obiettivi”   rappresenta   uno  
dei   temi   più   complessi   della   ricerca   in   campo   educativo.   Il   concetto   di  
efficacia   scolastica   è   spesso   associato   alla   qualità   dell’educazione,   tale  
associazione   però   poco   aiuta   a   fare   chiarezza   se   teniamo   conto   che,   se-­‐‑
condo   Jaap   Scheerens,   “il   concetto   di   qualità   della   scuola   potrebbe   vin-­‐‑
cere   il   campionato   mondiale   per   la   frequenza   d’uso   di   termini   ritenuti  
indefinibili”1.    
In   considerazione   di   un   tale   rischio   quanto   a   possibilità   di   frainten-­‐‑
dimenti,   va   segnalato   come   la   School   Effectiveness   Research   (SER)   abbia  
desunto  le  sue  concettualizzazioni  dell’efficacia  dalla  sfera  economica  e  
da  approcci  di  ricerca  improntati  alla  teoria  delle  organizzazioni.  In  rife-­‐‑
rimento  a  tali  ambiti  disciplinari  la  SER  ha  assunto  come  prospettiva  ba-­‐‑
silare   per   la   sua   definizione   dell’efficacia   quella   del   “modello   razionale  
per  obiettivi”2  in  cui  efficacia  ed  efficienza  sono  i  criteri  centrali.  Secondo  
questa   prospettiva   il   concetto   di   efficacia   fa   riferimento   al   processo   di  
produzione,   ovvero   alla   trasformazione   di   input   (risorse   e   fattori   pro-­‐‑
duttivi)   in   output   (prodotti   finali).   L’efficacia   viene   definita   il   grado   in  
cui  viene  raggiunto  il  desiderato  livello  degli  output,  mentre  l’efficienza  
è  il  raggiungimento  di  tale  risultato  al  minor  costo  possibile.  
Van  Kesteren  definisce  così  l’efficacia  di  un’organizzazione:  
is   the   degree   to   which   an   organization,   on   the   basis   of   competent   manage-­‐‑
ment,  while  avoiding  unnecessary  exertion,  in  the  more  or  less  complex  environ-­‐‑
ment   in   which   it   operates,   manages   to   control   internal   organizational   and   envi-­‐‑

 
1   Scheerens   (2004),   trad.   italiana   su   www.istruzione.lombardia.it/uffici/areab/  
barzano/prospettive_qualita_scuola.pdf  .  
2  Altre  prospettive  sull’efficacia  elaborate  dalla  teoria  delle  organizzazioni  fanno  

riferimento  rispettivamente  al  “modello  di  sistema  aperto”  (in  cui  i  criteri  di  effica-­‐‑
cia  sono  rappresentati  dalla  crescita  e  dall’acquisizione  di  risorse),  al  “modello  delle  
relazioni  umane”  (che  ha  come  criteri  centrali  la  soddisfazione,  lo  sviluppo  profes-­‐‑
sionale  e  umano  dei  soggetti)  e  al  “modello  del  processo  interno  “  (che  ha  come  cri-­‐‑
teri  base  la  stabilità  e  il  controllo  dei  processi).  Cfr.  Scheerens  (2000b  e  2004),  Bosker  
e  Scheerens  (1997),  Quinn,  Rohrbaugh  (1983).  
4   Prima  Parte  

ronmental   conditions,   in   order   to   provide,   by   means   of   its   own   characteristics  


transformation  process,  the  outputs  expected  by  external  constituencies  (Van  Kes-­‐‑
teren,  1996,  p.  94)3.  
In   campo   educativo   gli   input   sono   rappresentati   da   alcune   caratteri-­‐‑
stiche   degli   studenti   (come   la   loro   preparazione   in   ingresso   o   il   loro   li-­‐‑
vello   socio   economico)   e   da   alcune   proprietà   dell’istituto   da   loro   fre-­‐‑
quentato  (come  l’esperienza  degli  insegnanti  o  la  presenza  di  una  biblio-­‐‑
teca  scolastica),  mentre  gli  output  sono  generalmente  definiti  sulla  base  
del  livello  di  conoscenze  degli  alunni  al  termine  del  processo  formativo.  
In  una  scuola  il  “processo  produttivo”,  la  trasformazione  degli  input  in  
output,  è  l’insieme  dei  metodi  d’istruzione,  delle  condizioni  strutturali  e  
organizzative,   delle   scelte   effettuate   dal   corpo   docente   e   dirigente   che  
rendono  possibile  per  gli  studenti  il  raggiungimento  del  desiderato  livel-­‐‑
lo   di   output.   Nella   ricerca   sull’efficacia   educativa,   all’output   si   può   af-­‐‑
fiancare   l’outcome   (che,   secondo   Cheng,   fa   riferimento   alla   riuscita   nel  
mercato  del  lavoro  o,  in  generale,  a  lungo  termine).  In  relazione  alla  scel-­‐‑
ta  di  output  a  breve  o  di  outcome  a  lungo  termine,  l’efficacia  viene  defi-­‐‑
nita  “tecnica”  o  “sociale”  (Cheng,  1993).    
La  definizione  di  efficacia  scolastica  fornita  nel  2000  da  Scheerens  ri-­‐‑
calca  in  maniera  evidente  quella  utilizzata  da  Van  Kesteren  in  riferimen-­‐‑
to  alle  organizzazioni  produttive:  
School  effectiveness  is  seen  as  the  degree  to  which  schools  achieve  their  goals,  
in  comparison  with  other  schools  that  are  “equalized”,  in  terms  of  student-­‐‑intake,  
through  manipulation  of  certain  conditions  by  the  school  itself  or  the  immediate  
school  context  (Scheerens,  2000b,  p.  20).  
Le   ricerche   sull’efficacia   scolastica   si   basano   dunque   su   un   modello  
causale,  su  uno  schema  apparentemente  semplice.  Tale  schema  consiste  
in   un   insieme   di   misure   degli   effetti   (A),   in   un   insieme   di   misure   delle  
condizioni   antecedenti   che   si   presume   siano   causa   degli   effetti   (B)   e   in  
una  funzione  che  specifichi  la  relazione  di  A  con  B.  Il  concetto  di  effica-­‐‑
cia  viene  così  suddiviso  in  area  degli  effetti  e  area  delle  cause  o  dei  mez-­‐‑
zi,  allo  scopo  di  comprendere  quali  “fattori  malleabili”  (cause)  produca-­‐‑
no  migliori  output.    
A  dispetto  della  semplicità  di  tale  schema,  però,  la  complessità  della  
realtà  educativa  si  prende  la  sua  rivincita  non  appena  si  passa  alla  scelta  
e  alla  definizione  operativa  degli  effetti  e  delle  loro  cause.    
Le  prime  complicazioni  sono  legate  alla  selezione  degli  effetti  da  mi-­‐‑
surare,  che  vanno  scelti  all’interno  del  complesso  insieme  di  abilità  e  co-­‐‑

 
3   Cit.  e  tradotto  in  inglese  da  Scheerens,  Bosker    (1997,  p.  34).  
Misurare  l’efficacia  scolastica   5  

noscenze  che  la  scuola  si  prefigge  di  trasmettere.  La  misurazione  dei  soli  
livelli  di  competenza  linguistica,  ad  esempio,  può  essere  sufficiente  a  de-­‐‑
finire   efficace   o   meno   una   scuola?   E,   anche   ampliando   la   gamma   delle  
materie   da   inserire   nella   misurazione   degli   effetti,   può   l’efficacia   scola-­‐‑
stica  essere  valutata  esclusivamente  sulla  base  delle  sole  componenti  co-­‐‑
gnitive  del  processo  formativo?    
La  scelta  delle  misure  di  output  è  in  primo  luogo  una  scelta  di  valori:  
come  ricordano  Fitz-­‐‑Gibbon  e  Kochan  (2000,  p.  268),  gli  indicatori    fanno  
riferimento  a  things  we  care  about  enough  to  measure.  La  SER  ha  tradizio-­‐‑
nalmente  privilegiato,  da  questo  punto  di  vista,  il  rendimento  nelle  abili-­‐‑
tà   di   base   (competenza   linguistica   e   matematica)   misurato   attraverso   la  
somministrazione   di   prove   standardizzate.   Per   ragioni   “economiche”,  
minore   spazio   hanno   avuto   altri   “effetti”   scolastici   (cognitivi,   affettivi,  
sociali4)   e   modalità   differenti   di   rilevazione,   sul   cui   limitato   utilizzo   ha  
inciso  anche  la  scarsa  affidabilità  attribuita  loro  dai  ricercatori.    
 
 
Misurare  gli  effetti  della  scuola:  il  valore  aggiunto    
 
Restando   agli   effetti   da   misurare   e   alla   loro   complessa   definizione,   va  
evidenziato  che  la  questione  fondamentale  con  la  quale  la  SER  si  è  con-­‐‑
frontata  è  legata  all’impossibilità  di  ritenere  le  scuole  uniche  responsabili  
del   rendimento   dei   propri   studenti.   Come   sottolineano   Lockheed   e  
Hanushek,  
Evaluation  of  efficiency  in  educational  system  is  complicated  by  the  fact  that  
students  not  only  learn  in  schools  but  also  in  their  home  and  playgrounds.  There-­‐‑
fore  the  appropriate  output  for  efficiency  considerations  is  that  portion  of  student  
growth  or  development  that  can  be  reasonably  attributed  to  specific  educational  
experiences:  in  other  words,  the  marginal  improvements  that  would  not  have  oc-­‐‑
curred  without  the  inputs  of  the  educational  system  (Lockheed,  Hanushek,  1994,  
p.199).  
Il   tentativo   di   quantificare   il   peso   della   scuola   sul   rendimento   degli  
studenti   rispetto   all’incidenza   delle   variabili   legate   allo   stato   sociale,  
economico   e   culturale   delle   loro   famiglie   ha   contraddistinto   sin  
dall’inizio   la   ricerca   sull’efficacia   scolastica.   Non   a   caso   i   ricercatori   del  
settore  concordano  nel  considerare  punto  di  partenza  della  SER  proprio  

 
4  A  dispetto  della  distinzione  proposta  da  Cheng  tra  output  e  outcome,  generalmen-­‐‑

te  i  ricercatori  SER,  anche  quando  definiscono  “outcome”  gli  esiti  dell’istruzione,  fanno  
riferimento  a  effetti  di  tipo  scolastico  e  a  breve  termine.  
6   Prima  Parte  

quei   lavori   (Coleman,   Plowden,   Jencks)   che,   dalla   seconda   metà   degli  
anni   ’60,   rintracciando   la   causa   prima   dei   livelli   di   rendimento   degli  
studenti  nel  loro  retroterra  socio-­‐‑economico,  evidenziavano  il  fallimento  
della  scuola  come  motore  di  equità  sociale.  Paradossalmente,  dunque,  la  
“prima  generazione”  di  studi  sull’efficacia  (e  sull’equità)  dell’istruzione  
attestava  l’inefficacia  (e  l’iniquità)  della  scuola.  
Se  il  rendimento  degli  studenti  dipende  soltanto  in  parte  dalla  scuola  
frequentata,  come  è  possibile  basarsi  su  di  esso  per  valutare  l’efficacia  di  
una  scuola?    La  risposta  che  la  SER  ha  dato  a  questa  domanda  si  è  basata  
sull’utilizzo   della   regressione   statistica   per   tenere   sotto   controllo  
l’incidenza  di  variabili  esterne  alla  scuola  sul  rendimento  degli  studenti.  
Secondo   questo   modello,   una   scuola   viene   definita   efficace   quando   il  
rendimento   dei   suoi   studenti  va   al   di   là   delle   aspettative   determinate   in  
base  a  caratteristiche  degli  studenti  stessi,  come  lo  stato  socio  economico  
o   il   livello   delle   loro   conoscenze   in   ingresso5.   Una   scuola   efficace   è   una  
scuola  che  aggiunge  valore  al  rendimento  dello  studente,  consentendogli  di  
ottenere  risultati  migliori  rispetto  a  quelli  previsti:  il  valore  aggiunto,  infatti,  è  
il   risultato   della   differenza   tra   il   punteggio   effettivamente   ottenuto   dallo  
studente  (dunque  il  livello  delle  sue  conoscenze  in  uscita)  e  il  punteggio  at-­‐‑
teso  (determinato  in  base  all’andamento  di  studenti  con  lo  stesso  rendimen-­‐‑
to  “in  entrata”  e  le  stesse  caratteristiche  socio-­‐‑economiche).    
Un  istituto  efficace  è  un  istituto  che  ottiene  misure  del  valore  aggiun-­‐‑
to  (aggregate  a  livello  di  scuola)  significativamente  migliori  rispetto  agli  
altri.   Si   tratta   di   una   definizione   inevitabilmente   relativa   dell’efficacia  
scolastica:   una   scuola   non   viene   definita   efficace   (o   inefficace)   in   senso  
assoluto,   ma   soltanto   più   o   meno   efficace   rispetto   alle   altre   scuole   che  
hanno  preso  parte  alla  ricerca.  

 
 Secondo  Postlethwaite  e  Ross  (1992),  una  delle  prime  operazionalizzazioni  del  
5

concetto   di   efficacia   scolastica   come   differenza   tra   rendimento   osservato   e   rendi-­‐‑


mento  atteso  è  quella  proposta  da  Dyer  (1970),  che  però  non  inseriva  nel  modello  il  
rendimento  in  ingresso.  
Misurare  l’efficacia  scolastica   7  

Individuare  le  cause  


 
Altra  questione  spinosa  per  i  ricercatori  SER  è  quella  relativa  all’inclusione  
dei   processi   educativi   all’interno   dei   disegni   di   ricerca.   Come   sottolinea  
Scheerens,  l’obiettivo  della  SER  non  si  limita  all’individuazione  delle  scuole  
più  (o  meno)  efficaci:  
It   is   important   to   note   that   school   effectiveness   is   a   causal   concept   [...].   In  
school   effectiveness   research   not   only   are   differences   in   overall   performance   as-­‐‑
sessed,  but  additional  question  of  causality  is  raised:  which  school  characteristics  
lead   to   relatively   higher   performance,   when   the   characteristics   of   the   student  
populations  are  otherwise  constant?  (Scheerens,  2000b,  p.  20).  
 
L’obiettivo   di   individuare   i   fattori   in   grado   di   accrescere   l’efficacia  
scolastica  è  stato  sistematicamente  perseguito,  dagli  anni  ’70  in  poi,  dalla  
“seconda   generazione”   di   studi   SER.   I   lavori   di   Coleman,   Plowden   e  
Jencks   si   erano   infatti   limitati   allo   schema   “input-­‐‑output”,   ovvero   al  
semplice  confronto  tra  i  “prodotti”  scolastici  tenuto  conto  delle  risorse  in  
entrata.    
L’introduzione   delle   variabili   relative   ai   processi   ha   complicato   non  
poco  il  lavoro  dei  ricercatori.  In  primo  luogo  la  misurazione  (e  la  scelta)  
di  concetti  tanto  complessi  come  quelli  di  leadership  educativa,  di  disci-­‐‑
plina  scolastica  o  di  aspettative  sul  rendimento  degli  studenti,  è  impresa  
ardua   almeno   quanto   quella   delle   variabili   di   input   e   di   output.   In   se-­‐‑
condo  luogo  si  tratta  di  operazioni  che  hanno  fatto  lievitare  notevolmen-­‐‑
te,   in   termini   di   tempo   e   di   risorse,   il   costo   degli   studi   SER.   A   dispetto  
delle  complicazioni  e  dei  costi,  la  dimensione  causale  del  concetto  di  ef-­‐‑
ficacia  scolastica  rappresenta  un  aspetto  primario  nelle  ricerche  SER,  che  
non  possono  certo  rinunciare  all’obiettivo  di  apportare  evidenza  empiri-­‐‑
ca  su  quel  che  “funziona”  in  una  scuola.  
Come  sintetizza  Scheerens  nel  suo  “modello  integrato”  (figura  1)  nel  
corso  degli  anni  il  tentativo  di  individuare  le  “cause”  dell’efficacia  scola-­‐‑
stica  ha  portato  i  ricercatori  a  gettare  lo  sguardo  non  solo  dentro  le  scuo-­‐‑
le  e  le  classi,  ma  anche  fuori  di  esse,  con  riferimenti  alla  dimensione  con-­‐‑
testuale  (politico-­‐‑amministrativa  e  socio-­‐‑culturale)  nella  quale  gli  istituti  
sono  inseriti.  
 
 
8   Prima  Parte  

Figura  n.  1.  Scheerens,  Modello  Integrato  dell’Efficacia  Scolastica6.  


  CONTESTO  
-­‐‑Fattori  di  stimolo  dell’apprendimento  ai  livelli  amministrativi  più  elevati.  
 
-­‐‑Grado  di  libertà  di  scelta  degli  istituti  da  parte  degli  utenti.  
  -­‐‑Variabili   esplicative   del   contesto   (ampiezza   della   scuola,   composizione   del   corpo  
  studentesco,  categoria  di  scuola,  collocazione  della  stessa  in  contesti  urbani  o  rurali).  
 
 
 
 
  PROCESSI  
   
  INPUT     LIVELLO  SCOLASTICO:  
  -­‐‑Esperienza   -­‐‑Grado  di  orientamento  della  scuola  
degli   insegnan-­‐‑  verso  l’apprendimento.  
 
ti.   -­‐‑Tipo  di  leadership  educativa.  
  -­‐‑Spesa   procapi-­‐‑ -­‐‑Consenso   e   grado   di   cooperazione  
  te.     degli   insegnanti   nella   pianificazione  
-­‐‑Supporto   dei   delle  attività.   OUTPUT  
genitori.   -­‐‑Qualità   del   curriculum   in   termini   di   Rendimento    
contenuti  e  struttura  formale.   degli   studen-­‐‑
-­‐‑Clima  della  scuola.   ti,    
-­‐‑Capacità  di  valutazione.   tenuto   conto  
  di:  
-­‐‑Livello   di  
rendimento  
pregresso.  
-­‐‑Intelligenza.  
-­‐‑Stato   so-­‐‑
LIVELLO  di  CLASSE:   cioeconomi-­‐‑
-­‐‑Tempo  dedicato  all’apprendimento.   co.  
-­‐‑Insegnamento  strutturato.  
-­‐‑Opportunità  di  apprendimento.  
-­‐‑Livello   delle   aspettative   circa   i   pro-­‐‑
gressi  degli  studenti.  
-­‐‑Livello   di   valutazione   e   monitoraggio  
del  progresso  degli  studenti.  
-­‐‑Rinforzo.    

 
6  Scheerens  (1990),  p.  68.  
Misurare  l’efficacia  scolastica   9  

L’efficacia  scolastica  tra  ricerca  e  accountability  


 
Alla  luce  di  quanto  detto,  tre  sono  le  dimensioni  fondamentali  del  con-­‐‑
cetto  di  efficacia  scolastica  emerse  dopo  quaranta  anni  di  ricerca:  il  nesso  
tra  cause  ed  effetti  (la  misurazione  dell’efficacia  scolastica  comporta  sia  
la  misurazione  degli  output,  o  effetti,  sia  l’individuazione  dei  processi,  o  
cause,   che   li   hanno   prodotti),   la   parzialità   (spetta   al   ricercatore   selezio-­‐‑
nare,  tra  la  vastissima  gamma  di  effetti  prodotti  dalla  scuola,  il  tipo  e  gli  
strumenti   di   misura   da   utilizzare)   e   la   relatività   (una   scuola   non   viene  
definita  efficace  in  senso  assoluto  ma  solo  in  relazione  ad  altre  scuole).  È  
sulla  base  di  tale  visione  dell’efficacia  scolastica  che  la  SER  è  stata  chia-­‐‑
mata   ad   affrontare   una   questione   di   crescente   importanza   nel   dibattito  
educativo,   legata   alla   necessità   (avvertita   con   maggiore   urgenza   dagli  
anni   ’80   in   poi)   per   i   sistemi   educativi   di   “rendere   conto”   (to   account)  
pubblicamente   della   qualità   del   servizio   offerto   dalle   scuole.   Tale   que-­‐‑
stione  contrassegna  la  ricerca  sull’efficacia  scolastica  da  oltre  un  venten-­‐‑
nio,  da  quando  cioè,  in  alcuni  paesi  occidentali,  sono  stati  avviati  proces-­‐‑
si  di  decentralizzazione  decisionale  (con  lo  spostamento  di  alcuni  poteri,  
in  campo  educativo,  verso  le  autorità  locali  e  gli  istituti)  che  hanno  com-­‐‑
portato   la   necessità,   per   lo   stato   come   per   i   genitori-­‐‑utenti,   di   ottenere  
informazioni   sulla   qualità   del   servizio   offerto   dalle   scuole.   Negli   Stati  
Uniti   e   in   Gran   Bretagna,   come   verrà   illustrato,   il   potenziamento   delle  
strutture  di  accountability  (strutture  in  grado  di  rendere  pubbliche  le  pre-­‐‑
stazioni  dei  sistemi  educativi)  ha  fatto  leva  sullo  sviluppo  metodologico  
della  SER  (e,  a  sua  volta,  ne  ha  costituito  un  fondamentale  incentivo).  Il  
contributo   maggiore   della   ricerca   sull’efficacia   ai   sistemi   di   rendiconta-­‐‑
zione   è   stato   senza   dubbio   l’aver   fornito,   grazie   al   valore   aggiunto,   mi-­‐‑
sure   delle   prestazioni   degli   istituti   considerate   “eque”,   ovvero   al   netto  
delle   influenze   esercitate   sul   rendimento   dei   loro   alunni   da   fattori   sui  
quali  le  scuole  non  possono  incidere.    
Il  rapporto  tra  ricerca  e  accountability  appare  più  controverso  rispetto  
alla   dimensione   causale   del   concetto   di   efficacia   scolastica.   I   sistemi   di  
rendicontazione  di  seguito  descritti  tendono  infatti  a  prendere  in  scarsa  
considerazione   l’individuazione   delle   cause   della   qualità   dell’offerta  
educativa,   probabilmente   nella   speranza   che   la   sola   pubblicazione   dei  
risultati  metta  in  moto  un  circolo  virtuoso  in  grado  di  innalzare  il  livello  
delle  prestazioni.  
 
 

Capitolo  secondo  
La  ricerca  sull’efficacia  scolastica  

In   una   contea   della   Virginia,   tra   il   1959   e   il   1964,   il   servizio   scolastico  


pubblico   fu   sospeso   a   causa   dei   disordini   causati   dall’introduzione   dei  
provvedimenti  contro  la  segregazione  razziale  e  per  la  stragrande  mag-­‐‑
gioranza  dei  giovani  neri  fu  impossibile  frequentare  la  scuola.  Chi  non  si  
lasciò   sfuggire   un’occasione   tanto   ghiotta   e   (fortunatamente)   rara   per  
misurare   gli   effetti   “assoluti”   della   scuola   fu   un   gruppo   di   ricercatori  
guidato  da  Green,  che  nel  1964  pubblicò  uno  studio  che  comparava  il  QI  
e  il  rendimento  dei  neri  di  quella  contea  con  quelli  degli  studenti  di  una  
contea   limitrofa   appartenenti   allo   stesso   gruppo   etnico.   Tale   rapporto  
definì   semplicemente   “devastanti”   gli   effetti   della   mancata   scolarizza-­‐‑
zione.  
La  scuola  “conta”,  dunque,  almeno  secondo  il  lavoro  di  Green.  Un  la-­‐‑
voro  unico  nel  suo  genere,  dato  che  si  tratta  di  una  delle  rarissime  occa-­‐‑
sioni  in  cui  gli  effetti  della  scolarizzazione  sono  stati  rilevati  sulla  base  di  
un  confronto  tra  ragazzi  scolarizzati  e  non.  Gli  studi  sull’efficacia  scola-­‐‑
stica  rientrano  pressoché  tutti  nel  filone  di  indagini  “basate  sulla  ricerca  
di   correlazioni”7,   in   cui   non   sono   previste   manipolazioni   dello   stimolo  
sperimentale   (in   questo   caso,   la   scolarizzazione)   dato   che   gli   individui  
sottoposti  a  indagine  sono  tutti  studenti.  In  sintesi,  la  SER  ha  a  che  fare  
con  effetti  della  scuola  di  tipo  relativo,  mentre  Green  ha  potuto  contare  
su  effetti  assoluti.  Come  sottolineano  Teddlie,  Reynolds  e  Sammons:  
It   is   important   to   understand   that   virtually   all   studies   of   school   effects   com-­‐‑
pare  the  relative  effects  of  schooling  in  countries  in  which  schooling  is  compulsory  (i.e.  in  
which  all  students  are  exposed  to  schools,  teachers,  and  curriculum  assignments).  
There   are   no   “control   groups”   in   these   studies   of   school   effects   (Teddlie,   Reyn-­‐‑
olds,  Sammons,  2000,  p.  66).  
 
I  primi  studi:  un  inizio  poco  incoraggiante  
 
Come   abbiamo   già   accennato,   sono   stati   proprio   i   lavori   che   hanno  
inaugurato   la   ricerca   sull’efficacia   della   scuola   a   mettere   seriamente   in  
dubbio  sia  l’efficacia  sia  l’equità  dei  sistemi  scolastici.  
Uscito  nel  1966  negli  USA,  Equality  of  educational  opportunity,  più  noto  
come   “Rapporto   Coleman”,   ha   rappresentato,   secondo   molti   autori,   il  
 
7  Lucisano,  Salerni  (2003),  pp.  99-­‐‑100  
12   Prima  Parte  

primo   studio   sull’efficacia   scolastica.   Il   Rapporto   Coleman,   commissio-­‐‑


nato  dal  governo  federale,  aveva  come  scopo  lo  studio  della  relazione  tra  
il  rendimento  scolastico  e  il  background  socio-­‐‑economico  e  culturale  de-­‐‑
gli   studenti,   compreso   il   gruppo   etnico   di   appartenenza.   Nel   rapporto  
veniva  studiato  anche  il  legame  tra  outcome  e  alcune  caratteristiche  del-­‐‑
le  scuole.  
La   ricerca,   con   un   ampio   set   di   dati   (riguardanti   oltre   4000   istituti  
primari  e  secondari,  60000  insegnanti  e  600000  studenti)  concludeva  che  
la  particolare  scuola  frequentata  dagli  alunni  aveva  un  effetto  esiguo  sui  
loro   risultati   scolastici   rispetto   a   fattori   come   il   QI,   il   gruppo   etnico   di  
appartenenza,   lo   stato   socio-­‐‑economico.   I   risultati   mostravano   infatti  
che,   una   volta   considerato   il   background   dello   studente,   i   fattori   tipici  
della  scuola  (raggruppati  in  tre  categorie:  caratteristiche  degli  insegnan-­‐‑
ti,  materiali  didattici  e  programmi,  “effetto  dei  pari”)  erano  in  grado  di  
spiegare  meno  del  10%  della  varianza  totale  dei  risultati  degli  alunni.  Va  
inoltre   sottolineato   che   gran   parte   di   questa   quota   era   spiegata  
dall’effetto  dei  pari,  quindi  ancora  in  relazione  forte  con  le  caratteristiche  
socio-­‐‑culturali   di   provenienza   degli   studenti.   Il   lavoro   di   Coleman   evi-­‐‑
denziava  dunque  l’inefficacia  e  l’iniquità  delle  scuole  che,  essendo  porta-­‐‑
trici  di  differenze  non  significative  nella  riuscita  degli  studenti,  non  riu-­‐‑
scivano  a  svolgere  la  funzione  di  compensazione  rispetto  alle  differenze  
socioeconomiche.  
Nel  1967,  in  Gran  Bretagna,  usciva  Children  and  their  Primary  Schools,  
l’equivalente  inglese  della  ricerca  di  Coleman.  Il  lavoro,  coordinato  dalla  
Plowden,   così   concludeva:   differences   between   parents   explain   more   of   the  
variation   in   children   than   differences   between   schools.   Variabili   relative   agli  
atteggiamenti  dei  genitori  spiegavano  il  58%  della  varianza  dei  risultati  
degli   studenti:   le   conclusioni   dello   studio   di   Plowden   erano   perfetta-­‐‑
mente   in   linea   con   quelle   della   ricerca   di   Coleman.   Altre   conferme   allo  
studio   di   Coleman   sarebbero   arrivate,   negli   USA,   dai   lavori   di   Hauser  
(1971),  Jencks  et  al.  (1972),  Hauser  et  al.  (1972).  
 
Lo  schema  di  questi  primi  studi  sull’efficacia  scolastica  si  basava  sul  
modello   “input-­‐‑output”.   La   “prima   generazione”   di   ricerche   SER   foca-­‐‑
lizzava  infatti  la  propria  attenzione  esclusivamente  sullo  studio  del  rap-­‐‑
porto  tra  variabili  di  input  (come  le  caratteristiche  degli  studenti,  la  spe-­‐‑
sa  sostenuta  per  ciascuno  di  essi  o  il  numero  di  libri  posseduti  nelle  bi-­‐‑
blioteche  scolastiche)  e  di  output  (il  rendimento  degli  alunni),  senza  en-­‐‑
trare  nel  dettaglio  dei  processi  educativi  (in  quella  che  sarebbe  stata  po-­‐‑
Misurare  l’efficacia  scolastica   13  

lemicamente  definita  la  “scatola  nera”  8  dell’efficacia  scolastica).  Secondo  


molti   ricercatori,   l’esclusione   di   variabili   relative   alla   dimensione   orga-­‐‑
nizzativa   e   didattica   ha   esercitato   un   peso   decisivo   sui   risultati   degli  
studi,  contribuendo  alla  sfiducia  nei  confronti  della  capacità  della  scuola  
di   incidere   in   maniera   significativa   sulla   preparazione   degli   studenti   a  
prescindere  dal  loro  stato  socio-­‐‑culturale.  
 
 
Gli  studi  successivi:  dentro  la  “scatola  nera”  
 
Ci  sono  pochi  dubbi  sul  fatto  che  lo  shock  prodotto  dai  risultati  del  rap-­‐‑
porto   Coleman   abbia   rappresentato   l’incentivo   fondamentale   per   la   na-­‐‑
scita   e   per   lo   sviluppo   metodologico   della   SER.   Come   testimoniano   al-­‐‑
cuni   titoli   dei   lavori   successivi   (nel   1979   Brookover   pubblicava   Schools  
Can   Make   a   Difference   e   Changes   in   School   Characteristics   Coincident   with  
Changes   in   Student   Achievement,   nel   1988   Mortimore   School   matters,   nel  
1993  Teddlie  e  Stringfield  Schools  Do  Make  a  Difference),  motivo  principa-­‐‑
le  delle  ricerche  della  “seconda  generazione”  di  studi  sull’efficacia  scola-­‐‑
stica  sarebbe  stato  il  tentativo  di  mettere  in  discussione  le  pessimistiche  
conclusioni   di   Equality   of   Educational   Opportunity   Study9.   Tale   sforzo   ha  
comportato   un   progressivo   arricchimento   dei   disegni   di   ricerca:   è   stata  
in   primo   luogo   ampliata   la   gamma   degli   output   e   degli   input   (con  
l’inserimento   del   rendimento   precedente),   mentre   l’obiettivo   di   indivi-­‐‑
duare  le  caratteristiche  delle  scuole  efficaci  ha  comportato  l’introduzione  
di  variabili  relative  ai  processi  interni  agli  istituti  e,  nei  lavori  più  com-­‐‑
pleti,   la   scelta   di   agganciare   l’analisi   quantitativa   a   studi   di   caso   nelle  
scuole  più  (o  meno)  efficaci.  
 
Nel  1971  Weber  ha  condotto,  negli  USA,  uno  studio  su  quattro  scuole  
elementari  frequentate  in  prevalenza  da  studenti  con  basso  livello  socio-­‐‑
economico   ma   dal   rendimento   significativamente   superiore   alle   scuole  
con  le  stesse  caratteristiche.  Secondo  Weber,  tali  scuole  erano  caratteriz-­‐‑
zate  da  una  forte  leadership,  da  alte  aspettative  da  parte  dello  staff  edu-­‐‑
 
8  Cfr.  Black,  Wiliam  (1998).  
9   A   proposito   della   spinta   costituita   dalla   pessimistica   lettura   delle   prime   ricer-­‐‑
che,  i  ricercatori  SER  Reynolds  e  Teddlie  osservano:  “We  have  convincingly  helped  
to  destroy  the  belief  that  schools  can  do  nothing  to  change  the  society  around  them,  
and  have  also  helped  to  destroy  the  myth  that  the  influence  of  family  background  is  
so   strong   on   children’s   development   that   children   are   unable   to   be   affected   by  
school”  (Reynolds,  Teddlie,  2001,  p.  103).  
14   Prima  Parte  

cativo  rispetto  al  rendimento  degli  studenti,  da  un  “clima  di  scuola”  or-­‐‑
dinato  e  da  un  attento  monitoraggio  del  rendimento  degli  studenti.  
 
Le   conclusioni   dello   studio   di   Weber   trovarono   un   primo   riscontro  
nel   “modello   dei   cinque   fattori”   dell’efficacia   scolastica   elaborato   nel  
1978-­‐‑1979   da   Edmonds,   modello   che   nel   decennio   successivo   avrebbe  
conosciuto  un’ampia  diffusione.  Secondo  gli  studi  di  Edmonds  le  condi-­‐‑
zioni  interne  ad  una  scuola  (venivano  pertanto  escluse  le  variabili  relati-­‐‑
ve  al  contesto)  in  grado  di  migliorare  il  rendimento  degli  studenti    era-­‐‑
no:  
• Una  forte  leadership  educativa.  
• Enfasi  sull’acquisizione  di  abilità  di  base.  
• Un  ambiente  ordinato  e  tranquillo.  
• Alte  aspettative  sul  profitto  degli  studenti.  
• Frequente  valutazione  dei  progressi  degli  studenti.  
 
Nelle  ricerche  coordinate  da  Brookover  (1978-­‐‑1979)  a  una  prima  fase  
di  analisi  del  rendimento  degli  studenti  di  68  istituti  elementari  si  è  ag-­‐‑
giunto  lo  studio  di  caso  per  4  scuole  frequentate  da  un’utenza  dal  basso  
livello   socio-­‐‑economico:   una   dall’alto   rendimento   frequentata   in   preva-­‐‑
lenza  da  bianchi,  una  dall’alto  rendimento  frequentata  in  prevalenza  da  
neri,   una   dal   basso   rendimento   frequentata   in   prevalenza   da   bianchi,  
una  dal  basso  rendimento  frequentata  in  prevalenza  da  neri.  Per  ottene-­‐‑
re  informazioni  sulla  “scatola  nera”  dell’efficacia  scolastica,  i  ricercatori  
hanno   impiegato   dalle   tre   settimane   ai   tre   mesi   in   ciascuna   scuola,   uti-­‐‑
lizzando  osservazioni  in  classe  e  interviste.  I  risultati  sono  stati  così  sin-­‐‑
tetizzati   da   Reynolds   e   Teddlie,   con   specifici   riferimenti   alle   pratiche  
scolastiche:  
Gestione  del  tempo  scolastico.  Rispetto  ai  colleghi  delle  scuole  a  bas-­‐‑
so  rendimento,  gli  insegnanti  degli  istituti  a  rendimento  elevato  dedica-­‐‑
vano  scarso  tempo  a  compiti  amministrativi.  
Studenti  considerati  un  fallimento.  Mentre  nelle  scuole  ad  alto  ren-­‐‑
dimento  pochissimi  studenti  venivano  considerati  sin  dall’inizio  destina-­‐‑
ti  a  fallire,  il  loro  numero  aumentava  considerevolmente  nelle  scuole  con  
rendimento   inferiore,   in   particolare   in   quella   frequentata   in   prevalenza  
da  studenti  neri.  
Aspettative   degli   insegnanti.   Nella   scuola   ad   alto   rendimento   fre-­‐‑
quentata  in  prevalenza  da  studenti  bianchi,  da  tutti  gli  studenti  ci  si  at-­‐‑
tendeva   un   profitto   in   linea   con   gli   standard   previsti   per   la   classe   fre-­‐‑
quentata.  Nella  scuola  ad  alto  rendimento  frequentata  da  studenti  neri  la  
Misurare  l’efficacia  scolastica   15  

quota   di   studenti   su   cui   si   nutrivano   tali   aspettative   scendeva   al   75%,  


mantenendosi   comunque   molto   più   alta   rispetto   alle   scuole   con   basso  
rendimento.  
Rinforzo.   I   ricercatori   hanno   rilevato   come   nelle   scuole   con   basso  
rendimento   le   pratiche   di   rinforzo   degli   studenti   fossero   incoerenti   e,  
soprattutto   nella   scuola   frequentata   in   prevalenza   da   neri,   decisamente  
inadeguate  (spesso  venivano  incoraggiati  studenti  che  fallivano).  
Giochi   didattici.   Le   scuole   ad   alto   rendimento   utilizzavano   giochi  
che  enfatizzavano  il  lavoro  di  gruppo.  
Ruolo   del   dirigente.   I   dirigenti   delle   due   scuole   ad   alto   rendimento  
visitavano  le  classi  molto  più  frequentemente  rispetto  a  quelli  delle  scuo-­‐‑
le  con  rendimenti  inferiori.  
 
Uno   dei   lavori   più   ambiziosi   sull’efficacia   scolastica   è   stato   senza  
dubbio   il   Louisiana   School   Effectiveness   Studies,   un   progetto   partito   nel  
1980  (Teddlie,  Stringfield  1985)  e  conclusosi  nel  1996,  con  l’ultima  delle  5  
fasi   di   raccolta   dei   dati.   Nella   seconda   fase   di   analisi   dei   dati   (Teddlie,  
Stringfield  1993),  76  scuole  elementari  sono  state  suddivise  tenendo  con-­‐‑
to  di  due  caratteristiche:  lo  stato  socio-­‐‑economico  della  popolazione  stu-­‐‑
dentesca   (medio,   basso)   e   il   livello   di   efficacia   degli   istituti   (classificati  
come   efficaci,   mediamente   efficaci,   inefficaci)   misurato   attraverso  
l’analisi  della  regressione.  La  suddivisione  ha  prodotto  sei  “tipi”  di  scuo-­‐‑
le,  nella  sintesi  del  lavoro  Reynolds  e  Teddlie  (2000),  lasciando  da  parte  
le  due  categorie  di  istituti  con  valori  medi  quanto  a  efficacia,  si  concen-­‐‑
trano   sulle   caratteristiche   riscontrate   nelle   restanti   quattro   tipologie   di  
scuole:  
Nelle  scuole  efficaci  con  stato  socio-­‐‑economico  medio  gli  insegnanti  
avevano  frequenti  contatti  con  i  genitori  e  li  giudicavano  “molto  interes-­‐‑
sati”   alla   qualità   del   loro   lavoro.   Le   aspettative   degli   educatori   sul   ren-­‐‑
dimento   degli   studenti   erano   elevate   e   responsabilizzavano   gli   inse-­‐‑
gnanti  nel  rapporto  con  gli  alunni,  questi  a  loro  volta  pretendevano  mol-­‐‑
to  da  se  stessi.    
Nelle   scuole   inefficaci   con   stato   socio-­‐‑economico   medio   gli   inse-­‐‑
gnanti    avevano  una  visione  irrealistica  del  livello  delle  prestazioni  degli  
studenti   (le   consideravano   elevate   quando   in   realtà   rientravano   nella  
media).  Le  aspettative  degli  studenti  sul  rendimento  tendevano  a  essere  
inferiori  rispetto  alle  scuole  con  le  stesso  livello  socio-­‐‑economico.  I  diri-­‐‑
genti   di   queste   scuole,   come   ricordano   Reynolds   e   Teddlie,   mancavano  
nel  promuovere  una  chiara  enfasi  sull’acquisizione  delle  abilità  di  base:  
16   Prima  Parte  

The  principals  stated  that  several  aspects  of  student  development  (enhancing  
social   skills,   personal   growth   and   development,   education/occupational   aspira-­‐‑
tions)  were  as  important  at  their  school  as  teaching  of  academic  skills.  The  princi-­‐‑
pals   may   have   been   expending   too   much   of   the   school’s   resources   in   non-­‐‑
academic  endeavours  in  these  schools  (Reynolds,  Teddlie,  2000,  p.  137).  
 
Nelle  scuole  efficaci  con  stato  socio-­‐‑economico  basso  era  evidente  la  
capacità  di  trasmettere  a  tutti  gli  studenti  l’idea  che  ciascuno  di  loro  fos-­‐‑
se  in  grado  di  apprendere.  I  dirigenti  stimolavano  gli  insegnanti  (anche  
attraverso  frequenti  visite  nelle  classi)  e  questi,  a  loro  volta,  motivavano  
gli   studenti,   che   percepivano   l’impegno   e   il   sostegno   offerto   loro   dagli  
insegnanti.   Le   aspettative   degli   insegnanti   rispetto   al   rendimento   degli  
studenti   erano   modeste   riguardo   la   carriera   scolastica   ma   elevate   nel  
breve   periodo.   Gli   educatori   si   soffermavano   sull’insegnamento   delle  
abilità   di   base   e   assegnavano   più   compiti   per   casa   rispetto   alle   altre  
scuole  caratterizzate  dallo  stesso  livello  socio-­‐‑economico.  Gli  insegnanti  
erano   molto   giovani   e   in   buona   parte   erano   stati   assunti   dal   dirigente  
della  scuola  in  cui  operavano.  
Nelle   scuole   inefficaci   con   stato   socio-­‐‑economico   basso,   infine,   gli  
insegnanti,   poco   soddisfatti   del   proprio   lavoro,   avevano   bassissime  
aspettative  sul  rendimento  degli  studenti  ed  erano  convinti  di  poter  fare  
ben   poco   per   migliorarlo.   Reynolds   e   Teddlie   descrivono   come   gli   stu-­‐‑
denti  in  quegli  istituti  percepivano  il  generale  clima  di  rassegnazione  ed  
erano  poco  motivati:  
When   compared   with   students   in   other   socio   economic   status   groups,   these  
students  perceived  their  teacher  as  less  praising,  less  caring,  less  helpful  and  more  
critical.  Of  all  the  groups,  these  students  reported  that  their  teachers  felt  learning  
was  the  least  important  (Reynolds,  Teddlie,  2000,  p.  138).    
 
 
L’impiego  dei  modelli  gerarchici  
 
Nel  1988  usciva,  in  Gran  Bretagna,  School  matters,  considerato  una  tappa  
fondamentale  nella  storia  della  SER.  Lo  studio,  coordinato  da  Mortimo-­‐‑
re,  soddisfaceva  tutte  le  tre  condizioni  imposte  dallo  sviluppo  metodolo-­‐‑
gico  nel  campo  della  ricerca  sull’efficacia:  
1) Era   longitudinale   e   utilizzava   il   rendimento   “in   entrata”   per  
predire   quello   “in   uscita”   (come   già   i   lavori   di   Murname   negli  
USA  e  di  Rutter  et  al.  in  Gran  Bretagna).  
Misurare  l’efficacia  scolastica   17  

2) Forniva  spiegazioni  plausibili  circa  i  processi  che  rendevano  al-­‐‑


cune  scuole  efficaci  (come  le  ricerche  sopra  descritte).  
3) Utilizzava  modelli  gerarchici,  o  multilivello,  per  l’analisi  dei  da-­‐‑
ti  (ed  era  il  primo,  in  casa  SER,  a  farlo  con  un  ampio  set  di  dati).  
   
I   modelli   di   regressione   multilivello,   la   cui   applicazione   alla   ricerca  
sull’efficacia  scolastica  fu  suggerita  per  la  prima  volta  da  un  articolo  di  
Aitkin  e  Longford  del  1986,  consentono,  a  differenza  di  quelli  classici,  di  
tenere  conto  della  natura  gerarchica  dei  dati.  Nel  modello  di  regressione  
lineare   “classico”,   l’unico   utilizzato   fino   allo   studio   di   Mortimore   per  
misurare   l’efficacia   di   ciascun   istituto,   la   relazione   tra   il   rendimento   di  
uno   studente   i   (variabile   dipendente   Y)   e   il   suo   stato   socio-­‐‑economico  
(variabile  indipendente  X)  viene  sintetizzata  dalla  formula:  
 
(1)         Yi  =  α  +  βXi  +  ei  
 
dove  α  corrisponde  al  valore  medio  di  Y  quando  X  ha  valore  nullo;    
β  è  il  coefficiente  di  regressione  e  indica  la  variazione  media  di  Y  as-­‐‑
sociata  ad  una  variazione  unitaria  della  variabile  X;    
e,  il  residuo  della  regressione,  è  dato  dalla  differenza  tra  il  valore  Y  ef-­‐‑
fettivamente  osservato  e  il  corrispondente  valore  di  Y  calcolato  sulla  ba-­‐‑
se  dell’equazione  di  regressione  (e  quindi  atteso).  La  presenza  di  un  resi-­‐‑
duo   indica   che   il   rendimento   dello   studente   è   dato   dal   suo   stato   socio-­‐‑
economico   più   un   residuo   (positivo   o   negativo).   Il   residuo   è   dunque   la  
parte   di   Y   non   spiegata   in   base   alla   conoscenza   del   solo   stato   socio-­‐‑
economico.  Secondo  questa  formula,  l’efficacia  di  un  istituto  è  data  dalla  
media  dei  residui  del  rendimento  degli  studenti  che  lo  frequentano.  
 
Come   evidenziano   Bernardi,   Martini   e   Zaccarin   (2005)   il   difetto   fonda-­‐‑
mentale  di  questa  formulazione  consiste  nell’ignorare  la  natura  gerarchica  
dei   sistemi   educativi,   in   cui   gli   studenti   sono   inseriti   nelle   classi   e   queste  
nelle  scuole.  Tali  contesti  influenzano  a  loro  volta  il  rendimento  dei  singoli,  
dato  che  proprio  il  loro  raggruppamento  in  insiemi  (classi,  scuole)  in  pos-­‐‑
sesso  di  determinate  caratteristiche  socio-­‐‑economiche  non  è  privo  di  conse-­‐‑
guenze  sul  rendimento  degli  studenti.  I  modelli  di  regressione  lineare  non  
consentono  di  isolare  in  maniera  efficace  l’influenza  dovuta  a  effetti  di  con-­‐‑
testo  (dovuti  al  raggruppamento  degli  studenti)  da  quella  legata  all’efficacia  
della  scuola  (o  della  classe).    
Nei   modelli   di   regressione   multilivello   la   precedente   formula   viene  
estesa   al   caso   di   dati   organizzati   gerarchicamente,   in   cui   lo   studente   i  
18   Prima  Parte  

viene  considerato  unità  di  primo  livello  e  le  scuole  j  unità  di  secondo  li-­‐‑
vello:  
 
(2)         YiJ  =  β0j  +  β1jXij  +  eij  
 
dove  β0j  corrisponde  al  valore  medio  della  prestazione  all’interno  del-­‐‑
la  scuola  frequentata  dall’individuo  i;    
β1jXij  è  il  valore    della  variabile  X  all’interno  della  scuola.  
 
Nella   formulazione   gerarchica   il   rendimento   di   uno   studente   è   dun-­‐‑
que  funzione  della  prestazione  media  della  sua  scuola,  dell’effetto  della  
relazione  con  lo  stato  socio-­‐‑economico  all’interno  della  sua  scuola  e  del  
residuo   della   regressione.   In   tal   modo   le   analisi   multilivello   possono,  
come  sottolineano  Bernardi,  Martini  e  Zaccarin,  perseguire  con  maggio-­‐‑
re  precisione  i  due  obiettivi  fondamentali  nella  ricerca  SER:  
1)  Stabilire  gli  effetti  “netti”  di  ciascuna  delle  variabili  in  gioco,  vale  a  dire  al  
netto   dell’influenza   esercitata   dalle   altre   variabili   considerate   che   incidono   sulle  
prestazioni  degli  studenti.  
2)  Tentare  di  identificare,  tenendo  “sotto  controllo”  le  caratteristiche  degli  stu-­‐‑
denti   e   quelle   di   contesto,   le   variabili   scolastiche   (quelle   che   potremmo   definire  
variabili  di  processo:  organizzazione,  clima  relazionale,  modalità  di  insegnamen-­‐‑
to,  ecc.)  che  hanno  un’influenza  significativa  sui  risultati  (Bernardi,  Martini,  Zac-­‐‑
carin,  2005,  p.  217).  
A  dispetto  del  diffuso  ottimismo  riposto  nei  modelli  gerarchici,  negli  
ultimi   anni   sono   emerse   alcune   perplessità   nei  confronti   del   loro   utiliz-­‐‑
zo10.  In  primo  luogo,  rispetto  ai  modelli  tradizionali  di  analisi  dei  dati,  i    
modelli  gerarchici  producono  residui  a  livello  di  singolo  studente  pres-­‐‑
soché   identici.   La   Fitz-­‐‑Gibbon   (1995)   evidenzia,   sulla   base   di   un   ampio  
set  di  dati,  una  correlazione  pari  a  0,94  tra  gli  indicatori  di  efficacia  otte-­‐‑
nuti  con  i  modelli  gerarchici  e  quelli  ottenuti  con  i  modelli  tradizionali  di  
analisi   dei   dati.   A   simili   conclusioni   pervengono   numerosi   ricercatori11:  
in  particolare  DeLeeuw  e  Kreft  che  sostengono  che,  nel  caso  di  risultati  
tanto  simili,  i  modelli  tradizionali,  più  semplici  da  utilizzare  e  più  com-­‐‑
prensibili,  sono  da  preferirsi.  

 
 Per  una  sintesi  delle  critiche,  vedi  Teddlie,  Reynolds,  Sammons  (2000,  pp.  105-­‐‑
10

114).  
11   Daly   (1991),   Trower,   Vincent   (1995),   la   stessa   Fitz-­‐‑Gibbon   (1996),   Kennedy  

(1993),  Rogosa,  Sane  (1995),  DeLeeuw,  Kreft  (1995),  Freeman,  Teddlie  (1997).  
Misurare  l’efficacia  scolastica   19  

Altre   perplessità   fanno   riferimento   alla   accentuata   regressione   verso  


la   media   dei   residui   aggregati   a   livello   di   classe   o   di   scuola   connessa  
all’utilizzo  dei    modelli  gerarchici,  fenomeno  che  comporta  una  maggio-­‐‑
re  difficoltà,  rispetto  ai  modelli  tradizionali,  di  individuare  scuole  o  clas-­‐‑
si  eccezionalmente  efficaci  (o  inefficaci)12.  
 
Al  di  là  delle  emergenti  perplessità  sull’impiego  dei  modelli  gerarchi-­‐‑
ci,  va  segnalato  come  il  lavoro  di  Mortimore  venga  valutato  da  molti  ri-­‐‑
cercatori  un  autentico  spartiacque  nella  storia  della  ricerca  sull’efficacia  
scolastica.  Condotto  su  50  istituti  elementari  londinesi  (86  classi),  School  
matters   considerava   come   output   i   progressi   (dati   raccolti   in   tre   anni)  
“accademici”   (in   matematica   e   in   lettura)   e   “sociali”   (comportamentali)  
di  2000  studenti.  Le  scuole  definite  efficaci  (sia  dal  punto  di  vista  “acca-­‐‑
demico”   che   “sociale”)   possedevano   caratteristiche   in   linea   con   quelle  
riscontrate   dagli   studi   precedenti   (leadership   risoluta   e   il   più   possibile  
condivisa   con   lo   staff   educativo,   coinvolto   e   responsabilizzato   dal   diri-­‐‑
gente;  giornata  scolastica  altamente  strutturata;  attento  monitoraggio  del  
rendimento   degli   studenti;   comunicazione   efficace   tra   studenti   e   inse-­‐‑
gnanti  e  tra  scuola  e  genitori).  
A   contribuire   alla   diffusione   dello   studio   di   Mortimore,   oltre   agli  
avanzamenti  metodologici,  dovevano  essere  i  risultati  legati  alla  misura-­‐‑
zione  degli  effetti  prodotti  dalla  scuola.  Considerando  il  rendimento  de-­‐‑
gli  studenti,  la  quota  di  varianza  spiegata  dal  fattore  scuola  si  attestava  
intorno  al  9%  in  lettura  e  al  11%  in  matematica.  Si  trattava,  sin  qui,  di  ri-­‐‑
sultati  perfettamente  in  linea  con  quelli  del  Rapporto  Coleman.  Non  ap-­‐‑
pena   si   passava   a   considerare   i   progressi   evidenziati   dagli   studenti   nel  
corso  dei  tre  anni  presi  in  considerazione  dalla  ricerca,  le  percentuali  di  
varianza   spiegate   dagli   istituti   salivano   però   al   24%   (lettura)   e   al   23%  
(matematica).    
Risultati  tanto  ottimistici  potevano  essere  considerati,  a  venti  anni  di  
distanza,  una  risposta  efficace  rispetto  al  pessimismo  indotto  dalle  prime  
ricerche.   A   ciò   doveva   aggiungersi   la   ri-­‐‑analisi   dei   dati   del   lavoro   di  
Mortimore  condotta  da  Sammons,  Nuttall  e  Cuttance  (1993),  che  mette-­‐‑
va   in   evidenza   come   gli   studenti   con   stato   socio-­‐‑economico   basso   che  
frequentavano   le   scuole   più   efficaci   avevano,   in   media,   un   rendimento  
superiore  a  quelli  con  uno  stato  socio-­‐‑economico  alto  che  frequentavano  
le  scuole  meno  efficaci.    

 
12  Daly  (1991),  DeLeeuw,  Kreft  (1995),  Willms  (1992),  Tymms  (1994),  Fitz-­‐‑Gibbon  

(1996).  
20   Prima  Parte  

Va  però  sottolineato  come,  nella  ricerca  sopra  citata,  in  nessun  istituto  
il  rendimento  medio  degli  studenti  con  stato  socio-­‐‑economico  basso  fos-­‐‑
se   superiore   a   quello   degli   studenti   con   stato   socio-­‐‑economico   alto.   Le  
scuole,  insomma,  “contavano”,  ma  fino  a  un  certo  punto.    
 
 
Le  classi  “contano”  
 
La   ricerca   più   recente,   basata   in   prevalenza   sull’utilizzo   di   modelli   ge-­‐‑
rarchici,   ha   corretto   al   ribasso   le   stime   del   lavoro   di   Mortimore   sulla  
quota   di   varianza   spiegata   dagli   istituti   sul   rendimento   degli   studenti  
“al  netto”  dei  fattori  socioeconomici  (che  tende  ad  attestarsi,  anche  negli  
studi   longitudinali,   tra   il   5%   e   il   20%).   Quaranta   anni   dopo,   dunque,   le  
conclusioni  del  Rapporto  Coleman  riguardo  l’esigua  ampiezza  degli  ef-­‐‑
fetti   della   scuola   non   sono   state   affatto   rovesciate:   il   rendimento   degli  
studenti   è   ancora   fortemente   condizionato   da   caratteristiche   relative   al  
loro   retroterra   socio-­‐‑culturale,   come   evidenziano   i   risultati   dello   studio  
di   Schagen   e   Benton   (2003)   sul   legame   tra   fattori   di   background   e   pre-­‐‑
stazioni  degli  studenti  inglesi  in  uscita  dalla  scuola  primaria.  La  base  da-­‐‑
ti  del  lavoro  di  Schagen  e  Benton  è  costituita  dai  risultati  ottenuti  da  ol-­‐‑
tre  500000  studenti  al  Key  Stage  2  (KS2),  l’esame  di  stato  sostenuto  dagli  
alunni  al  termine  della  scuola  elementare  e  avente  per  oggetto  prove  di  
inglese,  matematica  e  scienze.  Come  si  può  notare  (tabella  1),  non  appe-­‐‑
na  si  introducono  nel  modello  variabili  relative  allo  stato  socioeconomi-­‐‑
co   degli   studenti,   la   varianza   spiegata   a   livello   di   scuola   decresce   note-­‐‑
volmente.    
Da  questo  punto  di  vista,  l’evidenza  empirica  prodotta  dalla  seconda  
generazione  di  ricerche  sull’efficacia  scolastica  attesta,  come  la  preceden-­‐‑
te,   le   difficoltà   incontrate   dall’istituzione   formativa   nello   svolgimento  
della   sua   funzione   di   compensazione   rispetto   alle   differenze   socio-­‐‑
economiche.  Non  vi  sono  motivi  per  non  concordare  con  la  lapidaria  sin-­‐‑
tesi  di  alcuni  ricercatori  inglesi:  
The  fact  is  too  that  SER  findings  have  never  overturned  the  findings  about  the  
powerful   relationship   between   family   background   and   student   achievement  
raised  by  the  study  of  Coleman  and  others  (Thrupp,  Mansell,  Hacksworth,  Har-­‐‑
old,  2003,  p.  472).  
 
Misurare  l’efficacia  scolastica   21  

Tabella  1.  Quote  di  varianza  spiegata  sui  voti  al  Key  Stage  2  del  2003  (Scha-­‐‑
gen,  Benton  2003).  
Voto  al  KS2  
 
Totale   Inglese   Mat.   Scienze  
Varianza  a  livello  di  scuola  
(senza  introduzione  dei  fattori   25%   19%   18%   27%  
socio-­‐‑economici)  

Varianza  a  livello  di  scuola  


(con  introduzione  dei  fattori   18%   11%   12%   18%  
socio-­‐‑economici)  

Quota  di  varianza  del  rendi-­‐‑


mento  degli  studenti  spiegata   64%   57%   53%   41%  
dai  fattori  socioeconomici  

 
Va  inoltre  sottolineato  come  la  quota  di  varianza  spiegata  dai  fattori  
socioeconomici    sia  minore  nel  rendimento  in  scienze,  dato  che  conferma  
i  risultati  più  recenti  della  ricerca  sull’efficacia  scolastica,  tendenti  a  evi-­‐‑
denziare   come   la   scuola   incida   maggiormente   sui   saperi   più   tecnici  
(Sammons   2001).   Le   abilità   linguistiche   sono   maggiormente   correlate  
con   il   retroterra   degli   studenti   e   dunque   “meno   esposte”   all’intervento  
scolastico.  
Molti   ricercatori   SER,   a   partire   da   Edmonds   (1979),   hanno   prodotto  
lavori   di   sintesi   dei   risultati   delle   ricerche   precedenti   al   fine   di   indivi-­‐‑
duare  i  fattori  di  efficacia  maggiormente  ricorrenti  negli  studi.  Tra  le  sin-­‐‑
tesi  più  recenti  ad  ottenere  maggiore  diffusione  sono  state  quelle  curate  
da   Levine   e   Lezotte   (1990),   Sammons   (1995),   Cotton   (1995),   Bosker   e  
Scheerens   (1997).   Nella   tabella   n.   2   viene   riportata   la   lista,   prodotta   da  
Bosker  e  Scheerens  nel  199713,  dei  fattori  in  grado  di  accrescere  l’efficacia  
scolastica.  Si  tratta  di  processi,  a  livello  di  scuola  e  di  classe,  che  ricorro-­‐‑
no  con  assiduità  nelle  ricerche  SER,  anche  in  quelle  non  utilizzate  dagli  
autori  come  base  per  il  loro  lavoro  di  sintesi.  In  generale,  come  vedremo,  
le   ricerche   quantitative   individuano   all’interno   della   classe   i   fattori   che  
incidono   maggiormente   sul   rendimento   (e   sui   progressi)   degli   studenti  
(Tymms  1993,  Hill  e  Rowe  1996,  Hanushek  2002,  Rowan  et  al.  2002).  

 
  I   due   ricercatori   hanno   utilizzato   come   base   i   lavori   di   Mortimore   et   al.   (1988);  
13

Sammons   et   al.   (1995);   Scheerens,   Brummelhuis   (1996);   Hill   et   al.   (1995);   Doolard  
(1996).  
 
22   Prima  Parte  

Tabella   2.   Componenti   dei   13   fattori   in   grado   di   migliorare   l’efficacia   scola-­‐‑


stica  (Bosker,  Scheerens  1997).  
FATTORI   COMPONENTI  
1)   Orientamento   verso   i   risultati;   Alte   Una  chiara  focalizzazione  sulla  padronanza  delle  disci-­‐‑
Aspettative   pline  base  
  Alte  aspettative  (livello  della  scuola)  
  Alte  aspettative  (livello  dell’insegnante)  
  Registrazione  del  rendimento  degli  studenti  
2)  Leadership  Educativa   Abilità  generali  di  leadership  
  Leader  scolastico  come  fornitore  di  informazioni  
  Gestore  e  facilitatore  della  partecipazione  alle  decisioni  
  Leader  scolastico  come  coordinatore  
  Meta-­‐‑controller  dei  processi  di  classe  
  Rapporto   tra   il   tempo   destinato   dal   leader   a   compiti  
educativi  e  quello  destinato  a  compiti  amministrativi  
  Punto  di  riferimento  e  valutatore  della  qualità  degli  in-­‐‑
segnanti  
  […]Facilitatore  della  professionalizzazione  dello  staff  
3)  Consenso  e  coesione  all’interno   Tipi  e  frequenza  degli  incontri  e  delle  consulenze  
dello  staff   Argomenti  della  cooperazione  
  Soddisfazione  riguardo  la  cooperazione  
  Importanza  attribuita  alla  cooperazione  
  Altri  indicatori  di  una  cooperazione  di  successo  
4)  Qualità  del  Curriculum  e     Modo  con  cui  le  priorità  curricolari  sono  organizzate  
Opportunità  di  Apprendimento   Scelta  di  metodi  e  libri  di  testo  
  Applicazione  di  metodi  e  uso  dei  libri  di  testo  
  Opportunità  educative  
  Soddisfazione  riguardo  al  curriculum  
5)  Clima  della  scuola   a)  Atmosfera  ordinata  
  Importanza  assegnata  a  un  clima  ordinato  
  Regole  e  regolamenti  
  Punizioni  e  Premi  
  Assenteismo  e  abbandono  
  Buona  condotta  e  comportamento  degli  studenti  
  Soddisfazione  con  un  clima  scolastico  ordinato  
  (b)  Clima  in  termini  di  Orientamento  all’efficacia  e  di  
buoni  rapporti  interni  
  Priorità   in   un   clima   in   grado   di   aumentare   l’efficacia  
della  scuola  
  Percezioni   delle   condizioni   in   grado   di   migliorare  
l’efficacia  
  Rapporti  tra  gli  studenti  
  Rapporti  tra  studenti  e  insegnanti  
  Rapporti  all’interno  dello  staff  
  Il  ruolo  dell’insegnante  capo  nei  rapporti  
  Impegno/Coinvolgimento  degli  studenti  
  Stima  dei  ruoli  e  dei  compiti  
Misurare  l’efficacia  scolastica   23  
  Stima  del  lavoro    
  Attrezzature  e  risorse  

6)  Potenziale  valutativo   Enfasi  sulla  Valutazione  


  Monitoraggio  dei  progressi  degli  studenti  
  Uso  di  sistemi  di  monitoraggio  degli  studenti  
  Valutazione  dei  processi  scolastici  
  Registrazione  delle  prestazioni  degli  studenti  
  Soddisfazione  con  le  attività  valutative  
7)  Coinvolgimento  dei  genitori   Enfasi  sul  coinvolgimento  dei  genitori  nella  politica  sco-­‐‑
lastica  
  Contatti  con  i  genitori  
  Soddisfazione  con  il  coinvolgimento  dei  genitori  
8)  Clima  della  Classe   Rapporti  all’interno  della  classe  
  Ordine  
  Attitudine  al  lavoro  
  Soddisfazione  
9)  Tempo  effettivo  destinato   Importanza  dell’istruzione  effettiva  
all’apprendimento   Tempo  
  Monitoraggio  dell’assenteismo  
  Tempo  a  scuola  
  Tempo  in  classe  
  Management  della  classe  
  Compiti  a  Casa  
10)  Istruzione  strutturata   Importanza  dell’istruzione  strutturata  
  Struttura  delle  lezioni  
  Preparazione  delle  lezioni  
  Istruzione  diretta  
  Monitoraggio  
11)  Apprendimento  Indipendente    
12)  Differenziazione     Orientamento  generale  
  Attenzione  particolare  per  studenti  “a  rischio”  
13)  Rinforzo  e  feedback    
 
Le  caratteristiche  collocate  a  livello  scolastico  in  grado  di  migliorare  il  
rendimento  degli  studenti  vengono  evidenziate  quasi  esclusivamente  da  
ricerche   qualitative.   A   ricevere   significativa   evidenza   empirica   dalle   ri-­‐‑
cerche  quantitative  sono  invece,  soprattutto  nella  scuola  primaria,  fattori  
collocati   all’interno   della   classe:     a   “contare”,   dunque,   sembrano   essere  
più   gli   insegnanti   (o,   più   precisamente,   le   classi)   rispetto   agli   istituti.   A  
conferma   di   ciò   valga   la   sintesi   (tabella   3)   prodotta   da   Bosker   e   Schee-­‐‑
rens  (1997)  sui  risultati  emersi  da  ricerche  qualitative,  da  indagini  inter-­‐‑
nazionali  e  sulla  base  di  una  meta-­‐‑analisi  da  loro  condotta  su  un  ampio  
numero  di  ricerche  quantitative.  Tra  le  indagini  internazionali,  si  segnala  
il  lavoro  condotto  da  Postlethwaite  e  Ross  che,  sulla  base  di  una  rianalisi  
24   Prima  Parte  

dei   dati   della   ricerca   IEA-­‐‑SAL14,   delineano   un   “ritratto”   delle   scuole  


maggiormente   efficaci   (definite   utilizzando   le   variabili   di   sfondo   della  
popolazione  studentesca  per  determinare  il  punteggio  atteso  da  sottrarre  
a   quello   ottenuto)   complessivamente   in   linea   con   quanto   emerso   nella  
tabella  2.  
La  tabella  3  sintetizza  in  maniera  efficace  la  sproporzione  tra  il  note-­‐‑
vole   supporto   empirico   ricevuto   dai   processi   più   prossimi   a   livello   di  
classe  rispetto  a  quello  ricevuto  dagli  “alti  livelli”.  Sono  i  fattori  operanti  
a   livello   di   classe   (in   particolare   modalità   di   insegnamento   strutturato,  
come  l’apprendimento  cooperativo  e  il  ricorso  non  sporadico  al  feedback)  
ad  essere  maggiormente  correlati  con  il  rendimento  degli  studenti.    
Il   riconoscimento   della   centralità   della   classe,   pur   non   implicando  
l’individuazione   degli   educatori   come   unici   responsabili   dell’efficacia  
scolastica   (cosa   che   sarebbe   scorretta   sul   piano   dell’inferenza   statistica,  
giacché  a  quel  livello  di  aggregazione  operano  anche  fattori  fuori  dal  lo-­‐‑
ro   controllo),   evidenzia   quanto   meno   il   peso   esercitato   dagli   insegnanti  
sui  risultati  raggiunti  dagli  studenti.  Un  numero  considerevole  di  ricer-­‐‑
che15  mostra  come  la  qualità  dell’insegnante  sia  il  fattore  scolastico  mag-­‐‑
giormente  legato  al  rendimento  degli  studenti.  Resta  il  problema,  per  la  
SER,   della   definizione   operativa   di   cosa   sia   un   insegnante   di   qualità,  
questione   difficilmente   risolvibile   facendo   ricorso   a   disegni   di   ricerca  
meramente  quantitativi,  come  sottolineano  Anthony  e  Goldhaber:  
While  researchers  tend  to  agree  that  teacher  quality  is  an  important  determin-­‐‑
ing  factor  in  influencing  student  outcomes,  there  is  little  consensus  about  the  rela-­‐‑
tionship   between   specific   teacher   credentials   (e.g.,   experience   and   degree   level)  
and   characteristics   (e.g.,   age,   race,   and   ethnicity)   and   teacher   effectiveness.   For  
example,   the   teacher   attributes   commonly   used   for   certification,   recruitment,  
screening,   and   selection   of   teachers   (i.e.,   certification   status,   degree,   and   experi-­‐‑
ence   levels)   are   not   strongly   correlated   with   student   learning   gains.   In   other  
words,   teachers   clearly   matters,   but   teacher   quality   is   not   strongly   related   to   ob-­‐‑
served   teacher   credentials[…].   Consequently,   it   may   be   necessary   to   assess   what  
teachers  are  actually  doing  in  the  classroom,  not  simply  check  their  credentials,  in  
order  to  evaluate  teacher  quality  (Anthony,  Goldhaber,  2004,  p.  5).  

 
 Cfr.  Postlethwaite,  Ross  (1992),  pp.  41-­‐‑47.  
14

  Cfr.   Ferguson   (1998),   Goldhaber   (2002),   Hanushek,   Rivkin,   Kain   (1999),   Clot-­‐‑
15

felter,  Ladd,  Vigdor  (2004),  Goldhaber,  Brewer  (2000),  Hanushek  (1986).  


Misurare  l’efficacia  scolastica   25  

Tabella  3.  Sintesi  dell’evidenza  empirica  apportata  da  diversi  filoni  di  ricerca  
sui   fattori   che   accrescono   l’efficacia   scolastica   (Scheerens,   Bosker   1997,   trad.  
it.:  Giacomantonio  2006).  

Indagini  compa-­‐‑

Sintesi  ricerche  
rative  internaz.  
che  qualitative  
Rassegna  ricer-­‐‑

quantitative  
Fattori  che  accrescono  l’efficacia  scolastica  

Rapporto  insegnanti-­‐‑studenti     -­‐‑0,03   0,02  


Variabili  rela-­‐‑
tive  alle  risor-­‐‑

Formazione  insegnanti     0,00   -­‐‑0,03  


se  

Esperienza  insegnanti       0,04  


Salari  insegnanti       -­‐‑0,07  
Spese  per  allievo       0,20  
Cultura  orientata  alla  produzione   +      
all’organizzazione  scolastica  

Pressione  apprend.  discipline  base   +   0,02   0,14  


Leadership  educativa   +   0,04   0,05  
Fattori  relativi  

Monitoraggio  e  valutazione   +   0,00   0,15  


Cooperazione/consenso   +   -­‐‑0,02   0,03  
Coinvolgimento  genitori   +   0,08   0,13  
Sviluppo  équipe   +      
Alte  aspettative   +   0,20    
Disciplina   +   0,04   0,11  
Opportunità  apprendimento   +   0.15   0,09  
Condizioni  educative  

Tempo  dedicato   0,00/   0,19/  


+  
compiti/compiti  a  casa   -­‐‑0,01  (n.s.)   0,06  
Insegnamento  strutturato   +   -­‐‑0,01   0,11  (n.s.)  
Aspetti   inse-­‐‑ Apprend.  coop.       0,27  
gnamento   strut-­‐‑ Feedback       0,48  
turato   Rinforzo       0,58  
Differenz./adattam.  Istruz.       0,22  
I   numeri   si   riferiscono   alle   correlazioni,   il   livello   delle   quali   può   essere   interpretato   come   segue:  
0,10:  piccola;  0,30:  media;  0,50:  elevata.  +:  influenza  positiva;  n.s.:  statisticamente  non  significativa.  
 
Quanto  al  fenomeno  dei  “piccoli  effetti”  attribuibili  al  livello  scolasti-­‐‑
co  del  processo  di  istruzione,  si  tratta  senza  dubbio  di  un  vero  e  proprio  
rompicapo  per  i  ricercatori  SER.  Come  suggerivano  già  Hill  e  Rowe  nel  
1996,  è  irrealistico  concludere  che  gli  istituti  non  incidano  sul  rendimen-­‐‑
to  degli  studenti:  
The  three-­‐‑level  parameterisation  indicates  that  class  effects  are  very  large  and  
that  the  unique  effect  of  schools  over  and  above  that  due  to  within-­‐‑school  class  dif-­‐‑
ferences  are  relatively  small.  This  does  not  mean  that  schools  do  not  make  a  dif-­‐‑
ference,  but  that  they  do  so  mainly  at  the  level  of  the  class  (Hill,  Rowe,  1996,  p.  
26).  
26   Prima  Parte  

Quel   che   è   da   ripensare,   piuttosto,   è   la   natura   del   rapporto   tra   quel  


che  avviene  a  scuola  e  i  processi  interni  alla  classe.  La  difficoltà  maggio-­‐‑
re  sta  nel  rendere  conto  di  un  contesto,  quello  scolastico,  che,  in  virtù  del  
notevole  grado  di  autonomia  del  quale  godono  gli  attori  più  prossimi  al  
processo   produttivo   (gli   insegnanti),   poco   si   presta   alle   riduzioni   sche-­‐‑
matiche   proposte   dalla   teoria   delle   organizzazioni,   nelle   quali   gli   “alti  
livelli”  (organizzativi  e  amministrativi)  esercitano  effetti  diretti  su  quelli  
inferiori.   Come   sintetizzava   Plewis   nel   1986,   Schools   don’t   teach   pupils,  
teachers   teach   pupils.   La   tabella   3   evidenzia   come   caratteristiche   che   a   li-­‐‑
vello   organizzativo   sono   maggiormente   correlate   con   il   rendimento   de-­‐‑
gli  studenti  la  capacità  di  controllo  dei  progressi  degli  alunni,  il  coinvol-­‐‑
gimento   dei   genitori,   le   aspettative   elevate   del   corpo   docente   e   l’enfasi  
sull’acquisizione  delle  abilità  di  base.  Si  tratta  di  elementi  che  la  lettera-­‐‑
tura  di  riferimento  tende  a  ritenere  caratterizzanti  del  clima  e/o  della  cul-­‐‑
tura  della  scuola,  ovvero  dell’insieme  combinato  di  obiettivi,  valori  e  re-­‐‑
gole,  condivisi  da  dirigenti,  insegnanti  e  studenti  di  un  istituto.  Secondo  
il   progetto   DAASI   (Dispositivo   di   Autovalutazione,   Autoanalisi   e   Svi-­‐‑
luppo  dell’Istituto  Scolastico),  recentemente  avviato  nel  Canton  Ticino,  
il  clima  di  istituto  indica  globalmente  uno  degli  aspetti  fondamentali  dei  processi  
di  apprendimento:  quello  delle  relazioni  che  intercorrono  e  si  stabiliscono  tra  gli  
attori   di   tali   processi.   Con   questa   categoria   si   fa   riferimento   ai   rapporti   di   vario  
genere  e  di  varia  intensità  che  si  sviluppano,  dentro  e  fuori  l’istituto,  tra  docenti,  
allievi  e  tutte  le  altre  componenti  della  scuola  (Berger  2003,  p.  179)16.  
 
Se  la  dimensione  culturale  rappresenta  il  collante  valoriale  e  normativo  
(nei  confronti  del  quale  un  approccio  di  ricerca  di  tipo  qualitativo  può  ri-­‐‑
sultare   estremamente   efficace17),   l’ethos   che   consente   all’istituto   di   deter-­‐‑
minare   le   condizioni   fondamentali   (come   un   clima   ordinato,   a   livello   di  
classe  e  di  scuola)  per  il  successo  scolastico,  resta  tuttavia  da  chiarire:  
1) Se  sia  possibile  agire  su  di  essa,  e  in  che  termini.  

 
 Il  progetto  DAASI  utilizza  cinque  sottocategorie  per  rilevare  il  clima  di  istituto:  
16

le  competenze  personali  degli  operatori  educativi;  le   regole  di  comportamento  che  indi-­‐‑
rizzano  e  orientano  la  vita  all’interno  della  scuola;  le   relazioni  esterne,  i  contatti  esi-­‐‑
stenti  o  auspicati  tra  l’istituto  e  le  famiglie,  gli  enti  locali,  gli  altri  istituti  ecc.;  le  rela-­‐‑
zioni   interne,   gli   scambi   che   avvengono   tra   docenti-­‐‑allievi,   allievi-­‐‑allievi,   docenti-­‐‑
docenti  ecc.;  i  valori,  le  affermazioni  relative  all’equità,  lo  spirito  critico,  la  tolleranza,  
l’educazione  alla  pace  e  gli  “ideali  che  mettono  in  campo  aspettative  in  contesti  più  
ampi”.  
17  Cfr.  Lightfoot  (1983).  
Misurare  l’efficacia  scolastica   27  

2) Fino  a  che  punto  possa  essere  considerata  una  causa,  e  non  un  
effetto,  dell’efficacia  scolastica18.  
 
I  due  interrogativi  rimangono  ancora  aperti,  anche  se  negli  ultimi  an-­‐‑
ni   l’esigenza   di     rivedere   l’influenza   esercitata   dai   fattori   scolastici   sui  
processi   interni   alle   classi   ha   portato   gli   studiosi   SER   a   confrontarsi   in  
maniera   critica19   con   filoni   di   ricerca   più   attenti   ai   processi   di   insegna-­‐‑
mento-­‐‑apprendimento,  come  il  movimento  School  Improvement,  che  pun-­‐‑
ta   alla   descrizione   delle   strategie   messe   in   atto   dagli   istituti   per   ottenere  
miglioramenti  nel  rendimento  degli  studenti.    

 
18   La   “circolarità”   del   rapporto   tra   questo   tipo   di   fattore   e   il   rendimento   degli  
studenti  rappresenta  un  elemento  di  forte  critica  nei  confronti  della  SER,  evidenzia-­‐‑
to   sia   dall’interno   del   filone   di   ricerca   (Goldstein   1980,   Scheerens,   Bosker   1997,  
Goldstein,  Woodhouse  2000)  sia  dall’esterno  (in  maniera  particolarmente  polemica  
da  Lauder,  Jamieson,  Wikeley  1988).  
19   Cfr.   Berger,   Bottani,   Ostinelli   (2003),   Scheerens,   Demeuse   (2005),   Creemers,  

Reezigt  (2005).  
 

Capitolo  terzo  
Il  valore  aggiunto  

Il   valore   aggiunto   è   un   indicatore   di   efficacia   scolastica   che   misura   il  


contributo   specifico   apportato   da   una   scuola   (o   da   una   classe)  
all’incremento   delle   conoscenze     dei   suoi   studenti   al   termine   di   un   de-­‐‑
terminato   periodo   formativo.   Spours   e   Hodgson   evidenziano   l’origine  
economica  del  termine:  
The  term  “value-­‐‑added”  originates  in  economics  when  referring  to  the  differ-­‐‑
ence  between  inputs,  such  as  raw  materials,  and  energy  and  final  outputs  repre-­‐‑
sented  by  the  value  of  sales  […].  In  recent  years,  the  economic  concept  of  “value-­‐‑
added”   has   taken   on   an   additional   meaning   when   associated   with   the   need   for  
advanced  Western  economies  to  focus  on  high  quality  manufacturing  as  a  way  of  
competing   successfully   with   rapidly   growing   economies.   The   term   “value-­‐‑
added”  in  this  context  is  applied  in  goods  whose  quality  and  value  is  increased  
by   high   level   of   technology   and   skill   in   the   manufacturing   process   (Spours,  
Hodgson,  1996,  p.  5)20.  
Anche  nel  caso  dell’istruzione  il  valore  aggiunto  si  fonda  sull’assunto  
che  le  istituzioni  educative  siano  in  grado  di  aggiungere  valore  al  normale  
processo   di   sviluppo   (cognitivo   e   non   solo)   dei   propri   studenti.   Come  
abbiamo  visto  tale  crescita  è  solo  in  parte  attribuibile  agli  istituti,  giacché  
è  il  risultato  di  un’interazione  complessa  tra  l’azione  formativa  esercitata  
dalla  scuola  e  le  influenze  legate  a  fattori  esterni  ad  essa,  come  le  caratte-­‐‑
ristiche   dell’ambiente   famigliare   e   delle   comunità   di   provenienza   degli  
studenti.    
I  modelli  del  valore  aggiunto  forniscono  misure  dell’efficacia  scolasti-­‐‑
ca   basate   sull’analisi   dei   risultati   di   prove   standardizzate   di   profitto  
somministrate  agli  studenti  in  momenti  successivi.  In  tutte  le  formule  di  
produzione  educativa  basate  sul  valore  aggiunto  un  ruolo  fondamentale  
viene   attribuito   alla   determinazione   di   aspettative   rispetto   alla   presta-­‐‑
zione   degli   studenti:   le   scuole   (o   gli   insegnanti)   aggiungono   valore   alla  
formazione  di  un  alunno  quando  il  suo  rendimento  eccede  tali  aspettati-­‐‑
ve.    
La   determinazione   del   punteggio   atteso   si   ottiene   calcolando   la   re-­‐‑
gressione  del  rendimento  in  uscita  rispetto  a  variabili  che  lo  condiziona-­‐‑
no,  ma  sulle  quali  la  scuola  non  può  incidere,  come  il  livello  delle  com-­‐‑
petenze   iniziali   dello   studente   e   il   suo   stato   socio-­‐‑economico.   Il   valore  
 
20  Cit.  in  Saunders  (1999,  p.  237).  
30   Prima  Parte  

aggiunto  è  il  residuo  di  tale  regressione,  ovvero  la  differenza  tra  il  ren-­‐‑
dimento  osservato  e  quello  atteso,  come  evidenziano  Thum  e  Bryk:  
The  general  thrust  of  the  analyses  is  to  compare  a  student’s  observed  test  score  
to  the  prediction  of  how  well  the  student  can  be  expected  to  do  based  on  his  or  
her  performance  during  the  previous  year.  An  estimate  of  the  deviation  from  ex-­‐‑
pectation,   the   student-­‐‑level   residual,   is   considered   the   “value-­‐‑added”   by   the  
teacher  or,  at  a  more  aggregated  level,  by  the  school  (Thum,  Bryk,  1997,  p.  102).    
La  media  dei  residui  degli  studenti  di  un  istituto  fornisce  dunque  la  
misura   di   quanto   quella   scuola   sia   stata   in   grado   di   aggiungere   valore   al  
rendimento  medio  dei  propri  alunni  perché,  come  sottolinea  la  Grisay,    
La  differenza  fra  il  punteggio  teorico  ed  il  punteggio  effettivamente  ottenuto  
da  un  alunno  deve  essere  considerata  come  il  segno  che  ha  progredito  “di  più”  o  
“di  meno”  dei  compagni  che,  inizialmente,  avevano  caratteristiche  simili.  Si  può  
quindi   fare   l’ipotesi   che   altri   fattori   siano   intervenuti:   in   particolare,   che  
l’insegnamento  ricevuto  nella  scuola  frequentata  dall’alunno  sia  stata  più  efficace  
(o  meno  efficace)  di  quello  ricevuto,  in  media,  dagli  alunni  che  avevano  caratteri-­‐‑
stiche  simili  (Grisay,  2002,  p.  19).  
Il  valore  aggiunto  misura  dunque  il  contributo  fornito  da  un  istituto  
ai  progressi  dei  propri  studenti  al  netto  dei  fattori  che  incidono  sul  loro  
rendimento   ma   che   non   sono   attribuibili   all’intervento   della   scuola,   co-­‐‑
me  le  loro  caratteristiche  socioeconomiche  o  il  loro  rendimento  in  entra-­‐‑
ta.    
Secondo   Ladd   e   Walsh   (2002)   la   funzione   di   produzione   educativa  
“ideale“  alla  base  delle  misurazioni  del  valore  aggiunto  è  la  seguente:  
 
(3)         Ait  =  λAit-­‐‑1  +  αRtRt  +  Et  +  βtFit  +  εit  
 
dove  
Ait  è  il  rendimento  di  uno  studente  i  nell’anno  t;  
Ait-­‐‑1  è  il  rendimento  dello  studente  nell’anno  precedente;  
Rt   rappresenta   le   risorse   stanziate,   a   livello   locale   e   non,   a   favore  
dell’istituto,  
Fit  è  un  vettore  dello  stato  socio  economico  degli  studenti  correlato  al  
loro  rendimento;  
Et  rappresenta  la    misura  dell’efficacia  (o  dell’efficienza)  dell’istituto.  
εit    è  l’errore  casuale.  
 
Di  fatto,  come  vedremo,  non  sempre  i  sistemi  di  accountability  o  le  ri-­‐‑
cerche  utilizzano  un  vettore  per  le  caratteristiche  familiari  (F),  molto  ra-­‐‑
Misurare  l’efficacia  scolastica   31  

ramente   ne   introducono   uno   per   le   risorse   stanziate   a   vantaggio   degli  


istituti  (R):  il  modello  “ideale”,  insomma,  non  viene  mai  applicato.  
 
Espresso  come  residuo  di  una  regressione  e,  quindi,  come  differenza  
tra  valore  osservato  e  valore  atteso,  il  valore  aggiunto  per  uno  studente  
assume  valore  negativo  nel  caso  in  cui  il  rendimento  (osservato)  sia  infe-­‐‑
riore  a  quello  atteso,  ovvero  al  rendimento  medio  ottenuto  dagli  studen-­‐‑
ti  che  hanno  le  sue  stesse  caratteristiche.  Essendo  definito  sulla  base  del-­‐‑
le   differenze   tra   i   punteggi   ottenuti   dai   singoli   e   il   punteggio   medio,   la  
somma  del  valore  aggiunto  di  tutti  gli  studenti  è  pari  a  0.  
L’utilizzo   del   valore   aggiunto,   facendo   riferimento   a   un   sistema   a  
somma  zero  (a  conferma  della  natura  relativistica  del  concetto  di  efficacia  
scolastica),   non   fornisce   dunque   informazioni   sul   miglioramento   o   sul  
peggioramento   complessivo   del   sistema   educativo   ma   evidenzia   casi   di  
scuole  particolarmente  efficaci  (o  inefficaci)  e,  se  accompagnato  dalla  ri-­‐‑
levazione   di   informazioni   relative   alle   caratteristiche   di   tali   scuole,   può  
offrire  un  utile  contributo  alla  conoscenza  dei  processi  in  grado  di  accre-­‐‑
scere  (o  ridurre)  il  rendimento  degli  studenti.  
Per   ottenere   una   misurazione   del   valore   aggiunto   sono   dunque   ne-­‐‑
cessarie  sia  misure  del  rendimento  degli  studenti  sia  informazioni  relati-­‐‑
ve   alle   caratteristiche   degli   studenti   in   grado   di   influenzarlo.   Oltre   al  
possesso   di   questi   dati,   un   altro   requisito   fondamentale   per   uno   studio  
sul   valore   aggiunto   è   quello   di   coinvolgere   un   numero   di   scuole   suffi-­‐‑
cientemente  ampio,  in  considerazione  del  fatto  che,  al  termine  di  tali  ri-­‐‑
cerche,  gli  istituti  definiti  significativamente  efficaci  (o  inefficaci)  rappre-­‐‑
sentano  generalmente  meno  di  un  terzo  del  totale  (Sammons  2001).  
 
La  capacità  dei  modelli  che  utilizzano  il  valore  aggiunto  di  isolare  il  
contributo  specifico  di  scuole  e  insegnanti  sul  rendimento  degli  studenti  
consentirebbe  di  rendere  più  efficaci  gli  interventi  di  riforma  del  sistema  
educativo.  Secondo  Drury  e  Doran  
Modern  accountability  systems  that  incorporate  value-­‐‑added  analysis  provide  
an   objective   means   for   assessing   the   effectiveness   of   teachers,   structuring   indi-­‐‑
vidualized   plans   for   professional   development,   evaluating   new   education   pro-­‐‑
grams   and   curricula,   and   driving   instructional   improvement   in   the   classroom  
(Drury,  Doran,  2003,  p.  2).    
Ma   attraverso   il   valore   aggiunto   la   SER   ha   costruito   soprattutto   uno  
strumento  in  grado  di  rispondere  a  una  domanda  chiave  nello  sviluppo  
dei  sistemi  di  accountability:  come  possono  essere  utilizzati  i  rendimenti  
degli  studenti  in  modo  da  fare  luce  sulle  prestazioni  degli  istituti?  Nelle  
32   Prima  Parte  

pagine  seguenti  vengono  presentati  i  recenti  sviluppi  di  sistemi  di  misu-­‐‑
ra  del  valore  aggiunto  ai  fini  di  accountability  a  livello  nazionale  (Inghil-­‐‑
terra),  statale  (Tennessee)  e  distrettuale  (Dallas).  Come  verrà  evidenzia-­‐‑
to,   i   fattori   comuni   che   hanno   reso   auspicabile   e   possibile   l’utilizzo   di  
misure   del   valore   aggiunto   sono   di   duplice   natura:   in   primo   luogo  
l’esistenza  di  una  pressante  richiesta,  da  parte  dell’opinione  pubblica,  di  
informazioni   sulla   qualità   dell’offerta   formativa   degli   istituti   (e,   negli  
USA,  anche  degli  insegnanti);  in  secondo  luogo  la  presenza,  a  livello  na-­‐‑
zionale,  di  un  affidabile  sistema  di  rilevazione  del  rendimento  degli  stu-­‐‑
denti.  
 
 
Valore  aggiunto  e  Accountability  negli  USA:  Tennessee  e  Texas  
 
Nell’ultimo   decennio   negli   USA   si   è   registrato   un   generale   aumento   di  
interesse  nei  confronti  del  valore  aggiunto  come  indicatore  dell’efficacia  
delle  scuole  e  degli  insegnanti.  Molti  stati  hanno  scelto  infatti  di  fondare  
su  rilevazioni  del  valore  aggiunto  i  propri  sistemi  di  accountability.  I  mo-­‐‑
tivi  alla  base  del  successo  di  questo  indicatore  sono  di  duplice  natura:  da  
una   parte   l’evidenza   empirica,   fornita   da   un   numero   crescente   di   ricer-­‐‑
che  statunitensi,  del  peso  esercitato  dagli  insegnanti  sul  rendimento  de-­‐‑
gli   studenti;     dall’altra   l’indirizzo   intrapreso   in   politica   scolastica  
dall’amministrazione  centrale,  che  con  il  No  Child  Left  Behind  Act  (NCLB)  
del   2001   ha   imposto   l’utilizzo   di   prove   standardizzate   ai   fini  
dell’accertamento   del   raggiungimento   degli   obiettivi   educativi   a   livello  
statale,  distrettuale  e  di  istituto.  
I  primi  sistemi  di  accountability  statunitensi  basati  su  misure  del  valo-­‐‑
re  aggiunto  sono  stati  avviati  nello  stato  del  Tennessee  e  nel  distretto  di  
Dallas.  Si  tratta,  come  vedremo,  di  modelli  molto  diversi  tra  loro,  nati  in  
contesti  e  circostanze  differenti  e  con  esiti  opposti  se  si  considera  il  suc-­‐‑
cesso   riscontrato:   il   Tennessee   Value   Added-­‐‑Assessment   System  
(TVAAS),   a   differenza   del   Dallas   Value-­‐‑Added   Accountability   System  
(DVAAS),  è  stato  adottato  anche  da  altri  stati.  

Il  TVAAS  (Tennessee  Value-­‐‑Added  Assessment  System)  


Il  TVAAS  è  il  primo  sistema  di  accountability  basato  sul  valore  aggiunto  
ad  essere  adottato  da  uno  stato.  Il  sistema  confronta  il  rendimento  di  cia-­‐‑
scuno  studente  con  quello  dell’anno  precedente  e  attribuisce  il  guadagno  
Misurare  l’efficacia  scolastica   33  

risultante   da   queste   misure   ai   distretti   scolastici,   alle   scuole   e   agli   inse-­‐‑


gnanti.  
La   misura   del   valore   aggiunto   è   stata   introdotta   nel   Tennesse   nella  
prima   metà   degli   anni   novanta.  Lo   stato   fu   costretto   a   riformare   il   pro-­‐‑
prio   sistema   educativo   a   causa   di   un’azione   legale   intrapresa   nel   1990  
nei   suoi   confronti   dai   distretti   scolastici   delle   zone   rurali.   Motivo   del  
contendere  era  il  sistema  di  finanziamento  scolastico  e  a  prevalere  furo-­‐‑
no  i  distretti.    
Prima  del  1992  il  Tennessee  basava  quasi  esclusivamente  su  una  tassa  
sulle   vendite   il   finanziamento   delle   scuole   e   i   fondi   venivano   prelevati  
su   base   locale.   Lentamente,   però,   lo   stato   ha   visto   la   propria   economia,  
caratterizzata  da  un  sistema  di  piccoli  centri  distribuiti  in  maniera  omo-­‐‑
genea  sul  territorio,  modificarsi  a  causa  della  progressiva  concentrazione  
delle   attività   produttive   e   commerciali   nelle   città   più   importanti.   Tali  
trasformazioni   hanno   comportato   squilibri   notevoli   nella   distribuzione  
dei   finanziamenti   scolastici,   a   svantaggio   dei   centri   rurali,   dove   alcune  
scuole  dovettero  persino  rinunciare  al  servizio  di  trasporto  degli  studen-­‐‑
ti.  Fu  a  causa  di  difficoltà  simili  che,  nel  1990,  i  distretti  rurali    intrapre-­‐‑
sero  l’azione  legale  nei  confronti  dello  stato  del  Tennessee.  La  corte  sta-­‐‑
bilì  che,  dato  che  la  spesa  per  studente  nelle  zone  urbane  dello  stato  era  
il  doppio  rispetto  a  quella  delle  zone  rurali,  il  sistema  di  finanziamento  
era  iniquo  e,  quindi,  incostituzionale.  
Dopo   la   sentenza   i   legislatori   optarono   per   un   aumento   delle   tasse  
sulle   vendite,   destinando   ai   distretti   più   poveri   gli   introiti   legati   a   tale  
aumento.   Per   aumentare   le   tasse,   i   politici   cercarono   l’appoggio   degli  
esponenti   del   mondo   economico   locale   i   quali,   dovendosi   sobbarcare  
una  maggiore  pressione  fiscale,  pretesero  piena  trasparenza  riguardo  al-­‐‑
le   modalità,   all’efficienza   e   all’efficacia   con   cui   il   sistema   educativo  
avrebbe   impiegato   le   accresciute   risorse   destinategli.   Gli   imprenditori  
locali   esigevano   un   sistema   di   accountability   che   fosse   in   grado   di   con-­‐‑
trollare  l’operato  dei  distretti  scolastici  (i  sovrintendenti  dovevano  essere  
nominati  da  comitati  appositamente  eletti),  degli  istituti  (i  dirigenti  sco-­‐‑
lastici  dovevano  essere  vincolati  a  contratti  legati  a  determinati  livelli  di  
prestazione)  e,  infine,  dei  singoli  insegnanti  (che  avrebbero  dovuto  esse-­‐‑
re  giudicati  sulla  base  dei  tassi  di  abbandono,  del  livello  di  competenza  e  
del  miglioramento  nel  rendimento  dei  propri  studenti).    
I  primi  abbozzi  dell’Education  Improvement  Act  (EIA)  possedevano  tut-­‐‑
ti   i   requisiti   richiesti   dagli   imprenditori   locali   tranne   quello   relativo   al  
miglioramento  all’efficacia  degli  insegnanti,  fatto  evidenziato  in  maniera  
cruda  da  un  politico  locale,  che  sentenziò:  What  we  want  to  know  is  who’s  
34   Prima  Parte  

teaching  and  who’s  not!  Fu  l’affannosa  ricerca  di  risposte  a  questa  doman-­‐‑
da  che  portò  i  politici  a  optare  per  un  sistema  di  accountability  incentrato  
sul   valore   aggiunto,   basato   sulle   ricerche   condotte   nel   decennio   prece-­‐‑
dente  da  un  gruppo  di  ricercatori  dell’Università  del  Tennessee  guidati  
da  Sanders.  Il  gruppo  di  ricerca  assicurava  che  il  loro  metodo  era  in  gra-­‐‑
do   di   misurare   l’apporto   di   distretti   scolastici,   istituti   e   insegnanti   sul  
rendimento  degli  studenti.      
Il  modello  di  Sanders  sembrava  la  soluzione  a  tutti  i  problemi:  convo-­‐‑
cato  a  Nashville  (capitale  dello  stato),  lo  stesso  Sanders  illustrò  il  suo  si-­‐‑
stema  all’esecutivo  e  ai  legislatori,  risultando  tanto  convincente  da  spin-­‐‑
gere   i   politici,   in   soli   sette   giorni,   a   modificare   l’EIA   sulla   base   di   uno  
studio   preparato   appositamente   dal   ricercatore   (la   lettera  
dell’emendamento   era   modellata   tanto   strettamente   sul   lavoro   di   San-­‐‑
ders  che,  come  rilevano  Ceperley  e  Reel  (1997,  p.  133),  persino  la  biblio-­‐‑
grafia   venne   inclusa   nella   normativa).   L’Education   Improvement   Act   così  
definisce  il  Tennessee  Value-­‐‑Added  Assessment  System:  
A  statistical  system  [...]  which  uses  measures  of  student  learning  to  enable  the  es-­‐‑
timation  of  teacher,  school,  and  school  statistical  distributions  [...]  to  account  for  
differences   in   prior   student   attainment,   such   that   the   impact   which   teacher,  
school  and  school  district  have  on  the  educational  progress  if  students  may  be  es-­‐‑
timated  on  a  student  attainment  constant  basis.  

Il  funzionamento  del  TVAAS  


Nel  Tennessee,  dal  1994,  vengono  stabiliti  standard  di  rendimento  per  le  
scuole   e   per   i   distretti:   utilizzando   dati   raccolti   attraverso   il   Tennessee  
Comprehensive  Assessment  Program  (TCAP),  tutte  le  scuole  e  i  distretti  so-­‐‑
no  tenuti  a  evidenziare  un  progresso  medio  in  ciascuna  delle  cinque  ma-­‐‑
terie   oggetto   di   misura   (scienze,   matematica,   studi   sociali,   lettura   ed  
educazione  linguistica)  almeno  pari  a  quello  statale.  In  caso  di  fallimen-­‐‑
to,   le   scuole   e   i   distretti   devono   mostrare   dei   miglioramenti   negli   anni  
successivi.   Un   ulteriore   fallimento   comporta   l’amministrazione   control-­‐‑
lata.  
Nel   Tennessee   i   test   del   TCAP   somministrati   agli   studenti   sono   stati  
costruiti   in   modo   da   poter   disporre   i   risultati   ottenuti   di   anno   in   anno  
dagli   alunni   lungo   una   scala   longitudinale.   In   tal   modo,   la   misura   del  
miglioramento   (gain)   ottenuto   nel   corso   di   un   anno   da   uno   studente   è  
data  dalla  differenza  tra  il  punteggio  al  test  somministrato  in  quell’anno  
e  il  punteggio  dell’anno  precedente.  Sulla  base  dei  gain  aggregati  a  livel-­‐‑
Misurare  l’efficacia  scolastica   35  

lo  di  classe,  scuola  e  distretto,  viene  misurata  l’efficacia  di  insegnanti,  di-­‐‑
rigenti  e  sovrintendenti.  
Secondo  i  ricercatori  che  hanno  ideato  il  TVAAS21,  l’utilizzo  dei  gain  
consente,   da   solo,   di   ottenere   misure   del   rendimento   degli   studenti   al  
netto  dei  fattori  legati  al  loro  contesto  socio-­‐‑economico:  vista  l’alta  corre-­‐‑
lazione   tra   tali   fattori   e   il   rendimento   dello   studente,   l’inclusione   nel  
modello  del  rendimento  dello  studente  nell’anno  precedente  consente  di  
tenere  sotto  controllo  tale  influenza.  In  tal  modo  ogni  studente  funge  da  
controllo  su  se  stesso:  
By   taking   advantage   of   the   longitudinal   aspect   of   the   data,   each   students  
serves   as   his   or   her   “control”.   In   other   words,   each   child   can   e   thought   as   a  
“blocking  factor”  that  enables  the  estimation  of  school  system,  school  and  teacher  
effects   free   of   the   socio-­‐‑economic   confoundings   that   historically   have   rendered  
unfair  any  attempt  to  compare  districts  and  school  based  on  inappropriate  com-­‐‑
parison  of  group  means  (Sanders,  Saxton,  Horn,  1997,  p.  138).  
 
Il  sistema  del  Tennessee  fa  dunque  a  meno  delle  variabili  legate  allo  
stato  socio-­‐‑economico  di  studenti,  classi  e  istituti.  Alla  base  del  TVAAS  
c’è  un’equazione22  che  esprime  il  punteggio  di  uno  studente  alla  fine  di  
un  anno  scolastico  come  la  somma  di  tre  componenti:  
• La  media  del  distretto  scolastico  per  quella  classe.  
• L’effetto  dell’insegnante  (class  effect).  
• Cambiamenti  sistematici  e  non.  
 
In  tal  modo,  la  differenza  tra  il  punteggio  dello  studente  e  il  punteg-­‐‑
gio  medio  del  distretto  viene  attribuita  all’insegnante  (assieme  ai  contri-­‐‑
buti   di   variazioni   non   determinate,   incluso   l’errore   di   misura).   Quando  
lo   studente   passa   da   un   anno   al   successivo,   il   modello   utilizza   quattro  
componenti:  
• La  media  del  distretto  per  quella  classe  in  quell’anno.  
• L’effetto  dell’insegnante  per  quell’anno.  
• L’effetto  dell’insegnante  dell’anno  precedente.  
• Cambiamenti  sistematici  e  non.  
 

 
21  Sul  funzionamento  del  TVAAS  vedi  Braun  (2005),  McCaffrey,  Lockwood,  Ko-­‐‑

retz,  Hamilton  (2003),  Sanders,  Saxton,  Horn  (1997).  


22  Cfr.  Braun  (2005,  pp.  11-­‐‑12).  
36   Prima  Parte  

Infine,  sottraendo  il  punteggio  del  primo  anno  a  quello  del  secondo,  
si  ottiene  il  gain  ottenuto  dallo  studente,  che  viene  considerato  funzione  
di  tre  componenti:  
• Gain  medio  di  quella  classe  nel  distretto.  
• Effetto  dell’insegnante  dell’ultimo  anno.  
• I  due  errori.  
 
Ignorando  gli  errori,  l’effetto  dell’insegnante  dell’ultimo  anno  è  dun-­‐‑
que  dato  dalla  differenza  tra  il  gain  ottenuto  dallo  studente  e  il  gain  me-­‐‑
dio   a   livello   di   distretto.   Infine,   inserendo   nel   sistema   dati   di   anni   suc-­‐‑
cessivi  per  diverse  classi  e  per  diverse  materie,  la  misura  dell’efficacia  di  
un  insegnante  si  basa  sui  seguenti  elementi:  
• La  crescita,  registrata  per  un  certo  numero  di  anni,  nel  rendi-­‐‑
mento  dei  suoi  studenti,  corretta  per  gli  effetti  degli  insegnanti  
precedenti.  
• La  crescita  dei  suoi  studenti  negli  anni  successivi.  
• I   rendimenti   dei   suoi   studenti   nei   diversi   ambiti   disciplinari  
per  un  certo  numero  di  anni,  appropriatamente  corretti  per  il  
contributo  degli  altri  insegnanti.  
 
I  sostenitori  del  TVAAS  evidenziano  come  il  sistema,  a  differenza  de-­‐‑
gli  altri  modelli  per  il  calcolo  del  valore  aggiunto,  sia  estremamente  effi-­‐‑
ciente.   Il   sistema   fornisce   in   primo   luogo   indici   dell’efficacia   di   inse-­‐‑
gnanti,  dirigenti  e  sovrintendenti  senza  la  necessità  di  raccogliere  infor-­‐‑
mazioni  sul  retroterra  socio-­‐‑economico  degli  studenti.  Inoltre  il  TVAAS  
viene  considerato  efficiente,  dato  che  consente  di  conservare  nel  modello  
i   dati   degli   studenti   assenti   in   una   delle   somministrazioni.   Questo   ulti-­‐‑
mo   aspetto   sta   giocando   un   ruolo   fondamentale   nel   successo   recente-­‐‑
mente   riscontrato   dal   sistema.   Dall’approvazione   del   NCLB,   il   modello  
di  Sanders,  con  il  nuovo  acronimo  EVAAS  (Educational  Value-­‐‑Added  As-­‐‑
sessment  System),  è  stato  adottato  da  un  numero  crescente  di  stati.  

Il  DVAAS  (Dallas  Value-­‐‑Added  Accountability  System)  


I  legami  tra  lo  sviluppo  della  ricerca  sull’efficacia  scolastica,  le  richieste  
di  equità  sociale  e  le  esigenze  poste  dai  moderni  sistemi  di  accountability  
trovano  un  evidente  riscontro  nel  DVAAS  e  nella  sua  storia.  Alle  radici  
dell’attuale  sistema  di  accountability  del  distretto  di  Dallas,  che  dal  1992  
utilizza   il   valore   aggiunto   come   indicatore   di   efficacia   di   istituti   e   inse-­‐‑
Misurare  l’efficacia  scolastica   37  

gnanti,  ci  sono  infatti  oltre  due  decenni  di  ricerca  sull’efficacia  delle  ini-­‐‑
ziative  volte  a  contrastare  la  segregazione  razziale  in  campo  educativo.      
Nel  1971,  in  seguito  a  proteste  e  disordini  razziali  scoppiati  nella  se-­‐‑
conda   metà   degli   anni   sessanta,   viene   avviata   una   controversia   legale  
contro   il   sistema   scolastico   del   distretto   che   nel   1990   porta   la   Commis-­‐‑
sione   per   l’Eccellenza   in   Educazione   a   raccomandare   lo   sviluppo   di   un  
sistema  di  accountability  imparziale,  basato  su  fairness  variables  (variabili  
“di  equità”:  fanno  riferimento  allo  stato  socio-­‐‑economico  e  al  gruppo  et-­‐‑
nico   di   appartenenza   degli   studenti)   e   in   grado   di   misurare,   oltre  
all’efficacia   degli   istituti,   quella   degli   insegnanti.   Il   precedente   sistema,  
in   vigore   nel   distretto   dal   1984,   era   basato   sulla   somministrazione,   di  
anno   in   anno,   di   test   standardizzati   agli   alunni:   le   scuole   più   efficaci  
erano  quelle  in  cui  i  risultati  degli  studenti  eccedevano  maggiormente  i  
tassi  di  crescita  attesi.    
Avviato   nel   1992,   il   DVAAS   raccoglie   le   indicazioni   della   Commis-­‐‑
sione:   utilizza   infatti   una   combinazione   di   regressioni   multiple   (con  
l’introduzione   delle   fairness   variables   come   variabili   indipendenti)     e   di  
modelli  gerarchici  per  il  calcolo  degli  indici  di  efficacia  ai  vari  livelli  del  
sistema   scolastico.   Lo   sviluppo   del   DVAAS,   inoltre,   è   stato   improntato  
alla   massima   trasparenza   e   alla   partecipazione   pubblica   degli   stakehol-­‐‑
ders:  l’Accountability  Task  Force  (ATF)  un  gruppo  di  lavoro  composto  da  
genitori,  insegnanti,  dirigenti  scolastici,  rappresentanti  della  comunità  e  
dell’imprenditoria,   ha   svolto   infatti   un   ruolo   decisivo   nella   scelta   delle  
variabili   da   utilizzare   e   del   peso   da   assegnare   a   ciascuna   di   esse,   nella  
formulazione  delle  regole  del  sistema,  delle  misure  da  effettuare  e  delle  
conseguenze  legate  a  tali  misure.  

Il  funzionamento  del  DVAAS  


Il  DVAAS  utilizza  un  sistema  a  tre  livelli  per  la  misurazione  dell’effetto  
degli   insegnanti23.   Nel   primo   stadio   viene   rimossa,   con   una   regressione  
lineare,   l’incidenza   delle   fairness   variables   sui   punteggi   degli   studenti.    
Secondo  i  ricercatori  che  hanno  sviluppato  il  sistema,  questo  primo  pas-­‐‑
saggio,  oltre  a  fornire  i  punteggi  successivamente  utilizzati  per  la  misu-­‐‑
razione  dell’efficacia  a  livello  di  istituto  e  di  classe,  ha  una  precisa  valen-­‐‑
za  “politica”:  

 
23  Per  il  funzionamento  del  DVAAS,  vedi  McCaffrey,  Lockwood,  Koretz,  Hamil-­‐‑

ton  (2003,  pp.  45-­‐‑46),  Webster,  Mendro  (1997,  pp.  85-­‐‑88).      


38   Prima  Parte  

By  regressing  against  the  fairness  variables  and  their  interactions,  levelling  of  ex-­‐‑
isting  differences  associated  with  the  fairness  variables  is  demonstrated  by  com-­‐‑
puting   subgroup   and   marginal   means   at   the   end   of   the   first   stage.   The   political  
advantages   if   this   simple   calculations   cannot   be   overemphasized   (no   one   trusts  
statistical  manipulations  unless  he  or  she  can  see  their  effects  demonstrated;  it  is  
not  enough  to  say  one  has  controlled  for  the  fairness  variables)  (Webster,  Mendro,  
1997,  p.  85).  
 
Nel   secondo   stadio,   utilizzando   una   regressione   multilivello,   il   sistema  
considera  il  residuo  ottenuto  nel  primo  passaggio  in  funzione  del  punteg-­‐‑
gio   ottenuto   l’anno   precedente   (al   netto   delle   fairness   variables)   e   di   alcune  
variabili  a  livello  scolastico  (tra  le  quali:  l’affollamento  dell’istituto,  un  indi-­‐‑
catore  della  ricchezza  media  delle  famiglie,  le  percentuali  di  studenti  neri,  
ispanoamericani   o   appartenenti   a   minoranze   etniche,   di   studenti   esentati  
dal  pagamento  della  mensa).  
Nel  terzo  grado  di  analisi  gli  “effetti  degli  insegnanti”  vengono  calco-­‐‑
lati  sulla  base  della    media  dei  residui  del  secondo  stadio  calcolata  a  li-­‐‑
vello  di  classe.  
 
Il   sistema   di   accountability   a   livello   di   istituto   stabilisce   premi   per   le  
scuole  definite  efficaci  e  aiuti  per  quelle  definite  inefficaci.  I  membri  de-­‐‑
gli   staff   educativi   delle   scuole   in   cui   i   risultati   degli   studenti   eccedono  
maggiormente  le  aspettative  ricevono  una  somma  che  va  dai  240  ai  1000  
dollari.   Va   segnalato   che   nessun   premio   è   previsto   per   gli   staff   delle  
scuole   che,   pur   risultando   efficaci   (in   termini   di   confronto   tra   attese   e  
rendimento   effettivo   degli   studenti)   non   raggiungono   standard   minimi  
di   prestazione:   su   tale   scelta   è   stata   decisiva   la   pressione   esercitata  
dall’ATF.  Gli  aiuti  per  le  scuole  definite  inefficaci  vanno  dall’erogazione  
di  servizi  e  dallo  stanziamento  di  risorse  supplementari  alla  sostituzione  
(in  caso  di  una  successione  di  risultati  negativi)  del  dirigente  scolastico.  
 
Anche  nel  caso  del  sistema  di  accountability  degli  insegnanti,  il  distret-­‐‑
to  ha  optato  per  la  strada  della  condivisione  e  della  responsabilizzazione  
dei  soggetti  sottoposti  a  valutazione  e  degli  stakeholders.  Un  comitato  di  
insegnanti,   loro   rappresentanti,   dirigenti,   esponenti   della   comunità,  
amministratori  e  genitori,  la  Teacher  Evaluation  Task  Force  (TETF),  ha  avu-­‐‑
to   il   compito   di   sviluppare   strumenti   e   procedure   necessari   alla   costru-­‐‑
zione  di  un  sistema  di  valutazione  degli  insegnanti.  Il  TETF  ha  affronta-­‐‑
to  molti  problemi,  come  quelli  relativi  ai  modi  e  ai  tempi  delle  sommini-­‐‑
strazioni,  al  numero  di  osservazioni  necessarie  per  definire  gli  indici  (si  è  
Misurare  l’efficacia  scolastica   39  

optato  per  3  anni  consecutivi),  ai  rapporti  tra  le  variabili  a  livello  di  clas-­‐‑
se   e   le   variabili   a   livello   di   scuola   e   di   distretto   e   all’utilizzo   delle   loro  
misure,   alle   risorse   disponibili   per   gli   interventi   di   innalzamento  
dell’efficacia.  
 
Gli   indici   di   efficacia   degli   insegnanti   (Teacher   Effectiveness   Indexes)  
vengono   forniti   ai   dirigenti   scolastici   a   inizio   anno.   Si   tratta   di   indici  
espressi  in  punti  t:  gli  insegnanti  sono  considerati  efficaci  o  inefficaci  se  
hanno  un  punteggio  che  si  discosta  di  2  punti  dalla  media  (pari  a  50).  Va  
sottolineato  che,  allo  scopo  di  incentivare  la  cooperazione  tra  educatori  e  
di   evitare   atteggiamenti   competitivi,   nessun   premio   viene   stabilito   per  
insegnanti  efficaci  che  operano  in  istituti  risultati  inefficaci.    
L’utilizzo  dei  Teacher  Effectiveness  Indexes  merita  un  approfondimento.  
In  primo  luogo,  ai  dirigenti  scolastici  e  ai  loro  staff  educativi  è  richiesto  
di   basare   sui   TEI   forniti   annualmente   la   ricerca   delle   cause   che   hanno  
impedito  o  facilitato  il  miglioramento  del  rendimento  degli  studenti.  Un  
compito   dall’esito   tutt’altro   che   scontato,   come   sottolineano   gli   stessi  
William  J.  Webster  e  Robert  L.  Mendro,  che  hanno  sviluppato  e  avviato  
il  DVAAS:  
The  Teacher  Effectiveness  Indexes  provide  an  indicator  that,  for  nearly  teacher  
and  students,  reliably  implies  that  the  teacher  is  effective  or  ineffective  in  prom-­‐‑
ulgating  achievement  gains  with  those  students.  From  there,  it  generally  requires  
focused  inquiry  on  the  part  of  the  principal  or  some  degree  of  self-­‐‑directed  exam-­‐‑
ination  on  the  part  of  the  teacher  to  determine  why  effectiveness  is  present  or  ab-­‐‑
sent.   The   degree   to   which   a   principal   or   a   teacher   can   focus   the   inquiry   or,   in  
some  instances,  the  degree  to  which  resources  are  available  to  help  a  principal  or  
teacher  do  so  is  directly  related  to  the  utility  of  indexes  (Webster,  Mendro,  1997,  
pp.  90-­‐‑91).  
Gli  indici  di  efficacia  degli  insegnanti  sono  stati  inoltre  utilizzati  come  
elemento   fondamentale   di   un   primo   sistema   di   valutazione   formativa  
degli  educatori,  successivamente  modificato.  Sulla  base  di  tali  indici,  gli  
insegnanti   venivano   suddivisi   in   tre   gruppi   e   l’intensità   e   la   frequenza  
delle   iniziative   di   valutazione   era   inversamente   proporzionale  
all’efficacia  di  ciascun  insegnante.      
Il  gruppo  di  insegnanti  con  indici  di  efficacia  non  inferiori  alla  media,  
composto  da  circa  il  40%  degli  educatori,  riceveva  infatti  un’unica  osser-­‐‑
vazione   in   classe   (al   primo   anno   di   ogni   ciclo)   basata   sul   Texas   Teacher  
Appraisal  System,  che  rimaneva  isolata  a  meno  di  un  esito  negativo  o  di  
una  diminuzione  significativa  degli  indici  di  efficacia.  Gli  insegnanti  ap-­‐‑
partenenti  al  gruppo  di  mezzo  (circa  il  50%  del  totale)  erano  oggetto  di  
40   Prima  Parte  

un’osservazione   all’anno,   mentre   gli   appartenenti   al   terzo   gruppo   rice-­‐‑


vevano   una   valutazione   ben   più   intensiva,   comprendente   osservazioni  
periodiche,   assistenza   e   formazione   finché   il   rendimento   degli   studenti  
non  incrementava.  In  caso  di  esiti  negativi,  altri  indicatori  entravano  in  
gioco:  un  portfolio  dell’insegnante,  osservazioni  strutturate  di  classe,  va-­‐‑
lutazione  degli  altri  insegnanti,  ricerche  sui  singoli  studenti  e,  se  neces-­‐‑
sario,  una  valutazione  delle  loro  competenze.  
Dopo  qualche  anno  il  TETF  ha  preteso  sostanziali  modifiche  al  siste-­‐‑
ma   di   valutazione   formativa   degli   insegnanti.   Oltre   all’abbandono   del  
sistema  delle  tre  fasce  (sostituito  da  un  Instructional  Improvement  Plan  per  
ciascun  insegnante),  il  gruppo  di  lavoro  ha  significativamente  ottenuto  il  
cambiamento   di   nome   degli   indici   di   efficacia   degli   insegnanti,   passati  
da  Teacher  Effectiveness  Indexes  a  Classroom  Effectiveness  Indexes.  
 
 
Il  valore  aggiunto  in  Inghilterra  
 
In   Inghilterra   negli   anni   ottanta   la   politica   educativa   del   governo,   deli-­‐‑
neata  negli  interventi  legislativi  del  1980  (Education  Act),  del  1986  (Educa-­‐‑
tion  Act  2)  e,  soprattutto,  del  1988  (Education  Reform  Act,  ERA),  si  è  posta  
come   obiettivo   il   miglioramento   delle   prestazioni   degli   studenti   attra-­‐‑
verso  l’introduzione  nel  sistema  scolastico  di  elementi  di  “libero  merca-­‐‑
to”.   In   generale,   la   maggiore   autonomia   concessa   alle   scuole   ha   avuto  
come  contrappunto  l’aumento  del  potere  decisionale  dei  genitori  dei  lo-­‐‑
ro   alunni.   Molte   competenze   spettanti   prima   alle   autorità   educative   re-­‐‑
gionali  (come  la  scelta  del  numero  degli  insegnanti,  il  reclutamento  e  la  
determinazione  degli  stipendi  di  tutto  il  personale,  docente  e  non)  sono  
state   delegate,   nel   1980,   a   veri   e   propri   “Consigli   di   Amministrazione”  
delle   scuole,   composti   anche   dai   genitori   degli   studenti,   la   cui   rappre-­‐‑
sentanza   è   stata   aumentata   con   la   legge   del   1986.   Nel   complesso   le   tre  
leggi  hanno  conferito  maggiori  possibilità  di  scelta  ai  genitori  in  merito  
all’istituto  da  far  frequentare  ai  propri  figli.  Allo  scopo  di  assistere  le  fa-­‐‑
miglie  in  tale  compito  è  stato  introdotto  l’obbligo,  per  le  scuole  primarie  
e   secondarie,   di   rendere   pubblici   anno   per   anno   i   risultati   dei   propri  
studenti   agli   esami   di   stato.   Il   sistema   di   rilevazione   nazionale   si   basa  
sugli  esami  sostenuti  da  tutti  gli  studenti  nel  corso  di  quattro  “passaggi  
chiave”  (Key  Stage)  della  loro  carriera  scolastica:  
Misurare  l’efficacia  scolastica   41  

• Key  Stage  1,  sostenuto  all’età  di  6-­‐‑7  anni  (seconda  classe  della  
scuola  primaria)  24.  
• Key  Stage  2,  sostenuto  all’età  di  10-­‐‑11  anni  (ultima  classe  della  
scuola  primaria)25.  
• Key  Stage  3,  sostenuto  all’età  di  13-­‐‑14  anni  (terza  classe  della  
scuola  secondaria)26.  
• Key  Stage  4,  sostenuto  all’età  di  15-­‐‑16  anni  (ultima  classe  della  
scuola  secondaria)27.  
 
Se   si   considera   che   il   75%   dei   finanziamenti   alle   scuole   viene   deter-­‐‑
minato   in   base   al   numero   di   studenti   iscritti,   si   capisce   la   necessità   per  
gli  istituti  di  non  sfigurare  nelle  League  Tables  che,  di  anno  in  anno,  com-­‐‑
paiono  sulla  stampa.    
Proprio   l’avallo   governativo   alla   pubblicazione   delle   classifiche   degli  
istituti  basate  sui  risultati  degli  studenti  agli  esami  di  stato  ha  costituito  la  
premessa   fondamentale   dell’intervento   nel   dibattito   politico   educativo   dei  
ricercatori   sull’efficacia   scolastica.   Nel   1988,   lo   stesso   anno   dell’ERA,  
Goldstein  e  Cuttance  avvertivano,  in  un  articolo  apparso  sul  Journal  of  Edu-­‐‑
cation   Policy,   che   avendo   la   vasta   letteratura   di   ricerca   dimostrato   che   “il  
profitto  degli  studenti  in  ingresso  è  la  determinante  singola  più  importante  
del   rendimento   successivo”,   un   sistema   di   valutazione   dell’operato   delle  
scuole   basato   sul   risultato   degli   studenti   si   sarebbe   limitato   a   premiare   le  
scuole  che  iscrivevano  gli  alunni  con  i  voti  più  alti.  Visto  lo  stretto  legame,  
evidenziato   nel   corso   degli   anni   dalla   ricerca,   tra   il   rendimento   degli   stu-­‐‑
denti  e  le  caratteristiche  socio-­‐‑economiche  delle  loro  famiglie,  le  classifiche  
pubblicate  dalla  stampa  erano  da  considerare  inique  perché  sfavorivano  le  
scuole   che   servivano   un’utenza   caratterizzata   da   un   basso   stato   socio-­‐‑
economico  e  inutili  perché  non  aiutavano  i  genitori  a  identificare  gli  istituti  
più  efficaci.  Nei  mesi  successivi  altri  ricercatori  (come  Smith  e  Tomlinson)  
SER  avrebbero  denunciato  l’impossibilità  di  cogliere  il  contributo  specifico  
fornito   dagli   istituti   alla   formazione   degli   alunni   basandosi   solamente   sui  
risultati  “grezzi”  degli  studenti.  

 
24   Le   materie   oggetto   di   esame   al   KS1   sono   le   seguenti:   inglese,   matematica,  
scienze,   tecnologia   informatica,   storia,   geografia,   arte,   musica,   educazione   fisica,  
educazione  alla  cittadinanza.  
25  Le  materie  oggetto  di  esame  al  KS2  sono  le  stesse  del  KS1.  

26  IL  KS3  prevede  l’introduzione,  tra  le  materie  d’esame,  di  una  lingua  straniera.  

27  L’esame  del  KS4  prevede  l’inserimento,  oltre  alle  materie  previste  per  il  KS3,  di  

materie  a  scelta  dello  studente.  


42   Prima  Parte  

Nel   corso   degli   anni   ’90   l’intervento   dei   ricercatoti   SER   nella   discus-­‐‑
sione   sulla   pubblicazione   dei   risultati   degli   istituti   doveva   rivelarsi   de-­‐‑
terminante   per   lo   sviluppo   futuro   del   sistema   nazionale   di   rilevazione  
dei   livelli   di   rendimento   scolastici.   La   SER   avrebbe   posto   all’attenzione  
del  dibattito  politico-­‐‑educativo  il  valore  aggiunto,  ovvero  l’indicatore  di  
efficacia  scolastica  più  avanzato  che  era  stata  in  grado  di  sviluppare.  Va  
segnalato  come,  in  anticipo  sulle  pressioni  politiche,  nel  corso  degli  anni  
’80  la  ricerca  inglese  avesse  intrapreso  studi  sull’analisi  comparata  delle  
prestazioni  degli  istituti,  come  l’A-­‐‑level  Information  System  (ALIS),  relati-­‐‑
vo  al  rendimento  degli  studenti  al  termine  della  scuola  dell’obbligo  e  di-­‐‑
retto   dalla   Fitz-­‐‑Gibbon28.   Nel   1986   i   ricercatori   Gray,   Jesson   e   Jones  
avevano   già   posto   i   termini   del   problema,   chiedendosi:   Under   what   cir-­‐‑
cumstances   we   might   be   justified   in   claming   that   school   A   has   done   “better”  
than  school  B?  
Nel  1991  Nuttall,  che  l’anno  precedente  aveva  condotto  un’analisi  sui  
risultati   al   General   Certificate   of   Secondary   Education   (GCSE),   pubblicava  
un  articolosul  Time  Educational  Supplement  che  non  si  limitava  a  criticare  
la  pubblicazione  di  graduatorie  degli  istituti  basate  sui  punteggi  grezzi,  
ma  richiedeva  esplicitamente  l’utilizzo  di  misure  del  valore  aggiunto  per  
“levigarle”  (l’articolo  si  intitolava  An  instrument  to  be  honed:  Tables  do  not  
reflect  schools’  true  performance):  
For   nearly   30   years,   research   on   school   effectiveness   has   used   the   progress  
made  by  students  from  their  level  of  performance  on  entry  to  their  level  of  per-­‐‑
formance  at  the  time  they  leave,  rather  than  just  their  “raw”  results  at  the  time  of  
leaving.   This   approach,   well   illuminated   by   the   metaphor   of   “value   added”,  
makes  intuitive  sense  and  is  readily  comprehensible  (Nuttall,  1991,  p.  2).  
Dopo  aver  sottolineato  la  necessità  di  utilizzato  misure  del  preceden-­‐‑
te   profitto,   l’articolo   elencava   gli   altri   requisiti   indispensabili   per   uno  
studio  del  valore  aggiunto:  
• Una   gamma   di   misure   di   outcome   sufficientemente   ampia  
(non  solo  i  risultati  al  GCSE).  
• Variabili  di  sfondo  delle  popolazioni  degli  istituti.  
• Analisi  di  diversi  tipi  di  efficacia  (differential  effectiveness),  a  se-­‐‑
conda  delle  aree  disciplinari  oggetto  di  misurazione.  
• Studio  della  variazione  nel  tempo  dell’efficacia.  
•  Utilizzo  dei  modelli  multilivello  come  tecnica  statistica.  
 

 
28  Fitz-­‐‑Gibbon  (1985,  pp.  43-­‐‑58).  
Misurare  l’efficacia  scolastica   43  

Quello  di  Nuttall  doveva  rivelarsi  solo  il  primo  di  una  lunga  serie  di  
articoli,  destinati  anche  a  un  pubblico  non  specialistico,  sull’utilizzo  del  
valore  aggiunto.    
Un  tema  ricorrente  nel  dibattito  era  quello  relativo  all’opportunità  di  
inserire   nel   modello,   oltre   al   rendimento   in   entrata,   variabili   relative   al  
retroterra  socioeconomico  degli  studenti.  È  il  caso  di  evidenziare  come  a  
risolvere  la  questione  sarebbero  state  più  le  considerazioni  etiche  e  psi-­‐‑
cologiche   che   quelle   di   natura   statistica.   Nel   1992   Jesson   evidenziava  
come  l’utilizzo  di  tali  variabili  comportasse  il  rischio  di  determinare,  ne-­‐‑
gli   insegnanti,   aspettative   inferiori   nei   confronti   degli   studenti   con   un  
basso   livello   di   stato   socioeconomico.   Nello   stesso   anno   Wiliam,   in   un  
articolo  comparso  sul  British  Educational  Research  Journal,  sentenziava:  
It  is  extremely  doubtful  that  the  use  of  socio-­‐‑economic  factors  in  value-­‐‑added  
models  will  do  anything  to  combat  under-­‐‑achievement  by  pupils,  and  may  serve  
to  consolidate  it  (Wiliam,  1992,  p.  33).  
L’argomento,   affiancato   dalla   considerazione   che   nelle   analisi   la   va-­‐‑
riabile  maggiormente  predittiva  dei  risultati  agli  esami  risultava  essere  il  
rendimento  precedente,  avrebbe  esercitato  un  ruolo  fondamentale  nella  
scelta  di  non  utilizzare  i  fattori  socioeconomici  per  calcolare  il  valore  ag-­‐‑
giunto.   Gli   interventi   di   Williams   Gray   (1993   e   1996),   Thomas   e   Morti-­‐‑
more   (1996)   avrebbero,   almeno   per   il   momento,   “chiuso”   la   questione,  
schierandosi  a  favore  dell’utilizzo  del  solo  rendimento  precedente  come  
variabile  di  background.  
 
Sebbene  la  maggior  parte  dei  ricercatori  nutrisse  serie  perplessità  nei  
confronti   di   un   sistema   di   accountability   basato   sulla   pubblicazione   di  
classifiche   degli   istituti,   gradualmente,   anche   nell’opinione   pubblica,   si  
andava  facendo  strada  l’idea  di  utilizzare  il  valore  aggiunto  come  misu-­‐‑
ra  su  cui  basare  la  pubblicazione  di  graduatorie  più  eque  e  utili  rispetto  
alle  Raw  League  Tables.  
Nella  prima  metà  del  1994  l’esecutivo  mostrava  ancora  una  certa  dif-­‐‑
fidenza   nei   confronti   dell’utilizzo   del   valore   aggiunto,   come   testimonia  
la  Saunders:  
even  when  the  principle  of  value  added  had  been  much  more  clearly  understood  
and   its   practical   possibilities   advanced   to   the   point   of   several   systems   and   ser-­‐‑
vices  being  available,  the  Secretary  of  State  for  Education  [John  Patten,  n.d.a.]  in  
1993-­‐‑1994   was   adamant   that   the   results   which   were   anything   other   than   “raw”  
must  be  “cooked”.  He  refuse  to  give  official  support  to  what  he  apparently  con-­‐‑
strued  as  another  trick  in  the  educational  mafia  book  (Saunders,  1999b,  p.  1).  
44   Prima  Parte  

Le  resistenze  del  mondo  politico  sarebbero  state  superate  nel  giro  di  
pochi   mesi,   determinante   in   questo   senso   fu   l’avvento   al   ministero  
dell’istruzione   di   Gillian   Shepard,   conservatore   come   il   predecessore,  
che   diede   mandato   alla   School   Curriculum   and   Assessment   Authority  
(SCAA)  di  avviare  la  progettazione  di  un  sistema  di  rilevazione  naziona-­‐‑
le  basato  sul  valore  aggiunto  (il  Value  Added  Project29).    
Tra  il  1995  e  il  1997  i  rapporti  della  SCAA  suggerivano  di  basarsi  sul  
rendimento  degli  studenti  ai  quattro  esami  di  stato  per  produrre  misure  
del   valore   aggiunto   alle   loro   prestazioni   rispettivamente   dalla   scuola  
primaria  (utilizzando  il  KS1  come  variabile  di  input)  e  da  quella  secon-­‐‑
daria   (utilizzando   prima   il   KS2   e   poi   il   KS3   come   variabili   di   input).   Il  
successivo   avvento   di   ministri   laburisti   non   avrebbe   comportato   muta-­‐‑
menti  di  rotta:  nel  1998  venivano  pubblicati  i  primi  risultati  del  progetto,  
mentre  le  classifiche  del  valore  aggiunto  vengono  regolarmente  pubbli-­‐‑
cate,   per   le   scuole   primarie   e   per   quelle   secondarie,   dal   2002.   Nel   con-­‐‑
tempo,   nel   1997,   veniva   istituita   la   Standard   and   Effectiveness   Unit  
all’interno  del  dipartimento  per  l’educazione,  con  a  capo  alcuni  ricerca-­‐‑
tori  SER.  Come  vedremo,  questa  “affiliazione”  (espressione  suggerita  da  
Goldstein   e   Woodhouse   nel   2000)   della   ricerca   all’interno   della   politica  
educativa  del  New  Labour  era  destinata  a  suscitare  perplessità  e  dibattiti  
accesi  tra  i  ricercatori.  
 
Le  misurazioni  del  valore  aggiunto  rivestono  dunque  un  ruolo  ormai  
consolidato   nel   sistema   di   accountability   inglese.   Nella   figura   2   viene   ri-­‐‑
portata  la  “classifica”  degli  istituti  primari  aggiornata  al  mese  di  ottobre  
2006   estratta   da   una   pagina   del   sito   web   della   BBC30.   Accanto   a   misure  
“grezze”   del   rendimento   medio   degli   studenti   al   KS2   (la   colonna   APS,  
Average  Point  Score,  riporta  il  punteggio  medio  conseguito  dagli  studen-­‐‑
ti),  viene  riportato  il  valore  aggiunto  (colonna  VA)  dall’istituto  alle  pre-­‐‑
stazioni   medie   degli   studenti   (calcolato   prendendo   in   considerazione,  
come  variabile  di  retroterra,  il  solo  risultato  degli  alunni  al  KS1).    

 
 Fitz-­‐‑Gibbon  (1995),  Trower,  Vincent  (1995).  
29

  news.bbc.co.uk/1/shared/bsp/hi/education05/school_tables/primary-­‐‑schools/  
30

html  
Misurare  l’efficacia  scolastica   45  

 
Figura  2.  “Classifica”  delle  scuole  primarie  pubblicata  sul  sito  della  BBC.  Le  colonne  in-­‐‑
dicano   rispettivamente   il   distretto   educativo   (LEA),   il   punteggio   medio   degli   studenti  
agli  esami  di  stato  (APS),  il  valore  aggiunto  (VA).  
 
 
46   Prima  Parte  

Nella  pubblicazione  dei  punteggi  del  valore  aggiunto  il  ministero  ha  
scelto  di  elevare  da  0  a  100  la  media  dei  residui  della  regressione  effet-­‐‑
tuata   sul   rendimento   degli   studenti   che   hanno   sostenuto   il   KS2.   Tale  
scelta  ha  evitato  che  venissero  riportati  punteggi  inferiori  allo  zero  per  le  
scuole  con  valore  aggiunto  al  di  sotto  della  media.  Si  è  trattato,  con  ogni  
probabilità  (Wilson  2003),  di  una  scelta  frutto  di  un  compromesso  tra  il  
ministero  e  il  mondo  della  scuola.    
Dal   sito,   inoltre,   è   possibile   ottenere   informazioni   aggiuntive   sulle  
prestazioni  degli  istituti  (come  l’andamento  degli  studenti  negli  ultimi  3  
anni  rispetto  a  diverse  aree  disciplinari)  e  sono  disponibili  on  line  i  det-­‐‑
tagliati  rapporti  redatti  dagli  ispettori  dell’OFSTED  (Office  for  Standard  in  
Education)31  scuola  per  scuola.  
 
La  questione  relativa  alle  variabili  legate  al  background  degli  studenti  
è  di  nuovo  all’ordine  del  giorno  in  Inghilterra.  Recentemente  il  ministero  
ha   deciso   di   avviare   uno   studio   sull’opportunità   di   introdurre   nel   mo-­‐‑
dello   di   calcolo   del   valore   aggiunto   le   variabili   relative   al   retroterra   so-­‐‑
cioeconomico  degli  studenti.  Con  ogni  probabilità  le  prossime  graduato-­‐‑
rie  delle  scuole  saranno  così  arricchite  di  un  secondo  indicatore  di  valore  
aggiunto,   il   Contextual   Value   Added,   calcolato   sulla   base,   oltre   che   del  
rendimento  precedente,  anche  del  genere,  del  gruppo  etnico  di  apparte-­‐‑
nenza  e  di  altre  caratteristiche  legate  al  retroterra  degli  studenti.  
Va  infine  segnalato  come  in  Inghilterra  sia  in  atto  il  tentativo  di  basa-­‐‑
re   la   valutazione   formativa   degli  staff   educativi   delle   scuole   su   un   rap-­‐‑
porto  dialettico  tra  l’autovalutazione  di  istituto  (che  prende  come  punto  
di  riferimento  anche  le  misure  di  valore  aggiunto)  e  la  valutazione  ester-­‐‑
na  (incentrata  sui  resoconti  dell’OFSTED  e  sui  risultati  agli  esami  e  sulle  
misure   del   valore   aggiunto).   Si   tratta   di   un   equilibrio   talvolta   compro-­‐‑
messo   dalle   frizioni   legate   alla   pubblicazione   delle   League   Tables   e   dei  
rapporti   OFSTED,   che   determinano   reazioni   di   chiusura   da   parte   degli  
educatori,   allarmati   dal   prevalere,   all’interno   del   processo   valutativo,  
delle  istanze  sommative  e  di  controllo  esterno  rispetto  a  quelle  formative  
(Cfr.  MacBeath,  McGlynn,  2002).  

 
  Le   ispezioni   sono   compiute   ogni   tre   anni   (nelle   scuole   che   ottengono   un   ren-­‐‑
31

dimento   al   di   sotto   delle   aspettative   sono   più   frequenti),   senza   alcun   preavviso.   I  
rapporti  contengono  informazioni  relative  alla  qualità  dei  processi  educativi  e  ai  ri-­‐‑
sultati  ottenuti  dagli  studenti  della  scuola.    
 

Capitolo  quarto  
L’utilizzo  del  valore  aggiunto:  problemi  e  prospettive  

Validità  del  valore  aggiunto  come  indicatore  di  Efficacia  Scolastica  


 
Definita  nei  termini  di  un  residuo  statistico,  l’efficacia  scolastica  misura-­‐‑
ta  dai  modelli  di  valore  aggiunto  viene  interpretata  come  la  parte  delle  
prestazioni  degli  studenti  non  spiegata  dalla  formula  di  produzione  edu-­‐‑
cativa  utilizzata.  Si  tratta  di  una  definizione  “per  difetto”  che,  come  so-­‐‑
stengono   non   pochi   ricercatori   (Braun   2005,   McCaffrey   et   al.   2003,  
Kupermintz  2003)  è  ancora  in  attesa  di  una  validazione  per  criterio:  
To  assume  that  we  can  interpret  such  a  variable  -­‐‑   defined  in  term  of  what  is  
not  -­‐‑   would  be  unwise,  even  in  a  field  where  the  theoretical  relationship  between  
variables   were   well   understood.   It   is   hard   to   believe   that   no   systematic   attempt  
has   ever   been   made   to   justify   the   validity   of   the   statistical   calculation   of   “effec-­‐‑
tiveness”,  as  defined  in  the  “residual”  model.  Its  interpretability  has  rested  entire-­‐‑
ly  on  common  sense  and  plausibility,  which  would  be  fine  as  a  starting  point,  but  
which   are   surely   wholly   inadequate   as   a   basis   for   a   mature   research   discipline,  
and  even  more  so  when  used  to  make  vital  judgements  about  individual  schools.  
It   therefore   seems   to   know   to   what   extent   ratings   of   “effectiveness”,   defined   by  
such   a   “residual”   model,   are   validated   by   other   independent   and   reliable  
measures  of  the  effect  of  schooling,  and  to  what  extent  expected  relationship  with  
other  construct  are  found  (Coe,  Fitz-­‐‑Gibbon,  1998,  p.  423).  
Altro   aspetto   critico   del   costrutto   dell’indicatore   dell’efficacia   delle  
scuole   e/o   degli   insegnanti   è   quello   legato   agli   output   considerati   nel  
calcolo   del   valore   aggiunto.   Generalmente,   come   abbiamo   evidenziato,  
la  scelta  ricade  su  misure  relative  a  poche  materie  e  pertanto  gli  istituti  
vengono  definiti  efficaci  solo  sulla  base  della  loro  capacità  di  aggiungere  
valore   al   rendimento   degli   studenti   in   ambiti   che   non   esauriscono   certo  
l’ampia  gamma  di  obiettivi,  cognitivi  e  non,  che  la  scuola  si  prefigge.  Se  
poi   la   misurazione   viene   effettuata   esclusivamente   attraverso   l’utilizzo  
di  prove  oggettive  di  profitto,  la  necessità  di  una  validazione  per  criterio  
si  propone  con  maggiore  urgenza:    
 As   a   somewhat   extreme   example   but   one   that   makes   the   point,   suppose   a  
teacher   was   very   good   at   teaching   test-­‐‑taking   skills   to   all   students.   This   teacher  
would  have  a  large  positive  effect  because  he  was  effective  at  teaching  test-­‐‑taking  
skills   but   he   might   not   conform   to   other   notions   of   effectiveness.   If   we   are   to  
make  inferences  about  teachers,  the  outcomes-­‐‑based  definition  of  effects  might  be  
insufficient  without  additional  investigations  showing  that  positive  effects  corre-­‐‑
48   Prima  Parte  

spond  to  other  notions  of  effective  teaching  […].  If  empirical  estimates  of  teacher  
effects  do  not  correlate  with  other  generally  accepted  traits  of  effective  teachers,  
we  might  be  concerned  that  our  statistical  estimation  of  teacher  effects  is  too  er-­‐‑
ror-­‐‑prone   (due   to   sampling   or   systematic   errors)   to   be   useful   (McCaffrey   et   al.,  
2003,  p.  14).  
Un’utile   riflessione   è   dunque   legata   al   fatto   che   il   valore   aggiunto   è  
una  misura,  basata  su  un  unico  tipo  di  prodotto,  della  qualità  di  un  pro-­‐‑
cesso   tanto   complesso   come   l’insegnamento.   In   generale   un   legame  
esclusivo,   irrimediabilmente   riduttivo,   tra   efficacia   dell’insegnamento   e  
prestazioni  degli  studenti,  non  può  non  destare  qualche  perplessità,  co-­‐‑
me  ricordava,  venti  anni  fa,  Aldo  Visalberghi:  
[…]  questa  riduzione  ad  un  criterio  legato  al  solo  prodotto  finale,  per  quanto  pra-­‐‑
ticamente  accettabile,  non  è  del  tutto  legittima.  La  qualità  dell’insegnare,  cioè  del-­‐‑
la   performance   del   docente,   ha   un   suo   valore   autonomo,   se   non   altro   perché   la  
scuola  è  un  ambiente  in  cui  tutti  ci  educhiamo  o  ci  dovremmo  educare,  non  solo  
gli   allievi   ma   anche   gli   adulti   che   a   vario   titolo   vi   operano.   Immaginate,   per   as-­‐‑
surdo,   che   venga   accertata   l’incontrovertibile   efficacia,   ai   fini   di   apprendimenti  
rilevanti,  di  un  metodo  didattico  che  esiga  dall’insegnante  attività  stressanti,  ripe-­‐‑
titive,  meccaniche.  Come  potremmo  definire  la  “qualità  dell’insegnamento  che  ne  
deriverebbe”?  Povera  e  umiliante  dal  punto  di  vista  del  docente,  ma  efficace  e  co-­‐‑
struttiva  dal  punto  di  vista  del  discente?  (Visalberghi,  1988,  p.  22).  
 
Va  infine  affrontata  la  questione  relativa  al  peso  esercitato  dalla  sele-­‐‑
zione  delle  variabili  di  controllo  da  inserire  nel  modello  sulla  misurazio-­‐‑
ne  del  valore  aggiunto.  Secondo  Bell,  
Too  often  the  concept  of  value-­‐‑added  to  the  pupil  over  a  period  of  time  is  taken  
to  be  the  same  as  value-­‐‑added  by  the  school  over  the  period.  When  investigating  
the  relative  progress  of  pupils  in  schools,  it  is  necessary  to  take  into  account  fac-­‐‑
tors   that   influence   the   outcome   measures   that   are   not   directly   controlled   by   the  
schools  (Bell,  2003,  p.  485).  
 
La  scelta  di  utilizzare  solamente  il  rendimento  in  entrata  come  proxy  
variable  suscita  non  poche  perplessità  nel  mondo  scientifico.  Kupermintz  
(2003)   critica   aspramente   il   TVAAS   sostenendo   che   variabili   di   sfondo  
come   lo   stato   socio-­‐‑economico   e   il   gruppo   etnico   di   appartenenza   non  
influenzano  solo  il  rendimento  degli  studenti  ma  anche  i  loro  progressi,  
tale  dinamica  è  ritenuta  plausibile  anche  da  Braun  (2005),  McCaffrey  et  
al.   (2003),   Shkolnik   et   al.   (2002).   Se   questi   studiosi   avessero   ragione,   le  
misure  del  valore  aggiunto  basate  solo  sul  rendimento  in  ingresso  degli  
studenti  come  variabile  di  retroterra  rischierebbero  di  risultare   penaliz-­‐‑
Misurare  l’efficacia  scolastica   49  

zanti  nei  confronti  degli  staff  educativi  operanti  in  contesti  svantaggiati.  
In  un  articolo  pubblicato  nel  2001  su  School  Effectiveness  and  School  Impro-­‐‑
vement,   la   ricercatrice   inglese   Thomas   evidenzia   come   con   l’inclusione  
delle   variabili   di   sfondo   nel   modello   aumenti,   seppur   di   poco,   la   quota  
di  varianza  spiegata  nel  rendimento  degli  studenti.  
Va  considerato  che,  in  generale,  come  sostengono  Coe  e  Fitz-­‐‑Gibbon  
(1998),   any   relevant   factors   which   are   unmeasured,   or   measured   unreliably,  
will  make  school  whit  better  raw  performance  seem  more  effective  than  is  fair.  Il  
discorso  va  esteso,  ovviamente,  anche  ad  altre  variabili  di  input,  come  le  
risorse   stanziate   a   favore   degli   istituti,   la   mancata   introduzione   delle  
quali   rende   inoltre   impossibile   per   il   modello   stimare   l’efficienza   delle  
scuole.  
 
 
Valore  aggiunto  e  Accountability:  una  relazione  pericolosa  
 
La  prossimità  di  non  pochi  ricercatori  SER  rispetto  alle  politiche  educa-­‐‑
tive  governative  ha  suscitato,  soprattutto  in  Gran  Bretagna,  forti  polemi-­‐‑
che   nel   mondo   della   ricerca.     Da   più   parti   si   sostiene   che   l’enfasi   posta  
negli  ultimi  trenta  anni  dalla  SER  sulla  capacità  della  scuola  di  incidere  
sul   rendimento   degli   alunni   ponga   in   secondo   piano   le   responsabilità  
della  società  e  della  politica  rispetto  agli  standard  educativi  raggiunti.    
Pring  (1995)  sostiene  che  i  ricercatori  SER  lavorino  under  the  watchful  
eye  of  their  political  mentors,  responsabilizzando  eccessivamente  le  scuole  
rispetto  a  fallimenti  che  andrebbero  imputati  all’intera  società.  Secondo  
Elliot  (1996)  le  ricerche  SER,  costituendo  una  “legittimazione  ideologica  
di  una  visione  coercitiva  dell’istruzione”,  sono  musica  per  le  orecchie  dei  
politici  e  supportano  una  metodologia  meccanicistica,  una  visione  stru-­‐‑
mentale  dei  processi  educativi.  Per  Hamilton  (1996)  le  ricerche  tendono  
a   “patologizzare”   istituti   e   insegnanti   considerandoli   come   i   soli   agenti  
del  rendimento  degli  studenti  e  riconoscendoli  come  i  principali  imputa-­‐‑
ti   rispetto   ai   problemi   socio-­‐‑economici   del   paese,   tesi   rilanciata   da   Gib-­‐‑
son  e  Ashtana  (1998).    
Le   critiche32   riflettono   la   preoccupazione   che   l’accoglienza,   da   parte  
del  New  Labour,  di  assunzioni  e  metodi  della  SER  finisca  con  il  condizio-­‐‑
nare  pesantemente  il  lavoro  dei  ricercatori,  determinando  una  situazione  
in   cui   non   è   la   ricerca   a   influenzare   l’agenda   politica   ma   il   contrario.   Il  

 
32   Per   una   sintesi   del   dibattito   sul   rapporto   tra   SER   e   politica   governativa,   vedi  

Goldstein,  Woodhouse  (2000)  e  Gori,  Battauz  (2004).  


50   Prima  Parte  

rischio,  nello  specifico,  è  relativo  alla  possibilità  che  un  uso  politico  della  
ricerca   renda   il   lavoro   del   ricercatore   superficiale   e   approssimativo.  
Prendendo  in  considerazione  proprio  da  questa  prospettiva  l’uso  del  va-­‐‑
lore   aggiunto   ai   fini   di   accountability,   è   possibile   rilevare   i   seguenti   ele-­‐‑
menti  di  criticità:  
1. Assenza  di  legami  tra  cause  ed  effetti  (con  conseguenti  “attribu-­‐‑
zioni  indebite”  di  responsabilità).  
2. Possibili  iniquità  delle  misure  ed  effetti  indesiderati.  
3. Portata  informativa  e  comprensibilità  degli  indicatori.  

1.  Assenza  di  legami  tra  cause  ed  effetti,  attribuzioni  indebite  di  responsabilità  
Come  è  stato  evidenziato  in  precedenza,  le  misurazioni  del  valore  aggiunto  
non  si  basano  su  disegni  sperimentali  ma  su  analisi  di  correlazioni  e  lo  fan-­‐‑
no  in  un  contesto  in  cui  l’assenza  di  randomizzazione  dei  gruppi  (gli  stu-­‐‑
denti  non  sono  casualmente  raggruppati  nelle  scuole)  impedisce  l’inferenza  
di  rapporti  causali  tra  le  variabili  (il  discorso  vale  anche  per  i  modelli  gerar-­‐‑
chici,  incapaci  di  distinguere  tra  effetto  dell’insegnante  ed  effetti  legati  alla  
composizione  della  classe):  
According  to  statistical  theory,  the  ideal  setting  for  obtaining  proper  estimates  
of  teacher  effectiveness  is  a  school  system  in  which,  for  each  grade,  students  are  
randomly  grouped  into  classes,  and  teachers  in  that  grade  are  randomly  allocated  
to  those  classes  […].  Unfortunately,  school  system  do  not  operate  by  randomiza-­‐‑
tion.  Many  parents  have  strong  opinions  about  which  districts  (and  even  which  
schools  within  the  districts)  they  want  their  children  to  attend,  and  make  corre-­‐‑
sponding  decisions  about  housing.  Within  a  school,  parents  often  exert  influence  
on   the   class   or   teacher   to   which   their   child   is   assigned.   Similarly,   teachers   can  
sometimes   select   which   district   to   work   and,   by   dint   of   seniority,   have   some  
choice   in   the   classes   they   teach,   or   even   the   schools   in   which   they   are   placed  
(Braun,  2005,  p.  7).  
La  questione  fondamentale  è  che,  se  l’obiettivo  è  quello  di  pervenire  
ad  attribuzioni  causali,  al  momento  nessun  modello  di  analisi  del  valore  
aggiunto   può   compensare   l’assenza   di   randomizzazione   (Braun   2005,  
Bell  2003,  McCaffrey  et  al.  2003).  Questo  limite  non  può  essere  sottovalu-­‐‑
tato  se  si  intende  incentrare  su  misure  del  valore  aggiunto  i  sistemi  di  ac-­‐‑
countability  e  di  remunerazione  del  personale  educativo.    
Va  evidenziato  quindi  che  definire  l’efficacia  di  insegnanti  ed  educa-­‐‑
tori  sulla  base  dei  residui  di  regressioni  comporta  inevitabilmente  nei  lo-­‐‑
ro  confronti  una  sorta  di  “attribuzione  indebita”  di  responsabilità,  dato  
che,  come  abbiamo  visto,  su  quel  residuo  esercitano  la  loro  influenza  tut-­‐‑
Misurare  l’efficacia  scolastica   51  

ti  i  fattori  rilevanti  che  non  sono  controllati  dal  modello.  È  infine  il  caso  
di  sottolineare  come  nessuno  dei  sistemi  di  accountability  basati  sul  valo-­‐‑
re   aggiunto   inserisca   nella   funzione   di   produzione   educativa   utilizzata  
informazioni  relative  alle  risorse  investite  negli  istituti,  scelta  che  pena-­‐‑
lizza  il  personale  che  opera  in  contesti  svantaggiati  e  che  rende  impossi-­‐‑
bile  la  misurazione  dell’efficienza  scolastica.  
 
Un  aspetto  critico  legato  all’utilizzo  di  modelli  del  valore  aggiunto  ai  
fini  di  accountability  è  quello  relativo  alla  dubbia  utilità  di  un  uso  esclu-­‐‑
sivo  di  una  misura  che  non  fornisce  informazioni  sulle  pratiche  che  con-­‐‑
sentono   a   insegnanti   e   dirigenti   di   aggiungere   valore   alla   preparazione  
degli   studenti.   Secondo   Fitz-­‐‑Gibbon   e   Kochan,   there   is   no   accountability  
without  causality.  Indicators  about  aspects  which  schools  feel  unable  to  alter  are  
not   fair   (267).   Sapere   esclusivamente   che   alcuni   insegnanti   aggiungono  
valore  poco  aiuta  le  scuole  a  migliorarsi,  anche  in  presenza  di  un  sistema  
di  mercato  educativo  nel  quale  gli  istituti  sono  messi  in  concorrenza  tra  
di  loro.  

2.  Possibili    iniquità  delle  misure  ed  effetti  indesiderati  


Tra   le   prerogative   di   un   sistema   di   accountability   Millman,   in   How   Do   I  
Judge   Thee?   Le   Me   Count   the   Ways33,   elenca   la   giustizia   (fairness:   inse-­‐‑
gnanti  e  dirigenti  devono  essere  valutati  esclusivamente  sulla  base  della  
loro  abilità  di  incidere  sui  progressi  degli  studenti);  la  capacità  di  pren-­‐‑
dere  in  considerazione  l’insieme  complesso  degli  obiettivi  educativi,  evi-­‐‑
tando  di  escludere  aspetti  rilevanti  ma  difficilmente  misurabili  (compre-­‐‑
hensiveness);  l’assenza  di  effetti  indesiderati  legati  ad  un  corretto  utiliz-­‐‑
zo  del  sistema  (consequential  validity).    
L’impiego  dei  modelli  di  valore  aggiunto  all’interno  dei  sistemi  di  ac-­‐‑
countability   è   storicamente   legato,   come   è   stato   in   precedenza   esposto,  
alla   loro   capacità   di   fare   fronte   al   primo   dei   tre   requisiti   elencati   da  
Millman,   fornendo   misure   eque   dell’efficacia   scolastica.   Come   è   stato  
sottolineato,  esistono  però  perplessità  riguardo  alla  decisione  di  non  in-­‐‑
serire   nei   modelli   variabili   legate   allo   stato   socio-­‐‑economico   degli   stu-­‐‑
denti,   scelta   che,   potrebbe   risultare   penalizzante   (e   quindi   iniqua)   nei  
confronti   di   insegnanti   e   dirigenti   operanti   in   contesti   svantaggiati  
(Braun   2005,   McCaffrey   et   al.   2003,   Kupermintz   2003,   Shkolnik   et   al.  
2002).  
 
33  Millman  (ed.  1997,  pp.  243-­‐‑247).  
52   Prima  Parte  

Rispetto  agli  altri  due  criteri  (comprehensiveness  e  consequential  validity)  


un  sistema  di  accountability  incentrato  su  misurazioni  del  valore  aggiun-­‐‑
to  presta  maggiormente  il  fianco  alle  critiche.  Come  abbiamo  visto,  infat-­‐‑
ti,  le  misure  del  valore  aggiunto  tendono  a  concentrarsi  esclusivamente  
in  ambito  cognitivo  e  fanno  riferimento  a  un  numero  limitato  di  materie.  
Il  rischio  relativo  alla  parzialità  di  questo  tipo  di  misure  è  legato  in  pri-­‐‑
mo  luogo  alla  produzione  di  effetti  di  tunnel  vision,  ovvero  alla  tendenza  
degli  educatori  a  concentrare  gli  sforzi  solo  sulle  materie  oggetto  di  mi-­‐‑
surazione  (Gori,  Battauz  2004,  Wilson  2004).    
Un   altro   effetto   indesiderato   è   legato   alla   possibilità   che   la   scelta   di  
basare   le   misure   del   valore   aggiunto   esclusivamente   sul   risultato   degli  
studenti   a   prove   oggettive   incoraggi   una   visione   impoverita   e   distorta  
del  processo  di  insegnamento-­‐‑apprendimento.  Non  si  può  escludere,  in-­‐‑
fatti,   che   gli   educatori   concentrino   il   loro   tempo,   le   risorse   e   gli   sforzi  
nell’insegnare  ad  affrontare  prove  strutturate  (teaching  to  the  test),  adde-­‐‑
strando  più  che  educando  i  propri  studenti  (Sykes  1997).    

3.  Portata  informativa  e  comprensibilità  dell’indicatore  di  valore  aggiunto  


I  sistemi  educativi  all’interno  dei  quali  sono  inseriti  meccanismi  di  mer-­‐‑
cato,   come   quelli   in   cui   vengono   utilizzate   misurazioni   del   Valore   ag-­‐‑
giunto,  si  basano  su  un’ampia  libertà  di  scelta  degli  istituti  da  parte  delle  
famiglie.   A   prescindere   dalle   considerazioni   sulla   portata   educativa   di  
tale  logica  (si  dà  per  scontato  che  quel  che  vogliono  le  famiglie  sia  sem-­‐‑
pre  desiderabile  dal  punto  di  vista  formativo),  l’utilizzo  di  indicatori  di  
valore   aggiunto   ha   l’obiettivo   di   orientare   i   genitori   al   momento   della  
scelta  informandoli  meglio  sull’efficacia  degli  istituti.    
È   a   tale   scopo   che,   nei   sistemi   sopra   descritti,   gli   indici   di   efficacia  
messi  a  disposizione  dell’opinione  pubblica  sono  quelli  relativi  a  misure  
del  valore  aggiunto  aggregati  a  livello  di  scuola  (e  non  di  classe).  Il  pro-­‐‑
blema   è   che,   come   precedentemente   evidenziato,   dalle   analisi   quantita-­‐‑
tive   sull’efficacia   scolastica   emerge   una   evidente   preponderanza   della  
portata   degli   effetti   legati   a   fattori   collocati   a   livello   di   classe   (o,   in   In-­‐‑
ghilterra,  a  livello  di  dipartimento)  rispetto  a  quella  dei  fattori  collocati  a  
livello  di  istituto  (Sammons  2001,  Correnti  et  al.  2002,  Thomas  2002).  Se  a  
“fare   la   differenza”   è   quel   che   avviene   in   classe,   emergono   dubbi   sulla  
reale   capacità   informativa   di   misure   aggregate   esclusivamente   a   livello  
di  istituto  (Wilson,  2004;  Saunders,  2003;  Goldstein,  Huiki,  Rath,  2000).  
Altre   perplessità   sono   legate   alla   scelta   di   non   riportare   misure   del  
valore  aggiunto  apportato  dagli  istituti  ai  progressi  di  gruppi  particolari  
Misurare  l’efficacia  scolastica   53  

di   studenti   (distinti   per   genere   o   gruppo   etnico   di   appartenenza,   vedi  


Wilson  2004).  
 
Vi  sono  pochi  dubbi  sul  fatto  che  un  indicatore  per  essere  considerato  
utile  debba  essere  anche  fruibile  dai  destinatari.  Il  problema,  nello  speci-­‐‑
fico,  è  legato  alla  scarsa  comprensibilità,  per  i  genitori  degli  studenti,  di  
una  misura  dell’efficacia  scolastica  espressa  come  residuo  di  una  regres-­‐‑
sione.  In  questo  caso,  nella  fase  di  pubblicazione,  il  pericolo  che  si  rischia  
di  correre  riguarda  la  possibilità  che,  allo  scopo  di  rendere  maggiormen-­‐‑
te   fruibili   i   dati,   si   omettano   informazioni   di   notevole   rilevanza,   come  
nel   caso   della   pubblicazione   delle   “classifiche”   degli   istituti   inglesi   sul  
sito   web   della   BBC,   che   sono   sprovviste   degli   intervalli   di   confidenza  
delle  misure  del  valore  aggiunto.  
 
 
Valore  aggiunto  e  autovalutazione  d’istituto    
 
L’associazione   tra   qualità   ed   efficacia   della   scuola,   alla   quale   abbiamo  
fatto  riferimento  in  apertura,  merita  ora  di  essere  esplicitata  alla  luce  di  
quanto  è  stato  scritto  sull’evoluzione  degli  studi  SER.  Secondo  Scheerens  
le  ricerche  sull’efficacia  scolastica  si  basano  su  una  definizione  operativa  
del  concetto  di  qualità  in  possesso  delle  seguenti  caratteristiche:  
outputs  are  the  basis  criteria  to  judge  educational  quality;  
in   order   to   be   able   to   properly   evaluate   output,   achievement   or   attainment  
measures  should  be  adjusted  for  prior  achievement  and  other  pupil  intake  char-­‐‑
acteristics;  in  this  way  the  value  added  by  schooling  can  be  assessed;  
in   selecting   variables   and   indicators   to   assess   processes   and   context   one  
should  look  for  those  factors  that  have  been  shown  to  be  correlated  with  relative-­‐‑
ly  high  “added-­‐‑value”  factors  (Scheerens,  2004,  pp.  123-­‐‑124).  
Seguendo  lo  stesso  Scheerens,  possiamo  affermare  che  è  nella  misura  
in   cui   i   modelli   SER   forniscono   una   valida   definizione   operativa   della  
qualità   educativa   che   possono   essere   utilizzati   nella   costruzione   di  
strumenti  da  impiegare  nei  processi  di  autovalutazione  degli  istituti,  ov-­‐‑
vero  in  quei  processi  di  
ispezione  sistematica  (descrizione  e  analisi)  da  parte  di  una  scuola,  un  sotto  sistema  
o  un  individuo  (insegnante,  capo  di  istituto)  dell’attuale  funzionamento  della  scuo-­‐‑
la  come  primo  passo  di  un  processo  di  miglioramento  (Castoldi,  2003,  p.  100).    
La   spendibilità   delle   concettualizzazioni   proposte   dalla   ricerca  
sull’efficacia   scolastica   ai   fini   autovalutativi   si   basa,   secondo   Scheerens,  
54   Prima  Parte  

su   una   valida   misurazione   dei   prodotti,   su   un   loro   corretto   “aggiusta-­‐‑


mento”  e  sulla  loro  correlazione  con  i  processi  interni  alla  scuola.    
Modelli   autovalutativi   recentemente   proposti   (Barzanò,   Mosca,   Schee-­‐‑
rens  2000,  Martini  2002,  Benini,  Gianferrari  2005)  fanno  esplicito  riferimento  
all’utilizzo  di  metodi  e  di  indicatori  (come  il  valore  aggiunto)  sviluppati  nel  
corso   dello   sviluppo   della   ricerca   sull’efficacia   scolastica.   Valga   come    
esempio   dell’apporto   fornito   dalla   SER   alla   strutturazione   dei   percorsi   di  
autovalutazione   il   “modello   sperimentale   ad   indicatori“   (vedi   tabella   4)  
proposto  dalla  Martini34,  che  rispecchia  in  maniera  efficace  il  “Modello  In-­‐‑
tegrato  dell’Efficacia  Scolastica”  presentato  in  figura  1.  Tra  gli  indicatori  di  
risultato  l’autrice  propone  l’impiego  di  misure  del  valore  aggiunto.    
Tabella   4.   Quadro   degli   indicatori   del   percorso   di   autovalutazione   per   la  
scuola  primaria  proposto  da  Martini  (2002).  

SCUOLA  DI  BASE:  QUADRO  DI  SINTESI  DEGLI  INDICATORI  


Status  Economico-­‐‑Sociale  e  Culturale  delle  famiglie  
INDICATORI   Tipologia  alunni  
DI   Dimensione  e  ubicazione  dell’istituto  
CONTESTO   Struttura  economica  del  Territorio  
Politiche  dell’Amministrazione  e  Servizi  di  supporto  alle  scuole  
Risorse  docenti  
INDICATORI   Livelli  di  competenza  iniziale  degli   alunni   (prerequisiti   lettura-­‐‑
DI   scrittura)  
INGRESSO   Risorse  strutturali  
Risorse  finanziarie  
LIVELLO  SCUOLA  
Organizzazione  
Clima  e  funzionamento  
Formazione  e  sviluppo  professionalità  docenti  
INDICATORI  
Qualità  del  Curricolo  
DI  
Utilizzazione  delle  risorse  
PROCESSO  
Attenzione  alle  differenze  
LIVELLO  CLASSE  
Qualità  dell’insegnamento  
Clima  di  classe  
Esiti  istituzionali  
INDICATORI  
Livelli  di  apprendimento  
DI  
Sviluppo  personale  e  sociale  
RISULTATO  
Esiti  a  fine  anno  scuola  secondaria  

 
34  Martini  (2002),  pp.  103-­‐‑135.  
Misurare  l’efficacia  scolastica   55  

Secondo  la  Martini  


La  principale  funzione  del  modello  è  di  consentire  una  “lettura  analitica”  della  
scuola   e   dei   processi   che   vi   realizzano   a   scopi   di   miglioramento   incrementale   e  
reciprocamente,  sulla  base  dei  risultati  d  rilevazioni  sistematiche  in  senso  sincro-­‐‑
nico   e   diacronico,   di   permettere   la   correzione   e   il   perfezionamento   del   modello  
stesso  in  un  processo  dialettico  di  continua  interpretazione  dei  dati  che  si  vanno  
raccogliendo  nel  corso  del  tempo  (Martini,  2002,  p.  100).  
L’autrice   propone   tra   gli   indicatori   di   risultato   anche   un   “indice   di  
equità”  definito  sulla  base  della  capacità  degli  istituti  di  riduzione  dello  
scarto   tra   gli   alunni   più   e   meno   abili   (Grisay,   2002).   In   questo   caso  
l’analisi   del   valore   aggiunto   può   rivelarsi   di   estrema   utilità,   come   testi-­‐‑
monia  lo  studio  pubblicato  nel  2003  dalla  Wilson.  Le  figure  3  e  4  eviden-­‐‑
ziano  come  l’efficacia  (misurata  attraverso  il  valore  aggiunto,  VA  Cap)  di  
sette   diversi   istituti   superiori   inglesi   (ciascuna   linea   numerata   rappre-­‐‑
senta  una  scuola)  si  distribuisca  a  seconda  del  livello  di  abilità  in  ingres-­‐‑
so   degli   studenti   (5   Quintiles   of   Key   Stage   3   Mean).   Dai   grafici   emerge  
chiaramente  che:  
• la   scuola   n.   11   è   complessivamente   equa   (non   ci   sono   scosta-­‐‑
menti   significativi   del   valore   aggiunto   a   seconda   del   voto   ot-­‐‑
tenuto  dagli  studenti  al  KS3)  ma  inefficace  (il  valore  aggiunto  
è  inferiore  allo  0).  
• la  scuola  n.  12  aggiunge  valore  solo  agli  studenti  con  basse  abili-­‐‑
tà  in  entrata  ma  risulta  inefficace  per  gli  altri  studenti.  
• la   scuola   n.   22,   al   contrario,   risulta   efficace   soltanto   per   gli  
studenti  che  hanno  ottenuto  punteggi  alti  al  KS3.  
 
Lo   stesso   tipo   di   analisi   può   essere   effettuato   raggruppando   gli   stu-­‐‑
denti   in   base   ad   altre   caratteristiche,   come   il   gruppo   etnico   di   apparte-­‐‑
nenza   o   lo   stato   socio-­‐‑economico.   In   tal   modo,   come   verrà   successiva-­‐‑
mente   evidenziato,   gli   istituti   possono   ottenere   informazioni   utili   non  
solo  sull’efficacia  ma  anche  sull’equità  della  loro  azione  educativa.    
 
 
 
 
 
 
 
56   Prima  Parte  

Figure  3  e  4.  Distribuzione  del  valore  aggiunto  a  seconda  del  livello  di  abilità  
in  ingresso  degli  studenti  in  sette  istituti  superiori  inglesi  (Wilson,  2003).  
 

 
 

 
 
 

Seconda  Parte  
 
UN’INDAGINE  SUL  VALORE  AGGIUNTO  
NELLA  SCUOLA  PRIMARIA  
 
 

Capitolo  quinto  
Ipotesi,  disegno  e  campione  di  ricerca  

Ipotesi  della  ricerca  


 
Nella   prima   parte   del   lavoro   è   stato   sottolineato   come   le   ricerche  
sull’efficacia   scolastica   basate   su   disegni   di   tipo   quantitativo   abbiano  
evidenziato  che  ad  essere  maggiormente  correlate  con  il  rendimento  de-­‐‑
gli  studenti  siano  variabili  collocate  all’interno  della  classe  piuttosto  che  
a  livello  di  istituto.  Se  nell’ultimo  scorcio  degli  anni  sessanta  i  primi  stu-­‐‑
di  non  mostravano  quote  significative  di  varianza  nei  risultati  degli  stu-­‐‑
denti  “spiegata”  dal  fattore  istituto,  nel  corso  dell’evoluzione  dei  disegni  
di  ricerca  avvenuta  nei  decenni  successivi,  con  l’introduzione  di  variabili  
legate  al  contesto  classe,  si  è  osservato  come  in  generale  quote  significa-­‐‑
tive   di   varianza   nel   rendimento   degli   studenti   venissero   “spiegate”   dal  
fattore   classe.   La   classe   si   è   andata   progressivamente   affermando   come  
vero  “luogo”  dell’efficacia  scolastica.  Alla  luce  di  questa  considerazione  
possiamo  formulare  una  prima  ipotesi  di  ricerca:  
1. Le   differenze   più   evidenti   quanto   a   efficacia   si   registrano   tra   le   classi,  
mentre  gli  istituti  non  mostrano  tra  loro  differenze  significative.  
 
Altra  questione  affrontata  nella  prima  parte  è  stata  quella  relativa  alla  
scelta,  operata  da  alcuni  sistemi  di  accountability,  di  non  includere  varia-­‐‑
bili   legate   allo   stato   socio-­‐‑culturale   degli   studenti   nel   calcolo   del   valore  
aggiunto  degli  istituti.  Come  è  stato  evidenziato  tale  decisione  ha  susci-­‐‑
tato   non   poche   perplessità,   legate   alla   possibilità   che   misure  
dell’efficacia  scolastica  ottenute  inserendo  come  variabile  di  controllo  il  
solo  rendimento  precedente  potessero  risultare  penalizzanti  nei  confron-­‐‑
ti   di   istituti   inseriti   in   contesti   socio-­‐‑culturali   svantaggiati.   È   dunque  
possibile  formulare  una  seconda  ipotesi  di  ricerca:  
2. L’uso  di  un  indicatore  di  Efficacia  Scolastica  basato  esclusivamente  sul  
rendimento  “in  entrata”  premia  scuole  e  insegnanti  che  operano  in  con-­‐‑
testi   caratterizzati   da   alti   livelli   socio-­‐‑culturali.   Al   contrario,     l’uso   di  
un  indicatore  di  Efficacia  Scolastica  basato  sia  su  variabili  di  sfondo  sia  
sul   rendimento   “in   entrata”   determina   graduatorie   delle   scuole   non  
correlate  con  lo  stato  socio-­‐‑culturale  dei  loro    studenti  
 
60   Seconda  Parte  

 
 
Il  disegno  della  ricerca  e  le  sue  fasi  
 
Come  tutte  le  indagini  sul  valore  aggiunto,  il  presente  studio  rientra  nel  
filone  delle  “ricerche  basate  su  correlazioni”.  Non  è  infatti  prevista  alcu-­‐‑
na  manipolazione  della  variabile  oggetto  di  studio,  che  in  questo  caso  è  
l’efficacia   dell’ultimo   anno   della   scuola   elementare,   misurata   attraverso  
l’analisi  del  valore  aggiunto.  Come  esposto  nella  prima  parte,  la  funzio-­‐‑
ne  di  produzione  educativa  sulla  quale  si  basa  la  misurazione  del  valore  
aggiunto  fa  riferimento  all’equazione  n.  1  (Yi  =  α  +  βXi  +  ei  ).  
 
Facendo   per   ora   riferimento   alla   sola   regressione   lineare   (per   il   mo-­‐‑
dello  gerarchico  si  rinvia  alla  terza  parte  del  lavoro),  la  presente  ricerca  
utilizza   come   misura   di   output   (variabile   dipendente)   le   competenze  
linguistiche  degli  studenti  al  termine  della  scuola  elementare,  mentre  le  
misure  di  input  (variabili  di  controllo)  sono  rappresentate  sia  dal  livello  
delle  competenze  linguistiche  degli  stessi  studenti  al  termine  del  quarto  
anno   della   scuola   elementare   sia   dal   loro   stato   socio-­‐‑culturale.   Nella  
funzione  utilizzata  per  calcolare  il  valore  aggiunto  è  stato  dunque  inseri-­‐‑
to  un  vettore  legato  allo  stato  socio-­‐‑culturale  degli  studenti,  che  nel  caso  
specifico  è  rappresentato  dalla  variabile  “anni  di  studio  dei  genitori”  de-­‐‑
gli  alunni:  
 
(4)         Ri06  =  λRi05  +    βtFi06  +  εi06  
 
dove  
Rit  è  il  rendimento  in  italiano  di  uno  studente  i  nell’anno  2006;  
Rit-­‐‑1  è  il  rendimento  dello  studente  nell’anno  precedente;  
Fi06  è  un  vettore  degli  anni  di  studio  dei  genitori  degli  studenti  corre-­‐‑
lato  al  loro  rendimento  nel  2006;  
εit    è  il  residuo  della  regressione  per  ogni  studente:  aggregato  a  livello  di  
istituto,  fornisce  la  misura  del  valore  aggiunto  della  scuola;  aggregato  a  
livello  di  classe,  fornisce  la  misura  del  valore  aggiunto  dalla  classe.  
 
L’indagine  è  stata  dunque  strutturata  secondo  i  seguenti  passaggi:  
 
• Rilevazione  della  competenza  linguistica  degli  studenti    
al  termine  della  IV  elementare  in  11  scuole.  
• Rilevazione  delle  variabili  di  sfondo  degli  studenti.  
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   61  

• Rilevazione  delle  variabili  legate  agli  istituti  e  agli  insegnanti.  


• Rilevazione  della  competenza  linguistica  degli  stessi  studenti    
al  termine  della  V  elementare.  
L’indagine,  le  cui  fasi  sono  sintetizzate  nella  figura  5,  ha  registrato  la  
compresenza   dei   momenti   riservati   in   prevalenza   all’approfondimento  
teorico   (legati   all’individuazione   del   problema,   all’esplorazione   e   allo  
studio   della   letteratura,   all’elaborazione   delle   ipotesi,   alla   scelta   e   alla  
costruzione   degli   strumenti)   con   i   passaggi   maggiormente   operativi  
(come   quelli   relativi   ai   contatti   con   gli   istituti   selezionati,   alla   messa   a  
punto  degli  strumenti,  alla  raccolta  dei  dati  e  al  loro  inserimento).  Il  pe-­‐‑
riodo  di  lavoro  ha  coperto  il  tempo  di  svolgimento  del  dottorato  di  ricer-­‐‑
ca  (tre  anni),  tali  margini  hanno  reso  impossibile  una  raccolta  longitudi-­‐‑
nale  di  misure  del  valore  aggiunto  di  istituti  e  insegnanti.  
 
 

2003 2004 2005 2006 Figura  


FASI della  
5.   Fasi  
RICERCA
N D G F M A M G L A S O N D G F M A M G L A S O N D G F M A M G L A S O  
della  
Individuazione del problema
e definizione delle ipotesi ricerca  
Analisi della letteratura  
Costruzione della
prova d'ingresso
Costruzione del
Questionario studenti
Try-out della prova
d'ingresso
Finalizzazione della
prova d'ingresso
Somministrazione della
prova d'ingresso
Inserimento dei dati della
prova d'ingresso
Analisi dei dati
Della prova d'ingresso
Costruzione della
prova in uscita
Costruzione dei
questionari insegnanti
Try-out della prova in uscita
Finalizzazione della
prova in uscita
Somministrazione della prova
in uscita e dei questionari
Inserimento dei dati della
prova in uscita
Analisi dei dati della prova
in uscita
Stesura definitiva del
rapporto di ricerca
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   63  

Il  campione  
 
Si   è   proceduto   a   un     campionamento   di   giudizio   allo   scopo   di   inserire  
nell’indagine   istituti   il   più   possibile   eterogenei   dal   punto   di   vista   delle  
variabili   di   sfondo   che,   secondo   l’ipotesi   di   ricerca   n.   2,   maggiormente  
sarebbero  state  correlate  con  il  rendimento  degli  studenti.  Il  territorio  in  
cui   si   è   operato   è   quello   del   Comune   di   Roma,   all’interno   del   quale   si  
sono  scelti  undici  istituti  situati  in  contesti  sociali,  economici  e  culturali  
molto  diversificati  tra  loro.  Pertanto,  la  composizione  del  campione,  dal  
punto   di   vista   sociale,   culturale   ed   economico,   non   può   considerarsi  
rappresentativa   della   popolazione   residente   nel   Comune   di   Roma.   La  
scelta  effettuata  ha  tuttavia  consentito  di  ottenere  gruppi  di  studenti  con  
caratteristiche   socio-­‐‑culturali   marcatamente   divergenti   sufficientemente  
ampi   da   consentire   analisi   statisticamente   significative   del   loro   rendi-­‐‑
mento.  
Nella  fase  di  selezione  delle  scuole  ai  dirigenti  scolastici  è  stato  chie-­‐‑
sto  un  giudizio  sugli  stimoli  socio-­‐‑culturali  offerti  dal  contesto  nel  quale  
è   inserito   il   proprio   istituto.   Le   informazioni   relative   alle   variabili   di  
sfondo  degli  studenti  sono  state  raccolte  in  occasione  delle  due  prove  at-­‐‑
traverso   la   somministrazione   di   un   questionario.   A   causa   dell’età   degli  
studenti  coinvolti  si  è  registrata,  nella  prima  somministrazione,  una  per-­‐‑
centuale  di  omissioni  alla  domanda  centrale  del  questionario,  quella  re-­‐‑
lativa  al  titolo  di  studio  dei  genitori,  pari  al  24%  del  totale.  Per  ottenere  
maggiori  e  più  affidabili  informazioni  si  è  in  seguito  scelto  di  prendere  
accordi  (diversi  a  seconda  degli  istituti  e,  in  alcuni  casi,    delle  classi)  con  
dirigenti   e   insegnanti   partecipanti   alla   ricerca.   Alla   seconda   sommini-­‐‑
strazione   del   questionario,   effettuata   in   occasione   della   prova   in   uscita,  
le  omissioni  si  sono  così  ridotte  al  12,5%  del  totale  dei  rispondenti.  
Le  classi  coinvolte  nella  ricerca  sono  state  38  (ciascun  istituto  ha  forni-­‐‑
to  almeno  due  classi),  per  un  totale  di  731  studenti.  La  scelta  di  sommi-­‐‑
nistrare   le   prove   in   quattro   distinte   giornate   di   somministrazione   (due  
per  la  prova  “in  entrata”  e  due  per  quella  “in  uscita”)  ha  comportato  la  
perdita  del  19%  degli  studenti,  soltanto  590  di  loro  infatti  hanno  sostenu-­‐‑
to  interamente  le  due  prove.  Di  questi,  515  hanno  risposto  alle  domande  
sul  titolo  di  studio  dei  genitori.    
Sulla   base   delle   risposte   dei   515   studenti   alle   domande   sul   titolo   di  
studio  dei  genitori,  è  stata  costruita  la  variabile  “livello  di  istruzione  fa-­‐‑
miliare”  (LIF),  assegnando  a  ciascun  titolo  un  punteggio  pari  al  numero  
di  anni  necessari  per  conseguirlo  (cfr.  Corda  Costa,  1964).  Se  si  prendono  
in  considerazione  i  terzili  della  distribuzione  della  variabile  LIF  (opera-­‐‑
64   Seconda  Parte  

zione  che  consente  di  ottenere  i  tre  livelli  di  istruzione  familiare  “alto”,  
“medio”,  “basso”),  la  popolazione  risulta  così  suddivisa:    
Tabella  5.  Distribuzione  della  variabile  “livello  di  istruzione  familiare”.  
LIVELLO  di     Frequenze  e  
Titoli  di  studio  dei  genitori   ISTRUZIONE  FAMILIARE     Percentuali  
degli  studenti   Sul  totale  
152  
2  genitori  con  la  laurea   ALTO  
29,46%  
1  genitore  con  la  laurea,  1  genitore  con  il  diploma  
240  
1  genitore  con  la  laurea,  1  genitore  con  la  III  media   MEDIO  
46,51%  
2  genitori  con  il  diploma  
2  genitori  con  la  III  media.   124  
BASSO  
1  genitore  con  il  diploma,  1  genitore  con  la  III  media   24,03%  
 
Le   differenze   tra   le   undici   scuole   dal   punto   di   vista   del   livello   di  
istruzione   familiare   dell’utenza,   sintetizzate   nella   tabella   6,   possono   es-­‐‑
sere  apprezzate  nella  figura  6.  
Tabella  6.  Livello  di  istruzione  familiare  dell’utenza  degli  undici  istituti  par-­‐‑
tecipanti  alla  ricerca.

Livello  di  istruzione  familiare  


ISTITUTO  
degli  studenti  (%)  
(n.  classi)  
ALTO   MEDIO   BASSO  
XIII  (5)   59,42   31,88   8,70  
XII  (4)   48,61   43,06   8,33  
XIV  (2)   36,67   56,67   6,67  
XX  (4)   28,30   62,26   9,43  
XI  (4)   31,75   49,21   19,05  
XV  (4)   28,00   52,00   20,00  
XXI  (3)   13,51   62,16   24,32  
XVI  (3)   9,09   51,52   39,39  
XVII  (3)   10,26   38,46   51,28  
XIX  (4)   8,16   40,82   51,02  
XVIII    (2)   0,00   23,81   76,19  
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   65  

Figura  6.  Livello  di  istruzione  familiare  delle  popolazioni  delle  undici  scuole  
della  ricerca.  

livello di istruzione familiare dell'utenza degli istituti

XIII

XII

XIV

XX

XI
istituti

XV

XXI

XVI

XVII

XIX

XVIII

0% 25% 50% 75% 100%


livello di istruzione familiare

alto medio basso


 

Capitolo  sesto  
Gli  strumenti  

La  rilevazione  della  competenza  linguistica:  il  modello  delle  prove  


 
Per  la  misurazione  del  profitto  in  lingua  italiana  si  è  fatto  esplicito  rife-­‐‑
rimento   alle   prove   costruite   nel   1991/1992   per   il   monitoraggio   della   ri-­‐‑
forma   della   scuola   elementare   condotto   dal   Censis   su   commissione   del  
Ministero  della  Pubblica  Istruzione.  L’indagine  aveva  lo  scopo  di  moni-­‐‑
torare   i   primi   risultati   della   riforma   della   scuola   elementare   (legge   148  
del   1990)   e   di   mettere   a   punto   gli   strumenti   per   avviare   un   progetto   di  
rilevazione   sistematica   dell’efficacia   della   scuola   primaria.   Le   prove   in  
esame,  somministrate  in  due  giornate  successive,  avevano  l’obiettivo  di  
misurare  i  livelli  di  competenza  linguistica  degli  studenti  di  V  elementa-­‐‑
re.  
I   programmi   del   1985,   sulla   base   dei   quali   le   prove   erano   state   co-­‐‑
struite,   attribuivano   alla   scuola   elementare   l’obiettivo   fondamentale   di  
“rendere  lo  studente  capace  di  muoversi  in  uno  spazio  linguistico  e  cul-­‐‑
turale”.  I  compiti  primari  assegnati  alla  scuola  elementare  erano:  
 
• fornire  il  bambino  di  mezzi  linguistici  adeguati;  
• rendere  il  bambino  capace  di  porsi  in  relazione  linguistica  con  
interlocutori  diversi;  
• promuovere  nel  bambino  le  manifestazioni  espressive;  
• far  cogliere  al  bambino  le  variazioni  socioculturali.  
 
La  seguente  sintesi35  delle  competenze  linguistiche  che  al  termine  del  
ciclo  primario  la  scuola  deve  garantire  a  ciascuno  studente  ha  costituito  
la  base  per  il  modello  (vedi  figura  8)  del  contenuto  delle  prove  costruite  
nel  1992:  
 
a. Conoscenza  dei  codici  linguistici.  
Codice  verbale  e  altri  codici.  
b. Capacità  di  rivolgersi  a  destinatari  diversi.  
Tono,  registro,  livello  
c. Competenza  lessicale.  

 
35  Cfr.  Censis  (1992),  II  vol.,  pp.  22-­‐‑23  e  Lucisano  (1993),  pp.  26-­‐‑27.  
68   Seconda  Parte  

Conoscenza  di  significati.  


Capacità  di  ricavare  significati  dal  contesto.  
d. Abilità  di  lettura.  
Capacità  di  localizzare  informazioni.  
Comprensione  del  significato.  
Individuazione  del  messaggio  sui  testi:  
informativi,  
narrativi,  
funzionali,  
Ricerca  di  informazioni.  
e. Produzione  scritta.  
Riassunto.  
Descrizione.  
Argomentazione.  
f. Competenza  nell’uso  della  lingua.  
Grammatica  (morfologia  e  sintassi).  
Ortografia.  
g. Riflessione  sulla  lingua.  
 

Figura  7.  Modello  delle  competenze  comunicative(Censis,  1992b,  p.  24).  


 
ATTIVITÀ  RICETTIVE   ATTIVITÀ  DI  PRODUZIONE  
 
 
    produzione  
  ascolto   orale  
 
 
 
 
 
 
lettura  e   produzione  
 
comprensione   scritta  
 
 
 
 
 
I  costruttori  delle  prove  hanno  ristretto  il  campo  alla  rilevazione  della  
competenza   ricettiva   (lettura   e   comprensione   del   testo)   e   di   quella   pro-­‐‑
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   69  

duttiva   (scritta).   Il   modello   (figura   8)   alla   base   della   costruzione   delle  


prove  di  rilevazione  della  competenza  ricettiva  (in  totale  quindici  eserci-­‐‑
zi)   considera   la   capacità   di   comprendere   testi   di   diverso   tipo   garantita  
dall’integrazione  di  competenze  e  abilità  di  tipo  metodologico  (decodifi-­‐‑
ca,  localizzazione  delle  informazioni)  con  le  conoscenze  dell’uso  corretto  
della  lingua  e  del  vocabolario  di  base.  

Figura  8.  Modello  delle  competenze  nella  lettura  considerate  nella  scelta  delle  
prove.  Tratto  da  Censis  (1992  b,    p.  26).  
 
 
Capacità  di   Conoscenza   degli   usi   Conoscenza  del  
 
decodifica   corretti  della  lingua   significato  delle  parole  
 
  registri  
 
  ortografia  
 
  grammatica  
 
 
 
esercizio  3   esercizi  1,  2,  6,  7   esercizi  13,  14,  15,  16  
 
 
 
Comprensione  ricettiva  
 
Lettura  
 
 
 
 
  esercizio  8   esercizi  3,  4,  5   esercizi  10,  11,  12  
     
 
     
 
     
 
    Comprensione   di   di-­‐‑
 
    versi  tipi  di  testo  
 
    brevi     lunghi  
 
Competenza  nell’uso   Competenza   nella   let-­‐‑ informativi   narrativi  
 
funzionale  del  testo     tura  top-­‐‑down   narrativi   informativi  
 
   
 
 
Facendo     riferimento   agli   obiettivi   della   scuola,   non   senza   richiami  
espliciti    ai  programmi,  gli  esercizi  del  1992  sono  stati  suddivisi  dai  co-­‐‑
70   Seconda  Parte  

struttori   delle   prove   in   quattro   categorie   a   seconda   delle   abilità   e   delle  


competenze  oggetto  di  rilevazione.  

1.  Prove  di  competenza  comunicativa  e  funzionale  (esercizi  1,  8)  


Secondo  i  programmi,  la  scuola  si  propone  l’obiettivo  di  far  conseguire  
la   capacità   di   comunicare   correttamente   in   lingua   nazionale   a   tutti   i   li-­‐‑
velli,   dai   più   colloquiali   e   informali   ai   più   elaborati   e   specializzati.   La  
scuola  deve  dunque  garantire  agli  studenti  di:  
• saper   utilizzare   la   lingua   nelle   forme   colloquiali   richieste   dai  
problemi  della  vita  quotidiana;  
• rendersi   conto   di   punti   di   vista   diversi   riscontrabili   in   situa-­‐‑
zioni  comunicative;  
• essere   consapevoli   delle   varietà   di   forme   in   cui   il   discorso   si  
realizza   in   rapporto   a   contesti   differenti   (ad   esempio,   con   i  
compagni   di   gioco,   con   i   genitori   e   con   i   familiari,   con  
l’insegnante,  ecc.).  
Gli  esercizi  aventi  l’obiettivo  di  verificare  tali  competenze  nella  prova  
MPI-­‐‑Censis  erano    
• il   n.   1   (Registro),   che   rileva   la   capacità   di   “utilizzare   codici   e  
registri  diversi  in  relazione  a  diverse  situazioni  comunicative”  
• il  n.  8  (Alfabetizzazione  della  Lettura),  una  prova  con  item  che  
richiede  allo  studente  di  risolvere  problemi  utilizzando  mate-­‐‑
riali  scritti  di  diverso  tipo  (istruzioni,  tabelle,  elenchi  alfabetici,  
ecc.).    

2.  Prove  di  uso  corretto  della  lingua  (esercizi  2,  4,  6,  7)  
La   scuola   ha   lo   scopo   di   assicurare   agli   studenti   un   uso   corretto   della  
lingua  fornendo  loro  competenze  ortografiche  e  grammaticali.  I  costrut-­‐‑
tori  delle  prove  del  1992,  per  verificare  il  raggiungimento  di  tale  obietti-­‐‑
vo,  hanno  utilizzato  i  seguenti  esercizi:  
• il  n.  2,  che  rileva  la  capacità  di  identificare  errori  ortografici  di  
diverso  tipo  all’interno  di  un  testo.  
• il  n.  4,  un  cloze  mirato  che  verifica  la  capacità  d’uso  di  artico-­‐‑
li,  proposizioni,  congiunzioni,  avverbi  ecc.  
• il   n.   6,   un   esercizio   che   richiede   allo   studente   di   identificare  
tra  due  frasi  quella  in  cui  il  verbo  è  correttamente  coniugato.  
• il   n.   7,   un   esercizio   che   richiede   agli   studenti   di   coniugare  
correttamente  i  verbi.    
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   71  

3.  Prove  di  comprensione  della  lettura  (esercizi  3,  5,  10,  11,  12)    
Gli  studenti  devono  saper  leggere:  secondo  i  programmi  devono  essere  
cioè  in  grado  di    
capire  il  significato  di  testi  scritti  a  fini  diversi  [...],  saper  ricercare  e  raccogliere  in-­‐‑
formazioni  da  testi  scritti;  seguire  la  descrizione,  il  resoconto,  il  racconto  e  saperne  
cogliere  l’essenziale;  apprezzare  l’efficacia  linguistica  ed  espressiva  dei  vari  tipi  di  
scrittura  (Censis  1992b,  29).  
Le   abilità   che   sottendono   l’attivazione   di   tali   processi,   secondo   i   co-­‐‑
struttori  delle  prove,  sono:  
• la  capacità  di  decodifica  della  parola  scritta;  
• le  conoscenze  lessicali  e  morfosintattiche;  
• le  attese  sul  tipo  di  testo  che  viene  letto,  la  conoscenza  di  ciò  
di  cui  si  tratta  e  della  situazione  in  cui  il  testo  è  ambientato.  
 
Gli  esercizi  costruiti  allo  scopo  di  rilevare  le  abilità  sopra  elencate  so-­‐‑
no  i  seguenti:  
• il   n.   3,   un   cloze   con   cancellazione   di   lettere   dalle   parole   che  
verifica  la  capacità  di  decodifica.  
• il  n.  5,  un  cloze  casuale  (con  cancellazione  di  parole  di  ogni  ti-­‐‑
po)   che   verifica   la   capacità   inferenziale.   Entrambi   gli   esercizi  
rilevano  la  “capacità  d’uso  del  contesto  e  l’attivazione  dei  pro-­‐‑
cessi  top-­‐‑down  e  bottom-­‐‑up”.  
• i  numeri  10,  11,  12,  test  di  comprensione  della  lettura  con  do-­‐‑
mande   a   scelta   multipla.   Questi   esercizi   rilevano   l’abilità   in-­‐‑
terpretativa   di   testi   di   diverso   tipo   (narrativo,   informativo)   e  
lunghezza,   definendo   tale   abilità   sulla   base   della   capacità   di  
riconoscimento   delle   parole,   di   localizzazione   delle   informa-­‐‑
zioni,  di  compimento  di  inferenze.  
 

4.  Prove  di  conoscenza  delle  parole  (esercizi  13,14,  1  5,  16)  


L’acquisizione  del  lessico  fondamentale,  le  capacità  di  riflettere  sul  signi-­‐‑
ficato  delle  parole  e  sulle  loro  relazioni  (rapporti  di  somiglianza  e  di  dif-­‐‑
ferenza,  gradazioni  di  significato,  passaggio  dal  generale  allo  specifico  e  
viceversa)  e  di  ricavare  il  significato  di  una  parola  partendo  dal  contesto  
nel   quale   è   inserita   vengono   rilevate   attraverso   i   quattro   esercizi   sotto  
elencati  (in  tutti  gli  esercizi  di  lessico  si  è  fatto  riferimento  la  vocabolario  
72   Seconda  Parte  

di  base  di  De  Mauro  1990,  in  particolare  al  lessico  fondamentale,  ai  vo-­‐‑
caboli  ad  alto  uso  e  ad  alta  disponibilità):  
• il  n.  13  (“parole  generali  e  particolari”),  verifica  la  capacità  di  
distinguere  su  cinque  coppie  di  vocaboli  quale  sia  quella  ge-­‐‑
nerale  rispetto  alla  corrispettiva  particolare.  
• il   n.   14   (“le   famiglie   di   parole”),   rileva   la   capacità   di   indivi-­‐‑
duare  un  vocabolo  estraneo  rispetto  ad  un’area  di  significato.  
• il  n.  15  (“qual  è  il  contrario?”),  rileva  la  capacità  di  sostituire  
una  parola  in  una  frase  con  un  contrario  accettabile  (in  questo  
esercizio   i   vocaboli   vengono   dunque   proposti   all’   interno   di  
un  contesto).  
• il  n.  16.  (“definizioni”),  verifica  la  capacità  di  riconoscere,  tra  
quattro  definizioni  di  un  vocabolo  fuori  contesto,  quella  cor-­‐‑
retta.  
 
 
Le  prove  utilizzate  nella  presente  ricerca  
 
Come   accennato,   le   prove   utilizzate   nella   presente   indagine   prendono  
come  modello  quelle  somministrate  nel  1992.  A  causa  dei  limiti  imposti  
dai  tempi  di  svolgimento  del  dottorato  di  ricerca,  è  risultata  impossibile  
la   correzione   delle   prove   di   produzione   scritta,   nella   descrizione   degli  
strumenti  e  nella  presentazione  dei  risultati  si  fa  dunque  riferimento  alla  
sola  competenza  ricettiva.  
 
 
La  prova  in  ingresso  (2005)  
 
Dal   punto   di   vista   della   struttura   complessiva   le   prove   utilizzate   nella  
presente   ricerca   ricalcano   quelle   del   1992.   La   tipologia   degli   esercizi   è  
rimasta   invariata,   così   come   la   scelta   di   suddividerli   in   due   fascicoli   e  
somministrarli   in   due   giornate   diverse   preferibilmente   consecutive.   In  
totale  sono  stati  inseriti  nelle  prova  “in  ingresso”,  somministrata  tra  il  5  
e  il  26  maggio  del  2005,  16  item  presenti  nelle  prove  del  1999.   La  diffe-­‐‑
renza  più  evidente  tra  le  due  prove  è  la  sostituzione  del  vecchio  eserci-­‐‑
zio   3,   cloze   con   cancellazione   delle   lettere,   con   una   prova   di   compren-­‐‑
sione  della  lettura,  il  testo  informativo  breve  intitolato  “Basta  con  le  pa-­‐‑
role  illeggibili”.  Il  numero  complessivo  di  item  è  stato  aumentato  da  116  
a  127.    
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   73  

Entrando  nello  specifico  dei  singoli  esercizi  i  cambiamenti  più  signifi-­‐‑


cativi  riguardano:  
• esercizio   n.   2:   il   numero   e   la   tipologia   degli   item   sono   stati  
aumentati;  
• esercizio  n.  3:  il  cloze  con  cancellazione  delle  lettere  è  l’unico  
caso   di   esercizio   non   inserito   nelle   nuove   prove,   a   causa  
dell’elevato   indice   di   facilità   degli   item   riscontrato   in   una  
prima  fase  di  try-­‐‑out  delle  prove,  ed  è  stato  sostituito  con  una  
prova  di  comprensione  della  lettura;  
• esercizio   n.   7:   il   numero   di   item   è   stato   aumentato   in   quanto  
tale   esercizio,   che   richiede   di   coniugare   i   verbi,   è   risultato,   in  
fase   di   try-­‐‑out,   più   discriminativo   e   più   difficile   rispetto  
all’esercizio   n.   6,   che   richiede   solo   di   riconoscere   i   verbi   co-­‐‑
niugati  correttamente;  
• esercizi  numero  13,  14,  15,  16  (relativi  alle  competenze  lessica-­‐‑
li):   è   stato   aumentato   il   numero   degli   item,   inserendo   anche  
parole  di  uso  comune  appartenenti  a  lingue  straniere.  
   
Le   nuove   “Indicazioni   nazionali”,   pur   accogliendo   le   priorità   e   le  
istanze  formative  e  disciplinari  dei  programmi  dl  1985,  non  hanno  man-­‐‑
cato  di  fornire  indicazioni  in  sede  di  modifica  e  costruzione  delle  prove.  
In  particolare,  sono  stati  inseriti,  negli  esercizi  sulla  competenza  lessica-­‐‑
le,  item  relativi  al  riconoscimento  di  “vocaboli,  entrati  nell’uso  comune,  
provenienti  da  lingue  straniere”.  La  tabella  n.  6  fornisce  un  quadro  sinte-­‐‑
tico  della  concordanza  tra  le  Indicazioni  nazionali  e  le  nuove  prove.    
 
La   tabella   7   e   i   grafici   successivi,   infine,   mettono   a   confronto   le   due  
prove   evidenziando   le   affinità   tra   le   vecchie   e   le   nuove   nella   struttura  
complessiva  (tab.  7)  e  nei  contenuti  (i  grafici  10  e  11).  
74   Seconda  Parte  

Tabella  7.    

INDICAZIONI  NAZIONALI   ESERCIZI  


“prestare  attenzione  in  situazioni  comunicative   1  ESERCIZIO  (5  ITEM)  
orali   diverse,   tra   cui   le   situazioni   formali,   in    
contesti  sia  abituali  sia  inusuali”   Esercizio  1  (5  item)  
  Verifica   la   capacità   di   utilizzare   codici   e   registri  
 “usare   registri   linguistici   diversi   in   relazione   diversi  in  riferimento  a  diverse  situazioni  comu-­‐‑
con  il  contesto”   nicative  
“leggere  una  varietà  di  forme  testuali  relative  ai   6  ESERCIZI  (50  ITEM)  
differenti  generi,  letterari  e  non”    
rilevare   “caratteristiche   strutturali,   sequenze,   Esercizi  3,  10,  11  e  12  (tot  27  item)  
informazioni  principali  e  secondarie,  personag-­‐‑ Prove   di   comprensione   della   lettura   di   testi   di  
gi,  tempo,  luogo”  in  testi  di  vario  tipo;   tipo  diverso  (lunghi/  brevi;  narrativi/informativi)  
   
“ampliare   il   patrimonio   lessicale   a   partire   da   Esercizio  5  (16  item)  
testi  e  contesti  d’uso”   Cloze  con  cancellazione  di  parole  “piene”  
   
“riconoscere   in   un   testo   alcuni   tipici   connettivi   Esercizio  4  (14  item)  
(temporali,  spaziali,  logici)”   Cloze  con  cancellazione  di  connettivi  
   
“tradurre  testi  in  grafici,  tabelle,  schemi  e  vice-­‐‑ Esercizio  8  (7  item)  
versa”   Esercizio  di  alfabetizzazione  della  lettura,  richie-­‐‑
de   di   risolvere   problemi   sulla   base   di   materiali  
diversi  
ampliamento  del  patrimonio  lessicale   4  ESERCIZI  (28  ITEM)  
   
conoscenza   delle   “relazioni   di   significato   fra   le   Esercizi  13,  14,  15,  16  (tot  28  item)  
parole   (sinonimia,   iper/iponimia,   omonimia,   “Parole  generali  e  particolari”    
antinomia,  ecc…)”   “Qual  è  il  contrario?”  
  “Le  famiglie  di  parole”  
riconoscimento   di   “vocaboli,   entrati   nell’uso   “Definizioni”    
comune,  provenienti  da  lingue  straniere”  
“usare  e  distinguere  i  modi  e  i  tempi  verbali”   3  ESERCIZI  (31  ITEM)  
   
“riconoscere   in   un   testo   alcuni   tipici   connettivi   Esercizio  4  (14  item)  
(temporali,  spaziali,  logici)”   Cloze  con  cancellazione  di  connettivi  
   
  Esercizi  6  e  7  (tot  17  item)  
Uso  corretto  dei  verbi  
 
 
 

Tabella  8.  Confronto  tra  la  struttura  della  prova  MPI-­‐‑Censis  (1992)  e  quella  utilizzata  nella  presente  indagine  nel  2005.  
PROVA  del  1992   PROVA  del  2005  
PRIMO  GIORNO   PRIMO  GIORNO  
Esercizio   Contenuto   item   Esercizio   Contenuto   item  
Scegli  la  frase  più  adatta   REGISTRO   5   Scegli  la  frase  più  adatta   REGISTRO   5  
Correggi   gli   errori   di   Pieri-­‐‑
ORTOGRAFIA   13   Correggi  gli  errori  di  Gianni   ORTOGRAFIA   14  
no  
Cloze  1  “Le  lettere  cancella-­‐‑ TCL1  "ʺBasta  con  le  parole  illeggibi-­‐‑
COMPRENSIONE  della  LETTURA   3   COMPRENSIONE  della  LETTURA   7  
te”   li"ʺ  
Cloze  2  “Le  parole  cancella-­‐‑
GRAMMATICA   12   Cloze  1  "ʺLe  scimmie  protestano"ʺ   GRAMMATICA   14  
te”  
Cloze  3  “Ancora  parole  can-­‐‑
COMPRENSIONE  della  LETTURA   14   Cloze  2  "ʺIl  giorno  e  la  notte"ʺ   COMPRENSIONE  della  LETTURA   17  
cellate”  
Scopri  il  verbo  usato  bene   GRAMMATICA   9   Scopri  il  verbo  usato  bene   GRAMMATICA   7  
Coniuga  i  verbi   GRAMMATICA   8   Coniuga  i  verbi   GRAMMATICA   10  
ALFABETIZZAZIONE   della   LET-­‐‑ ALFABETIZZAZIONE   della   LETTU-­‐‑
Pierino  a  casa  da  solo   7   Gianni  a  casa  da  solo   7  
TURA   RA  
SECONDO  GIORNO   SECONDO  GIORNO  
Esercizio   Contenuto   item   Esercizio   Contenuto   item  
TCL1   "ʺBasta   con   le   parole  
COMPRENSIONE  della  LETTURA   7   TCL2  "ʺIndios"ʺ   COMPRENSIONE  della  LETTURA   6  
illeggibili"ʺ  
TCL2  "ʺState  zitti…"ʺ   COMPRENSIONE  della  LETTURA   8   TCL3  "ʺLa  tastiera  QWERTY"ʺ   COMPRENSIONE  della  LETTURA   7  
TCL3  "ʺIl  cane  e  la  carne"ʺ   COMPRENSIONE  della  LETTURA   8   TCL4  "ʺRe  Leone  e  Madama  Volpe"ʺ   COMPRENSIONE  della  LETTURA   7  
Parole  generali  e  particolari   LESSICO   5   Parole  generali  e  particolari   LESSICO   7  
Qual  è  il  contrario?   LESSICO   5   Qual  è  il  contrario?   LESSICO   7  
Le  famiglie  di  parole   LESSICO   5   Le  famiglie  di  parole   LESSICO   5  
Definizioni   LESSICO   5   Definizioni   LESSICO   7  
76   Seconda  Parte  

     

Figure  9  (in  alto)  e  10  (in  basso).  Percentuali  di  item  per  le  aree  di  competenza  
comprensione  della  lettura  (CL),  lessico  (LES),  grammatica  (GRA),  ortografia  
(ORT),  alfabetizzazione  della  lettura  (AL),  registro  (REG)  nella  prova  del  1992  
(in  alto)  e  in  quella  del  2005  (in  basso).  

1992: percentuali di item per area di competenza

6% 4%
11% 36%

25%
18%

CL LES GRA ORT AL REG


                                                                           

2005: percentuali di item per area di competenza

6% 4%
11%
35%

24%

20%

CL LES GRA ORT AL REG


 
 
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   77  

Per  valutare  l’idoneità  dei  singoli  item,  nel  mese  di  febbraio  e  marzo  
2005  è  stato  eseguito  il  try-­‐‑out  delle  prove  in  cinque  classi  quarte  (per  un  
totale  86  studenti)  in  seguito  al  quale  sono  state  apportate  alcune  modi-­‐‑
fiche.  Di  seguito,  vengono  elencati  gli  interventi  effettuati.      
• Nell’esercizio   n.   2   è   stato   aumentato   il   numero   e   la   tipologia  
degli  item.  
• Il   cloze   con   cancellazione   delle   lettere   è   stato   eliminato   ed   è  
stata   inserita   la   prova   di   comprensione   della   lettura   “Basta  
con   le   parole   illeggibili”,   presente   nelle   prove   dell’indagine  
del  Censis.  
• Gli   esercizi   di   cloze   con   cancellazione   delle   parole   sono   stati  
modificati  eliminando  gli  item  che  presentavano  un  indice  di  
facilità  troppo  elevato.  
• Negli   esercizi   relativi   all’uso   dei   verbi   le   modifiche   riguarda-­‐‑
no   soprattutto   il   numero   di   item.   Sono   stati   diminuiti   quelli  
dell’esercizio  n.  6  e  aumentati  quelli  dell’esercizio  n.  7.  Il  crite-­‐‑
rio   è   stato,   anche   in   questo   caso,   quello   di   eliminare   gli   item  
con  un  indice  di  facilità  medio  troppo  elevato.  
• Nell’esercizio  n.  8  è  stato  aggiunto  un  item  relativo  alla  capa-­‐‑
cità  di  trascrivere  in  tabella  una  serie  di  informazioni  raccolte.  
• Per   il   try-­‐‑out   si   è   scelto   di   somministrare   quattro   prove   di  
comprensione   della   lettura   per   poi   inserire   nel   fascicolo   defi-­‐‑
nitivo  le  tre  prove  che  hanno  presentato  i  migliori  indici  di  fa-­‐‑
cilità  e  di  discriminatività36.  
• Nelle  prove  di  lessico  sono  state  apportate  delle  modifiche  ad  
ogni  singolo  esercizio  ed  è  stato  aumentato  il  numero  di  item.  
L’esercizio  relativo  all’uso  dei  sinonimi  è  stato  eliminato  ed  è  
stato  aggiunto  l’esercizio  n.  15  relativo  alla  capacità  di  indivi-­‐‑
duare  “famiglie  di  parole”.  

 
   La  prova  “Indios”,  presente  nel  secondo  fascicolo,  è  stata  costruita  dagli  stu-­‐‑
36

denti  del  corso  2003/2004  “Costruzione  di  prove  oggettive”  condotto  dal  professore  
Giorgio  Asquini.  
 
78   Seconda  Parte  

La  prova  in  uscita  (2006)  


 
Somministrata   tra   il   4   e   il   25   maggio   2006,   la   prova   “in   uscita”   ricalca,  
nella   struttura   e   nel   contenuto,   quella   dell’anno   precedente:   come  
quest’ultima,   infatti,   è   composta   da   15   esercizi   (4   test   di   comprensione  
della  lettura,  4  esercizi  di  lessico,  2  cloze,  2  esercizi  sui  verbi,  1  esercizio  
di   ortografia,   1   di   alfabetizzazione   della   lettura,   1   sull’uso   del   registro  
linguistico   adatto)   disposti   nella   stessa   sequenza   (vedi   tabella   n.   8).   La  
prova  del  2006  presenta  inoltre  58  item  di  ancoraggio,  pari  al  41%  del  to-­‐‑
tale.   Dei   quindici   esercizi,   quattro   sono   stati   ripresentati   senza   alcuna  
variazione  rispetto  all’anno  precedente.  
Per   quanto   riguarda   i   cambiamenti   effettuati   rispetto   all’anno   prece-­‐‑
dente,  si  è  optato  per  una  generale  diminuzione  della  facilità  della  pro-­‐‑
va.  Per  ottenere  prove  più  difficili  della  precedente,  e  allo  scopo  di  assi-­‐‑
curarsi  che  i  vecchi  e  i  nuovi  esercizi  rilevassero  le  stesse  abilità,  nel  2006  
try-­‐‑out   è   stato   effettuato   su   un   numero   doppio   (dieci)   di   classi   rispetto  
all’anno   precedente:   è   stato   così   possibile   somministrare   in   cinque   di  
queste   classi   fascicoli   contenenti   sia   esercizi   del   2005   sia   quelli   costruiti  
alla  scopo  di  sostituirli.  
Mentre  il  numero  complessivo  di  item  è  stato  aumentato  da  127a  144,  
i   cambiamenti   più   significativi,   che   verranno   descritti   i   maniera   detta-­‐‑
gliata  nella  sezione  relativa  alla  descrizione  analitica  delle  prove,  hanno  
riguardato:  
• La  sostituzione  di  tre  test  di  comprensione  della  lettura  del  2005  
con   due   prove   già   utilizzate   nella   ricerca   MPI-­‐‑Censis   del   1992   e  
con   una   costruita   dalle   studentesse   e   dagli   studenti  
dell’esercitazione  di  ricerca  “Costruzione  di  prove  per  la  misura  
dell’Efficacia  Scolastica”.  
• La   sostituzione   del   cloze   di   comprensione   della   lettura   del   2005  
(esercizio  n.  5)  con  quello  utilizzato  nella  ricerca  MPI-­‐‑Censis  del  
1992.    
Altri   cambiamenti   hanno   riguardato   gli   esercizi   di   lessico   (aumento  
del  numero  degli  item,  maggiore  utilizzo  di  vocaboli  con  marche  d’uso  
meno   comuni),   quello   di   ortografia   (ampliamento   del   numero   di   errori  
da   riconoscere)   e   quelli   di   grammatica   (aumento   del   numero   di   item   e  
della  loro  difficoltà).  
 
 

Tabella  9.  Confronto  tra  la  prova  somministrata  nel  2005  e  quella  somministrata  nel  2006.  
PROVA  del  2005   PROVA  del  2006  
PRIMO  GIORNO   PRIMO  GIORNO  
Esercizio   Contenuto   Item   Esercizio   Contenuto   Item  
Scegli  la  frase  più  adatta   REGISTRO   5   Scegli  la  frase  più  adatta   REGISTRO   5  
Correggi  gli  errori  di  Gianni   ORTOGRAFIA   14   Correggi  gli  errori  di  Gianni   ORTOGRAFIA   19  
TCL1   "ʺBasta   con   le   parole  
COMPRENSIONE  della  LETTURA   7   TCL1  “State  zitti  se  potete”   COMPRENSIONE  della  LETTURA   8  
illeggibili"ʺ  
Cloze   1   "ʺLe   scimmie   prote-­‐‑
GRAMMATICA   14   Cloze  1  "ʺLe  scimmie  protestano"ʺ   GRAMMATICA   19  
stano"ʺ  
Cloze  2  "ʺIl  giorno  e  la  notte"ʺ   COMPRENSIONE  della  LETTURA   17   Cloze  2  "ʺIl  giorno  e  la  notte"ʺ   COMPRENSIONE  della  LETTURA   16  
Scopri  il  verbo  usato  bene   GRAMMATICA   7   Scopri  il  verbo  usato  bene   GRAMMATICA   7  
Coniuga  i  verbi   GRAMMATICA   10   Coniuga  i  verbi   GRAMMATICA   10  
ALFABETIZZAZIONE   della   LET-­‐‑ ALFABETIZZAZIONE   della   LETTU-­‐‑
Gianni  a  casa  da  solo   7   Gianni  a  casa  da  solo   7  
TURA   RA  
SECONDO  GIORNO   SECONDO  GIORNO  
Esercizio   Contenuto   Item   Esercizio   Contenuto    
TCL2   “L’inondazione   del   Nilo   vi-­‐‑
TCL2  "ʺIndios"ʺ   COMPRENSIONE  della  LETTURA   6   COMPRENSIONE  della  LETTURA   9  
sta  da  uno  storico”  
TCL3   "ʺLa   tastiera   QWER-­‐‑ TCL3"ʺBasta   con   le   parole   illeggibi-­‐‑
COMPRENSIONE  della  LETTURA   7   COMPRENSIONE  della  LETTURA   7  
TY"ʺ   li"ʺ  
TCL4   "ʺRe   Leone   e   Madama  
COMPRENSIONE  della  LETTURA   7   TCL4  “Il  cane  e  la  carne”   COMPRENSIONE  della  LETTURA   8  
Volpe"ʺ  
Parole  generali  e  particolari   LESSICO   7   Parole  generali  e  particolari   LESSICO   8  
Qual  è  il  contrario?   LESSICO   7   Qual  è  il  contrario?   LESSICO   8  
Le  famiglie  di  parole   LESSICO   5   Le  famiglie  di  parole   LESSICO   6  
Definizioni   LESSICO   7   Definizioni   LESSICO   7  
80   Seconda  Parte  

Figura  11.  Percentuali  del  numero  di  item  per  le  aree  di  competenza  compren-­‐‑
sione   della   lettura   (CL),   lessico   (LES),   grammatica   (GRA),   ortografia   (ORT),  
alfabetizzazione  della  lettura  (AL),  registro  (REG)  nella  prova  del  2006.  

2006: percentuali di item per area di competenza

5% 3%
13%
34%

25%
20%

CL LES GRA ORT AL REG


 
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   81  

PROVE  DI  COMPETENZA  COMUNICATIVA  E  FUNZIONALE  (REGI-­‐‑


STRO  E  ALFABETIZZAZIONE  DELLA  LETTURA)  

REGISTRO  
Il   primo   esercizio   richiede   agli   studenti   di   scegliere   la   frase   con   il   regi-­‐‑
stro  più  adatto  alla  situazione  comunicativa  proposta  (rappresentata  da  
una  vignetta).  L’esercizio,  composto  da  cinque  item  (identici  a  quelli  del-­‐‑
la  prova  del  2005)  con  quattro  alternative  di  risposta,  è  stato  presentato  
senza   alcuna   modifica   nella   prova   del   2006.   Gli   item   2   e   4   erano   stati  
precedentemente  utilizzati  nella  prova  MPI  Censis  del  1992.    
 
 

Tabella  10.  Struttura  dell’esercizio  n.  1  (prova  del  2005  e  prova  del  2006).  
SITUAZIONE     REGISTRO  
ITEM   PERSONAGGI  
COMUNICATIVA   RICHIESTO  
101   Un  signore  e  un  bambino   Richiesta  di  informazioni   Formale  

102   Due  bambini   Richiesta  di  un  oggetto   Informale  


Uno  sciatore  
103   Richiesta  di  soccorso   Informale  (tono:  drammatico)  
e  un  ferito  
104   Una  mamma  e  due  bambini   Rimprovero   Informale  (tono:  inquieto)  

105   Due  calciatori   Richiesta  di  un  oggetto  (pallone)   Informale  (tono:  deciso)  

 
82   Seconda  Parte  

ALFABETIZZAZIONE  DELLA  LETTURA  


L’esercizio   di   alfabetizzazione   della   lettura   richiede   una   comprensione  
funzionale  del  testo  verificata  attraverso  la  risoluzione  di  problemi  legati  
alla  lettura  di  istruzioni,  orologio  analogico,  tabelle,  elenco  del  telefono.  
Già  presente  nella  prova  MPI  –  Censis,  questo  esercizio  è  stato  presenta-­‐‑
to  senza  alcuna  modifica  sia  nella  prova  del  2005  sia  in  quella  del  2006.  
   
Tabella  11.  Struttura  dell’esercizio  n.  8  (prova  del  2005  e  del  2006).  

ITEM    ABILITÀ  

801   controllare  data  di  scadenza  

802   scegliere  prodotto  per  pulire  

803   leggere  orologio  analogico  

804   confrontare  dati  di  4  tabelle  

805   confrontare  dati  di  4  tabelle  

806   confrontare  dati  di  4  tabelle  

807   trovare  numero  di  telefono  in  un  elenco  

 
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   83  

 PROVE  DI  USO  CORRETTO  DELLA  LINGUA  (ORTOGRAFIA  E  


GRAMMATICA)  

ORTOGRAFIA  
L’esercizio   n.   2   richiede   agli   studenti   di   identificare   errori   di   ortografia  
all’interno  di  un  resoconto  di  una  gita  al  parco  nazionale.  Il  testo  presen-­‐‑
tato   agli   studenti   nel   2006   è   del   tutto   simile   rispetto   a   quello   dell’anno  
precedente,  costruito  nel  corso  dell’esercitazione  di  ricerca  “Costruzione  
di  prove  per  la  misura  dell’efficacia  scolastica”  (a.a.  2004-­‐‑2005),  le  diffe-­‐‑
renze  sono  legate  alla  scelta  di  errori  di  diverso  genere  e  all’introduzione  
di  nuove  sviste  ortografiche.  Gli  item  sono  passati,  nella  prova  “in  usci-­‐‑
ta”,   da   14   a   19,   per   conservare   la   stessa   proporzione   tra   parole   scritte  
correttamente  e  parole  contenenti  errori  ortografici,  il  testo  è  stato  allun-­‐‑
gato.   Le   modifiche   sono   state   apportate   nel   corso   dell’esercitazione   di  
ricerca  “Costruzione  di  prove  per  la  misura  dell’efficacia  scolastica”  (a.a.  
2005-­‐‑2006).  
Tabella  12.  Item  (errore  da  riconoscere)  dell’esercizio  n.  2  nella  prova  del  2005  
(a  sinistra)  e  in  quella  del  2006  (a  destra).  
ITEM   ERRORE  DA  RICONOSCERE     ITEM   ERRORE  DA  RICONOSCERE  
201   un  assolata  per  un’assolata     201   un  assolata  per  un’assolata  
202   cene  per  ce  ne     202   arivati  per  arrivati  
203   complet-­‐‑amente  per  completa-­‐‑mente     203   cene  per  ce  ne  
204   legnio  per  legno     204   legnio  per  legno  
205   cerano  per  c’erano     205   viv-­‐‑ono  per  vivo-­‐‑no  
206   ha  per  a     206   inportanti  per  importanti  
207   rincorrevano  per  rincorrevano     207   forze  per  forse  
208   un’antico  per  un  antico     208   giente  per  gente  
209   abiamo  per  abbiamo     209   un'ʹanimale  per  un  animale  
210   aqua  per  acqua     210   paesagio  per  paesaggio  
211   incaminati  per  incamminati     211   cerano  per  c’erano  
212   o  per  ho     212   ha  lungo  per  a  lungo  
213   piac-­‐‑iuto  per  pia-­‐‑ciuto     213   rifuggio  per  rifugio  
214   acuila  per  aquila     214   o  fatto  per  ho  fatto  
      215   disegnio  per  disegno  
      216   anno  portato  per  hanno  portato  
      217   aqua  per  acqua  
      218   conzerverò  per  conserverò  
      219   piac-­‐‑iuto  per  piaciu-­‐‑to  
84   Seconda  Parte  

GRAMMATICA  
 Cloze  mirato  
Si  tratta  del  primo  dei  tre  esercizi  di  grammatica.  È  un  cloze  mirato  e  ve-­‐‑
rifica  la  capacità  degli  studenti  nell’uso  di  connettivi,  preposizioni,  arti-­‐‑
coli,  avverbi.  Il  testo  (informativo-­‐‑breve)  è  costituito  da  un  articolo,  ria-­‐‑
dattato  nel  corso  dell’esercitazione  di  ricerca  “Costruzione  di  prove  per  
la   misura   dell’efficacia   scolastica”   (a.   a.   2004-­‐‑2005),   sull’”invasione”,   da  
parte  di  decine  di  scimmie,  di  alcune  città  asiatiche  e  africane.  Anche  in  
questo  caso  (come  nell’esercizio  di  ortografia),  nel  2006  si  è  scelto  di  ap-­‐‑
portare  delle  modifiche,  sostituendo  alcuni  tra  i  “buchi”  che  nella  prova  
“in   ingresso”   erano   risultati   di   facile   riempimento   e   aggiungendone   al-­‐‑
tri.   Il   testo   è   stato   modificato   dalle   studentesse   e   dagli   studenti  
dell’esercitazione   di   ricerca   “Costruzione   di   prove   per   la   misura  
dell’efficacia   scolastica”   (a.   a.   2005-­‐‑2006).   Gli   item   sono   passati   da   15   a  
19.  Per  conservare  la  stessa  proporzione  di  buchi  del  2005,  il  testo  è  stato  
leggermente  allungato.    
Tabella  13.  Item  (parola  da  inserire)  nelle  prove  di  buco  (esercizio  n.  4)  nella  
prova  del  2005  (a  sinistra)  e  in  quella  del  2006  (a  destra).  
ITEM   CHIAVE     ITEM   CHIAVE  
401   NELLA     401   NELLA  
402   PER     402   DOVE  
403   DALL'ʹ     403   PER  
404   A     404   AL  
405   DA     405   A  
406   DELL'ʹ     406   DEI  
407   IN     407   DA  
408   DI     408   LE  
409   E     409   DOPO  
410   DI     410   IN  
411   CHE     411   SI  
412   DA     412   DI  
413   L'ʹ     413   UNA  
414   LE     414   LE  
      415   CON  
      416   FINO  
      417   DA  
      418   CONTRO  
      419   A  
 
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   85  

Prova  di  riconoscimento  del  verbo  coniugato  correttamente  


Il  secondo  esercizio  di  grammatica  richiede  allo  studente  di  individuare,  
tra  due  alternative,  la  frase  nella  quale  il  verbo  è  coniugato  correttamen-­‐‑
te.   L’esercizio,   costruito   nel   corso   dell’esercitazione   di   ricerca   “Costru-­‐‑
zione  di  prove  per  la  misura  dell’efficacia  scolastica”  (a.  a.  2004-­‐‑2005),  è  
stato   presentato   nella   prova   del   2006   senza   alcuna   modifica   rispetto  
all’anno  precedente.  
Tabella   14.   Item   (tempi   e   modi   dei   verbi)   dell’esercizio   n.   6   della   prova   del  
2005  e  della  prova  del  2006.  
ITEM   CHIAVE  
601   PASSATO  PROSSIMO  
602   CONGIUNTIVO  PRESENTE  
603   CONDIZIONALE  PRESENTE  
604   CONGIUNTIVO  TRAPASSATO  
605   TRAPASSATO  PROSSIM  
606   FUTURO  ANTERIORE  
607   CONDIZIONALE  PRESENTE  
 
86   Seconda  Parte  

Prova  di  coniugazione  dei  verbi  


In  questo  esercizio,  a  differenza  del  numero  6,  allo  studente  è  richiesto  di  
coniugare  i  verbi,  riempiendo  i  buchi  all’interno  di  10  frasi.  L’esercizio,  
costruito   nel   corso   dell’esercitazione   di   ricerca   “Costruzione   di   prove  
per  la  misura  dell’efficacia  scolastica”  (a.  a.  2004-­‐‑2005),  è  stato  modifica-­‐‑
to   in   occasione   della   prova   del   2006   (sono   stati   infatti   sostituiti   gli   item  
risultati  più  facili  l’anno  precedente).  
Tabella   15.   Item   (tempi   e   modi   dei   verbi)   dell’esercizio   n.   7   della   prova   del  
2005  (a  sinistra)  e  della  prova  del  2006  (a  destra).  
ITEM   CHIAVE     ITEM   CHIAVE  
701    PASSATO  REMOTO     701   INDICATIVO  PRESENTE  
702    INDICATIVO  PRESENTE     702   CONGIUNTIVO  TRAPASSATO  
703    CONGIUNTIVO  TRAPASSATO     703   GERUNDIO  
704    INFINITO     704   PASSATO  REMOTO  
705    FUTURO    SEMPLICE     705   CONGIUNTIVO  TRAPASSATO  
706    PASSATO  REMOTO     706   CONDIZIONALE  PRESENTE  
707    CONDIZIONALE  PASSATO     707   GERUNDIO  
708    PASSATO  PROSSIMO     708   PASSATO  PROSSIMO  
709    CONDIZIONALE  PRESENTE     709   CONGIUNTIVO  TRAPASSATO  
710    GERUNDIO     710   CONDIZIONALE  PASSATO  
 
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   87  

PROVE  DI  COMPRENSIONE  DELLA  LETTURA  


Cloze  
L’esercizio  5  è  un  cloze  vero  e  proprio  (dal  testo  sono  state  casualmente  
cancellate  parole  di  tutti  i  tipi)  e  verifica  la  capacità  di  lettura  di  tipo  in-­‐‑
ferenziale.    
Nel   2005   è   stata   utilizzata   una   prova   costruita   nel   corso    
dell’esercitazione   di   ricerca   “Costruzione   di   prove   per   la   misura  
dell’efficacia  scolastica”  (a.  a.  2004-­‐‑2005),  un  testo  informativo  breve  (con  
buchi   ogni   sette   parole)   sul   movimento   della   Terra   rispetto   al   Sole   e   il  
conseguente  avvicendarsi  di  giorno  e  notte  sul  pianeta.  Nel  2006  è  stata  
utilizzata   la   stessa   prova   somministrata   nella   ricerca   MPI-­‐‑Censis   del  
1992,   basata   su   un   testo   (informativo   breve)   relativo   ai   punti   cardinali  
(con  buchi  ogni  sette  parole).  
Tabella  16.  Item  (parola  da  inserire)  nelle  prove  di  cloze  (esercizio  n.  5)  nella  
prova  del  2005  (a  sinistra)  e  in  quella  del  2006  (a  destra).  
Tipo  di  testo:  Informativo  –  Breve     Tipo  di  testo:  Informativo  –  Breve  

ITEM   CHIAVE     ITEM   CHIAVE  


501   DI     501   MEZZOGIORNO  
502   SOLE     502   A  
503   NOTTE     503   E  
504   GIORNO     504   È  
505   NON     505   IL  
506   CHE     506   IL  
507   DA'ʹ     507   ORIENTE  
508   SORGERE     508   TRAMONTA  
509   TRAMONTARE     509   SOLE  
510   SULLA     510   NORD  
511   CHE     511   TE  
512   FRONTE     512   DI  
513   TERRA     513   CI  
514   DAL     514   DI  
515   ALTRA     515   SORGE  
516   QUEL     516   PER  
517   NUOVO        
88   Seconda  Parte  

 
Test  di  Comprensione  della  Lettura  
L’unico   test   di   comprensione   della   lettura   ad   essere   somministrato,   in  
entrambe  le  prove  compare  nel  2005  come  terzo  esercizio,  mentre  l’anno  
successivo,  come  esercizio  numero  11,  apre  il  secondo  fascicolo.  Si  tratta  
di   un   test   di   comprensione   della   lettura   già   utilizzato   nella   prova   MPI-­‐‑
Censis  del  1992.  Il  testo  (informativo-­‐‑breve),  tratto  da  un  quotidiano,  fa  
riferimento  alla  richiesta  da  parte  del  sistema  postale  americano  di  proi-­‐‑
bire  la  scrittura  in  corsivo  degli  indirizzi  allo  scopo  di  agevolare  lo  smi-­‐‑
stamento  della  corrispondenza.    
Tabella   17.   Abilità   rilevate   dal   test   di   comprensione   della   lettura   presentato  
sia  nella  prova  del  2005  (esercizio  n.  3)  sia  in  quella  del  2006  (esercizio  n.  11).  
Tipo  di  testo:  Informativo  –  Breve  
Già  presente  nella  Prova  MPI-­‐‑Censis  1992  
ITEM   ABILITÀ  

301   Compiere  inferenze  

302   Riconoscimento  di  parole  nel  contesto    

303   Localizzare  informazioni  

304   Comprendere  l’idea  principale  

305   Localizzare  informazioni  

306   Riconoscimento  di  parole  nel  contesto  

307   Comprensione  globale  del  testo  

308   Compiere  inferenze  

 
 
Gli  altri  test  di  comprensione  della  lettura  somministrati  sono  elencati  
nella   tabella   seguente.   Come   si   può   notare,   i   test   della   prova   in   uscita  
hanno  un  numero  di  item  maggiore  rispetto  a  quelli  dell’anno  preceden-­‐‑
te.  
 
 
 
 
 
 
 
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   89  

Tabella  18.  Abilità  rilevate  dai  test  di  comprensione  della  lettura  presenti  nel-­‐‑
la  prova  del  2005  e  in  quella  del  2006.    
Prova  del  2005   Prova  del  2006  
Esercizio  n.  10   Esercizio  n.  3  
Tipo  di  testo:  Informativo  –  Breve  
Costruito  nell’ambito  del  corso     Tipo  di  Testo:  Informativo  –  Lungo  
Costruzione  di  prove  oggettive     già  presente  nella  Prova  MPI-­‐‑Censis  1992  
(a.  a.  2003-­‐‑2004)  
ITEM   ABILITÀ   ITEM   ABILITÀ  
1001   Fare  inferenze   301   Compiere  inferenze  
1002   Competenza  lessicale   302   Competenza  lessicale  
1003   Localizzare  informazioni   303   Localizzare  informazioni  
1004   Localizzare  informazioni   304   Comprendere  l’idea  principale  
1005   Comprendere  globalmente  il  testo   305   Localizzare  informazioni  
1006   Comprendere  l'ʹidea  principale   306   Competenza  lessicale  
307   Localizzare  informazioni  
 
308   Compiere  inferenze  
Esercizio  n.  11   Esercizio  n.  10  
Tipo  di  testo:  Informativo  –  Lungo   Tipo  di  testo:  Informativo  –  Breve  
Costruito  nell’ambito  dell’esercitazione     Costruito  nell’ambito  dell’esercitazione    
di  ricerca  Costruzione  di  prove  per  la  misura     di  ricerca  Costruzione  di  prove  per  la  misura    
dell’efficacia  scolastica  (a.  a.  2004-­‐‑2005)   dell’efficacia  scolastica  (a.  a.  2005-­‐‑2006)  
ITEM    ABILITÀ   ITEM    ABILITÀ  
1101   Localizzare  informazioni   1001   Compiere  inferenze  
1102   Fare  inferenze   1002   Competenza  lessicale  
1103   Fare  inferenze     1003   Localizzare  informazioni  
1104   Localizzare  informazioni   1004   Comprensione  globale  del  testo  
1105   Localizzare  informazioni   1005   Compiere  inferenze  
1106   Comprendere  l’idea  principale   1006   Compiere  inferenze  
1107   Comprendere  globalmente  il  testo   1007   Compiere  inferenze  
1008   Compiere  inferenze  
 
1009   Compiere  inferenze  
Esercizio  n.  12   Esercizio  n.  12  
Tipo  di  testo:  Narrativo  –  Lungo  
Costruito  nell’ambito  dell’esercitazione     Tipo  di  Testo:  Narrativo  –  Lungo  
di  ricerca  Costruzione  di  prove  per  la  misura     già  presente  nella  Prova  MPI-­‐‑Censis  1992  
dell’efficacia  scolastica  (a.  a.  2004-­‐‑2005)  
ITEM   ABILITÀ   ITEM   ABILITÀ  
1201   Localizzare  informazioni   1201   Compiere  inferenze  
1202   Fare  inferenze   1202   Compiere  inferenze  
1203   Fare  inferenze   1203   Comprensione  lessicale  
1204   Localizzare  informazioni   1204   Localizzare  informazioni  
1205   Fare  inferenze   1205   Compiere  inferenze  
1206   Localizzare  informazioni   1206   Compiere  inferenze  
1207   Fare  inferenze   1207   Localizzare  informazioni  
  1208   Comprensione  dell’idea  principale  
90   Seconda  Parte  

PROVE  DI  CONOSCENZA  DELLE  PAROLE  


Nella  costruzione  degli  esercizi  di  lessico  si  è  fatto  riferimento  alla  “mar-­‐‑
ca  d’uso”  dei  lemmi  utilizzata  da  De  Mauro  nel  suo  Dizionario  di  Italia-­‐‑
no.  Le  marche  d’uso,  specifica  De  Mauro,  forniscono  maggiori  informa-­‐‑
zioni   sull'ʹeffettivo   grado   di   utilizzazione   di   un   lemma   (basso   uso,   alto  
uso,   comune,   ecc.)   o   sul   particolare   ambito   d'ʹuso   (letterario,   tecnico-­‐‑
specialistico).    
Mentre  nel  2005  nei  quattro  esercizi  di  lessico  il  40%  dei  termini  ave-­‐‑
va  marca  d’uso  definita  da  De  Mauro  “fondamentale”  (<<vocaboli  di  al-­‐‑
tissima  frequenza,  che  da  soli  costituiscono  circa  il  90%  delle  parole  che  
ricorrono  nell'ʹinsieme  di  tutti  i  testi  scritti  o  dei  discorsi>>),  nel  2006,  allo  
scopo  di  aumentare  il  grado  di  difficoltà  della  prova,  la  proporzione  dei  
lemmi   aventi   marca   d’uso   fondamentale   è   stata   ridotta   al   29%   (vedi   fi-­‐‑
gure  12  e  13),  a  vantaggio  di  termini  con  marche  d’uso  “comune”  (<<vo-­‐‑
caboli   che   possiamo   capire   indipendentemente   dal   mestiere   che   faccia-­‐‑
mo  o  dalla  specializzazione  che  abbiamo>>),  “ad  alto  uso”(<<vocaboli  di  
alta   frequenza,   che   costituiscono   tra   il   6%   e   l'ʹ8%   di   ciò   che   diciamo   o  
scriviamo>>),  “ad  alta  disponibilità”  (<<vocaboli  di  uso  relativamente  ra-­‐‑
ro   nel   parlare   o   nello   scrivere,   ma   che   sono   a   tutti   ben   noti   perché   di  
grande  rilevanza  nella  vita  quotidiana>>).  La  marca  d’uso  meno  utilizza-­‐‑
ta,   sia   nella   prova   “in   ingresso”   sia   in   quella   “in   uscita”,   è   stata   quella  
che  De  Mauro  definisce  “Tecnico  –  Specialistica”  (<<vocaboli  noti  soprat-­‐‑
tutto  in  rapporto  a  particolari  attività  e  a  studi  specialistici>>).  
 
Figure  12  e  13.  Marche  d’uso  (%)  delle  parole  inserite  negli  esercizi  di  lessico.  

lessico 2005: marche d'uso lessico 2006: marche d'uso

9% 12%

10% 29%
9%
41%

19%

26%

24%
21%
Fondamentale Alto Uso Comune Tecnico Spec. Alta Disp. Fondamentale Alto Uso Comune Tecnico Spec. Alta Disp.
 
 
Legenda  marche  d’uso  esercizi  di  lessico:  AD  =  Alta  Disponibilità;  AU  =  Alto  Uso;  CO  =  Comune;  
ES  =  Esotismi;  FO  =  Fondamentale;  TS  =  Tecnico-­‐‑Specialistico  
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   91  

 
 
Esercizio  13  “Parole  generali  e  particolari”  
Si   tratta   del   primo   dei   quattro   esercizi   di   lessico.   Verifica   la   capacità   di  
legare  tra  loro  coppie  di  vocaboli  e  di  riconoscere  il  più  generale  dal  più  
particolare.  Nella  prova  del  2006  le  coppie  sono  passate  da  sette  a  otto.  
Tabella  19.  Marche  d’uso  dei  termini  utilizzati  nell’esercizio  n.  13  della  prova  
del  2005  (a  sinistra)  e  del  2005  (a  destra).  

ITEM   Parola   Marca   Parola   Marca   ITEM   Parola   Marca   Parola   Marca  

abita-­‐‑
1301   AU   villa   FO   1301   albero   FO   betulla   CO  
zione  
biscot-­‐‑
1302   AD   wafer   ES   1302   bevanda   AU   frappè   CO  
to  
rott-­‐‑
1303   cane   FO   ES   1303   biscotto   AD   wafer   ES  
weiler  
calzatu-­‐‑ zocco-­‐‑
1304   colore   FO   rosso   FO   1304   AD   AU  
ra   lo  
set-­‐‑ imbar-­‐‑ bale-­‐‑
1305   mese   FO   FO   1305   CO   TS  
tembre   cazione   niera  
ortag-­‐‑
1306   AU   carota   AU   1306   ortaggio   AU   carota   AU  
gio  
stovi-­‐‑ cuc-­‐‑ cuc-­‐‑
1307   AD   AU   1307   stoviglia   AD   AU  
glia   chiaio   chiaio  
libec-­‐‑
  1308   vento   FO   CO  
cio  
 
Legenda  marche  d’uso  esercizi  di  lessico:  AD  =  Alta  Disponibilità;  AU  =  Alto  Uso;  CO  =  Comune;  
ES  =  Esotismi;  FO  =  Fondamentale;  TS  =  Tecnico-­‐‑Specialistico  
92   Seconda  Parte  

Esercizio  14  “Qual  è  il  contrario?”  


Questo  esercizio  verifica  la  capacità  di  sostituire  una  parola  all’interno  di  
una  frase  con  una  di  significato  contrario  inseribile  nel  contesto.  Gli  stu-­‐‑
denti   dovevano   scegliere   tra   quattro   alternative   di   risposta.   Anche   in  
questo  caso,  nel  2006  è  stato  aggiunto  un  item.  
Tabella   20.   Marche   d’uso   dei   termini   utilizzati   negli   item   dell’esercizio     14  
della  prova  del  2005  (in  alto)  e  del  2006  (in  basso).  

ITEM   Parola   Marca   parola   marca   parola   marca   Parola   marca   parola   Marca  
con-­‐‑
rifiuta-­‐‑
1401   capito   FO   FO   negato   CO   trad-­‐‑ AU   frainteso   CO  
to  
detto  
denun-­‐‑ con-­‐‑
sospet-­‐‑
1402   assolto   AU   FO   nun-­‐‑ FO   dan-­‐‑ FO   giudicato   FO  
tato  
ciato   nato  
confu-­‐‑
1403   chiaro   FO   scuro   AU   CO   acuto   AD   banale   AU  
so  
com-­‐‑
paro-­‐‑
1404   offese   AU   CO   saluti   FO   pli-­‐‑ CO   regali   FO  
lacce  
menti  
asciut-­‐‑
1405   secco   FO   umido   AU   AU   grasso   CO   bagnato   CO  
to  
abbat-­‐‑ Solle-­‐‑ affit-­‐‑ ven-­‐‑ edifican-­‐‑
1406   CO   AU   CO   FO   CO  
tendo   vando   tando   dendo   do  
superfi-­‐‑ pro-­‐‑ dolo-­‐‑
1407   AU   FO   esterna   FO   AD   lunga   FO  
ciale   fonda   rosa  
ITEM   Parola   Marca   parola   marca   parola   marca   parola   marca   Parola   Marca  
con-­‐‑
rifiuta-­‐‑
1401   capito   FO   FO   negato   CO   trad-­‐‑ AU   frainteso   CO  
to  
detto  
econo-­‐‑ conve-­‐‑ sco-­‐‑ costo-­‐‑
1402   FO   CO   AD   AU   Stretti   AD  
mici   nienti   modi   si  
denun-­‐‑ con-­‐‑
sospet-­‐‑
1403   assolto   AU   FO   nun-­‐‑ FO   dan-­‐‑ FO   giudicato   FO  
tato  
ciato   nato  
1404   rapido   FO   lento   FO   Largo   FO   abile   AU   Svelto   FO  
confu-­‐‑
1405   chiaro   FO   scuro   AU   CO   acuto   AD   banale   AU  
so  
affet-­‐‑ edu-­‐‑
1406   freddo   CO   caldo   CO   FO   CO   duro   FO  
tuoso   cato  
licen-­‐‑ boc-­‐‑
1407   assunta   CO   punita   AU   CO   CO   promossa   CO  
ziata   ciata  
abbat-­‐‑ solle-­‐‑ affit-­‐‑ ven-­‐‑ edifican-­‐‑
1408   CO   AU   CO   FO   CO  
tendo   vando   tando   dendo   do  
 
Un’indagine  sul  valore  aggiunto  nella  scuola  primaria   93  

Esercizio  15  “Le  famiglie  di  parole”  


Questo  esercizio  verifica  la  capacità  di  individuare  un  vocabolo  estraneo  
rispetto  a  un’area  di  significato.  
Tabella   21.   Marche   d’uso   dei   termini   utilizzati   negli   item   dell’esercizio     15  
della  prova  del  2005  (in  alto)  e  del  2006  (in  basso).  
ITEM   Parola   Parola   parola   parola   parola  
2005   MARCA   MARCA   MARCA   MARCA   MARCA  
Libro   Penna   Matita   Bar   Gomma  
1501  
FO   AU   AD   FO   FO  
Difesa   Attacco   Giudizio   Testimone   Appello  
1502  
FO   FO   TS   TS   TS  
Crème    
Profitetole   Champagne   Tiramisù   Strudel  
1503   Caramel  
ES   ES   CO   ES  
ES  
Euforia   Felicità   Entusiasmo   Gaudio   Malinconia  
1504  
CO   FO   FO   CO   AU  
Play    
Password   E  –  mail   Connessione   Sito  
1505   Station  
TS   ES   TS   TS  
ES  
Item   Parola   Parola   Parola   Parola   Parola  
2006   Marca   Marca   Marca   Marca   Marca  
Cuscino   Camicia   Cappello   Cravatta   Pantaloni  
1501  
AU   FO   FO   AU   AU  
Difesa   Attacco   Giudizio   Testimone   Appello  
1502  
FO   FO   TS   TS   TS  
Euforia   Felicità   Entusiasmo   Gaudio   Malinconia  
1503  
CO   FO   FO   CO   AU  
Triangolo   Cerchio   Arpa   Piatti   Flauto  
1504  
TS   AU   CO   TS   AD  
Rabbia   Preoccupazione   Allergia   Raffreddore   Varicella  
1505  
TS   FO   TS   AD   TS  
Scimitarra   Pugnale   Spada   Scudo   Sciabola  
1506  
CO   AU   FO   AU   CO  
94   Seconda  Parte  

Esercizio  16  “Definizioni”  


 
Questo   esercizio   richiede   di   scegliere   quella   corretta   tra   quattro   defini-­‐‑
zioni  fuori  contesto  di  un  vocabolo.  
 
Tabella  22  Marche  d’uso  dei  termini  utilizzati  nell’esercizio  n.  16  della  prova  
del  2005  (a  sinistra)  e  del  2005  (a  destra).  
Esercizio  n.  16  (2005)   Esercizio  n.  16  (2006)  

ITEM   Parola   marca   ITEM   Parola   marca  


1601   tregua   AU   1601   miniera   AU  
1602   capitale   FO   1602   orma   AD  
1603   folla   FO   1603   valle   FO  
1604   miniera   AU   1604   esilio   FO  
1605   carcere   FO   1605   laboratorio   FO  
1606   orma   AD   1606   tregua   AU  
1607   valle   FO   1607   assemblea   AU  
 
 
 

Terza  Parte  
 
RISULTATI  DELL’INDAGINE  
 
 

Capitolo  settimo  
Andamento  degli  studenti  

Le  due  prove:  risultati  generali  


 
La  prova  di  competenza  linguistica  “in  uscita”  è  stata  somministrata,  nel  
mese   di   maggio   del   2006,   nelle   38   classi   quinte   delle   11   scuole   romane  
partecipanti   alla   ricerca.   Si   tratta   della   stessa   popolazione   che   l’anno  
precedente   (sempre   nel   mese   di   maggio)   ha   sostenuto   una   prova   dello  
stesso  tipo.  In  entrambe  le  occasioni  si  è  scelto  di  somministrare  le  prove  
in   due   giornate   consecutive.   Gli   studenti   risultati   sempre   presenti   nelle  
quattro  giornate  di  somministrazione  e  che  hanno  completato  il  questio-­‐‑
nario  sulle  variabili  di  sfondo  sono  515  (su  un  totale  di  719).  
I   risultati   degli   studenti   alle   due   prove   presentano   una   correlazione  
pari   a   0,88   (significativa   al   livello   0,001).   Nel   complesso,   la   prova   del  
2006   è   risultata   più   facile   della   precedente:   le   risposte   esatte   sono   au-­‐‑
mentate   dal   60,4%   al   66%,   mentre   la   distribuzione   dei   punteggi   grezzi  
presenta   una   marcata   asimmetria   negativa,   assente   nel   2005   (come   evi-­‐‑
denziato  dalla  figura  14),  con  un  addensamento  di  risultati  positivi  e  una  
coda   di   risultati   negativi.   La   prova   del   2006   è   inoltre   caratterizzata   da  
una   minore   dispersione   dei   punteggi   rispetto   a   quella   dell’anno   prece-­‐‑
dente:  il  coefficiente  di  variazione  passa  infatti  dal  25,47%  al  22,92%.  Gli  
indici  di  facilità  e  di  discriminatività  degli  item  della  prova,  che  rientra-­‐‑
no   nelle   soglie   di   accettabilità   (Lucisano   1989),   sono   elencati  
nell’appendice  statistica.  
Tabella  23.  Dati  della  prova  del  2005  e  di  quella  del  2006  a  confronto.  
2005  (IV  elementare)   Prova   2006  (V  elementare)  
515   Studenti   515  
127   Item   144  
0,94   Alfa  di  Cronbach   0,95  
76,72  (60,41%  r.  esatte)   Media   95,11  (66,05%  r.  esatte)  
0,87   E.  S.  della  Media   0,96  
19  (14,36%  r.  esatte)   Punteggio  Minimo   35  (24,30%  r.  esatte)  
118  (92,91%  r.  esatte)   Punteggio  Massimo   143  (99,31%  r.  esatte)  
19,66   Deviazione  std.   21,78  
25,62   Coeff.  di  Variazione   22,89  

 
98   Terza  Parte  

 
 
Figura14.   Frequenze   delle   percentuali   di   risposte   esatte   alla   prova   del   2005  
(IV  elementare)  e  a  quella  del  2006  (V  elementare).  

2005 (IV el.) 2006 (V el.)

140
135
125
122
120
111
104
100
90

80 75
studenti

66

60
48
42 40
40
26
18
20 16
9
3
0
9

, 99

, 99

, 99

, 99

, 99

, 99

0
0-2 9,9

90 -10
30 -39

40 -49

50 -59

60 -69

70 -79

80 -89

percentuali di risposte esatte


 
Risultati  dell’indagine   99  

 
Come  accennato,  nella  prova  somministrata  nel  2006  sono  stati  inseri-­‐‑
ti  58  item  già  presenti  nel  2005.  Tali  item  rappresentano  il  40,28%  del  to-­‐‑
tale.   Si   è   scelto   di   non   apportare   alcuna   variazione   rispetto   allo   scorso  
anno  in  4  dei  15  esercizi  somministrati:  uno  di  comprensione  della  lettu-­‐‑
ra  (testo  informativo  breve),  uno  di  grammatica  (“scegli  il  verbo  coniu-­‐‑
gato   bene”),   l’esercizio   sull’uso   del   registro   (“Scegli   la   frase   giusta”),  
l’esercizio  di  alfabetizzazione  della  lettura  (“Gianni  a  casa  da  solo”).  Gli  
item  di  ancoraggio  contenuti  in  questi  esercizi  sono  26.  I  restanti  item  di  
ancoraggio   sono   stati   inseriti   all’interno   di   altri   7   esercizi.   Si   tratta  
dell’esercizio  di  ortografia  (“Correggi  gli  errori  di  Gianni”),  del  cloze  mi-­‐‑
rato   di   grammatica   (“Riempi   i   buchi   nel   testo”),   del   secondo   esercizio  
sui  verbi  (“Coniuga  i  verbi”)  e  dei  quattro  esercizi  sul  lessico.  
Gli   item   prescelti   presentavano,   nel   2005,   un   indice   medio   di   facilità  
(0,55)   inferiore   a   quello   dell’intera   prova   (0,60).   Nella   prova   “in   uscita”  
gli   stessi   item   evidenziano   invece   un   indice   medio   di   facilità   (0,67)   leg-­‐‑
germente   superiore   a   quello   dell’intera   prova   (0,65).   Se   si   prescinde   da  
questa  differenza,  tra  gli  item  di  ancoraggio  si  riscontrano  gli  stessi  sco-­‐‑
stamenti  registrati  tra  le  due  prove:  anche  la  distribuzione  dei  punteggi  
degli  item  di  ancoraggio  nel  2006  si  fa  decisamente  asimmetrica  (grafici  
5  e  6),  mentre  il  coefficiente  di  variazione  decresce  (tabella  55).  Inoltre,  la  
correlazione  tra  i  punteggi  ottenuti  dagli  studenti  nei  due  anni  agli  item  
di  ancoraggio  è  pari  a  0,81  (tabella  56).    
Si   segnala   inoltre   che   nel   2005   la   correlazione   tra   i   punteggi   ottenuti  
dagli   studenti   agli   item   di   ancoraggio   e   i   punteggi   ottenuti   all’intera  
prova  corrisponde  a  quella  registrata  tra  i  due  punteggi  nel  2006  (in  en-­‐‑
trambi  i  casi  è  pari  a  0,95,  vedi  tabella  56).  La  tabella  (24),  infine,  mostra  
l’andamento  dei  gli  studenti  ai  singoli  esercizi  nei  due  anni.    
Tabella  24.  Dati  sugli  item  di  ancoraggio  presenti  nelle  due  prove.  
2005  (IV  elementare)   Item  di  Ancoraggio   2006  (V  elementare)  
515   Studenti   515  
58   Item   58  
0,94   Alfa  di  Cronbach   0,95  
32,36  (55,80%  r.  esatte)   Media   39,03  (67,30%  r.  esatte)  
0,38   E.  S.  della  Media   0,38  
9  (15,52%  r.  esatte)   Punteggio  Minimo   14  (24,14%  r.  esatte)  
55  (94,83%  r.  esatte)   Punteggio  Massimo   58  (100%  r.  esatte)  
8,72   Deviazione  std.   8,72  
26,98%   Coefficiente  di  Variazione   22,35%  
100   Terza  Parte  

Tabella   25.   Correlazioni   tra   i   punteggi   ottenuti   alla   prova   del   2005,   a   quella  
del   2006   e   alle   58   domande   di   ancoraggio   presenti   nelle   due   prove.   Correla-­‐‑
zioni  significative  al  livello  0,001.  

Prova  2005          

Prova  2006   0,88        


Ancoraggio  
0,95   0,83      
2006  
Ancoraggio  
0,84   0,95   0,81    
2005  
Ancoraggio   Ancoraggio  
Punteggi   Prova  2005   Prova  2006  
2006   2005  
 

Figura  15.  Frequenze  di  risposte  esatte  agli  item  di  ancoraggio  della  prova  del  
2005  (IV  elementare)  e  del  2006  (V  elementare).  

2005 (IV el.) 2006 (V el.)

120
107
103 105 105

100 98
96

80
74
65
studenti

60 58

47 47

40 36
28
23
20
10 8 9 9
1 1
0
0-1 4

15 -19

20 -24

25 -29

30 -34

35 -39

40 -44

45 -49

50 -54

55 -58

numero di risposte esatte ai 58 item di ancoraggio


 

 
 
Risultati  dell’indagine   101  

Tabella   26.   Percentuali   di   risposte   esatte   (r.   es.)   e   coefficienti   di   variazione  


(cv)  degli  esercizi  delle  due  prove.  
2005   2006  
n.     Item   r.es.   cv   n.   Esercizio   Item   r.es.   Cv  
Scegli  la  frase   Scegli  la  frase  più  
1   5   1   5  
più  adatta   66,83   42,07   adatta   72,74   39,58  
Correggi  gli   Correggi  gli  errori  di  
2   14   2   19  
errori  di  Gianni   52,04   40,69   Gianni   58,94   33,07  
TCL1  "ʺBasta  con  
TCL1  "ʺState  zitti,  se  
3   le  parole  illeg-­‐‑ 7   3   8  
potete"ʺ  
gibili"ʺ   52,04   47,15   63,52   33,22  
Cloze  1  "ʺLe  
Cloze  1  "ʺLe  scimmie  
4   scimmie  prote-­‐‑ 14   4   19  
protestano"ʺ  
stano"ʺ   62,29   38,20   64,33   30,42  
Cloze  2  "ʺIl  gior-­‐‑ Cloze  2  "ʺI  punti  cardi-­‐‑
5   17   5   16  
no  e  la  notte"ʺ   58,42   39,91   nali"ʺ   72,27   27,88  
Scopri  il  verbo   Scopri  il  verbo  usato  
6   7   6   7  
usato  bene   83,38   20,39   bene   88,49   16,89  
7   Coniuga  i  verbi   10   58,70   36,41   7   Coniuga  i  verbi   10   61,13   38,96  
Gianni  a  casa  da  
8   7   8   Gianni  a  casa  da  solo   7  
solo   57,39   35,39   72,23   27,74  
TCL2  “L’inondazione  
10   TCL2  "ʺIndios"ʺ   6   10   del  Nilo  vista  da  uno   9  
64,34   37,48   storico”   53,20   48,69  
TCL3  "ʺLa  tastie-­‐‑ TCL3"ʺBasta  con  le  
11   7   11   7  
ra  QWERTY"ʺ   56,95   45,23   parole  illeggibili"ʺ   63,22   39,54  
TCL4  "ʺRe  Leone  
TCL4  “Il  cane  e  la  car-­‐‑
12   e  Madama  Vol-­‐‑ 7   12   8  
ne”  
pe"ʺ   70,04   36,44   84,68   20,50  
Parole  generali   Parole  generali  e  par-­‐‑
13   7   13   8  
e  particolari   77,31   37,02   ticolari   74,95   38,24  
Qual  è  il  contra-­‐‑
14   7   14   Qual  è  il  contrario?   8  
rio?   46,63   52,55   59,03   43,74  
Le  famiglie  di  
15   5   15   Le  famiglie  di  parole   6  
parole   55,11   37,79   48,51   48,20  
16   Definizioni   7   55,67   40,55   16   Definizioni   7   62,66   37,63  
TOTALE  PROVA  
127   60,41   25,62   TOTALE  PROVA  2006   144   66,05   22,89  
2005  
102   Terza  Parte  

Le  aree  di  competenza  (comprensione  della  lettura,  lessico,  grammati-­‐‑


ca,  ortografia)  
 
Nel  2005  e  nel  2006  sono  stati  calcolati  punteggi  in  Comprensione  del-­‐‑
la  Lettura  (CL),  Lessico  (LES)  e  Grammatica  (GRA)  sommando  tra  loro  i  
punti   totali   delle   prove   affini   per   contenuto   (assegnando   un   punto   per  
ogni   risposta   esatta).   Il   punteggio   in   Ortografia   (ORT)   è   dato   dal   totale  
ottenuto  nell’esercizio  n.  2.    
Mentre  le  scale  così  calcolate  presentano  tutte  alfa  di  Cronbach  piut-­‐‑
tosto  alte  (tabella  27),  risalta  l’aumento  del  coefficiente  di  variazione  nel  
punteggio  di  lessico  a  fronte  dell’incremento,  anche  in  questa  scala,  nella  
percentuale  di  risposte  esatte  da  parte  degli  studenti.  
 I  punteggi  ottenuti  dagli  studenti  nelle  quattro  scale  evidenziano  tra  
loro  correlazioni  elevate  sia  nel  2005  sia  nel  2006  (tabelle  46  e  47).    
Tabella27.  Dati  delle  quattro  scale  nelle  due  prove.  
Comprensione  
  Lessico   Grammatica   Ortografia  
della  Lettura  
  2005   2006   2005   2006   2005   2006   2005   2006  
%  Risposte  
59,83   67,99   58,95   62,12   65,89   68,14   52,04   58,94  
esatte  
Esercizi   5   5   4   4   3   3   1   1  
Item   44   48   26   29   31   36   14   19  
Media   26,32   32,63   15,82   18,02   20,43   24,53   7,29   11,20  
Mediana   27   34   16   19   21   25   7   12  
Moda   30   35   17   21   20   25   7   12  
Deviazione  
8,23   7,98   4,50   5,77   5,60   6,05   2,96   3,70  
standard  
Punteggio  
7   7   1   2   2   1   0   0  
Minimo  
Punteggio  
43   48   26   29   31   36   14   19  
Massimo  
Coefficiente  
di  Varia-­‐‑ 31,27   24,47   28,42   32,06   27,40   24,65   40,69   33,07  
zione  
Alfa  di  
0,89 0,88 0,85   0,86 0,78   0,85   0,73   0,75  
Cronbach  
 
Risultati  dell’indagine   103  

Tabella28.  Correlazioni  tra  i  risultati  degli  studenti  nelle  aree  di  competenza  
Comprensione  della  lettura  (CL),  Lessico  (LES),  Grammatica  (GRA),  Ortogra-­‐‑
fia  (ORT)  nella  prova  del  2005.  Correlazioni  significative  al  livello  0,001.  

CL          

LES   0,68        

GRA   0,76   0,65      

ORT   0,53   0,47   0,53    

2005   CL   LES   GRA   ORT  

Tabella  29.  Correlazioni  tra  i  risultati  degli  studenti  nelle  aree  di  competenza  
Comprensione  della  lettura  (CL),  Lessico  (LES),  Grammatica  (GRA),  Ortogra-­‐‑
fia  (ORT)  nella  prova  del  2006.  Correlazioni  significative  al  livello  0,001.  

CL          
LES   0,75        

GRA   0,76   0,68      


ORT   0,56   0,51   0,56    

2006   CL   LES   GRA   ORT  

 
 
Si   segnala   infine   come   le   correlazioni   tra   i   punteggi   ottenuti   nei   due  
anni   presentino   correlazioni   elevate   e   significative   (al   livello   0,001)   per  
ciascuna   area   di   competenza   (0,77   per   comprensione   della   lettura,   0,64  
per  lessico,  0,78  per  grammatica,  0,63  per  ortografia).  
104   Terza  Parte  

Analisi  delle  Componenti  Principali  e  costruzione  della  variabile  competenza  in  


italiano  (ITA)  
Le  tabelle  30  e  31  mostrano  rispettivamente  le  correlazioni  tra  i  pun-­‐‑
teggi  ottenuti  dagli  studenti  nel  2005  e  nel  2006  nelle  aree  di  competenza  
comprensione  della  lettura  (CL),  lessico  (LES),  grammatica  (GRA),  orto-­‐‑
grafia  (ORT)  e  negli  esercizi  di  registro  (REG)  e  di  alfabetizzazione  della  
lettura  (AL).    
Tabella  30.  Correlazioni  tra  i  punteggi  degli  studenti  nelle  aree  di  competen-­‐‑
za  della  prova  del  2005.  Correlazioni  significative  al  livello  0,001.  
CL    
LES   0,68    
GRA   0,76   0,64    
ORT   0,53   0,47   0,53    
AL   0,42   0,41   0,42   0,36    
REG   0,36   0,29   0,36   0,27   0,18    
2005   CL   LES   GRA   ORT   AL   REG  
 
Tabella  31.  Correlazioni  tra  i  punteggi  degli  studenti  nelle  aree  di  competen-­‐‑
za  della  prova  del  2006.  Correlazioni  significative  al  livello  0,001.  
CL    
LES   0,75    
GRA   0,76   0,68    
ORT   0,56   0,51   0,56    
AL   0,50   0,48   0,46   0,40    
REG   0,33   0,35   0,33   0,21   0,22    
2006   CL   LES   GRA   ORT   AL   REG  
 
 
Si  può  notare  come,    in  entrambe  le  prove,  le  correlazioni  più  elevate  
si   riscontrano   tra   i   punteggi   relativi   alle   quattro   aree   di   competenza.   I  
punteggi  degli  esercizi  di  lessico  e  alfabetizzazione  della  lettura  presen-­‐‑
tano  con  le  altre  variabili  correlazioni  che,  pur  inferiori,  risultano  signifi-­‐‑
cative.    
I  punteggi  ottenuti  dagli  studenti  possono  dunque  essere  ricondotti  a  
un  fattore  unico.  Si  è  svolta,  per  ciascuna  delle  due  prove,  l’analisi  fatto-­‐‑
Risultati  dell’indagine   105  

riale  delle  sei  variabili  (CL,  LES,  GRA,  ORT,  AL,  REG)  con  il  metodo  del-­‐‑
le  componenti  principali  (ACP).  I  primi  due  fattori  prodotti  da  tale  ana-­‐‑
lisi   spiegano   rispettivamente   il   55%   e   il   14%   della   varianza   nella   prova  
del  2005  e  il  57%  e  il  14%  di  quella  del  2006.  Le  correlazioni  dei  primi  fat-­‐‑
tori  prodotti  nelle  due  prove  con  le  sei  variabili  vengono  presentate  nella  
tabella  32.  
Tabella   32.   Correlazioni   tra   i   fattori   ricavati   dalle   analisi   delle   componenti  
principali  e  i  punteggi  delle  aree  di  competenza  delle  prove.  Correlazioni  si-­‐‑
gnificative  al  livello  0,001.  
  Prova  2005   Prova    2006  
CL   0,88   CL   0,89  
LES   0,81   LES   0,85  
GRA   0,87   GRA   0,86  
ORT   0,72   ORT   0,72  
AL   0,61   AL   0,67  
REG   0,50   REG   0,48  
 
In  entrambe  le  prove,  il  primo  fattore  dell’ACP  può  essere  considera-­‐‑
to  un  indicatore  affidabile  della  competenza  linguistica  degli  studenti.  Si  
è   quindi   scelto,   dopo   aver   standardizzato   i   due   fattori   esprimendoli   in  
punti   t,   di   utilizzarli   come   variabili,   chiamate   rispettivamente   ITA05  
(competenza   linguistica   nel   2005)   e   ITA06   (competenza   linguistica   nel  
2006).  Si  segnala  infine  che  le  due  variabili  correlano  in  maniera  signifi-­‐‑
cativa  (al  livello  0,001)  con  il  rendimento  degli  studenti  nei  due  anni  cal-­‐‑
colato  con  il  metodo  IRT37.  
 
 
Rendimento  e  caratteristiche  degli  studenti    
 
Come  sottolineato  nella  descrizione  del  campione  (pp.  73-­‐‑75),  gli  studen-­‐‑
ti  sono  stati  divisi  in  tre  categorie  a  seconda  del  loro  livello  di  istruzione  
familiare   (calcolato   sulla   base   delle   risposte   fornite   alle   domande   del  
questionario  riguardanti  il  titolo  di  studio  dei  genitori).  Tale  suddivisio-­‐‑
ne  consente  l’analisi  dei  legami  tra  questa  variabile  e  il  rendimento  degli  
alunni.    

 
37   La   correlazione   tra   ITA05   e   il   rendimento   degli   studenti   alla   prova   del   2005  

calcolata  con  il  metodo  IRT  è  pari  a  0,99.  ITA06  correla  0,98  con  il  rendimento  alla  
prova  del  2006  calcolato  con  il  metodo  IRT.  
106   Terza  Parte  

La  tabella  33  evidenzia  come,  prendendo  in  considerazione  i  risultati  


alla  prova  “in  uscita”,  studenti  con  un  livello  di  istruzione  familiare  alto  
ottengano   punteggi   significativamente   maggiori   rispetto   a   studenti   con  
livelli  di  istruzione  familiare  medio  e  a  quelli  con  un  livello  basso.  La  ta-­‐‑
bella  34  mette  in  evidenza  (disaggregando  i  dati  della  3),  il  legame  tra  il  
punteggio   degli   studenti   (prova   “in   uscita”)   e   il   titolo   di   studio   della  
madre  e  del  padre.  
 
Tabella   33.   Livello   di   istruzione   familiare   (LIF)   e   rendimento   degli   studenti  
alla  prova  del  2006  (ITA  06).  (ANOVA:  F  28,01;  p  <  ,000).    

LIF   ITA  06   Dev.  st.   n.  

ALTO   53,83   9,50   152  

MEDIO   50,05   9,11   239  

BASSO   45,21   10,26   124  


 
Tabella   34.   Titolo   di   studio   della   madre   e   del   padre   degli   studenti   e   rendi-­‐‑
mento  alla  prova  del  2006  (ITA  06).  

Titolo  madre   ITA  06   Dev.  st.   n.   Titolo  padre   ITA  06   Dev.  st.   n.  

Laurea   52,80   10,12   205   Laurea   53,37   9,21   197  

Diploma  di  sc.  sec.   49,85   8,42   201   Diploma  di  sc.  sec.   49,18   9,49   218  

Lic.  media  o  inf.   45,03   10,56   109   Lic.  media  o  inf.   45,15   10,29   100  

ANOVA   F  23,40   p  <  ,000   ANOVA   F  26,01   p  <  ,000  

 
 
 
 
La  relazione  tra  rendimento  e  titolo  di  studio  dei  genitori  rimane  so-­‐‑
stanzialmente  invariata  se  si  considera  l’intera  prova  o  soltanto  gli  item  
di  ancoraggio  (tabella  35).  
Tabella  35.  Livello  di  Istruzione  Familiare  (LIF)  e  rendimento  degli  studenti  
alla   prova   del   2006   e   ai   soli   item   di   ancoraggio.   I   punteggi   sono   espressi   in  
punti  t.  (ANOVA:  F  27,24;  p  <  ,000).  
Item  di  
LIF   ITA  06  
Ancoraggio  
Risultati  dell’indagine   107  

ALTO   53,83   53,70  

MEDIO   50,05   50,13  

BASSO   45,21   45,19  

 
Come   viene   evidenziato   nella   tabella   36   e   nel   grafico   in   figura   17,   il  
legame  tra  rendimento  degli  studenti  e  titolo  di  studio  dei  genitori  carat-­‐‑
terizza   anche   le   quattro   aree   di   competenza.   Le   differenze   maggiori   tra  
studenti  con  livelli  di  istruzione  familiare  opposti  si  registrano  nella  sca-­‐‑
la   di   lessico   (dove   si   avvicinano   a   una   deviazione   standard),   mentre   in  
ortografia  si  annota  il  minor  scarto.    
Tabella  36.  Livello  di  istruzione  familiare  (LIF)  e  rendimento  nell’intera  pro-­‐‑
va   del   2006   e   nelle   aree   competenza   comprensione   della   lettura   (CL),   lessico  
(LES),  grammatica  (GRA),  ortografia  (ORT).  I  punteggi  sono  espressi  in  punti  
t.    

LIF   ITA  06   CL   LES   GRA   ORT  

ALTO   53,83   53,27   53,96   53,25   52,08  

MEDIO   50,05   49,79   50,20   50,13   50,49  

BASSO   45,21   46,40   44,76   45,76   46,50  

F  28,01   F  17,24   F  32,51   F  20,63   F  11,61  


ANOVA  
p  <  ,000   p  <  ,000   p  <  ,000   p  <  ,000   p  <  ,000  
108   Terza  Parte  

Figura  16.  Rendimento  degli  studenti  alla  prova  del  2006  (ITA  06)  e  livello  di  
istruzione  familiare.  

60

Punteggio 2006
55

50

45

40
BASSO ALTO

livello istruzione familiare


Grafici degli errori: 95,00% CI

Figura   17.   Rendimento   nel   2006   degli   studenti   nelle   quattro   aree   di   compe-­‐‑
tenza  e  livello  di  istruzione  familiare.  

 
 
   
Risultati  dell’indagine   109  
 
Il  rendimento  degli  studenti  mostra  legami  significativi  non  solo  con  
il  titolo  di  studio  dei  genitori  ma  anche  con  altre  variabili  di  sfondo,  co-­‐‑
me  il  numero  di  libri  posseduti  (figura  18)  e  l’italiano  parlato  a  casa  (fi-­‐‑
gura  19).  Anche  questi  dati,  come  il  titolo  di  studio  dei  genitori,  sono  sta-­‐‑
ti  raccolti  attraverso  il  questionario  somministrato  agli  studenti  al  termi-­‐‑
ne  delle  prove.  
Figura  18.  Risposte  alla  domanda  sui  libri  a  casa  e  rendimento  nel  2006.  

 
Figura  19.  Risposte  alla  domanda  sull’italiano  parlato  a  casa  e  rendimento  nel  
2006.  

 
110   Terza  Parte  

Va  infine  sottolineata  la  capacità  degli  studenti  di  autovalutarsi.  Nella  


tabella  37  vengono  riportate  la  distribuzione  di  frequenze  delle  risposte  
alla   domanda   “Quanto   sei   bravo   in   italiano?”,   posta   all’inizio   dei   fasci-­‐‑
coli  contenenti  le  prove.  Come  evidenzia  il  grafico  in  figura  20,  le  rispo-­‐‑
ste   degli   alunni   sono   molto   correlate   con   il   loro   rendimento   nell’intera  
prova  (ITA  06)  e  nelle  quattro  aree  di  competenza  (il  legame  più  stretto  
tra  l’autovalutazione  degli  studenti  e  i  loro  risultati  si  registra    in  lessico  
e  in  grammatica).  
Tabella  37.  Distribuzione  di  frequenze  delle  risposte  alla  domanda  “Quanto  
sei  bravo  in  italiano?”.  
“Quanto  sei  bravo   Percentuale  
Frequenza   Percentuale   Percentuale  valida  
in  italiano?”   cumulata  
“sono  molto  bravo”   65   12,62   12,62   12,62  
“sono  bravo”   287   55,73   55,73   68,35  
“sono  così  così”   163   31,65   31,65   100,00  
Totale   515   100   100    
 
 
Figura  20.  Risposte  alla  domanda  “Quanto  sei  bravo  in  italiano?”  e  rendimen-­‐‑
to  alla  prova  e  nelle  quattro  aree  di  competenza.  

__  
Risultati  dell’indagine   111  

Dalla   IV   alla   V   elementare:   Livello   di   Istruzione   Familiare   e   rendi-­‐‑


mento  degli  studenti.    
Il   confronto   tra   l’andamento   degli   studenti   alla   prova   del   2005   (IV  
elementare)   e   a   quella   del   2006   (V   elementare)   evidenzia   un   accresci-­‐‑
mento  significativo  del  legame  tra  il  rendimento  degli  alunni  e  la  varia-­‐‑
bile  livello  di  istruzione  familiare.  La  correlazione  tra  livello  di  istruzio-­‐‑
ne  familiare  e  rendimento  passa  da  0,26  (tra  le  variabili  LIF  e  ITA  05)  a  
0,31  (tra  le  variabili  LIF  e  ITA  06).  Anche  considerando  i  soli  item  di  an-­‐‑
coraggio   si   registra   un   simile   accrescimento   delle   differenze   di   rendi-­‐‑
mento  tra  studenti  con  opposti  livelli  di  istruzione  familiare  (tabella  39).  
 
Tabella  38.  Livello  di  istruzione  familiare  (LIF)  e  punteggi  alla  prova  del  2005,  
a  quella  del  2006,  agli  item  di  ancoraggio  del  2005  e  a  quelli  del  2006.  I  pun-­‐‑
teggi  sono  espressi  in  punti  t.  Statistiche  significative  al  livello  0,001.  

ITA   Punteggio  Item  di  Ancoraggio  


LIF  
2005   2006   2005   2006  
ALTO   53,09   53,82   53,05   53,70  
MEDIO   49,93   50,05   49,88   50,14  

BASSO   46,33   45,21   46,46   45,20  

F  16,57   F  28,01   F  15,88   F  27,24  


ANOVA  
p  <  ,000   p  <  ,000   p  <  ,000   p  <  ,000  

 
Figura  21.  Differenze  di  rendimento  tra  le  due  prove  (ITA  06  –  ITA  05)  e  livel-­‐‑
lo  di  istruzione  familiare  degli  studenti  (LIF).  

 
112   Terza  Parte  

 
L’incremento   delle   differenze   tra   il   rendimento   degli   studenti   aventi  
genitori  con  diversi  livelli  di  istruzione  caratterizza  sia  la  prova  nel  suo  
complesso  sia  le  quattro  aree  di  competenza.  Tuttavia,  la  “forbice”  mo-­‐‑
stra  ampliamenti  significativi  (tabella  39)  ed  evidenti  (figura  22)  nei  soli  
punteggi  di  Lessico.  
Tabella  39.  Livello  di  istruzione  familiare,  punteggi  degli  studenti  nel  2005  e  
nel   2006   nelle   aree   di   competenza   comprensione   della   lettura   (CL),   lessico  
(LES),   grammatica   (GRA),   ortografia   (ORT)   e   differenza   nel   rendimento   tra  
un  anno  e  l’altro.  
    Livello  di  Istruzione  Familiare  
Anno  
AREA   (differenza  di     ALTO   BASSO  
Punteggio)  
2006   53,27   46,40  

COMPRENSIONE     2005   52,93   46,85  


DELLA  LETTURA   ANOVA:  
F  ,882   0,34   -­‐‑0,45  
p  <  ,348  
2006   53,96   44,76  
2005   53,22   46,33  
LESSICO  
ANOVA:  
F  7,12   0,74   -­‐‑1,57  
p  <  ,008  
2006   53,25   45,76  
2005   52,69   46,30  
GRAMMATICA  
ANOVA:  
F  1,94   0,56   -­‐‑0,54  
p  <  ,16  
2006   52,08   46,50  
2005   51,99   47,92  
ORTOGRAFIA   ANOVA:  
F  2,01   0,09   -­‐‑1,42  
p  <  ,157  

 
Il   rapporto   tra   il   rendimento   nelle   due   prove   e   le   altre   variabili   di  
sfondo  degli  studenti  (lingua  parlata  a  casa,  libri  posseduti)  presenta  di-­‐‑
namiche  del  tutto  simili  a  quelle  evidenziate  dal  livello  di  istruzione  fa-­‐‑
miliare.    
 
Risultati  dell’indagine   113  
 
Figura  22.  Rendimento  (in  punti  t)  nella  prova  del  2005  e  in  quella  del  2006  degli  stu-­‐‑
denti  con  livello  di  istruzione  familiare  (LIF)  alto  e  con  livello  di  istruzione  familiare  
alto  nelle  aree  di  competenza  comprensione  della  lettura  (CL),  lessico  (LES),  gramma-­‐‑
tica  (GRA),  ortografia  (ORT).    

56

54

52
punteggi alle prove (punti t)

50

48

46

44
2005 (IV el.) 2006 (V el.)

CL (LIF ALTO) CL (LIF BASSO) LES (LIF ALTO) LES (LIF BASSO)

GRA (LIF ALTO) GRA (LIF BASSO) ORT (LIF ALTO) ORT (LIF BASSO)
 
147  

Capitolo  ottavo  
Le  scuole,  le  classi,  gli  insegnanti  

 “Classifiche”  di  rendimento  degli  istituti  


 
Prendendo   in   considerazione   diverse   modalità   organizzative   (tempo  
pieno,   tempo   pieno   modulare,   moduli   a   due   o   tre   classi)   non   si   riscon-­‐‑
trano  differenze  significative  nel  rendimento  degli  studenti.  Sul  modello  
delle   Raw   League   Tables   (tabella   40)   è   stata   stilata   una   classifica   delle  
scuole  sulla  base  del  rendimento  alla  prova  “in  uscita”  degli  studenti  di  
ciascun  istituto.  Le  differenze  tra  le  scuole  risultano  significative.  
 

Tabella  40.  Rendimento  medio  (ITA  06),  coefficiente  di  variazione  (C.  V.)  ed  
errore   standard   della   media   (E.   S.)   degli   studenti   nelle   scuole   alla   prova   del  
2006.  (ANOVA:  F  3,35;  p  <  ,000).  

  Istituto   ITA  06   C.  V.   E.  S.  


XII   53,66   15,62   0,99  
XIV   53,18   14,87   1,44  
XX   52,02   18,93   1,35  
XIII   51,55   17,66   1,10  
XI   49,59   18,53   1,16  
XXI   48,54   24,50   1,98  
XV   48,52   22,69   1,56  
XVI   47,67   22,39   1,86  
XIX   47,52   23,56   1,60  
XVII   46,99   20,64   1,55  
XVIII   45,00   18,27   1,79  
 
Visto   quanto   riportato   riguardo   all’associazione   tra   variabili   di   sfon-­‐‑
do  e  rendimento  degli  studenti,  non  stupisce  che  la  classifica  risulti  for-­‐‑
temente  correlata  con  gli  anni  di  studio  dei  genitori  degli  studenti  di  cia-­‐‑
scun   istituto   (tabella   41   e   figura   23).   Questo   tipo   di   legame   conferma  
quello   già   evidenziato   ampiamente   nella   letteratura   di   ricerca,   che   ha  
spinto  negli  anni  ’80  e  ’90  i  ricercatori  in  Gran  Bretagna  a  proporre  il  va-­‐‑
lore  aggiunto  come  indicatore  di  efficacia  scolastica  (vedi  prima  parte).  
116   Terza  Parte  

Tabella  41.  Punteggio  medio  (ITA  06)  e  anni  di  studio  dei  genitori  degli  stu-­‐‑
denti  negli  undici  istituti.  
Anni  di  studio  
Istituto   ITA  06  
dei  genitori  
XII   53,66   16,16  
XIV   53,18   15,73  
XX   52,02   15,17  
XIII   51,55   16,74  
XI   49,59   14,83  
XXI   48,54   13,44  
XV   48,52   14,52  
XVI   47,67   12,26  
XIX   47,52   11,41  
XVII   46,99   11,78  
XVIII   45,00   10,33  
F  3,35   F  17,195  
ANOVA  
p  <  ,000   p  <  ,000  

 
L’analisi   della   varianza   del   rendimento   alla   prova   del   200638   eviden-­‐‑
zia  come  il  fattore  scuola  “spieghi”  il  5,95%  dei  risultati  degli  studenti.  Si  
tratta  di  una  percentuale  in  linea  con  quanto  emerso  (vedi  prima  parte)  
nella  letteratura  di  riferimento.  La  classificazione  delle  scuole  basata  sul  
rendimento  grezzo  degli  studenti,  riflettendo  in  maniera  significativa  lo  
stato   socio-­‐‑culturale   dell’utenza   degli   istituti,   non   sembra   dunque   in  
grado   di   fornire   indicazioni   utili   riguardo   all’efficacia  
dell’insegnamento.  
 

 
38  Condotta  con  metodo  ANOVA  univariata  software  SPSS.  
Risultati  dell’indagine   117  

Figura   23.   Correlazione   tra   rendimento   degli   studenti   alla   prova   del   2006   e  
anni  di  studio  dei  genitori.  Dati  aggregati  a  livello  di  istituto.  

Le scuole: punteggio medio degli studenti e anni di studio dei genitori (V


elem.)

55

54 XII
XIV
53
XX
52
XIII
51

50
ITA 06

XI
49
XXI
XV
48 XVI
XIX
47 XVII

46
R  quadro  lineare  =  0,84  
45 XIX

44
10 11 12 13 14 15 16 17
Anni di studio dei genitori
 
 
 
Dalla   IV   alla   V   elementare:   differenze   nelle   prestazioni   a   livello   di  
istituto  
 
Se  si  procede  a  un  confronto  tra  i  punteggi  aggregati  a  livello  di  istituto  
ottenuti   dagli   studenti   alla   prova   “in   uscita”   con   quelli   ottenuti   l’anno  
precedente  (tabella  42),  risulta  evidente  come  l’allargamento  della  forbi-­‐‑
ce  tra  il  profitto  degli  studenti  con  diverse  caratteristiche  socio-­‐‑culturali  
si  rifletta  significativamente  sulle  “classifiche”  di  rendimento  delle  scuo-­‐‑
118   Terza  Parte  

le.  A  evidenziare  miglioramenti  significativi  sono  infatti  gli  istituti  XIV  e  


XIII,  frequentati  da  studenti  con  un  livello  di  istruzione  familiare  molto  
elevato.  
Tabella  42.  Anni  di  studio  dei  genitori,  rendimento  nel  2005,  rendimento  nel  
2006,  differenza  di  rendimento  tra  il  2006  e  il  2005.  Dati  aggregati  a  livello  di  
istituto.  
Anni  di  
Differenza  
ISTITUTO   studio  dei   ITA  05   ITA  06  
ITA06-­‐‑ITA05  
genitori  
XI   14,83   50,13   49,59   -­‐‑0,55  
XII   16,16   53,47   53,66   0,19  
XIII   16,74   50,26   51,55   1,29  
XIV   15,73   51,39   53,18   1,79  
XV   14,52   48,05   48,52   0,47  
XVI   12,26   48,45   47,67   -­‐‑0,78  
XVII   11,78   47,95   46,99   -­‐‑0,95  
XVIII   10,33   45,05   45,00   -­‐‑0,05  
XIX   11,41   48,54   47,52   -­‐‑1,02  
XX   15,17   52,72   52,02   -­‐‑0,70  
XXI   13,44   48,41   48,54   0,14  
F  17,195   F  2,54   F  3,35   F  2,55  
ANOVA  
p  <  ,000   p  <  ,000   p  <  ,005   p  <  ,119  

 
 
Le  classi  e  gli  insegnanti  
 
Se  dai  dati  aggregati  per  istituto  si  passa  a  quelli  aggregati  per  classe,  si  
registra   in   primo   luogo   una   varianza   significativa   nei   risultati   di   classi  
all’interno  della  stessa  scuola.  Come  si  può  notare  (tabella  43),  in  quattro  
istituti   (scuole   XIII,   XV,   XIX,   XX)   esistono   differenze   tra   una   classe   e  
l’altra  dell’ordine  di  una  deviazione  standard  dell’intero  campione.    
 
Va  inoltre  sottolineato  come,  rispetto  al  livello  di  istituto,  a  questo  li-­‐‑
vello  di  aggregazione  dei  dati  si  evidenzi  una  notevole  attenuazione  del  
legame  tra  il  rendimento  medio  degli  studenti  e  gli  anni  di  studio  dei  lo-­‐‑
ro   genitori   (figura   24).   La   quota   di   varianza   nel   rendimento   degli   stu-­‐‑
Risultati  dell’indagine   119  

denti   alla   prova   del   200639   spiegata   dal   fattore   classe     raggiunge   il  
15,52%.    
Va  notato  inoltre  che  alcuni  insegnanti  lavorano  in  più  classi,  è  dun-­‐‑
que  possibile  aggregare  i  punteggi  degli  studenti  prendendo  in  conside-­‐‑
razione  l’educatore  di  riferimento  (tabella  44).  A  questo  livello  di  aggre-­‐‑
gazione  dei  dati  si  registrano  le  stesse  dinamiche  del  precedente  riguar-­‐‑
do   all’attenuazione   del   legame   tra   rendimento   medio   degli   studenti   e  
anni  di  studio  dei  loro  genitori  (figura  25)  e  alla  quota  di  varianza  dei  ri-­‐‑
sultati  degli  studenti  spiegata  da  quello  che,  con  molta  cautela,  può  esse-­‐‑
re  definito  fattore  “insegnante”,  che  è  pari  al  14,63%.  
 
Il   fattore   classe,   rispetto   al   fattore   scuola,   risulta   dunque   maggior-­‐‑
mente  correlato  con  il  rendimento  degli  studenti.  Come  evidenziato  nel-­‐‑
la   prima   parte,   negli   studi   sull’efficacia   scolastica   degli   ultimi   venticin-­‐‑
que   anni   l’evidenza   empirica   suggerisce   che   tanto   più   i   fattori   presi   in  
considerazione   sono   vicini   ai   processi   educativi   tanto   maggiore   risulta  
essere  il  loro  peso  sugli  esiti.  Tali  risultati  hanno  portato  alcuni  ricercato-­‐‑
ri  a  mettere  in  discussione  l’utilità  di  un  sistema  di  accountability  basato  
esclusivamente   su   misure   del   rendimento   degli   studenti   aggregate   a   li-­‐‑
vello  di  istituto,  che  vengono  ritenute  scarsamente  informative.  
 
 
 
 
 
 
 
 
 
 
 
 
 
 

 
39  Condotta  con  metodo  ANOVA  univariata  software  SPSS.  
120   Terza  Parte  

Tabella  43.  Rendimento  medio,  coefficiente  di  variazione  (C.  V.),  errore  stan-­‐‑
dard  della  media  (E.  S.)  degli  studenti  nelle  classi  alla  prova  del  2006.  Le  clas-­‐‑
si  sono  raggruppate  per  istituti  (ANOVA:  F  2,37;  p  <  ,000).    
Classe   ITA  06   C.  V.   E.  S.     Classe   ITA  06   C.  V.   E.  S.  
1101   51,06   19,30   2,39     1601   51,98   17,97   2,95  
1102   48,11   19,89   2,89     1602   46,42   27,69   4,06  
1103   48,50   18,97   2,17     1603   45,30   21,11   2,65  
1104   50,21   17,50   2,13     1701   48,96   23,25   2,94  
1202   53,67   12,77   1,90     1702   45,42   16,68   2,10  
1203   50,21   20,79   2,61     1703   46,17   21,38   2,98  
1204   55,79   16,04   1,83     1801   43,35   17,93   2,34  
1205   53,87   11,16   1,38     1802   46,82   18,63   2,76  
1301   52,82   12,56   1,71     1901   42,95   34,83   4,73  
1302   51,74   15,86   2,12     1902   40,36   19,54   2,98  
1303   56,96   11,62   1,84     1903   50,56   16,71   1,99  
1304   48,28   23,47   3,27     1904   50,48   21,72   2,93  
1305   47,76   21,75   2,78     2001   48,12   22,04   3,35  
1401   51,92   17,46   2,27     2002   44,84   19,11   2,29  
1402   54,63   11,65   1,70     2003   58,69   12,19   1,91  
1501   51,49   17,90   2,46     2004   55,10   13,47   1,92  
1502   48,08   16,93   2,88     2101   49,65   22,84   2,93  
1503   43,95   28,22   3,01     2102   48,26   22,27   2,87  
1504   52,10   21,77   3,42     2103   46,73   35,01   6,18  
 
Risultati  dell’indagine   121  

Il  seguente  grafico  può  essere  confrontato  con  quello  dei  dati  aggregati  a  
livello   di   istituto   (figura   23),   che   evidenzia   una   tendenza   maggiore   dei  
punti  ad  aggregarsi  intorno  alla  retta  (con  un  R  quadro  pari  a  0,85).  
 
Figura  24.  Correlazione  tra  punteggi  degli  studenti  alla  prova  del  2006  e  anni  
di  studio  dei  genitori.  Dati  aggregati  per  classi.  

Le classi: punteggio medio degli studenti e anni di studio dei


genitori (V elem.)

60

58

56

54

52

50
ITA 06

48

46

44

42

40
R  quadro  lineare  =  0,35  

38
8 10 12 14 16 18 20
Anni di studio dei genitori
 
122   Terza  Parte  

 
Tabella  44.  Rendimento  medio,  coefficiente  di  variazione  (C.  V.),  errore  stan-­‐‑
dard  della  media  (E.  S.)  degli  studenti  alla  prova  del  2006.  Dati  aggregati  per  
insegnanti.  (ANOVA:  F  3,09;  p  <  ,000)    
Insegnante   ITA  06   C.  V.   E.  S.     Insegnante   ITA  06   C.  V.   E.  S.  
XI  1   49,90   19,39   1,83     XVI  1   51,98   17,97   2,95  
XI  2   49,33   18,06   1,51     XVI  2   46,42   27,69   4,06  
XII  1   53,67   12,77   1,90     XVI  3   45,30   21,11   2,65  
XII  2   50,21   20,79   2,61     XVII  1   47,32   20,70   1,85  
XII  3   54,94   14,13   1,18     XVII  2   46,17   21,38   2,98  
XIII  1   53,70   13,76   1,13     XVIII  1   43,35   17,93   2,34  
XIII  2   48,00   22,12   2,08     XVIII  2   46,82   18,63   2,76  
XIV  1   51,92   17,46   2,27     XIX  1   41,88   29,33   2,98  
XIV  2   54,63   11,65   1,70     XIX  2   50,52   18,73   1,67  
XV  1   51,49   17,90   2,46     XX  1   48,12   22,04   3,35  
XV  2   48,08   16,93   2,88     XX  2   44,84   19,11   2,29  
XV  3   43,95   28,22   3,01     XX  3   58,69   12,19   1,91  
XV  4   52,10   21,77   3,42     XX  4   55,10   13,47   1,92  
  XXI  1   48,98   22,22   2,02  
 
  XXI  2   46,73   35,01   6,18  
 
Anche  in  questo  caso  è  utile  un  confronto  tra  questo  grafico  e  quello  
relativo  ai  dati  aggregati  a  livello  di  istituto  (figura  23).  
 
 
 

 
 
 
 

 
 
Risultati  dell’indagine   123  

Figura  25.  Correlazione  tra  punteggi  degli  studenti  alla  prova  del  2006  e  anni  
di  studio  dei  genitori.  Dati  aggregati  a  livello  di  insegnante.  

Gli insegnanti: punteggi medi dei loro studenti e anni di studio dei genitori dei
loro studenti

60

58

56

54

52

50
ITA 06

48

46

44

42

40 R  quadro  lineare  =  0,34  

38
8 10 12 14 16 18 20
Anni di studio dei genitori
 
 
 
 
124   Terza  Parte  

Tabella   45.   Rendimento   alla   prova   del   2006,   dati   aggregati   a   livello   di   scuole,   inse-­‐‑
gnanti,  classi.  
ITA  06   ITA  06   ITA  06  
(ANOVA:   (ANOVA:   (ANOVA:  
SCUOLA   INSEGNANTE   CLASSE  
F  3,35   F  3,09   F  2,37  
p  <  ,000)   p  <  ,000)   p  <  ,000)  
1101   51,06  
XI  1   49,90  
1102   48,11  
XI   49,59  
1103   48,50  
XI  2   49,33  
1104   50,21  
XII  1   53,67   1202   53,67  
XII  2   50,21   1203   50,21  
XII   53,66  
1204   55,79  
XII  3   54,94  
1205   53,87  
1301   52,82  
XIII  1   53,70   1302   51,74  
XIII   51,55   1303   56,96  
1304   48,28  
XIII  2   48,00  
1305   47,76  
XIV  1   51,92   1401   51,92  
XIV   53,18  
XIV  2   54,63   1402   54,63  
XV  1   51,49   1501   51,49  
XV  2   48,08   1502   48,08  
XV   48,52  
XV  3   43,95   1503   43,95  
XV  4   52,10   1504   52,10  
XVI  1   51,98   1601   51,98  
XVI   47,67   XVI  2   46,42   1602   46,42  
XVI  3   45,30   1603   45,30  
1701   48,96  
XVII  1   47,32  
XVII   46,99   1702   45,42  
XVII  2   46,17   1703   46,17  
XVIII  1   43,35   1801   43,35  
XVIII   45,00  
XVIII  2   46,82   1802   46,82  
1901   42,95  
XIX  1   41,88  
1902   40,36  
XIX   47,52  
1903   50,56  
XIX  2   50,52  
1904   50,48  
XX  1   48,12   2001   48,12  
XX  2   44,84   2002   44,84  
XX   52,02  
XX  3   58,69   2003   58,69  
XX  4   55,10   2004   55,10  
2101   49,65  
XXI  1   48,98  
XXI   48,54   2102   48,26  
XXI  2   46,73   2103   46,73  
 
Risultati  dell’indagine   125  

Calcolo  degli  indicatori  di  efficacia  e  verifica  delle  ipotesi  


 
Allo  scopo  di  verificare  le  ipotesi  di  ricerca  sono  stati  calcolati  degli  indi-­‐‑
catori  di  efficacia  scolastica.  

Verifica  dell’ipotesi  n.  1  


Il  primo  indicatore  è  stato  ottenuto  applicando  la  regressione  lineare,  
sul  punteggio  alla  prova  del  2006,  degli  anni  di  studio  dei  genitori  degli  
studenti.  Nella  formula  di  regressione  non  è  stato  inserito  il  rendimento  
dell’anno  precedente,  non  si  tratta  dunque  di  un  indicatore  di  valore  ag-­‐‑
giunto  ma  di  una  misura  dell’efficacia  di  scuole  e  classi  definita  sulla  ba-­‐‑
se  della  loro  capacità,  nel  corso  del  ciclo  primario  di  istruzione,  di  inci-­‐‑
dere   sul   rendimento   degli   studenti   a   prescindere   delle   loro   caratteristi-­‐‑
che  socio-­‐‑culturali.      
Aggregando  i  residui  della  regressione  a  livello  di  istituto  e  di  classe,  
si   ottengono   indicatori   rispettivamente   dell’efficacia   della   scuola   (ES)   e  
di  quella  della  classe  (EC).  Tali  indicatori  misurano  l’incidenza  di  istituti  
e   classi   sul   rendimento   degli   studenti   “al   netto”   della   variabile   che   ab-­‐‑
biamo  utilizzato  come  proxy  del  loro  stato  socio-­‐‑culturale,  ovvero  gli  an-­‐‑
ni  di  studio  dei  genitori.  
Va  notato  inoltre  che  alcuni  insegnanti  lavorano  in  più  classi,  è  dun-­‐‑
que   possibile   aggregare   i   residui   della   regressione   prendendo   in   consi-­‐‑
derazione  l’educatore  di  riferimento  degli  studenti:  l’indicatore  risultan-­‐‑
te  (EI)  fornisce  informazioni  sull’efficacia  dell’insegnante.  
 
Nella  tabella  46  sono  stati  raccolti  e  “nidificati”  tra  loro  gli  indici  di  ef-­‐‑
ficacia  (espressi  in  punti  t)  di  scuole,  insegnanti  e  classi.  Si  possono  nota-­‐‑
re   indici   di   efficacia   che   variano   in   maniera   significativa   non   solo   tra  
classi  appartenenti  alla  stessa  scuola  (emblematici  i  casi  delle  scuole  XI,  
XII,   XIII,   XV,   XVI,   XX),   ma   anche   tra   classi   assegnate   agli   stessi   inse-­‐‑
gnanti   (1101   e   1102,   1302   e   1303,   1701   e   1702).   Va   dunque   sottolineato  
come   tali   indici   non   riflettano   solamente   l’efficacia   dell’insegnante,   ma  
anche  i  molteplici  fattori  (legati  alle  caratteristiche  del  gruppo  classe)  che  
influenzano  i  processi  di  interazione  tra  l’educatore  e  i  diversi  gruppi  di  
studenti  che  gli  vengono  via  via  assegnati.  A  ciò  vanno  ovviamente  ag-­‐‑
giunte  tutte  le  variazioni,  sistematiche  e  non,  che,  non  essendo  state  in-­‐‑
serite  nella  formula  di  regressione,  vengono  raccolte  nel  residuo.  
 
 
126   Terza  Parte  

Tabella   46.   Indici   di   efficacia,   dati   aggregati   a   livello   di   scuole,   insegnanti,  


classi.  
EFFICACIA   EFFICACIA   EFFICACIA  
(scuola)   (insegn.)   (classe)  
SCUOLA   (ANOVA:   INSEGNANTE   (ANOVA:   CLASSE   (ANOVA:  
F  ,959   F  2,143   F  1,737  
p  <  ,478)   p  <  ,001)   p  <  ,005)  
1101   50,61  
XI  1   49,19  
1102   46,98  
XI   49,13  
1103   48,66  
XI  2   49,08  
1104   49,54  
XII  1   52,81   1202   52,81  
XII  2   49,83   1203   49,83  
XII   52,26  
1204   54,21  
XII  3   53,01  
1205   51,39  
1301   50,07  
XIII  1   51,23   1302   48,63  
XIII   49,53   1303   55,58  
1304   47,52  
XIII  2   46,72  
1305   46,03  
XIV  1   50,70   1401   50,70  
XIV   52,13  
XIV  2   53,76   1402   53,76  
XV  1   51,83   1501   51,83  
XV  2   47,71   1502   47,71  
XV   48,27  
XV  3   43,26   1503   43,26  
XV  4   51,87   1504   51,87  
XVI  1   54,73   1601   54,73  
XVI   49,34   XVI  2   46,69   1602   46,69  
XVI  3   47,25   1603   47,25  
1701   50,50  
XVII  1   49,14  
XVII   49,05   1702   47,56  
XVII  2   48,83   1703   48,83  
XVIII  1   46,68   1801   46,68  
XVIII   48,21  
XVIII  2   49,89   1802   49,89  
43,50   1901   43,50  
XIX  1  
44,36   1902   44,36  
XIX   49,93  
52,57   1903   52,57  
XIX  2  
53,93   1904   53,93  
XX  1   46,55   2001   46,55  
XX  2   44,16   2002   44,16  
XX   51,40  
XX  3   57,90   2003   57,90  
XX  4   55,32   2004   55,32  
2101   49,01  
XXI  1   49,33  
XXI   49,23   2102   49,67  
XXI  2   48,83   2103   48,83  
Risultati  dell’indagine   127  
 
Secondo  la  nostra  prima  ipotesi  di  ricerca,  
le  differenze  più  evidenti  quanto  a  efficacia  si  registrano  tra  le  classi,  mentre  gli  
istituti  non  mostrano  tra  loro  differenze  significative.  
 
Le   analisi   della   varianza   condotte   sugli   indici   di   efficacia   rispettiva-­‐‑
mente  per  istituti,  classi  e  insegnanti  (presentate  nelle  tabelle  47,  48,  49),  
confermano   tale   ipotesi.   Infatti,   al   contrario   delle   differenze   di   efficacia  
tra  classi  e  insegnanti,  quelle  tra  scuole  non  risultano  significative.  
Tabella  47.  ANOVA,  media  dei  punteggi  di  efficacia  tra  gli  istituti.  

Somma   dei   Media  dei  


  quadrati   Df   quadrati   F   Sig.  
Fra  gruppi   960,228   10   96,023   ,959   ,478  
Entro   grup-­‐‑
50439,772   504   100,079          
pi  
Totale   51400,000   514              

Tabella  48.  ANOVA,  media  dei  punteggi  di  efficacia  tra  gli  insegnanti.  

Somma   dei   Media  dei  


  quadrati   Df   quadrati   F   Sig.  
Fra  gruppi   5457,922   27   202,145   2,143   ,001  
Entro   grup-­‐‑
45942,078   487   94,337          
pi  
Totale   51400,000   514              

 
Tabella  49.  ANOVA,  media  dei  punteggi  di  efficacia  tra  le  classi.  

Somma   dei   Media  dei  


  quadrati   Df   quadrati   F   Sig.  
Fra  gruppi   6104,414   37   164,984   1,737   ,005  
Entro   grup-­‐‑
45295,586   477   94,959          
pi  
Totale   51400,000   514              
 
 
128   Terza  Parte  

La   tabella   50   evidenzia   inoltre   il   “tracollo”,   nella   quota   di   varianza  


spiegata   nel   rendimento   degli   studenti,   subìto   dal   fattore   istituto   se   si  
passa   dai   risultati   della   prova   (ITA   06)   al   residuo   della   regressione   con  
gli  anni  di  studio  dei  genitori  degli  studenti.  Diverso  il  discorso  relativo  
ai   “fattori”   classe   e   insegnanti,   che   registrano   diminuzioni   di   quote   di  
varianza  spiegata  molto  più  contenute.  
 
Tabella  50.  Quote  di  varianza  spiegata  dai  livelli  di  aggregazione  dei  dati  isti-­‐‑
tuto,   insegnante   e   classe   sul   rendimento   degli   studenti   alla   prova   del   2006  
(ITA  06)  e  sul  residuo  della  regressione  del  rendimento  effettuata  utilizzando  
gli  anni  di  studio  dei  genitori  come  variabile  di  controllo.  
Fattori      
  (livelli  di  aggregazione  dei  dati)  
ISTITUTO   INSEGNANTE   CLASSE  
Dei  punteggi  alla  pro-­‐‑
6,24%   15,52%   14,63%  
 Varianza  
Quote  di  

va  del  2006  (ITA  06)  


dei  punteggi  (ITA  06)  al  
netto  degli  anni  di  studio   1,87%   11,88%   10,62%  
dei  genitori  
 
 
Infine,  analizzando  la  tabella  51,  si  può  osservare  come  il  livello  scuo-­‐‑
la  non  spieghi,  in  nessuna  delle  aree  di  competenza,  quote  significative  
di  varianza  sui  residui  della  regressione  condotta  utilizzando  gli  anni  di  
studio  dei  genitori  degli  studenti  come  variabile  indipendente.  I  “fattori”  
classe  e  insegnante  conservano  invece  nelle  quattro  aree  quote  rilevanti  
di   varianza   spiegata   sui   punteggi   “netti”   degli   studenti,   evidenziando  
così  la  loro  capacità  di  incidere  significativamente  sul  rendimento  degli  
alunni.  
La  stessa  tabella  evidenzia  inoltre  come  le  quote  di  varianza  a  risenti-­‐‑
re   meno   del   passaggio   dai   punteggi   grezzi   ai   residui   della   regressione  
siano   quelle   relative   ai   punteggi   in   ortografia   e   in   comprensione   della  
lettura.  Nei  punteggi  di  lessico,  misura  di  una  competenza  maggiormen-­‐‑
te  esposta  al  contesto  socio-­‐‑culturale  degli  studenti,  si  registra  invece  la  
diminuzione  più  significativa.    
 
Risultati  dell’indagine   129  

 
Tabella  51.  Quote  di  varianza  spiegata  dai  livelli  di  aggregazione  dei  dati  isti-­‐‑
tuto,   insegnante   e   classe   sul   rendimento   degli   studenti   alla   prova   del   2006  
(nelle  aree  di  competenza  comprensione  della  lettura,  lessico,  grammatica,  or-­‐‑
tografia)  e  sul  residuo  della  regressione  del  rendimento  nelle  quattro  aree  di  
competenza  effettuata  utilizzando  gli  anni  di  studio  dei  genitori  come  varia-­‐‑
bile  di  controllo.  
Fattori    
  (livello  di  aggregazione  dei  dati)  
 
ISTITUTO   INSEGNANTE   CLASSE  
 
dei  punteggi  di  com-­‐‑
 
 Varianza  (%)    

prensione  della  lettura   4,39   11,58   13,42  


Quote  di  

nel  2006  (CL  06)    


dei  punteggi  CL  06  al  netto    
degli  anni  di  studio  dei   1,64   9,23   11,59    
genitori  
dei  punteggi  di  lessico  
 
 Varianza  (%)  

nel  2006     6,25   15,08   15,85  


Quote  di  

(LES  06)  
dei  punteggi  LES  06  al  
 
netto  degli  anni  di  studio   1,31   10,11   10,99  
dei  genitori  
dei  punteggi  di  gramma-­‐‑
 
 Varianza  (%)  

tica  nel  2006     6,45   14,00   14,76  


Quote  di  

(GRA  06)  
dei  punteggi  GRA  06  al  
netto  degli  anni  di  studio   1,81   9,62   10,94  
dei  genitori  
dei  punteggi  di  ortogra-­‐‑
 Varianza  (%)  

fia  nel  2006     3,15   12,18   13,93  


Quote  di  

(ORT  06)  
dei  punteggi  ORT  06  al  
netto  degli  anni  di  studio   2,10   11,29   13,17  
dei  genitori  
130   Terza  Parte  

Verifica  dell’ipotesi  n.  2  


Sono   stati   quindi   calcolati   indicatori   del   valore   aggiunto.   A   differenza  
degli   indicatori   precedenti,   tali   indicatori   forniscono   misure   di   efficacia  
limitatamente   all’ultimo   anno   del   ciclo   primario   di   istruzione.   Nella   for-­‐‑
mula   di   regressione   viene   infatti   inserita,   come   variabile   di   controllo,   il  
rendimento  degli  studenti  alla  prova  del  2005.  
I  due  indicatori  di  valore  aggiunto  sono  rispettivamente:  
 
1. Valore   aggiunto   ottenuto   applicando,   sul   rendimento   degli   stu-­‐‑
denti   alla   prova   in   uscita,   la   regressione   lineare   del   solo   rendi-­‐‑
mento  alla  prova  dell’anno  precedente  (VA  1L).    
2. Valore   aggiunto   ottenuto   applicando,   sul   rendimento   degli   stu-­‐‑
denti   alla   prova   in   uscita,   la   regressione   lineare   del   rendimento  
alla   prova   dell’anno   precedente   e   degli   anni   di   studio   dei   loro  
genitori  (VA2L).    
 
Secondo  la  nostra  ipotesi  di  ricerca  n.  2,  
L’uso  di  un  indicatore  di  Efficacia  Scolastica  basato  esclusivamente  sul  ren-­‐‑
dimento  “in  entrata”  premia  scuole  e  insegnanti  che  operano  in  contesti  caratte-­‐‑
rizzati  da  alti  livelli  socio-­‐‑culturali.  Al  contrario,    l’uso  di  un  indicatore  di  Effi-­‐‑
cacia  Scolastica  basato  sia  su  variabili  di  sfondo  sia  sul  rendimento  “in  entrata”  
determina  graduatorie  delle  scuole  non  correlate  con  lo  stato  socio-­‐‑culturale  dei  
loro    studenti.  
 
Per   la   verifica   di   tale   ipotesi   si   è   in   primo   luogo   proceduto   a   stilare  
una   graduatoria   basata   su   una   prima   misura   del   valore   aggiunto  
nell’ultimo  anno  della  scuola  primaria  dagli  istituti  al  rendimento  degli  
studenti.  La  regressione  alla  base  del  calcolo  di  questo  indicatore  di  va-­‐‑
lore  aggiunto,  come  accennato,  utilizza  come  variabile  di  controllo  il  solo  
rendimento  degli  studenti  in  IV  elementare  (ITA  05)  e  come  variabile  di-­‐‑
pendente  il  rendimento  degli  stessi  studenti  al  termine  della  V  elementa-­‐‑
re  (ITA  06).  Il  residuo  della  regressione  fornisce  dunque  un  primo  indi-­‐‑
catore  di  valore  aggiunto  (VA1L)  basato  sulla  differenza  tra  il  rendimen-­‐‑
to  degli  studenti  alla  prova  del  2006  (ITA06)  e  il  rendimento  atteso  calco-­‐‑
lato  sulla  base  del  loro  punteggio  alla  prova  del  2005  (ITA05).      
La   tabella   52   riproduce,   utilizzando   i   punti   T,   la   graduatoria   delle  
scuole   sulla   base   del   VA1L   e   la   confronta   con   gli   anni   di   studio   degli  
studenti  di  ciascun  istituto.  Si  può  notare  come  gli  istituti  ad  elevato  va-­‐‑
Risultati  dell’indagine   131  

lore  aggiunto  (VA1L)  siano  quelli  (XIV,  XIII,  XII)  che  ospitano  utenze  ca-­‐‑
ratterizzate  da  elevati  livelli  di  istruzione  familiare.  Al  contrario,  le  scuo-­‐‑
le  con  i  punteggi  inferiori  di  VA1L  (XVI,  XVII,  XIX),  sono  quelle  frequen-­‐‑
tate   da   studenti   con   livelli   più   bassi   di   istruzione   familiare.   Va   eviden-­‐‑
ziato  come  la  variabile  VA1L  correli  0,19  (con  livello  di  significatività  pa-­‐‑
ri  a  0,001)  con  la  variabile  anni  di  studio  dei  genitori  degli  studenti.  
 
Tabella  52.  Valore  aggiunto  (VA1L)  aggregato  per  istituto,  calcolato  sulla  base  
del   solo   rendimento   degli   studenti   nel   2005   e   espresso   in   punti   t,   e   anni   di  
studio  dei  genitori  degli  studenti.  
Anni  di  studio  
Istituto   VA1L   E.  S.     dei  genitori  de-­‐‑
gli  studenti  
XIV   54,08   2,24   15,73  
XIII   52,76   1,10   16,74  
XII   51,29   1,17   16,16  
XV   50,47   1,42   14,52  
XXI   49,87   1,40   13,44  
XX   49,24   1,26   15,17  
XI   48,90   1,35   14,83  
XVIII   48,64   2,46   10,33  
XVI   47,98   1,97   12,26  
XIX   47,51   1,24   11,41  
XVII   47,49   1,48   11,78  
F  2,02     F  17,195  
ANOVA  
p  <  ,029     p  <  ,000  

 
Si  è  quindi  proceduto  calcolando  un  secondo  indicatore  di  valore  ag-­‐‑
giunto,   inserendo   stavolta   nella   formula   di   regressione,   insieme   al   ren-­‐‑
dimento   degli   studenti   nel   2005   (ITA05),   la   variabile   anni   di   studi   dei  
genitori  come  covariata.  Dal  residuo  si  ottiene  così  la  variabile  VA2L.  Il  
valore   aggiunto   così   calcolato   è   quindi   dato   dalla   differenza   tra   il   ren-­‐‑
dimento  degli  studenti  alla  prova  del  2006  (ITA06)  e  il  rendimento  atteso  
calcolato  sulla  base  del  loro  punteggio  alla  prova  del  2005  (ITA05)  e  de-­‐‑
gli  anni  di  studio  dei  loro  genitori.    
Questo  secondo  indicatore  di  valore  aggiunto  correla  0,97  con  il  pre-­‐‑
cedente  (VA1L).  Tuttavia  la  tabella  53,  che  classifica  gli  istituti  sulla  base  
del  VA2L,  mostra  una  graduatoria  delle  scuole  ben  diversa  dalla  prece-­‐‑
dente.   In   primo   luogo   va   sottolineato   come   le   distanze   tra   gli   istituti   si  
riducano   sensibilmente   e   che   la   statistica,   in   questo   caso,   non   risulti   si-­‐‑
132   Terza  Parte  

gnificativa.   In   secondo   luogo   la   classifica   non   risulta   correlata   con   gli  


anni  di  studio  dei  genitori  degli  studenti.    
Confrontando  le  tabelle  52  e  53,  si  può  osservare  come  la  scuola  XVIII  
(frequentata   da   studenti   con   un   basso   livello   di   istruzione   familiare),    
che   nella   tabella   52   evidenzia   un   valore   aggiunto   negativo,   ottenga   un  
valore  aggiunto  al  di  sopra  della  media  una  volta  inserita,  nella  formula  
di  regressione,  la  variabile  “anni  di  studio  dei  genitori”  (tabella  53).  Va  
però  segnalato  come  gli  studenti  dello  stesso  istituto  subiscano  un  lieve  
decremento   relativo   nel   rendimento   rispetto   alla   media   del   campione  
(tabella   41).   L’efficacia   evidenziata   (prendendo   come   misura   il   VA2L)  
nell’ultimo   anno   della   scuola   primaria   dall’istituto   XVIII,   non   consente  
dunque  agli  studenti  che  lo  frequentano  di  “guadagnare  terreno”  rispet-­‐‑
to  a  studenti  di  scuole  caratterizzate  da  un  indice  inferiore  di  valore  ag-­‐‑
giunto  (VA2L),  ma  con  un  più  elevato  livello  di  istruzione  familiare.  
Tabella  53.  Valore  aggiunto  (VA2L)  aggregato  per  istituto,  calcolato  sulla  base  
del   solo   rendimento   degli   studenti   nel   2005   e   espresso   in   punti   t,   e   anni   di  
studio  dei  genitori  degli  studenti.  
Anni  di  studio  
Istituto   VA2L   E.  S.   dei  genitori  de-­‐‑
gli  studenti  
XIV   53,47   2,27   15,73  
XIII   51,51   1,12   16,74  
XVIII   50,52   2,62   10,33  
XII   50,50   1,16   16,16  
XV   50,27   1,45   14,52  
XXI   50,27   1,43   13,44  
XVI   48,98   1,91   12,26  
XIX   48,98   1,32   11,41  
XX   48,91   1,31   15,17  
XVII   48,72   1,45   11,78  
XI   48,61   1,33   14,83  
F  ,88     F  17,195  
ANOVA  
p  <  ,551     p  <  ,000  
 
La   tendenza   del   primo   indicatore   di   valore   aggiunto   (VA1L)   a   “pre-­‐‑
miare”,   a   differenza   del   secondo   (VA2L),   le   scuole   frequentate   da  
un’utenza   con   un   alto   livello   socio-­‐‑culturale,   può   essere   apprezzata   os-­‐‑
servando   le   figure   26   e   27:   è   nel   primo   caso   (figura   26),   infatti,   che   le  
scuole  evidenziano  una  tendenza  a  posizionarsi  intorno  alla  retta  di  re-­‐‑
gressione.  La  seconda  ipotesi  di  ricerca  può  dunque  ritenersi  conferma-­‐‑
ta.  
Risultati  dell’indagine   133  

Figura  26.  Correlazioni  tra  misure  del  valore  aggiunto  (VA1L)  e  anni  di  studio  
dei  genitori.  Dati  aggregati  a  livello  di  scuola.  

Le scuole: VA1L e anni di studio dei genitori

55

54

53

52

51
VA1L

50

49

48

47

46

45
9 11 13 15 17
anni di studio dei genitori
 
Figura  27.  Correlazioni  tra  misure  del  valore  aggiunto  (VA2L)  e  anni  di  studio  
dei  genitori.  Dati  aggregati  a  livello  di  scuola.  

Le scuole: VA2L e anni di studio dei genitori

54

53

52

51

50
VA2L

49

48

47

46

45
9 11 13 15 17
anni di studio dei genitori
134   Terza  Parte  

Valore  Aggiunto  aggregato  a  livello  di  insegnanti  e  classi  


Vengono  prese  ora  in  considerazione  le  misure  del  valore  aggiunto  di  
istituti,  insegnanti40  e  classi.  Si  può  notare  (tabella  54)  come  il  livello  isti-­‐‑
tuto  non  spieghi,  a  differenza  dei  livelli  insegnante  e  classe,  quote  signi-­‐‑
ficative  di  varianza  nella  distribuzione  del  valore  aggiunto,  sia  che  que-­‐‑
sto  venga  calcolato  sulla  base  della  regressione  condotta  inserendo  il  so-­‐‑
lo  rendimento  in  entrata  come  variabile  di  controllo  (VA1L),  sia  che  lo  si  
calcoli  sulla  base  della  regressione  condotta  inserendo  anche  il  livello  di  
istruzione  familiare  come  variabile  di  controllo  (VA2L).  
 
Tabella   54.   Quote   di   varianza   delle   misure   del   valore   aggiunto   spiegate   dai  
fattori  (livelli  di  aggregazione  dei  dati)  istituto,  insegnante,  classi.  
Fattori  (livello  di  aggregazione)  
 
ISTITUTO   INSEGNANTE   CLASSE  
Del  valore  aggiunto  
calcolato  utilizzando  
come  covariata  il  solo   3,86%   11,45%   12,83%  
rendimento  nel  2005  
 Varianza  
Quote  di  

(VA1L)  
Del  valore  aggiunto  
calcolato  utilizzando  
come  covariate  il  ren-­‐‑
1,72%   9,76%   10,97%  
dimento  nel  2005  e  il  
livello  di  istruzione  
familiare  (VA2L)  
 
A   incidere   in   maniera   significativa   sull’incremento   nel   rendimento  
degli   studenti   è   dunque   quel   che   avviene   all’interno   delle   classi,   dato  
che  conferma  l’importanza  attribuita  dalla  letteratura  di  ricerca  al  “fatto-­‐‑
re”  insegnante.  Va  però  evidenziato  (tabelle  55  e  56)  come  le  misure  del  
valore   aggiunto   (VA1L   e   VA2L)   degli   insegnanti   delle   scuole   XI   e   XIX  
varino  sensibilmente  a  seconda  delle  classi  di  riferimento:  l’efficacia  de-­‐‑
gli  educatori  così  misurata  è  influenzata  dunque  da  dinamiche  legate  al-­‐‑
lo  specifico  contesto  di  classe  nel  quale  lavora.  Questa  ultima  considera-­‐‑
zione   suggerisce   prudenza   rispetto   all’attribuzione   dei   residui   a   livello  
di  classe  al  singolo  insegnante.  
 
 

 
40  Sul  livello  insegnante,  vedi  p.  133.  
Risultati  dell’indagine   135  

Tabella  55.  Valore  aggiunto  calcolato  utilizzando  solo  il  rendimento  nel  2005  
come  covariata  (VA1L),  aggregato  a  livello  di  scuola,  insegnante,    classe.  Pun-­‐‑
teggi  espressi  in  punti  t.  
VA1L  (sc.)   VA1L  (ins.)   VA1L  (cl.)  
(ANOVA:   (ANOVA:   (ANOVA:  
SCUOLA   INSEGNANTE   CLASSE  
F  2,026   F  2,332   F  1,897  
p  <  ,029   p  <  ,000   p  <  ,000  
1101   43,35  
XI  1   46,25  
1102   50,72  
XI   48,90  
1103   52,85  
XI  2   51,02  
1104   49,08  
XII  1   53,02   1202   53,02  
XII  2   48,70   1203   48,69  
XII   51,29  
1204   52,11  
XII  3   51,74  
1205   51,27  
1301   55,02  
XIII  1   54,93   1302   54,65  
XIII   52,76   1303   55,14  
1304   49,40  
XIII  2   49,17  
1305   48,98  
XIV  1   58,06   1401   58,06  
XIV   54,08  
XIV  2   49,53   1402   49,53  
XV  1   53,11   1501   53,11  
XV  2   50,41   1502   50,41  
XV   50,47  
XV  3   47,31   1503   47,31  
XV  4   52,04   1504   52,04  
XVI  1   48,70   1601   48,70  
XVI   47,98   XVI  2   48,47   1602   48,47  
XVI  3   47,04   1603   47,04  
1701   47,77  
XVII  1   47,32  
XVII   47,49   1702   46,79  
XVII  2   47,94   1703   47,94  
XVIII  1   43,99   1801   43,99  
XVIII   48,64  
XVIII  2   53,75   1802   53,75  
1901   45,13  
XIX  1   44,06  
1902   42,53  
XIX   47,51  
1903   51,37  
XIX  2   49,35  
1904   46,76  
XX  1   42,09   2001   42,09  
XX  2   46,35   2002   46,35  
XX   49,24  
XX  3   53,87   2003   53,87  
XX  4   52,39   2004   52,39  
2101   49,55  
XXI  1   49,03  
XXI   49,87   2102   48,47  
XXI  2   53,37   2103   53,37  
136   Terza  Parte  

Tabella  56.  Valore  aggiunto  calcolato  utilizzando  come  covariate  il  rendimen-­‐‑
to   nel   2005   e   il   livello   di   istruzione   familiare   (VA2L),   aggregato   a   livello   di  
scuola,  insegnante,    classe.  Punteggi  espressi  in  punti  t.  
VA2L  (sc.)   VA2L  (ins.)   VA2L  (cl.)  
ANOVA   ANOVA   ANOVA  
SCUOLA   INSEGNANTE   CLASSE  
F  ,88   F  1,95   F  1,589  
p  <  ,551   p  <  ,003   p  <  ,017  
1101   43,16  
XI  1   45,83  
1102   49,96  
XI   48,61  
1103   52,88  
XI  2   50,83  
1104   48,67  
XII  1   52,55   1202   52,55  
XII  2   48,47   1203   48,47  
XII   50,50  
1204   51,30  
XII  3   50,64  
1205   49,80  
1301   53,32  
XIII  1   53,44   1302   52,70  
XIII   51,51   1303   54,41  
1304   48,88  
XIII  2   48,32  
1305   47,84  
XIV  1   57,28   1401   57,28  
XIV   53,47  
XIV  2   49,12   1402   49,12  
XV  1   53,33   1501   53,33  
XV  2   50,13   1502   50,13  
XV   50,27  
XV  3   46,74   1503   46,74  
XV  4   51,93   1504   51,93  
XVI  1   50,49   1601   50,49  
XVI   48,98   XVI  2   48,55   1602   48,55  
XVI  3   48,16   1603   48,16  
1701   48,73  
XVII  1   48,41  
XVII   48,72   1702   48,04  
XVII  2   49,52   1703   49,52  
XVIII  1   45,95   1801   45,95  
XVIII   50,52  
XVIII  2   55,56   1802   55,56  
1901   45,33  
XIX  1   45,13  
1902   44,84  
XIX   48,98  
1903   52,63  
XIX  2   51,03  
1904   48,97  
XX  1   41,13   2001   41,13  
XX  2   45,81   2002   45,81  
XX   48,91  
XX  3   53,57   2003   53,57  
XX  4   52,64   2004   52,64  
2101   49,14  
XXI  1   49,23  
XXI   50,27   2102   49,32  
XXI  2   54,57   2103   54,57  
Risultati  dell’indagine   137  

 Utilizzo  dei  modelli  gerarchici  


Facendo   riferimento   ai   modelli   gerarchici41,   è   stata   calcolata   una   pri-­‐‑
ma  misura  di  valore  aggiunto  (VA1G)  inserendo  solo  il  rendimento  nel  
2005   (aggregato   a   livello   di   classe)   come   variabile   di   controllo.   La   fun-­‐‑
zione  di  produzione  educativa  utilizzata  è  la  seguente:  
 
(5)         Ri06  =γ00  +λRi05  +  βt  +  u0j  +εij  
 
dove  
γ00  è  il  rendimento  medio  complessivo;  
Rit  è  il  rendimento  in  italiano  di  uno  studente  i  nell’anno  t;  
Rit-­‐‑1  è  il  rendimento  dello  studente  nell’anno  precedente;  
u0j    è  l’effetto  sulla  variabile  dipendente  della  classe  j-­‐‑ma;  
εij    è  il  residuo  della  regressione  per  ogni  studente.  
 
La  parte  fissa  del  modello  è  costituita  dai  termini:  
γ00,  Rit-­‐‑1.  
Mentre  la  parte  casuale  è  costituita  da:  
u0j    variabili  casuali  indipendenti  e  identicamente  distribuite  per  ogni  
j,  con  distribuzione  Normale  di  media  0  e  varianza  τ2  :  N(0,  τ2);  
εij   variabili  casuali  indipendenti  e  identicamente  distribuite  per  ogni  i  
e  j  con  distribuzione  N(0,  σ2).  
 

Facendo  riferimento  all’espressione  generale  di  un  modello  gerarchi-­‐‑


co:  
(2)  YiJ  =  β0j  +  β1jXij  +  eij  
Il  termine  β0j    è  equivalente  a:  γ00  +  u0j  
 
Nell’analisi  dei  modello  gerarchico,  si  ottiene  una  stima  dei  paramen-­‐‑
ti  reali  ipotizzati  fissi  per    le  componenti  γ00,  λ  e  βt,  mentre  per  l’effetto  
casuale  u0j  si  ottiene  una  previsione.  
 
Una  seconda  misura  del  valore  aggiunto  (VA2G)  ha  inserito  nel  mo-­‐‑
dello  gli  anni  di  studio  dei  genitori  degli  studenti:  
(6)         Ri06  =γ00  +λRi05  +    βtFi06  +  u0j  +εij  
 
 
41  Cfr.  Rampichini  (2002),  Gay  (2006),  SAS  (2004).  
138   Terza  Parte  

dove  
γ00  è  il  rendimento  medio  complessivo;  
Rit  è  il  rendimento  in  italiano  di  uno  studente  i  nell’anno  t;  
Rit-­‐‑1  è  il  rendimento  dello  studente  nell’anno  precedente;  
Fi06  è  un  vettore  degli  anni  di  studio  dei  genitori  degli  studenti  corre-­‐‑
lato  al  loro  rendimento  nel  2006;  
u0j    è  l’effetto  sulla  variabile  dipendente  della  classe  j-­‐‑ma;  
εij    è  il  residuo  della  regressione  per  ogni  studente.  
 
 
Facendo   uso   dei   modelli   gerarchici   per   calcolare   nuovamente   gli   in-­‐‑
dicatori   di   efficacia   sin   qui   utilizzati,   si   ottengono   residui   individuali  
correlati  al  livello  0,98  con  i  corrispettivi  ricavati  sulla  base  delle  regres-­‐‑
sioni  lineari  tradizionali.  A  dispetto  di  tale  correlazione  (che  si  riflette  su  
una   sostanziale   identità   nelle   posizioni   degli   istituti   nelle   diverse   gra-­‐‑
duatorie  di  efficacia),  gli  indicatori  calcolati  utilizzando  i  modelli  gerar-­‐‑
chici  evidenziano  una  regressione  verso  la  media  tale  da  non  consentire  
l’individuazione  di  istituti  e  classi  significativamente  efficaci  (o  ineffica-­‐‑
ci).   È   dunque   consigliabile   l’utilizzo   di   tali   analisi   in   presenza   di   cam-­‐‑
pioni  più  numerosi  di  scuole  e  classi.  
 
 
Distribuzione  del  valore  aggiunto  all’interno  della  popolazione  
 
Sono  state  sin  qui  espresse  riserve  nei  riguardi  dell’impiego,  ai  fini  di  ac-­‐‑
countability  di  istituti  e  insegnanti,  del  valore  aggiunto  calcolato  inseren-­‐‑
do  nella  funzione  di  regressione  soltanto  il  rendimento  precedente  degli  
studenti   come   variabile   di   controllo.   Tali   perplessità,   tuttavia,   non   im-­‐‑
pediscono   di   osservare   come   l’indicatore   fornisca   una   utile   misura  
dell’andamento  degli  studenti  al  termine  di  un  dato  anno  di  istruzione,  
una  volta  preso  in  considerazione  il  loro  precedente  livello  di  rendimen-­‐‑
to.   L’indicatore   fornisce   dunque   una   misura   dell’incremento   nel   rendi-­‐‑
mento  relativo  di  ciascuno  studente.  
La   tabella   57   riporta   la   distribuzione   del   valore   aggiunto   (variabile  
VA1L,   calcolata   utilizzando   il   solo   rendimento   nel   2005   come   variabile  
di  controllo)  all’interno  della  popolazione  a  seconda  del  livello  di  istru-­‐‑
zione  familiare  (LIF42)  degli  studenti.  Per  facilitare  il  confronto  tra  le  di-­‐‑
stribuzioni   dei   punteggi,   la   popolazione   è   stata   suddivisa   in   terzili   sia  

 
42  Per  la  costruzione  di  questa  variabile,  vedi  pp.  73-­‐‑74.  
Risultati  dell’indagine   139  

rispetto  alla  variabile  VA1L  sia  rispetto  alla  variabile  LIF.  È  degno  di  no-­‐‑
ta  il  fatto  che  con  “basso”  valore  aggiunto  si  fa  riferimento  a  punteggi  al  
di  sotto  dello  zero  (si  tratta  infatti  di  saldi  negativi  tra  valore  ottenuto  e  
valore  atteso):  in  tal  caso  sembra  più  corretto  ragionare  in  termini  di  va-­‐‑
lore  sottratto  piuttosto  che  aggiunto.  
Osservando  la  tabella  57  e  le  figure  28  e  29  si  può  notare  come  solo  il  
22%   degli   studenti   con   un   basso   livello   di   istruzione   familiare   ottenga  
un   valore   aggiunto   elevato,   mentre   tale   percentuale   raddoppia   se   si  
prendono  in  considerazione  gli  studenti  con  un  alto  livello  di  istruzione  
familiare.  La  distribuzione  del  valore  aggiunto  all’interno  della  popola-­‐‑
zione  risulta  dunque  estremamente  iniqua.    
Tabella  57.  Distribuzione  del  valore  aggiunto  a  seconda  del  livello  di  istruzione  fami-­‐‑
liare.  Percentuali  per  riga.  
      Valore  Aggiunto  (VA1L)  
    ALTO   MEDIO   BASSO  
Livello  di     ALTO   67  (44,08%)   42  (33,87%)   35  (23,03%)  
istruzione     MEDIO   78  (32,64%)   80  (33,47%)   81  (33,89%)  
familiare  
(LIF)   BASSO   27  (21,77%)   50  (32,89%)   55  (44,35%)  

 
Figura  28.  Distribuzione  del  valore  aggiunto  (VA1L)  tra  gli  studenti  con  alto  
livello  di  istruzione  familiare.  

studenti con alto livello di istruzione familiare

23%

44% val. agg. ALTO

val. agg. MEDIO

val. agg. BASSO

33%

 
140   Terza  Parte  

Figura  28.  Distribuzione  del  valore  aggiunto  (VA1L)  tra  gli  studenti  con  basso  
livello  di  istruzione  familiare.  

studenti con basso livello di istruzione familiare

22%

44% val. agg. ALTO

val. agg. MEDIO

val. agg. BASSO

34%

 
 

Conclusioni  

Il  presente  lavoro  ha  evidenziato  come  a  incidere  in  maniera  significati-­‐‑


va  sul  rendimento  e  sul  progresso  nella  preparazione  degli  studenti  sia-­‐‑
no  fattori  collocati  al  livello  della  classe.  Quanto  alle  considerazioni  rela-­‐‑
tive   alla   validità   del   valore   aggiunto   come   indicatore   di   efficacia   scola-­‐‑
stica  è  indispensabile  fare  riferimento  alle  finalità  del  suo  impiego.  Come  
osservato  nella  parte  introduttiva,  il  valore  aggiunto  viene  ampiamente  
utilizzato   come   strumento   utile   a   render   conto   dell’efficacia   dell’offerta  
formativa  di  istituti  e  (seppur  in  minor  misura)  insegnanti.  Le  perplessi-­‐‑
tà  legate  alla  scelta  di  incentrare  su  misure  del  valore  aggiunto  il  sistema  
di  accountability,  esposte  nella  prima  parte  del  lavoro,  fanno  riferimento  
a  due  ordini  di  considerazioni.  Le  prime  sono  relative  a  questioni  metro-­‐‑
logiche   ancora   irrisolte   dalla   ricerca   (come   quella   collegata   all’utilità   di  
introdurre,  nelle  formule  di  calcolo  del  valore  aggiunto,  covariate  legate  
allo  stato  socio-­‐‑culturale  degli  studenti  o  quella  connessa  alla  difficoltà,  
anche   utilizzando   modelli   gerarchici   di   analisi   dei   dati,   di   separare  
l’effetto   “vero”   dell’insegnante   da   quello   dovuto   all’interazione   tra   la  
sua   azione   e   tutte   le   caratteristiche   del   gruppo   classe   non   inserite   nel  
modello).  Le  perplessità  in  questi  casi  fanno  riferimento  al  rischio  di  ad-­‐‑
dossare   all’insegnante   (e   alla   scuola)   un’incidenza   eccessiva   sul   rendi-­‐‑
mento  degli  studenti,  con  conseguenti  possibili  penalizzazioni  di  educa-­‐‑
tori  operanti  in  contesti  svantaggiati  dal  punto  di  vista  socio-­‐‑culturale.  
Il  secondo  ordine  di  considerazioni  è  relativo  ai  possibili  effetti  inde-­‐‑
siderati  di  un  sistema  di  accountability  in  cui  il  testing  abbia  un  ruolo  cen-­‐‑
trale:   tra   questi   sono   stati   citati   la   tendenza   degli   educatori   a   insegnare  
agli  studenti  ad  affrontare  le  prove  (teaching  to  the  test)  o  quella  a  concen-­‐‑
trare  gli  sforzi  solo  sulle  materie  oggetto  di  misurazione  (tunnel  vision).  
Visto   quanto   esposto,   soltanto   in   un   sistema   di   accountability   basato  
su  un’autentica  cultura  della  valutazione,  in  cui  questa  non  sia  percepita  
da   parte   degli   educatori   come   controllo   invasivo,   è   possibile   ritenere  
proficuo  il  ruolo  del  valore  aggiunto  una  volta  inserito  all’interno  di  un  
complesso  di  indicatori  di  diversa  natura,  relativi  ai  molteplici  livelli  del  
sistema  educativo.  
 
Se  sull’impiego  del  valore  aggiunto  ai  fini  di  accountability  sono  state  
espresse   riserve,   appare   decisamente   redditizio   il   ruolo   che   l’indicatore  
può  svolgere  in  campi  in  cui  vengono  meno  i  rischi  legati  alle  incertezze  
metrologiche  e  agli  effetti  indesiderati  sopra  descritti.  
142   Terza  Parte  

Misure  del  valore  aggiunto  possono  avere  spazio  nei  processi  di  au-­‐‑
tovalutazione  degli  istituti  (a  tal  fine  è  ovviamente  necessaria  la  collabo-­‐‑
razione  tra  più  scuole).  Una  raccolta  longitudinale  delle  prestazioni  degli  
studenti  fornisce  non  solo  un’informazione  immediata  sui  loro  livelli  di  
rendimento,   ma   anche   la   base   per   misurare   il   miglioramento   (o   il   peg-­‐‑
gioramento)   che,   anno   dopo   anno,   gli   alunni   di   una     classe   o   di   una  
scuola   registrano   se   confrontati   con   l’intera   popolazione   studentesca  
coinvolta   nel   processo   di   autovalutazione.   Se   la   gamma   di   misure   del  
rendimento  degli  studenti  non  si  limita  a  una  materia,  è  possibile  anche  
confrontare   il   valore   aggiunto   da   classi   e   istituti   rispetto   a   diversi   ap-­‐‑
prendimenti  degli  studenti.    
Può  essere  inoltre  utile  osservare,  raggruppando  gli  alunni  a  seconda  
di  caratteristiche  come  il  rendimento  nell’anno  precedente  o  il  livello  di  
istruzione   familiare,   la   distribuzione   del   valore   aggiunto   tra   studenti  
dello   stesso   istituto.   Per   questa   operazione,   che   fornisce   indicazioni  
sull’equità   dell’azione   delle   scuole,   l’indicatore   di   efficacia   più   adatto   è  
quello  che  si  ottiene  inserendo  nella  formula  di  regressione,  come  unica  
variabile  di  controllo,  il  rendimento  degli  studenti  dell’anno  precedente.  
Il   valore   aggiunto   così   calcolato   (VA1L)   fornisce   una   misura  
dell’andamento   degli   studenti   in   un   dato   anno   scolastico   rispetto   alle  
aspettative  determinate  dal  loro  precedente  livello  di  rendimento.  
Le   figure   (30   e   31)   mostrano   la   distribuzione   del   valore   aggiunto  
(VA1L)  all’interno  di  sette  scuole  partecipanti  alla  ricerca,  considerando  
rispettivamente  (figura  30)  il  livello  di  istruzione  familiare  degli  studenti  
e  (figura  31)  il  rendimento  degli  stessi  l’anno  precedente.  
Come  si  può  notare,  molte  delle  scuole  in  questione  “aggiungono  va-­‐‑
lore”  in  maniera  diversa  a  seconda  delle  caratteristiche  degli  studenti  via  
via   considerate.   Se   si   prende   in   considerazione   il   livello   di   istruzione  
familiare   degli   studenti   (figura   30),   appare   evidente   come   negli   istituti  
XI  e  XXI  siano  soltanto  gli  studenti  con  un  alto  livello  di  istruzione  fami-­‐‑
liare  a  evidenziare  valori  positivi  dell’indicatore,  mentre  nella  scuola  XX  
i  punteggi  prescindono  dalle  caratteristiche  socio-­‐‑culturali  degli  alunni.  
Se  invece  si  considera  il  livello  di  rendimento  in  entrata  degli  studenti  
(figura  31)  si  può  apprezzare  come  negli  istituti  XV  e  XIX  a  evidenziare  
punteggi   negativi   dell’indicatore   siano   gli   studenti   che   nel   2005   appar-­‐‑
tenevano   al   terzile   con   il   punteggio   meno   elevato,   mentre   la   scuola   XII  
mostra   la   tendenza   opposta.   Infine   i   punteggi   di   valore   aggiunto  
dell’istituto  XIII  non  risultano  correlati  con  il  livello  delle  abilità  “in  en-­‐‑
trata”  degli  studenti.  
Risultati  dell’indagine   143  

Figura   30.   Distribuzione   del   valore   aggiunto   (calcolato   utilizzando   il   solo  


rendimento  alla  prova  del  2005  come  variabile  di  controllo)  a  seconda  del  li-­‐‑
vello  di  istruzione  dei  genitori  degli  studenti  all’interno  degli  istituti  XI,  XX,  
XXI.  

1
valore aggiunto

XI
0
XX
-1
XXI
-2

-3

-4
basso medio alto
livello di istruzione familiare degli studenti
 
Figura   31.   Distribuzione   del   valore   aggiunto   (calcolato   utilizzando   il   solo  
rendimento   alla   prova   del   2005   come   variabile   di   controllo)   a   seconda   del  
rendimento   degli   studenti   alla   prova   del   2005   (terzile   di   appartenenza)  
all’interno  degli  istituti  XII,  XIII,  XV,  XIX.  

2
valore aggiunto

1 XII
XIII
0
XV
-1 XIX
-2

-3
basso medio alto
livello di rendimento degli studenti nel 2005
 
 
144   Terza  Parte  

Il   feedback   fornito   dagli   indicatori   di   valore   aggiunto   sull’efficacia   e  


sull’equità   dell’intervento   educativo   di   istituti   e   insegnanti,   se   inserito  
all’interno  di  un  progetto  di  autovalutazione  basato  su  indicatori  di  con-­‐‑
testo,   input,   processo     su   ulteriori   misure   dei   risultati,   può   esercitare  
dunque  un  peso  rilevante  nell’avvio  e  nella  gestione  dei  percorsi  di  mi-­‐‑
glioramento  scolastico.    
 
Parallelamente,   come   esposto   nella   prima   parte,   il   valore   aggiunto  
gioca   un   ruolo   ormai   consolidato   nella   ricerca   sull’efficacia   scolastica.  
Anche   in   questo   caso,   però,   le   opportunità   che   l’utilizzo   dell’indicatore  
schiude  rispetto  all’identificazione  dei  fattori  che  incidono  maggiormen-­‐‑
te  sul  rendimento  degli  studenti  dipendono  dalla  capacità  dei  ricercatori  
di  raccogliere  informazioni  sui  processi  di  istruzione  a  livello  di  classe  e  
organizzativi  a  livello  di  scuola,  oltre  che  dalla  numerosità  di  istituti,  in-­‐‑
segnanti   e   studenti   coinvolti   nelle   indagini.   A   tale   scopo,   come   sottoli-­‐‑
neato  nel  secondo  capitolo,  vale  la  pena  prendere  in  considerazione  me-­‐‑
todologie  di  ricerca  basate  sulla  descrizione  dei  processi  educativi.    
Merita   infine   di   essere   studiata   a   fondo   la   questione   relativa   alla   di-­‐‑
stribuzione   del   valore   aggiunto   all’interno   della   popolazione   studente-­‐‑
sca.  Se  su  questo  versante  il  presente  lavoro  ha  messo  in  evidenzia  note-­‐‑
voli   iniquità,   ai   fini   di   un’analisi   più   approfondita   sembra   necessario  
l’impiego  di  disegni  di  ricerca  più  estesi  dal  punto  di  vista  longitudinale,  
basati  su  un  numero  maggiore  di  studenti,  classi  e  istituti  e  su  un’ampia  
gamma  di  output  e  di  outcome.    
 
 
 
 

Bibliografia    

AITKIN   M.,   LONGFORD   N.   (1986),   Statistical   modeling   issues   in   school   effectiveness  


studies,  in  “Journal  of  the  Royal  Statistic  Society”,  149,  1,  pp.  1-­‐‑43.  
ASQUINI   G.   (2006),  Accedere  all’università.  Indagine  empirica  sul  trattamento  dei  dati  
della   prova   di   accesso   al   corso   di   laurea   di   Scienze   dell’Educazione   e   della   For-­‐‑
mazione   di   Roma   “La   Sapienza”,   tesi   di   Dottorato   di   ricerca   in   Pedagogia  
Sperimentale,  a.a.  2004-­‐‑2005.  
BALLARINO  G.,  CHECCHI  D.  (a  cura  di,  2006),  Sistema  scolastico  e  disuguaglianza  so-­‐‑
ciale.  Scelte  individuali  e  vincoli  strutturali,  Il  Mulino,  Bologna.  
BALLOU  D.  (2002),  Sizing  up  test  scores,  in  “Education  Next”,  2,  pp.  10-­‐‑15.  
BARBAGLI   M.   (a  cura  di,  1972),   Istruzione,  legittimazione  e  conflitto,  Franco  Angeli,  
Milano.  
BARZANÒ   G.,   MOSCA   S.,   SCHEERENS   J.   (   a   cura   di,   2000),   L’autovalutazione   nella  
scuola,  Bruno  Mondadori,  Milano.  
BECCHI   E.,   VERTECCHI   B.   (a   cura   di,   1984),   Manuale   critico   della   sperimentazione   e  
della  ricerca  educativa,  Franco  Angeli,  Milano.  
BENINI  A.  M.,  GIANFERRARI  L.  (a  cura  di,  2005),  Valutare  per  migliorarsi,  Tecnodid,  
Napoli.  
BENADUSI   L.   (1984),   Scuola,   riproduzione,   mutamento.   Sociologie   dell’educazione   a  
confronto,  La  Nuova  Italia,  Firenze.  
BENVENUTO  G.,  LASTRUCCI  E.,  SALERNI  A.  (1995),  Leggere  per  capire,  Anicia,  Roma.  
BELL  J.F.  (2003),  Beyond  the  School  Gates:  the  influence  of  school  neighbourhood  on  the  
relative  progress  of  pupils,  in  “Oxford  Review  of  Education”,  29,  4,  pp.  485-­‐‑
502.  
BERGER   E.   (2003),   L’autovalutazione  degli  istituti:  alcune  esperienze  pratiche,  in  BOT-­‐‑
TANI  N.,  CENERINI  A.  (a  cura  di),  pp.  155-­‐‑182.  
BERGER  E.,  BOTTANI  N.,  OSTINELLI  G.  (2003),  Modelli  teorici  per  l’efficacia  e  il  miglio-­‐‑
ramento  della  scuola,  in  BOTTANI  N.,  CENERINI  A.  (a  cura  di),  pp.  133-­‐‑153.  
BERNARDI   L.,   MARTINI   A.,   ZACCARIN   S.   (2005),   Analisi   multilivello   dell’impatto   di  
variabili  individuali  e  scolastiche  sulle  prestazioni  in  matematica  e  in  lettura,  in  
SINISCALCO  M.T.,  MARANGON  C.,  pp.  209-­‐‑232.  
BIFULCO   R.,   BRETSCHNEIR   S.   (2001),  Estimating  school  efficiency,  in  “Economics  of  
Education  Review”,  20,  pp.  417-­‐‑429.  
BLACK  P.,  WILIAM  D.  (1998),  Inside  the  Black  Box,  School  of  Education,  King’s  Col-­‐‑
lege.  
BLAU   P.M.,   DUNCAN   O.D.   (1967),   The   American   Occupational   Structure,   Wiley,  
New  York.  
146   Bibliografia  

BOSKER   R.J.,   SCHEERENS   J.   (1994),   Modelling   educational   effectiveness,   in   “Interna-­‐‑


tional  Journal  of  Educational  Research”,  2,  pp.  159-­‐‑180.  
BOTTANI   N.   (2003a),   Gli   indicatori   di   istituto   come   strumenti   di   autovalutazione,   in  
BRACCI  M.  (a  cura  di),  pp.  67-­‐‑85.  
BOTTANI   N.   (2003b),  La  valutazione:  un  possibile  strumento  per  bilanciare  autonomia  
e  giustizia  scolastica,  in  BOTTANI  N.,  CENERINI  A.  (a  cura  di),  pp.  21-­‐‑65.  
BOTTANI  N.,  CENERINI  A.  (a  cura  di,  2003),  Una  pagella  per  la  scuola.  La  valutazione  
tra  autonomia  e  equità,  Erickson,  Trento.    
BOTTANI  N.,  BENADUSI  L.  (a  cura  di,  2006),  Uguaglianza  e  equità  nella  scuola,  Erick-­‐‑
son,  Trento.    
BOURDIEU   P.   (1972),   La   trasmissione   dell’eredità   culturale,   in   BARBAGLI   M.   (a   cura  
di),  pp.  283-­‐‑313.  
BRACCI   M.  (a  cura  di,  2003),  Valutazione  e  autovalutazione.  La  cultura  della  valuta-­‐‑
zione  di  scuola,  Armando,  Roma.  
BRAUN  H.I.  (2005),  Using  Student  Progress  To  Evaluate  Teachers.  A  Primer  on  Val-­‐‑
ue-­‐‑Added  Models,    Educational  Testing  Service,  Princeton.  
BRESSOUX   P.,   BIANCO   M.   (2004),   Long-­‐‑term  teacher  effects  on  pupils’  learning  gains,  
in  “Oxford  Review  of  Education”,  30,  3,  pp.  327-­‐‑345.  
BROOKOVER   W.B.,   BEADY   C.,   FLOOD   P.,   SCHWEYTZER   J.,   WISENBACKER   J.   (1979),  
Schools,   Social   System   and   Student   Achievement:   Schools   Can   Make   a   Differ-­‐‑
ence,  Praeger,  New  York.  
BROOKOVER   W.B.,   LEZOTTE   L.W.   (1979),   Changes   in   School   Characteristics   Coinci-­‐‑
dent  with  Changes  in  Student  Achievement,  Institute  for  Research  on  Teach-­‐‑
ing,  East  Lansing.  
CAMPBELL   D.T.,   STANLEY   J.C.   (1963),   Experimental  and  Quasi-­‐‑experimental  Designs  
for  Research,  Houghton  Mifflin,  Boston.  
CAMPBELL   R.J.,   KYRIADIKES   L.,   MUIJS.   R.D,   ROBINSON   W.,   (2003),   Differential  
Teacher   Effectiveness:   towards   a   model   for   research   and   teacher   appraisal,   in  
“Oxford  Review  of  Education”,  29,  3,  pp.  347-­‐‑361.  
CAREY   K.   (2004),   The  Real  Value  of  Teachers.  Using  new  information  about  teacher  ef-­‐‑
fectiveness  to  close  the  achievement  gap,  in  “Thinking  K-­‐‑16”,  8,  1,  pp.  3-­‐‑33.  
CASTOLDI   M.   (2003),   Segnali   di   qualità.   Un’esperienza   di   autoanalisi   di   istituto,   in  
BRACCI  M.  (a  cura  di),  pp.  97-­‐‑113.  
CENSIS  (1990),  Per  un  servizio  nazionale  di  valutazione.  Esperienze  straniere  e  proposte  
per  l’Italia,  Roma.  
CENSIS  (1992  a),  La  valutazione  nella  scuola  italiana:  proposte  operative  e  monitoraggio  
della  riforma  della  scuola  elementare,  Roma.  
CENSIS  (1992  b),  Monitoraggio  della  riforma  della  scuola  elementare,  (2  voll.),  Roma.  
CEPERLEY  P.E.,  REEL  K.  (1997),  The  impetus  for  the  Tennessee  Value-­‐‑Added  Accounta-­‐‑
bility  System,  in  MILLMAN  J.  (Ed.),  pp.  133-­‐‑136.  
Bibliografia   147  

CHENG   Y.C.   (1993),   Conceptualization   and   measurement   of   school   effectiveness:   An  


organizational   perspective,   Paper   presented   at   AERA   annual   meeting,   At-­‐‑
lanta.  
CLOTFELTER  C.T.,  LADD  H.F.,  VIGDOR  J.L.  (2004),  Teacher  Sorting,  Teacher  Shopping  
and   the   Assessment   of   Teacher   Effectiveness,   http://trinity.aas.duke.ed~  
jvigdor/  tsaer5.pdf.  
COE   R.,   FITZ-­‐‑GIBBON   C.T.   (1998),   School   Effectiveness   Research:   criticisms   and   rec-­‐‑
ommendations,  in  “Oxford  Review  of  Education”,  24,  4,  pp.  421-­‐‑438.  
COLEMAN   J.S.   et  al.   (1966),   Equality  of  Education  Opportunity,  Government  Print-­‐‑
ing  Office,  Washington.  
CORDA   COSTA   M.,   VISALBERGHI   A.   (a  cura  di,  1995),  Misurare  e  valutare  le  compe-­‐‑
tenze  linguistiche,  La  Nuova  Italia,  Firenze.  
CORDA   COSTA   M.,   (1964),   Ricerche  sui  fattori  socio-­‐‑economici  che  influenzano  il  pro-­‐‑
seguimento  e  l’indirizzo  degli  studi  in  alcuni  quartieri  romani,  in  VISALBERGHI  
A.  (a  cura  di).  
CREEMERS   B.P.M.,   REEZIGT   G.J.   (2005),   Linking   School   Effectiveness   and   School   Im-­‐‑
provement,    in  “School  Effectiveness  and  School  Improvement”,  16,  4,  pp.  
359-­‐‑371.  
CUNNINGHAM   L.L.   (1997),   The  Dallas  Value-­‐‑Added  Accountability  System:  In  the  be-­‐‑
ginning,  in  MILLMAN  J.  (Ed.)  (1997),  pp.  75-­‐‑80.  
DALY   P.   (1991),   How   large   are   secondary   school   effect   in   Northern   Ireland?,   in  
“School  Effectiveness  and  School  Improvement”,  2,  4,  pp.  305-­‐‑323.  
DARLING-­‐‑HAMMOND  L.  (1997),  Toward  What  End?  The  Evaluation  of  Student  Learn-­‐‑
ing  for  the  Improvement  of  Teaching,  in  MILLMAN  J.  (ed.),  pp.  248-­‐‑264.  
DARLINGTON   R.B.   (1997),   The  Tennessee  Value-­‐‑Added  System:  A  Challenge  to  Famil-­‐‑
iar  Assessment  Methods,  in  MILLMAN  J.  (ed.),  pp.  163-­‐‑168.  
DE   LEEUW   J.,   KREFT   I.G.G.   (1995),   Questioning  multilevel  models,    “Journal  of  Edu-­‐‑
cational  and  Behavioural  Statistics”,  20,  2,  pp.  239-­‐‑240.  
DYER  H.S.  (1970),  Toward  objective  criteria  of  professional  accountability  in  the  schools  
New  York  City,  in  “Phi  Delta  Kappan”,  52,  pp.  206-­‐‑211.  
DOLTON   P.   (2002),  Improving  Education  Quality:  How  Best  to  Evaluate  Our  School?,  
www.bos.frb.org/economic/conf/conf47/dolton.pdf.  
DOOLARD   S.   (1996),   Changes   in   characteristics   and   effects   of   school   leadership   over  
time,  paper  presented  at  ECER,  Sevilla.  
DORAN  H.C.,  IZUMI  L.T.  (2004),  Putting  Education  to  the  Test:  a  Value-­‐‑Added  Models  
for  California,  Pacific  Research  Institute,  San  Francisco.  
DRURY   D.,   DORAN   H.C.   (2003),  The  Value  of  Value-­‐‑Added  Analysis,  in  “Policy  Re-­‐‑
search  Brief”,  3,  pp.  2-­‐‑6.  
FITZ-­‐‑GIBBON  C.  T.  (1985),  A-­‐‑level  results  in  comprehensive  schools,  in  “Oxford  Re-­‐‑
view  of  Education,  11,  1,  pp.  43-­‐‑58.  
148   Bibliografia  

FITZ-­‐‑GIBBON  C.  T.  (1995),  The  Value  Added  National  Project  General  Report:  Issues  to  
be   Considered   in   the   Design   of   a   National   Value   Added   System,   SCAA,   Lon-­‐‑
don.  
FITZ-­‐‑GIBBON   C.T.   (1996),   Monitoring   Education:   Indicators,   Quality   and   Effective-­‐‑
ness,  Cassell,  London-­‐‑New  York.  
FITZ-­‐‑GIBBON  C.  T.,  KOCHAN  S.  (2000),  School  Effectiveness  and  Education  Indicators,  
in  TEDDLIE  C.,  REYNOLDS  D.  (ed.),  pp.  257-­‐‑280.  
FREEMAN   J.,   TEDDLIE   C.   (1997),   A  phenomenological  examination  of  ‘naturally  occur-­‐‑
ring’  school  improvement:  Implication  for  democratization  of  school,  Paper  pre-­‐‑
sented   at   the   annual   meeting   of   American   Education   Research   Associa-­‐‑
tion,  New  York.  
GAY   G.   (a  cura  di,  2006),  Valutazione  degli  apprendimenti  disciplinari  nella  scuola  di  
secondo  grado,  IRER,  Milano.  
GENERAL  ASSEMBLY  OF  PENNSYLVANIA  (2002),  House  bill  n.  45.  
GIACOMANTONIO   A.   (2006),   I  fattori  che  influenzano  gli  esiti  scolastici:  vincoli,  cultu-­‐‑
ra,  razionalità  e  progettualità,  tesi  di  Dottorato  di  ricerca  in  Pedagogia  Spe-­‐‑
rimentale,  a.a.  2004-­‐‑2005.    
GOLDHABER   D.   (2002),   The   Mystery   of   Good   Teaching,   in   “Education   Next”,  
www.educationnext.org  ,  pp.  50-­‐‑55.  
GOLDHABER   D.,   ANTHONY   E.   (2002),   Can  Teacher  Quality  Be  Effectively  Assessed?,  
www.educationnext.org  .  
GOLDSTEIN  H.,  HUIKI  P.,  RATH  T.  (2000),  The  use  of  value  added  information  in  judg-­‐‑
ing  school  performance,  www.ioe.uk  
GOLDSTEIN   H.,   SAMMONS   P.   (1997),   The  influence  of  secondary  and  junior  schools  on  
sixteen   year   examination   performance:   a   cross   classified   multilevel   analysis,   in  
“School  Effectiveness  and  School  Improvement”,  8,  pp.  219-­‐‑231.  
GOLDSTEIN   H.,   WOODHOUSE   G.   (2000),   School  Effectiveness  Research  and  Education-­‐‑
al  Policy,  in  “Oxford  Review  of  Education”,  26,  3-­‐‑4,  pp.  353-­‐‑363.  
GOOD   T.L.   ,   BROPHY   J.E.   (1986),   School  Effects,  in  WITTROCK   M.,   Third  handbook  of  
Research  on  Teaching,  Macmillan,  New  York,  pp.  570-­‐‑602  
GORI   E.,   BATTAUZ   M.   (2004),   Quali  prospettive  dalla  ricerca  sulla  qualità  e  l’efficacia  
della   scuola   per   la   costruzione   di   sistemi   di   Accountability   dell’istruzione,   in  
“Non  Profit”,  10,  pp.  473-­‐‑490.    
GORI   E.,   VIDONI   D.   (2003),   Valutazione  dei  risultati  scolastici  e  misura  del  valore  ag-­‐‑
giunto,  in  BOTTANI  N.  e  CENERINI  A.  (a  cura  di).  
GRAY   J.,   JESSON   D.,   JONES   B.   (1986),   The  search  for  a  fairer  way  of  comparing  schools’  
examinations  results,  in  “Research  Papers  in  Education”,  1,  2,  pp.  91-­‐‑122.  
GREEN   et  al.  (1964),   The  Educational  Status  of  Children  in  a  District  Without  Public  
Schools,  Bureau  of  Educational  Research,  Michigan  State  University,  East  
Lansing.    
Bibliografia   149  

HANUSHEK   E.A.   (2003),   The   failure   of   input-­‐‑based   schooling   policies,   in   “The   Eco-­‐‑
nomic  Journal”,  113,  February,  pp.  64-­‐‑98.    
HANUSHEK  E.A.,  RAYMOND  M.E.  (2002),  Improving  Educational  Quality:  How  
Best  to  Evaluate  Our  Schools?,  Presented  at  “Education  in  the  21st  Century:  
Meeting  the  Challenges  of  a  Changing  World  Federal  Reserve  Bank  of  Boston,  
June   19-­‐‑21,  
www.bos.frb.org/economic/conf/conf47/hanushekraymond.pdf.  
HANUSHEK  E.  A.,  RAYMOND  M.  E.  (2004)  Does  School  Accountability  Lead  to  
Improved  Student  Performance?,  National  Bureau  of  Economic  Research,  
www.nber.org/papers/w10591.  
HAYCOCK  K.  (2004),  The  Real  Value  of  Teachers:  If  good  teachers  matter,  why  don’t  we  
act  like  it?,  in  “Thinking  K-­‐‑16”,  8,  1,  pp.  1-­‐‑3.  
HERDMAN   P.A,   SMITH   N.,   DORAN   H.C.   (2002),   Value-­‐‑Added   Analysis:   A   Critical  
Component  of  Determining  Adequate  Yearly  Progress,  CFNN  Policy  Brief.  
HERSHBERG   T.   (2004a),   Value-­‐‑Added  Assessment:  Powerful  Diagnostic  to  Improve  In-­‐‑
struction   and   Promote   Student   Achievement,   paper   resented   at   “Women  
Administrator  Conference”.  
HERSHBERG   T.   (2004b),   The   Real   Value   of   Teachers:   Using   New   Information   about  
Teacher  Effectiveness  to  Close  the  Achievement  Gap,  in  “Thinking  K-­‐‑16”,  8,  1,  
pp.  3-­‐‑32.  
HERSHBERG  T.  (2004c),  Getting  the  Most  Value  Out  of  Value-­‐‑Added  Data,  in  “Think-­‐‑
ing  K-­‐‑16”,  8,  1,  pp.  33-­‐‑35.  
HERSHBERG  T.  (2004d),  The  Opportunity  Gap,  in  “Thinking  K-­‐‑16”,  8,  1,  pp.  36-­‐‑37.  
HERSHBERG   T.   (2004e),   How   states,   districts   and   schools   are   using   value-­‐‑added   data,  
in  “Thinking  K-­‐‑16”,  8,  1,  pp.  38-­‐‑42.  
HERSHBERG   T.,   SIMON   V.A.,   LEA-­‐‑KRUGER   B.   (2004a),   Measuring  what  matters:  How  
Value-­‐‑Added   assessment   can   be   used   to   drive   learning   gains,   in   “American  
School   Board   Journal”,   February,  
www.cgp.upenn.edu/pdf/measuring_what_matters.pdf.  
HERSHBERG   T.,   SIMON   V.A.,   LEA-­‐‑KRUGER   B.   (2004b),   The   Revelations   of   Value-­‐‑
Added,  in  “The  School  Administrator”,  December,  pp.  10-­‐‑14.  
HILL   P.W.,   ROWE   K.J.,   HOLMES-­‐‑SMITH   P.   (1995),   Factors   affecting   students’   educa-­‐‑
tional   progress,   paper   presented   at   the   8th   International   Congress   for  
School  Effectiveness  and  School  Improvement,  Leeuwarden.  
HILL   P.W.,   ROWE   K.J.   (1996),   Multilevel   modelling   in   School   Effectiveness   Research,  
in  “School  Effectiveness  and  School  Improvement”,  7,  1,  pp.  21-­‐‑36.  
HUTCHINSON   D.,   SCOTT   E.   (2003),   Using  National  Value-­‐‑Added  Datasets  to  Explore  
the   Impact   of   School   and   Pupil   Factors   on   Progress   from   Key   Stage   2   to   Key  
Stage  4,  Paper  presented  at  the  British  Educational  Research  Annual  Con-­‐‑
ference,  NFER,  London.  
150   Bibliografia  

JULLIEN  F.  (1998),  Trattato  dell’efficacia,  Einaudi,  Torino.  


KARABEL  J.,  HASLEY  A.H.  (eds.,  1979),  Power  and  Ideology  in  Education,  New  York.  
KARSEN   S.,   VISSCHER   A.   (2003),  Implicazioni  ed  effetti  della  pubblicazione  dei  risultati  
scolastici,  in  BOTTANI  N.,  CENERINI  A.  (a  cura  di).  
KUPPERMINTZ   H.   (2001),   Value-­‐‑Added  Assessment  of  Teachers,  EPLS,  Arizona  State  
University.  
KUPPERMINTZ   H.   (2002),   Teacher  Effects  As  a  Measure  of  Teacher  Effectiveness:  Con-­‐‑
struct  Validity  of  TVAAS,  Centre  for  the  Study  of  Evaluation,  University  of  
California,  Los  Angeles.  
LADD  H.F.,  WALSH  R.P.  (2002),  Implementing  Value-­‐‑Added  Measures  of  School  Effec-­‐‑
tiveness:  Getting  the  Incentives  Right,  in  “Economics  of  Education  Review”,  
18,  1,  pp.  1-­‐‑16.  
LIGHTFOOT   L.S.   (1983),   The   Good   High   School:   Portraits   of   Character   and   Culture,  
Basic  Books,  New  York.  
LINN   R.L.,   BAKER   E.L.,   BETEBENNER   D.W.   (2002),   Accountability  Systems:  Ramifica-­‐‑
tions  of  the  No  Child  Left  Behind  Act  of  2001,  Education  Commission  of  the  
State,  Denver.  
LIPOWSKY   F.   (2005),   Assessing   Teacher   effectiveness,   in   “School   Effectiveness   and  
School  Improvement”,  16,  4,  pp.  217-­‐‑227.  
LOCKHEED   M.E.,   HANUSHEK   E.A.   (1994),  Concepts  of  Educational  Efficiency  and  Ef-­‐‑
fectiveness,  in  International  Encyclopaedia  of  Education.  
LUCISANO  P.  (a  cura  di,  1989),  Lettura  e  comprensione,  Loescher,  Torino.  
LUCISANO   P.   (1993),   Come  valutare  le  competenze  linguistiche:  dalla  costruzione  delle  
prove  agli  indicatori  di  profitto,  in  “Cadmo”,  I,  2,  pp.  25-­‐‑42.  
LUCISANO  P.  (a  cura  di,  1994),  Alfabetizzazione  e  lettura  in  Italia  e  nel  mondo.  I  risul-­‐‑
tati  dell’indagine  IEA-­‐‑SAL,  Tecnodid,  Napoli.  
LUCISANO  P.,  SALERNI  A.  (2002),  Metodologie  della  ricerca  in  educazione  e  formazione,  
Carocci,  Roma.  
MACBEATH   J.,   MCGLYNN   A.   (2002),   Self-­‐‑evaluation.   What’s   in   for   schools?  
Routledge,  London.  
MARTINI   A.   (a   cura   di,   2002),   Autovalutazione   e   valutazione   degli   istituti   scolastici,  
Tecnodid,  Napoli.  
MCCAFFREY   D.F.,  LOCKWOOD   J.R.,  KORETZ   D.M.,   HAMILTON   S.H.   (2003),   Evaluat-­‐‑
ing  Value-­‐‑Added  Models  for  Teacher  Accountability,  RAND  Education,  Santa  
Monica.  
MCCAFFREY   D.F.,   LOCKWOOD   J.R.,   KORETZ   D.M.,   HAMILTON   S.H.   (2004),   Models  
for  Value-­‐‑Added  Modeling  of  Teacher  Effects,  in  “Journal  of  Educational  and  
Behavioral  Statistics”,  29,  1,  pp.  67-­‐‑101.  
MEYER   R.H.   (1997),   Value-­‐‑Added   Indicators   of   School   Performance:   A   Primer,   in  
“Economics  of  Education  Review”,  16,  3,  pp.  283-­‐‑302.  
Bibliografia   151  

MILLMAN  J.  (ed.,  1997),  Grading  Teachers,  Grading  Schools:  Is  Student  Achievement  a  
Valid  Evaluation  Measure?,  Corwin  Press,  Thousand  Oaks.  
MILLMAN   J.   (1997),   How  Do  I  Judge  Thee?  Let  Me  Count  the  Ways,  in  MILLMAN   J.  
(ed.  1997),  pp.  243-­‐‑247.  
MORTIMORE  P.  et  al.  (1988),  School  Matters,  Wells,  Open  Book,  London.  
MURNAME   R.J.   (1981),   Interpreting  the  evidence  on  school  effectiveness,  in  “Teacher  
College  Record”,  83,  pp.  19-­‐‑35.  
NUTTALL  D.   (1991),   An  instrument  to  be  honed:  tables  do  not  reflect  schools’  true  per-­‐‑
formance,  in  “Time  Educational”,  3924,  13  sept.,  p.  22.  
PLOWDEN  COMMITTEE  (1967),  Children  and  their  primary  schools,  HMSO,  London.  
POSTLETHWAITE   T.N.,   ROSS   K.N.   (1992),   Effective   schools   in   reading,   IEA,   Ham-­‐‑
burg.  
RAMPICHINI  C.  (2002),  Introduzione  ai  modelli  multilivello,  
hal9000.cisi.unito.it/wf/DIPARTIMENT/Scienze_de/AISMetdo/Convegni/
La-­‐‑rappres/Paperprog/udine2002.doc  
REYNOLDS   D.,   TEDDLIE   C.   (2000),   The   Processes   of   School   Effectiveness,   in   TEDDLIE  
C.,  REYNOLDS  D.  (ed.),  pp.  134-­‐‑159.  
REYNOLDS   D.,   TEDDLIE   C.   (2001),   Reflections   on   the   critics,   and   beyond   them,   in  
“School  Effectiveness  and  School  Improvement”,  12,  1,  pp.  99-­‐‑113.  
ROGOSA   D.,   SANER   D.   (1995),   Reply  to  discussants:  Longitudinal  data  analysis  exam-­‐‑
ples  with  random  coefficients  models,  in  “Journal  of  Educational  and  Behav-­‐‑
ioural  Statistics”,  20,  2,  pp.  234-­‐‑238.    
ROWE   K.J.   (2000),   Assessment,   Performance   Indicators,   League   Tables,   Value-­‐‑Added  
Measures   and   School   Effectiveness?   Consider   the   Issues   and   Let’s   Get   Real!,  
www.are.edu.au  
ROWAN   B.,   CORRENTI   R.,   MILLER   R.J.   (2002),   What   large-­‐‑scale   survey   research  
tells   us   about   teacher   effects   on   student   achievement:   Insights   from   the  
Prospects   study   of   elementary   schools, in   “Teachers   College   Record”,  
104,  1525-­‐‑1567.  
RUTTER  M.  et  al.  (1979),  Fifteen  Thousand  Hours:  Secondary  Schools  and  Their  Effects  
on  Children,  Open  Books,  London-­‐‑Boston.    
SAMMONS   P.   (2001),   Fairer  Comparisons  of  Schools:  The  role  of  school  effectiveness  re-­‐‑
search  in  promoting  improvement,  Institute  of  Education,  London.  
SAMMONS   P.,   NUTTALL   D.,   CUTTANCE   P.   (1993),   Differential  school  effectiveness:  Re-­‐‑
sults  from  a  re-­‐‑analysis  of  the  Inner  London  Education  Authority’s  junior  school  
project  data,  in  “British  Educational  Research  Journal”,  19  (4),  pp.  381-­‐‑405.  
SANDERS   W.L.,   RIVERS   J.C.   (1996),   Cumulative   and   Residuals   Effects   of   Teachers   on  
Future  Student  Academic  Achievement,  Value-­‐‑Added  Research  Center,  Uni-­‐‑
versity  of  Tennessee,  Knoxville.  
152   Bibliografia  

SANDERS   W.L.,   SAXTON   A.M.,   HORN   S.P.   (1997),   The   Tennessee   Value-­‐‑Added   Sys-­‐‑
tem:   A   Quantitative,   Outcome-­‐‑Based   Approach   to   Educational   Assessment,   in  
MILLMAN  J.  (ed.  1997),  pp.  137-­‐‑162.      
SANDERS   W.L.,   WRIGHT   S.P.,   ROSS   S.M.,   WANG   L.W.   (2000),  Value-­‐‑Added  Achieve-­‐‑
ment  Results  for  Three  Cohorts  of  Roots  and  Wings  Schools  in  Memphis:  1995-­‐‑
1999   Outcomes,   Center   for   Research   in   Educational   Policy,   University   of  
Memphis,  Memphis.  
SAS  INSTITUTE  (2006),  SAS  for  Mixed  Models.  
SAUNDERS   L.   (1999a),  ‘Value  Added’  measurement  of  school  effectiveness:  a  critical  re-­‐‑
view,  NFER,  Slough.  
SAUNDERS  L.    (1999b),  A  brief  history  of  educational  “value  added”:  How  did  we  get  to  
where   we   are?,   in   “School   Effectiveness   and   School   Improvement”,   10,   2,  
pp.  233-­‐‑256.  
SAUNDERS   L.   (2003),   Il   valore   aggiunto   nella   valutazione   scolastica.   Il   punto   di   vista  
inglese,  in  BOTTANI  N.,  CENERINI  A.  (a  cura  di).  
SCHAGEN   I.   (2003),   Methods   for   Presenting   Value-­‐‑Added   Analyses   Effectively   for   a  
Wider  Audience,  Paper  presented  at  the  Value  Added  Measures  Advisory  
Group,  NFER,  London.  
SCHAGEN   I.,   GOLDSTEIN   H.   (2002),   Do  Specialist  Schools  Add  Value?  Some  methodo-­‐‑
logical  problems,  Paper  presented  at  the  British  Educational  Research  An-­‐‑
nual  Conference,  NFER,  London.  
SCHAGEN  I.,  SCHAGEN  S.  (2002),  Using  National  Value-­‐‑Added  Datasets  to  Explore  the  
Effects   of   School   Diversity,   Paper   presented   at   the   British   Educational   Re-­‐‑
search  Annual  Conference,  NFER,  London.  
SCHAGEN   I.,   BENTON   T.   (2003),   The   Relationship   Between   School   and   Pupil   Back-­‐‑
ground  Factors  and  Progress  from  Key  Stage  1  to  Key  Stage  2,  Paper  presented  
at  the  British  Educational  Research  Annual  Conference,  NFER,  London.  
SCHEERENS  J.  (1990),  School  effectiveness  and  the  development  of  process  indicators  of  
school   functioning,   in   “School   Effectiveness   and   School   Improvement”,  
1(1),  pp.  61-­‐‑80.  
SCHEERENS   J.   (2000   a),  Autovalutazione  e  uso  delle  informazioni  nella  scuola  orientata  
ai  risultati,  in  BARZANÒ  G.,  MOSCA  S.,  SCHEERENS  J.  (2000),    pp.  48-­‐‑52.    
SCHEERENS  J.  (2000  b),  Improving  School  Effectiveness,  UNESCO,  Paris.  
SCHEERENS   J.   (2004),   Perspectives   on   Education   Quality,   Education   Indicators   and  
Benchmarking,  in  SCHEERENS  J.,  HENDRIKS  M.  (ed.),  pp.  115-­‐‑138.  
SCHEERENS   J.,   BOSKER   R.   (1997),   The   Foundations   of   Educational   Effectiveness,   Per-­‐‑
gamon,  Oxford.  
SCHEERENS   J.,   BRUMMELHUIS   A.C.A.   (1996),   Process  indicators  on  the  functioning  of  
schools,  paper  presented  at  AERA  annual  meeting,  New  York.  
Bibliografia   153  

SCHEERENS   J.,   DEMEUSE   M.   (2005),   The   Theoretical   Basis   of   the   Effective   School   Im-­‐‑
provement   Model   (ESI),   in   “School   Effectiveness   and   School   Improve-­‐‑
ment”,  16,  4,  2005,  pp.  373-­‐‑385.  
SCHEERENS   J.,   HENDRIKS   M.   (ed.   2004),   Benchmarking   the   Quality   of   Education,   in  
“European  Educational  Research  Journal”,  pp.  101-­‐‑399.  
SINISCALCO   M.T.,   MARANGON   C.   (2005),   Gli   studenti   quindicenni   nel   Veneto:   quali  
competenze?,  INVALSI-­‐‑MIUR,  Venezia.  
SPOURS   K.,   HODGSON   A.   (1996),   Value   Added   &   Raising   Attainment:   a   Formative  
Approach,  BPES,  Poole.  
STONE   J.E.   (1999),   Value  Added  Assessment:  An  Accountability  Revolution”,  in  KAN-­‐‑
STOROOM   M.,   FINN   E.J.,   Better   Teachers,   Better   Schools,   www.education-­‐‑
consumers.com/articles/value_added_assessments,   Thomas   B.   Fordham  
Foundation,  Washington    
STONE   J.E.   (2002),   The  Value-­‐‑Added  Achievement  Gains  of  NBPTS-­‐‑Certified  Teachers  
in  Tennessee:  A  Brief  Report,  East  Tennessee  State  University,  XXX.  
SYKES   G.   (1997),   On  Trial:  The  Dallas  Value-­‐‑Added  Accountability  System,  in  MILL-­‐‑
MAN  J.  (ed.),  pp.  110-­‐‑120.  
TEDDLIE  C.,  REYNOLDS  D.  (ed.  2000),  The  International  Handbook  of  School  Effective-­‐‑
ness  Research,  Falmer,  London-­‐‑New  York.  
TEDDLIE   C.,   REYNOLDS   D.,   SAMMONS   P.   (2000),   The   Methodologies   and   Scientific  
Properties   of   School   Effectiveness   Research,   in   C.   TEDDLIE,   D.   REYNOLDS  
(2000),  pp.  55-­‐‑133.  
TEDDLIE   C.,   STRINGFIELD   S.   (1985),   A   differential   analysis   of   effectiveness   in   middle  
and  lower  socioeconomic  status  school,  in  “Journal  of  Classroom  Interaction”,  
20,  pp.  38-­‐‑44.  
TEDDLIE  C.,   STRINGFIELD   S.   (1993),   Schools  Do  Make  A  Difference,  Teacher  College  
Press,  New  York.  
THOMAS   S.   (1998),   Value  Added  Measures  of  School  Effectiveness  in  United  Kingdom,  
in  “Prospects”,  XXVIII,  1,  pp.  91-­‐‑108.  
THOMAS   S.,   MORTIMORE   P.   (1996),   Comparison   of   value-­‐‑added   models   for   secondary  
school  effectiveness,  in  “Research  Papers  in  Education”,  11,  1,  pp.  5-­‐‑33.  
THRUPP   M.   (2001),   Sociological   and   political   concerns   about   school   effectiveness   re-­‐‑
search:  time  for  a  new  research  agenda,  in  “School  Effectiveness  and  School  
Improvement”,  12,  1,  pp.  7-­‐‑40.  
THRUPP   M.,   MANSELL   H.,   HAWKSWORTH   L.,   HAROLD   B.   (2003),   “Schools  Can  Make  
a   Difference”.   But   do   Teachers,   Heads   and   Governors   Really   Agree?,   in   “Ox-­‐‑
ford  Review  of  Education”,  29,  4,  pp.  471-­‐‑484.    
THUM   Y.M.,   BRYK   A.S.   (1997),   Value-­‐‑Added  Productivity  Indicators:  The  Dallas  Sys-­‐‑
tem,  in  MILLMAN  J.  (Ed.)  (1997),  pp.  100-­‐‑110.  
154   Bibliografia  

TROWER   P.,   VINCENT   L.   (1995),   The   Value   Added   National   Project   Technical   report:  
Secondary,  SCAA,  London.  
TYMMS   P.   (1999),   Baseline   assessment,   value-­‐‑added   and   the   prediction   of   reading,   in  
“Journal  of  Research  in  Reading,  22,  1,  pp.  27-­‐‑36.  
TYMMS   P.   (1994),   Monitoring   school   performance:   A   guide   for   educators,   in   “School  
Effectiveness  and  School  Improvement”,  5,  4,  pp.  394-­‐‑397.  
VAN   KESTEREN   J.H.M.   (1996),   Doorlichten   en   herontwerpen   van   organisatiecom-­‐‑
plexen,  Groningen,  University  of  Groningen.  
VISALBERGHI  A.  (1988),  Insegnare  ed  apprendere,  La  Nuova  Italia,  Firenze.    
VISALBERGHI   A.   (a  cura  di,  1964),  Educazione  e  condizionamento  sociale,  La  Nuova  
Italia,  Firenze.  
VISSCHER  A.,  DIJKSTRA  A.B.,  KARSTEN  S.,  VEENSTRA  R.  (2003),  Una  carta  dei  principi  
per  la  valutazione  delle  valutazioni  scolastiche,  in  BOTTANI   N.,   CENERINI   A.   (a  
cura  di).  
WALBERG   H.J.   (1997),   Assessment  Requires  Incentives  to  Add  Value:  A  Review  of  the  
Tennessee   Value   Added   Assessment   System,   in   MILLMAN   J.   (ed.,   1997),   pp.  
169-­‐‑178.  
WEBER   G.   (1971),   Inner   City   Children   Can   Be   Taught   to   Read.   Four   Successful  
Schools,  Council  for  Basic  Education,  Washington.  
WEBSTER   J.W.,   MENDRO   R.L.   (1997),   The  Dallas  Value-­‐‑Added  Accountability  System,  
in  MILLMAN  J.  (Ed.)  (1997),  pp.  81-­‐‑99.  
WEBSTER  J.W.,  MENDRO  R.L.,  ORSAK  T.,  WEERASINGHE  D.,  BEMBRY  K.  (1997),  Little  
Practical  Difference  and  Pie  in  the  Sky:  A  Response  to  Thum  and  Bryk  and  a  Re-­‐‑
joinder  to  Sykes,  in  MILLMAN  J.  (Ed.  1997),  pp.  111-­‐‑120.  
WIKELEY   F.,   MURILLO   J.   (2005),   Effective   School   Improvement:   An   Introduction,   in  
“School  Effectiveness  and  School  Improvement”,  16,  4,  pp.  355-­‐‑358.  
WILLMS   D.   (1992)   Monitoring   School   Performance:   A   Guide   for   Educators,   Falmer  
Press,  London.  
WILSON   D.   (2004),   Which   Ranking?   The   Impact   of   “Value-­‐‑Added”   Measure   of   Sec-­‐‑
ondary   School   Performance,   in   “Public   Money   &   Management”,   January,  
pp.  37-­‐‑45.  
WOESSMANN   L.   (2001),   Why   Students   in   Some   Countries   do   Better,   in   “Education  
Matters”,  www.edmatters.org  .  
WRIGHT  S.P.,  HORN  S.P.,  SANDERS  W.L.  (1997),  Teacher  and  classroom  context  effects  
on   student   achievement:   Implications   for   teacher   evaluations,   in   “Journal   of  
Personnel  Evaluation  in  Education”,  11,  pp.  57-­‐‑67.  
 
 
   
 
 

Indice  
 
Premessa  Il  valore  da  aggiungere  di  Pietro  Lucisano  .......................................................  VII
 
Introduzione  .........................................................................................................................  XI
 
Prima  parte.  Misurare  l'ʹefficacia  scolastica  
Il  concetto  di  Efficacia  Scolastica  .....................................................................................  3
Misurare  gli  effetti  della  scuola:  il  valore  aggiunto  .....................................................  5
L’efficacia  scolastica  tra  ricerca  e  accountability  ............................................................  8
L’efficacia  scolastica  tra  ricerca  e  accountability  ............................................................  9
I  primi  studi:  un  inizio  poco  incoraggiante  .................................................................  11
Gli  studi  successivi:  dentro  la  “scatola  nera”  ..............................................................  13
L’impiego  dei  modelli  gerarchici  ..................................................................................  16
Le  classi  “contano”  ..........................................................................................................  20
Valore  aggiunto  e  Accountability  negli  USA:  Tennessee  e  Texas  ..............................  32
Il  TVAAS  (Tennessee  Value-­‐‑Added  Assessment  System)  ............................................  32
Il  funzionamento  del  TVAAS  ..............................................................................................  34
Il  DVAAS  (Dallas  Value-­‐‑Added  Accountability  System)  ..............................................  36
Il  funzionamento  del  DVAAS  ..............................................................................................  37
Il  valore  aggiunto  in  Inghilterra  ....................................................................................  40
Validità  del  valore  aggiunto  come  indicatore  di  Efficacia  Scolastica  ......................  47
Valore  aggiunto  e  Accountability:  una  relazione  pericolosa  ......................................  49
1.  Assenza  di  legami  tra  cause  ed  effetti,  attribuzioni  indebite  di  responsabilità  .....  50
2.  Possibili    iniquità  delle  misure  ed  effetti  indesiderati  .................................................  51
3.  Portata  informativa  e  comprensibilità  dell’indicatore  di  valore  aggiunto  .............  52
Valore  aggiunto  e  autovalutazione  d’istituto  .............................................................  53
 
Seconda  parte.  Un’indagine  sul  valore  aggiunto  nella  scuola  primaria  
Ipotesi  della  ricerca  .........................................................................................................  59
Il  disegno  della  ricerca  e  le  sue  fasi  ..............................................................................  60
Il  campione  .......................................................................................................................  63
Capitolo  sesto  Gli  strumenti  ...............................................................................................  67
La  rilevazione  della  competenza  linguistica:  il  modello  delle  prove  ......................  67
1.  Prove  di  competenza  comunicativa  e  funzionale  (esercizi  1,  8)  ...............................  70
2.  Prove  di  uso  corretto  della  lingua  (esercizi  2,  4,  6,  7)  ..................................................  70
3.  Prove  di  comprensione  della  lettura  (esercizi  3,  5,  10,  11,  12)  ...................................  71
4.  Prove  di  conoscenza  delle  parole  (esercizi  13,14,  1  5,  16)  ...........................................  71
Le  prove  utilizzate  nella  presente  ricerca  ....................................................................  72
La  prova  in  ingresso  (2005)  ............................................................................................  72
156   Bibliografia  

La  prova  in  uscita  (2006)  ................................................................................................  78


Prove   di   competenza   comunicativa   e   funzionale   (registro   e   alfabetizzazione   della  
lettura)  .......................................................................................................................................  81
Prove  di  uso  corretto  della  lingua  (ortografia  e  grammatica)  .......................................  83
Prove  di  comprensione  della  lettura  ...................................................................................  87
Prove  di  conoscenza  delle  parole  ........................................................................................  90
 
Terza  parte.  I  risultati  dell'ʹindagine.  
Le  due  prove:  risultati  generali  .....................................................................................  97
Le   aree   di   competenza   (comprensione   della   lettura,   lessico,   grammatica,  
ortografia)  .......................................................................................................................  102
Analisi   delle   Componenti   Principali   e   costruzione   della   variabile   competenza   in  
italiano  (ITA)  ..........................................................................................................................  104
Rendimento  e  caratteristiche  degli  studenti  ..............................................................  105
Dalla   IV   alla   V   elementare:   Livello   di   Istruzione   Familiare   e   rendimento   degli  
studenti.  ..........................................................................................................................  111
Capitolo  ottavo  Le  scuole,  le  classi,  gli  insegnanti  .......................................................  115
“Classifiche”  di  rendimento  degli  istituti  ..................................................................  115
Dalla  IV  alla  V  elementare:  differenze  nelle  prestazioni  a  livello  di  istituto  ........  117
Le  classi  e  gli  insegnanti  ...............................................................................................  118
Calcolo  degli  indicatori  di  efficacia  e  verifica  delle  ipotesi  .....................................  125
Verifica  dell’ipotesi  n.  1  ........................................................................................................  125
Verifica  dell’ipotesi  n.  2  ........................................................................................................  130
Valore  Aggiunto  aggregato  a  livello  di  insegnanti  e  classi  ..........................................  134
Utilizzo  dei  modelli  gerarchici  ...........................................................................................  137
Distribuzione  del  valore  aggiunto  all’interno  della  popolazione  ..........................  138
 
Conclusioni  .........................................................................................................................  141
 
Bibliografia  .........................................................................................................................  145
 
 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Finito  di  stampare  nel  mese  di  novembre  2008  
dal  Centro  Stampa  Nuova  Cultura,  Roma  
 

Potrebbero piacerti anche