Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZA” -‐‑ FACOLTÀ DI FILOSOFIA
DIPARTIMENTO DI RICERCHE STORICO-‐‑FILOSOFICHE E PEDAGOGICHE
DOTTORATO DI RICERCA CONSORTILE IN PEDAGOGIA SPERIMENTALE
IL VALORE AGGIUNTO IN EDUCAZIONE
UN’INDAGINE
NELLA SCUOLA PRIMARIA
Cristiano Corsini
Premessa
effetto del clima di classe che gioca un ruolo importante quasi quanto
quello dell’insegnante. Dunque per avere dati affidabili bisognerebbe
poter condurre ricerche in modo continuo per diversi anni. Un ulteriore
problema è dato dal fatto che anche il valore aggiunto calcolato
all’interno di una classe (sempre ancorando questa operazione a dati di
campioni più ampi) rimane una media. Alcuni studenti aumentano di
valore, altri rimangono stabili, altri ne perdono.
Lasciando i lettori frettolosi e i politici al loro devastante lavoro, ri-‐‑
cercatori e insegnati possono trarre da queste ricerche indicazioni molto
utili. Capire nel corso di un anno quali studenti acquistano valore e quali
ne perdano in un determinato settore di conoscenza infatti può essere
estremamente utile per cercare rimedi. Gli strumenti di ricerca, con que-‐‑
sto atteggiamento, diventano lenti che ci aiutano a vedere meglio, a os-‐‑
servare mettendoci un po’ al di fuori di un processo, quello
dell’insegnamento, che altrimenti ci coinvolge troppo. Avere la possibili-‐‑
tà di discutere con i colleghi di andamenti diversi, a patto di non tra-‐‑
sformare questo in una gara a chi è più bravo, consente di apprendere
nuove soluzioni.
Il nostro Dottorato di ricerca si muove in questa direzione e cerca
di stabilire con la scuola e con gli insegnanti un lavoro di confronto con-‐‑
tinuo con la consapevolezza che se c’è urgenza di soluzioni, la ricerca,
anche quando non fornisce ricette, è già di per sé, un percorso verso so-‐‑
luzioni. In questa prospettiva vorrei aggiungere che i ringraziamenti di
Corsini rendono evidente come questo libro sia frutto di un grande sfor-‐‑
zo di collaborazione di istituzioni e persone animate dallo stesso deside-‐‑
rio di capire meglio e di provare a risolvere problemi. È questa la scuola
che è ragionevole desiderare.
Introduzione
Coloro per i quali le condizioni che si erano
provviste erano adatte riuscivano a imparare.
Gli altri se la cavavano come potevano.
John Dewey, Esperienza e educazione.
Quanto incide la scuola sulla preparazione degli studenti?
Negli anni sessanta, le risposte fornite a questa domanda da lavori di
diversa natura, come quelli di Corda Costa, Milani (in Italia), Coleman,
Jencks (negli USA), hanno rappresentato uno shock per quanti confida-‐‑
vano nel ruolo che l’efficacia dell’intervento educativo avrebbe giocato
nel processo di diminuzione delle disuguaglianze sociali. Gli studi, infat-‐‑
ti, rilevavano la persistenza del notevole peso esercitato dai fattori ascrit-‐‑
tivi sugli esiti scolastici degli studenti: scarsamente efficace, la scuola ri-‐‑
sultava decisamente iniqua.
Nel corso degli anni, sulla base di una notevole evoluzione metodolo-‐‑
gica, la generazione successiva di ricerche ha però evidenziato quanto fat-‐‑
tori interni agli istituti, riscontrati al livello delle classi (ad esempio gli in-‐‑
segnanti), incidessero sia sul rendimento sia sui progressi degli studenti,
“aggiungendo valore” alla loro preparazione. In un quadro generale an-‐‑
cora caratterizzato da una forte relazione tra rendimento e caratteristiche
di sfondo degli allievi, la sottolineatura della capacità di incidere sul ren-‐‑
dimento e sui progressi degli alunni ha rappresentato una svolta rispetto
al pessimismo ingenerato dai primi studi. Tale svolta, in alcuni paesi, si è
legata alla scelta di incentrare i sistemi di valutazione dell’operato degli
educatori proprio sull’impianto metodologico alla base di molte ricerche
sull’efficacia scolastica.
Un primo tema affrontato dal presente lavoro è proprio quello relativo
alla maggiore incidenza, sul rendimento degli studenti e sull’incremento
delle loro conoscenze, del livello classe rispetto al livello istituto. Una se-‐‑
conda problematica presa in esame è quella legata all’utilizzo, allo scopo di
rendere conto del lavoro svolto da istituti ed educatori, di metodi e stru-‐‑
menti sviluppati dalla ricerca sull’efficacia scolastica. Il lavoro, infine, vuole
XII Introduzione
Ringraziamenti
Si ringraziano gli studenti e il personale delle scuole romane che hanno
partecipato alla ricerca:
Ferrini, Fratelli Bandiera, Graziosi, Malaspina, Montezemolo, Pirandello, Po-‐‑
dere Rosa, Pollenza, Principessa Mafalda, San Cleto, Santi e Calvino, Solidati
Tiburzi, Toti.
Desidero ringraziare la prof.ssa Maria Lucia Giovannini e il prof. Pietro
Lucisano per l’aiuto e i suggerimenti offertimi nel corso della ricerca, i
docenti del Collegio di Dottorato, in particolare il prof. Guido Benvenuto
e il prof. Giorgio Asquini, per i frequenti e preziosi consigli. Un ringra-‐‑
ziamento, per le feconde occasioni di confronto, va alla dottoressa Clau-‐‑
dia Tordi, che sta conducendo, a Bologna, una ricerca parallela a questa.
Ringrazio inoltre, per il supporto scientifico e organizzativo:
Manuela Montebello, Laura Taffara, Rosella Ambrosino, Cristiana Assante,
Paola Battisti, Pierpaolo Brutti, Gabriella Catenacci, Laura Cavaliere, Andrea
Giacomantonio, Valeria Lebano, Giangiacomo Liguori, Antonella Lupi, Valerio
Natoli, Alessandra Patitucci, Francesca Pensa, Eleonora Renda, Stefano Scippo,
Rosa Sessa, Anna Tassi.
Hanno contribuito alla costruzione delle prove, alle somministrazioni e
all’inserimento dei dati:
Antonella Antonacci, Luana Arduini, Riccardo Bolo, Elvira Buonuomo, Serena
Cacciamani, Ilaria Carducci, Elisabetta Corsi, Dominga Criscuolo, Sara
Dell’Ariccia, Elisa De Sanctis, Angela De Simio, Laura Di Stefano, Elisabetta
Fantin, Federico Feliciani, Lorenzo Gasparrini, Francesco Giovannelli, Simona
Iacozza, Barbara Iuliano, Emanuela Lulani, Simona Iacozza, Federico Massari-‐‑
Luceri, Mauro Micci, Silvia Nicoletta, Valentina Pambianco, Alessia Pannun-‐‑
zi,Tatiana Pierguidi, Francesca Proietti, Valeria Ramenghi, Maria Vittoria
Rocchi, Angela Saccoccio, Lucia Scaringella, Anna Sessa, Silvia Sisti, Giorgia
Sonnino, Claudia Stefanizzi, Daniela Tarabusi, Paolo Verticchio.
Prima Parte
MISURARE L’EFFICACIA SCOLASTICA:
TEORIE, STORIA, PROBLEMI
Capitolo primo
Efficacia scolastica
1 Scheerens (2004), trad. italiana su www.istruzione.lombardia.it/uffici/areab/
barzano/prospettive_qualita_scuola.pdf .
2 Altre prospettive sull’efficacia elaborate dalla teoria delle organizzazioni fanno
riferimento rispettivamente al “modello di sistema aperto” (in cui i criteri di effica-‐‑
cia sono rappresentati dalla crescita e dall’acquisizione di risorse), al “modello delle
relazioni umane” (che ha come criteri centrali la soddisfazione, lo sviluppo profes-‐‑
sionale e umano dei soggetti) e al “modello del processo interno “ (che ha come cri-‐‑
teri base la stabilità e il controllo dei processi). Cfr. Scheerens (2000b e 2004), Bosker
e Scheerens (1997), Quinn, Rohrbaugh (1983).
4 Prima Parte
3 Cit. e tradotto in inglese da Scheerens, Bosker (1997, p. 34).
Misurare l’efficacia scolastica 5
noscenze che la scuola si prefigge di trasmettere. La misurazione dei soli
livelli di competenza linguistica, ad esempio, può essere sufficiente a de-‐‑
finire efficace o meno una scuola? E, anche ampliando la gamma delle
materie da inserire nella misurazione degli effetti, può l’efficacia scola-‐‑
stica essere valutata esclusivamente sulla base delle sole componenti co-‐‑
gnitive del processo formativo?
La scelta delle misure di output è in primo luogo una scelta di valori:
come ricordano Fitz-‐‑Gibbon e Kochan (2000, p. 268), gli indicatori fanno
riferimento a things we care about enough to measure. La SER ha tradizio-‐‑
nalmente privilegiato, da questo punto di vista, il rendimento nelle abili-‐‑
tà di base (competenza linguistica e matematica) misurato attraverso la
somministrazione di prove standardizzate. Per ragioni “economiche”,
minore spazio hanno avuto altri “effetti” scolastici (cognitivi, affettivi,
sociali4) e modalità differenti di rilevazione, sul cui limitato utilizzo ha
inciso anche la scarsa affidabilità attribuita loro dai ricercatori.
Misurare gli effetti della scuola: il valore aggiunto
Restando agli effetti da misurare e alla loro complessa definizione, va
evidenziato che la questione fondamentale con la quale la SER si è con-‐‑
frontata è legata all’impossibilità di ritenere le scuole uniche responsabili
del rendimento dei propri studenti. Come sottolineano Lockheed e
Hanushek,
Evaluation of efficiency in educational system is complicated by the fact that
students not only learn in schools but also in their home and playgrounds. There-‐‑
fore the appropriate output for efficiency considerations is that portion of student
growth or development that can be reasonably attributed to specific educational
experiences: in other words, the marginal improvements that would not have oc-‐‑
curred without the inputs of the educational system (Lockheed, Hanushek, 1994,
p.199).
Il tentativo di quantificare il peso della scuola sul rendimento degli
studenti rispetto all’incidenza delle variabili legate allo stato sociale,
economico e culturale delle loro famiglie ha contraddistinto sin
dall’inizio la ricerca sull’efficacia scolastica. Non a caso i ricercatori del
settore concordano nel considerare punto di partenza della SER proprio
4 A dispetto della distinzione proposta da Cheng tra output e outcome, generalmen-‐‑
te i ricercatori SER, anche quando definiscono “outcome” gli esiti dell’istruzione, fanno
riferimento a effetti di tipo scolastico e a breve termine.
6 Prima Parte
quei lavori (Coleman, Plowden, Jencks) che, dalla seconda metà degli
anni ’60, rintracciando la causa prima dei livelli di rendimento degli
studenti nel loro retroterra socio-‐‑economico, evidenziavano il fallimento
della scuola come motore di equità sociale. Paradossalmente, dunque, la
“prima generazione” di studi sull’efficacia (e sull’equità) dell’istruzione
attestava l’inefficacia (e l’iniquità) della scuola.
Se il rendimento degli studenti dipende soltanto in parte dalla scuola
frequentata, come è possibile basarsi su di esso per valutare l’efficacia di
una scuola? La risposta che la SER ha dato a questa domanda si è basata
sull’utilizzo della regressione statistica per tenere sotto controllo
l’incidenza di variabili esterne alla scuola sul rendimento degli studenti.
Secondo questo modello, una scuola viene definita efficace quando il
rendimento dei suoi studenti va al di là delle aspettative determinate in
base a caratteristiche degli studenti stessi, come lo stato socio economico
o il livello delle loro conoscenze in ingresso5. Una scuola efficace è una
scuola che aggiunge valore al rendimento dello studente, consentendogli di
ottenere risultati migliori rispetto a quelli previsti: il valore aggiunto, infatti, è
il risultato della differenza tra il punteggio effettivamente ottenuto dallo
studente (dunque il livello delle sue conoscenze in uscita) e il punteggio at-‐‑
teso (determinato in base all’andamento di studenti con lo stesso rendimen-‐‑
to “in entrata” e le stesse caratteristiche socio-‐‑economiche).
Un istituto efficace è un istituto che ottiene misure del valore aggiun-‐‑
to (aggregate a livello di scuola) significativamente migliori rispetto agli
altri. Si tratta di una definizione inevitabilmente relativa dell’efficacia
scolastica: una scuola non viene definita efficace (o inefficace) in senso
assoluto, ma soltanto più o meno efficace rispetto alle altre scuole che
hanno preso parte alla ricerca.
Secondo Postlethwaite e Ross (1992), una delle prime operazionalizzazioni del
5
6 Scheerens (1990), p. 68.
Misurare l’efficacia scolastica 9
Capitolo secondo
La ricerca sull’efficacia scolastica
cativo rispetto al rendimento degli studenti, da un “clima di scuola” or-‐‑
dinato e da un attento monitoraggio del rendimento degli studenti.
Le conclusioni dello studio di Weber trovarono un primo riscontro
nel “modello dei cinque fattori” dell’efficacia scolastica elaborato nel
1978-‐‑1979 da Edmonds, modello che nel decennio successivo avrebbe
conosciuto un’ampia diffusione. Secondo gli studi di Edmonds le condi-‐‑
zioni interne ad una scuola (venivano pertanto escluse le variabili relati-‐‑
ve al contesto) in grado di migliorare il rendimento degli studenti era-‐‑
no:
• Una forte leadership educativa.
• Enfasi sull’acquisizione di abilità di base.
• Un ambiente ordinato e tranquillo.
• Alte aspettative sul profitto degli studenti.
• Frequente valutazione dei progressi degli studenti.
Nelle ricerche coordinate da Brookover (1978-‐‑1979) a una prima fase
di analisi del rendimento degli studenti di 68 istituti elementari si è ag-‐‑
giunto lo studio di caso per 4 scuole frequentate da un’utenza dal basso
livello socio-‐‑economico: una dall’alto rendimento frequentata in preva-‐‑
lenza da bianchi, una dall’alto rendimento frequentata in prevalenza da
neri, una dal basso rendimento frequentata in prevalenza da bianchi,
una dal basso rendimento frequentata in prevalenza da neri. Per ottene-‐‑
re informazioni sulla “scatola nera” dell’efficacia scolastica, i ricercatori
hanno impiegato dalle tre settimane ai tre mesi in ciascuna scuola, uti-‐‑
lizzando osservazioni in classe e interviste. I risultati sono stati così sin-‐‑
tetizzati da Reynolds e Teddlie, con specifici riferimenti alle pratiche
scolastiche:
Gestione del tempo scolastico. Rispetto ai colleghi delle scuole a bas-‐‑
so rendimento, gli insegnanti degli istituti a rendimento elevato dedica-‐‑
vano scarso tempo a compiti amministrativi.
Studenti considerati un fallimento. Mentre nelle scuole ad alto ren-‐‑
dimento pochissimi studenti venivano considerati sin dall’inizio destina-‐‑
ti a fallire, il loro numero aumentava considerevolmente nelle scuole con
rendimento inferiore, in particolare in quella frequentata in prevalenza
da studenti neri.
Aspettative degli insegnanti. Nella scuola ad alto rendimento fre-‐‑
quentata in prevalenza da studenti bianchi, da tutti gli studenti ci si at-‐‑
tendeva un profitto in linea con gli standard previsti per la classe fre-‐‑
quentata. Nella scuola ad alto rendimento frequentata da studenti neri la
Misurare l’efficacia scolastica 15
The principals stated that several aspects of student development (enhancing
social skills, personal growth and development, education/occupational aspira-‐‑
tions) were as important at their school as teaching of academic skills. The princi-‐‑
pals may have been expending too much of the school’s resources in non-‐‑
academic endeavours in these schools (Reynolds, Teddlie, 2000, p. 137).
Nelle scuole efficaci con stato socio-‐‑economico basso era evidente la
capacità di trasmettere a tutti gli studenti l’idea che ciascuno di loro fos-‐‑
se in grado di apprendere. I dirigenti stimolavano gli insegnanti (anche
attraverso frequenti visite nelle classi) e questi, a loro volta, motivavano
gli studenti, che percepivano l’impegno e il sostegno offerto loro dagli
insegnanti. Le aspettative degli insegnanti rispetto al rendimento degli
studenti erano modeste riguardo la carriera scolastica ma elevate nel
breve periodo. Gli educatori si soffermavano sull’insegnamento delle
abilità di base e assegnavano più compiti per casa rispetto alle altre
scuole caratterizzate dallo stesso livello socio-‐‑economico. Gli insegnanti
erano molto giovani e in buona parte erano stati assunti dal dirigente
della scuola in cui operavano.
Nelle scuole inefficaci con stato socio-‐‑economico basso, infine, gli
insegnanti, poco soddisfatti del proprio lavoro, avevano bassissime
aspettative sul rendimento degli studenti ed erano convinti di poter fare
ben poco per migliorarlo. Reynolds e Teddlie descrivono come gli stu-‐‑
denti in quegli istituti percepivano il generale clima di rassegnazione ed
erano poco motivati:
When compared with students in other socio economic status groups, these
students perceived their teacher as less praising, less caring, less helpful and more
critical. Of all the groups, these students reported that their teachers felt learning
was the least important (Reynolds, Teddlie, 2000, p. 138).
L’impiego dei modelli gerarchici
Nel 1988 usciva, in Gran Bretagna, School matters, considerato una tappa
fondamentale nella storia della SER. Lo studio, coordinato da Mortimo-‐‑
re, soddisfaceva tutte le tre condizioni imposte dallo sviluppo metodolo-‐‑
gico nel campo della ricerca sull’efficacia:
1) Era longitudinale e utilizzava il rendimento “in entrata” per
predire quello “in uscita” (come già i lavori di Murname negli
USA e di Rutter et al. in Gran Bretagna).
Misurare l’efficacia scolastica 17
viene considerato unità di primo livello e le scuole j unità di secondo li-‐‑
vello:
(2) YiJ = β0j + β1jXij + eij
dove β0j corrisponde al valore medio della prestazione all’interno del-‐‑
la scuola frequentata dall’individuo i;
β1jXij è il valore della variabile X all’interno della scuola.
Nella formulazione gerarchica il rendimento di uno studente è dun-‐‑
que funzione della prestazione media della sua scuola, dell’effetto della
relazione con lo stato socio-‐‑economico all’interno della sua scuola e del
residuo della regressione. In tal modo le analisi multilivello possono,
come sottolineano Bernardi, Martini e Zaccarin, perseguire con maggio-‐‑
re precisione i due obiettivi fondamentali nella ricerca SER:
1) Stabilire gli effetti “netti” di ciascuna delle variabili in gioco, vale a dire al
netto dell’influenza esercitata dalle altre variabili considerate che incidono sulle
prestazioni degli studenti.
2) Tentare di identificare, tenendo “sotto controllo” le caratteristiche degli stu-‐‑
denti e quelle di contesto, le variabili scolastiche (quelle che potremmo definire
variabili di processo: organizzazione, clima relazionale, modalità di insegnamen-‐‑
to, ecc.) che hanno un’influenza significativa sui risultati (Bernardi, Martini, Zac-‐‑
carin, 2005, p. 217).
A dispetto del diffuso ottimismo riposto nei modelli gerarchici, negli
ultimi anni sono emerse alcune perplessità nei confronti del loro utiliz-‐‑
zo10. In primo luogo, rispetto ai modelli tradizionali di analisi dei dati, i
modelli gerarchici producono residui a livello di singolo studente pres-‐‑
soché identici. La Fitz-‐‑Gibbon (1995) evidenzia, sulla base di un ampio
set di dati, una correlazione pari a 0,94 tra gli indicatori di efficacia otte-‐‑
nuti con i modelli gerarchici e quelli ottenuti con i modelli tradizionali di
analisi dei dati. A simili conclusioni pervengono numerosi ricercatori11:
in particolare DeLeeuw e Kreft che sostengono che, nel caso di risultati
tanto simili, i modelli tradizionali, più semplici da utilizzare e più com-‐‑
prensibili, sono da preferirsi.
Per una sintesi delle critiche, vedi Teddlie, Reynolds, Sammons (2000, pp. 105-‐‑
10
114).
11 Daly (1991), Trower, Vincent (1995), la stessa Fitz-‐‑Gibbon (1996), Kennedy
(1993), Rogosa, Sane (1995), DeLeeuw, Kreft (1995), Freeman, Teddlie (1997).
Misurare l’efficacia scolastica 19
12 Daly (1991), DeLeeuw, Kreft (1995), Willms (1992), Tymms (1994), Fitz-‐‑Gibbon
(1996).
20 Prima Parte
Va però sottolineato come, nella ricerca sopra citata, in nessun istituto
il rendimento medio degli studenti con stato socio-‐‑economico basso fos-‐‑
se superiore a quello degli studenti con stato socio-‐‑economico alto. Le
scuole, insomma, “contavano”, ma fino a un certo punto.
Le classi “contano”
La ricerca più recente, basata in prevalenza sull’utilizzo di modelli ge-‐‑
rarchici, ha corretto al ribasso le stime del lavoro di Mortimore sulla
quota di varianza spiegata dagli istituti sul rendimento degli studenti
“al netto” dei fattori socioeconomici (che tende ad attestarsi, anche negli
studi longitudinali, tra il 5% e il 20%). Quaranta anni dopo, dunque, le
conclusioni del Rapporto Coleman riguardo l’esigua ampiezza degli ef-‐‑
fetti della scuola non sono state affatto rovesciate: il rendimento degli
studenti è ancora fortemente condizionato da caratteristiche relative al
loro retroterra socio-‐‑culturale, come evidenziano i risultati dello studio
di Schagen e Benton (2003) sul legame tra fattori di background e pre-‐‑
stazioni degli studenti inglesi in uscita dalla scuola primaria. La base da-‐‑
ti del lavoro di Schagen e Benton è costituita dai risultati ottenuti da ol-‐‑
tre 500000 studenti al Key Stage 2 (KS2), l’esame di stato sostenuto dagli
alunni al termine della scuola elementare e avente per oggetto prove di
inglese, matematica e scienze. Come si può notare (tabella 1), non appe-‐‑
na si introducono nel modello variabili relative allo stato socioeconomi-‐‑
co degli studenti, la varianza spiegata a livello di scuola decresce note-‐‑
volmente.
Da questo punto di vista, l’evidenza empirica prodotta dalla seconda
generazione di ricerche sull’efficacia scolastica attesta, come la preceden-‐‑
te, le difficoltà incontrate dall’istituzione formativa nello svolgimento
della sua funzione di compensazione rispetto alle differenze socio-‐‑
economiche. Non vi sono motivi per non concordare con la lapidaria sin-‐‑
tesi di alcuni ricercatori inglesi:
The fact is too that SER findings have never overturned the findings about the
powerful relationship between family background and student achievement
raised by the study of Coleman and others (Thrupp, Mansell, Hacksworth, Har-‐‑
old, 2003, p. 472).
Misurare l’efficacia scolastica 21
Tabella 1. Quote di varianza spiegata sui voti al Key Stage 2 del 2003 (Scha-‐‑
gen, Benton 2003).
Voto al KS2
Totale Inglese Mat. Scienze
Varianza a livello di scuola
(senza introduzione dei fattori 25% 19% 18% 27%
socio-‐‑economici)
Va inoltre sottolineato come la quota di varianza spiegata dai fattori
socioeconomici sia minore nel rendimento in scienze, dato che conferma
i risultati più recenti della ricerca sull’efficacia scolastica, tendenti a evi-‐‑
denziare come la scuola incida maggiormente sui saperi più tecnici
(Sammons 2001). Le abilità linguistiche sono maggiormente correlate
con il retroterra degli studenti e dunque “meno esposte” all’intervento
scolastico.
Molti ricercatori SER, a partire da Edmonds (1979), hanno prodotto
lavori di sintesi dei risultati delle ricerche precedenti al fine di indivi-‐‑
duare i fattori di efficacia maggiormente ricorrenti negli studi. Tra le sin-‐‑
tesi più recenti ad ottenere maggiore diffusione sono state quelle curate
da Levine e Lezotte (1990), Sammons (1995), Cotton (1995), Bosker e
Scheerens (1997). Nella tabella n. 2 viene riportata la lista, prodotta da
Bosker e Scheerens nel 199713, dei fattori in grado di accrescere l’efficacia
scolastica. Si tratta di processi, a livello di scuola e di classe, che ricorro-‐‑
no con assiduità nelle ricerche SER, anche in quelle non utilizzate dagli
autori come base per il loro lavoro di sintesi. In generale, come vedremo,
le ricerche quantitative individuano all’interno della classe i fattori che
incidono maggiormente sul rendimento (e sui progressi) degli studenti
(Tymms 1993, Hill e Rowe 1996, Hanushek 2002, Rowan et al. 2002).
I due ricercatori hanno utilizzato come base i lavori di Mortimore et al. (1988);
13
Sammons et al. (1995); Scheerens, Brummelhuis (1996); Hill et al. (1995); Doolard
(1996).
22 Prima Parte
Cfr. Postlethwaite, Ross (1992), pp. 41-‐‑47.
14
Cfr. Ferguson (1998), Goldhaber (2002), Hanushek, Rivkin, Kain (1999), Clot-‐‑
15
Tabella 3. Sintesi dell’evidenza empirica apportata da diversi filoni di ricerca
sui fattori che accrescono l’efficacia scolastica (Scheerens, Bosker 1997, trad.
it.: Giacomantonio 2006).
Indagini compa-‐‑
Sintesi ricerche
rative internaz.
che qualitative
Rassegna ricer-‐‑
quantitative
Fattori che accrescono l’efficacia scolastica
Il progetto DAASI utilizza cinque sottocategorie per rilevare il clima di istituto:
16
le competenze personali degli operatori educativi; le regole di comportamento che indi-‐‑
rizzano e orientano la vita all’interno della scuola; le relazioni esterne, i contatti esi-‐‑
stenti o auspicati tra l’istituto e le famiglie, gli enti locali, gli altri istituti ecc.; le rela-‐‑
zioni interne, gli scambi che avvengono tra docenti-‐‑allievi, allievi-‐‑allievi, docenti-‐‑
docenti ecc.; i valori, le affermazioni relative all’equità, lo spirito critico, la tolleranza,
l’educazione alla pace e gli “ideali che mettono in campo aspettative in contesti più
ampi”.
17 Cfr. Lightfoot (1983).
Misurare l’efficacia scolastica 27
2) Fino a che punto possa essere considerata una causa, e non un
effetto, dell’efficacia scolastica18.
I due interrogativi rimangono ancora aperti, anche se negli ultimi an-‐‑
ni l’esigenza di rivedere l’influenza esercitata dai fattori scolastici sui
processi interni alle classi ha portato gli studiosi SER a confrontarsi in
maniera critica19 con filoni di ricerca più attenti ai processi di insegna-‐‑
mento-‐‑apprendimento, come il movimento School Improvement, che pun-‐‑
ta alla descrizione delle strategie messe in atto dagli istituti per ottenere
miglioramenti nel rendimento degli studenti.
18 La “circolarità” del rapporto tra questo tipo di fattore e il rendimento degli
studenti rappresenta un elemento di forte critica nei confronti della SER, evidenzia-‐‑
to sia dall’interno del filone di ricerca (Goldstein 1980, Scheerens, Bosker 1997,
Goldstein, Woodhouse 2000) sia dall’esterno (in maniera particolarmente polemica
da Lauder, Jamieson, Wikeley 1988).
19 Cfr. Berger, Bottani, Ostinelli (2003), Scheerens, Demeuse (2005), Creemers,
Reezigt (2005).
Capitolo terzo
Il valore aggiunto
aggiunto è il residuo di tale regressione, ovvero la differenza tra il ren-‐‑
dimento osservato e quello atteso, come evidenziano Thum e Bryk:
The general thrust of the analyses is to compare a student’s observed test score
to the prediction of how well the student can be expected to do based on his or
her performance during the previous year. An estimate of the deviation from ex-‐‑
pectation, the student-‐‑level residual, is considered the “value-‐‑added” by the
teacher or, at a more aggregated level, by the school (Thum, Bryk, 1997, p. 102).
La media dei residui degli studenti di un istituto fornisce dunque la
misura di quanto quella scuola sia stata in grado di aggiungere valore al
rendimento medio dei propri alunni perché, come sottolinea la Grisay,
La differenza fra il punteggio teorico ed il punteggio effettivamente ottenuto
da un alunno deve essere considerata come il segno che ha progredito “di più” o
“di meno” dei compagni che, inizialmente, avevano caratteristiche simili. Si può
quindi fare l’ipotesi che altri fattori siano intervenuti: in particolare, che
l’insegnamento ricevuto nella scuola frequentata dall’alunno sia stata più efficace
(o meno efficace) di quello ricevuto, in media, dagli alunni che avevano caratteri-‐‑
stiche simili (Grisay, 2002, p. 19).
Il valore aggiunto misura dunque il contributo fornito da un istituto
ai progressi dei propri studenti al netto dei fattori che incidono sul loro
rendimento ma che non sono attribuibili all’intervento della scuola, co-‐‑
me le loro caratteristiche socioeconomiche o il loro rendimento in entra-‐‑
ta.
Secondo Ladd e Walsh (2002) la funzione di produzione educativa
“ideale“ alla base delle misurazioni del valore aggiunto è la seguente:
(3) Ait = λAit-‐‑1 + αRtRt + Et + βtFit + εit
dove
Ait è il rendimento di uno studente i nell’anno t;
Ait-‐‑1 è il rendimento dello studente nell’anno precedente;
Rt rappresenta le risorse stanziate, a livello locale e non, a favore
dell’istituto,
Fit è un vettore dello stato socio economico degli studenti correlato al
loro rendimento;
Et rappresenta la misura dell’efficacia (o dell’efficienza) dell’istituto.
εit è l’errore casuale.
Di fatto, come vedremo, non sempre i sistemi di accountability o le ri-‐‑
cerche utilizzano un vettore per le caratteristiche familiari (F), molto ra-‐‑
Misurare l’efficacia scolastica 31
pagine seguenti vengono presentati i recenti sviluppi di sistemi di misu-‐‑
ra del valore aggiunto ai fini di accountability a livello nazionale (Inghil-‐‑
terra), statale (Tennessee) e distrettuale (Dallas). Come verrà evidenzia-‐‑
to, i fattori comuni che hanno reso auspicabile e possibile l’utilizzo di
misure del valore aggiunto sono di duplice natura: in primo luogo
l’esistenza di una pressante richiesta, da parte dell’opinione pubblica, di
informazioni sulla qualità dell’offerta formativa degli istituti (e, negli
USA, anche degli insegnanti); in secondo luogo la presenza, a livello na-‐‑
zionale, di un affidabile sistema di rilevazione del rendimento degli stu-‐‑
denti.
Valore aggiunto e Accountability negli USA: Tennessee e Texas
Nell’ultimo decennio negli USA si è registrato un generale aumento di
interesse nei confronti del valore aggiunto come indicatore dell’efficacia
delle scuole e degli insegnanti. Molti stati hanno scelto infatti di fondare
su rilevazioni del valore aggiunto i propri sistemi di accountability. I mo-‐‑
tivi alla base del successo di questo indicatore sono di duplice natura: da
una parte l’evidenza empirica, fornita da un numero crescente di ricer-‐‑
che statunitensi, del peso esercitato dagli insegnanti sul rendimento de-‐‑
gli studenti; dall’altra l’indirizzo intrapreso in politica scolastica
dall’amministrazione centrale, che con il No Child Left Behind Act (NCLB)
del 2001 ha imposto l’utilizzo di prove standardizzate ai fini
dell’accertamento del raggiungimento degli obiettivi educativi a livello
statale, distrettuale e di istituto.
I primi sistemi di accountability statunitensi basati su misure del valo-‐‑
re aggiunto sono stati avviati nello stato del Tennessee e nel distretto di
Dallas. Si tratta, come vedremo, di modelli molto diversi tra loro, nati in
contesti e circostanze differenti e con esiti opposti se si considera il suc-‐‑
cesso riscontrato: il Tennessee Value Added-‐‑Assessment System
(TVAAS), a differenza del Dallas Value-‐‑Added Accountability System
(DVAAS), è stato adottato anche da altri stati.
teaching and who’s not! Fu l’affannosa ricerca di risposte a questa doman-‐‑
da che portò i politici a optare per un sistema di accountability incentrato
sul valore aggiunto, basato sulle ricerche condotte nel decennio prece-‐‑
dente da un gruppo di ricercatori dell’Università del Tennessee guidati
da Sanders. Il gruppo di ricerca assicurava che il loro metodo era in gra-‐‑
do di misurare l’apporto di distretti scolastici, istituti e insegnanti sul
rendimento degli studenti.
Il modello di Sanders sembrava la soluzione a tutti i problemi: convo-‐‑
cato a Nashville (capitale dello stato), lo stesso Sanders illustrò il suo si-‐‑
stema all’esecutivo e ai legislatori, risultando tanto convincente da spin-‐‑
gere i politici, in soli sette giorni, a modificare l’EIA sulla base di uno
studio preparato appositamente dal ricercatore (la lettera
dell’emendamento era modellata tanto strettamente sul lavoro di San-‐‑
ders che, come rilevano Ceperley e Reel (1997, p. 133), persino la biblio-‐‑
grafia venne inclusa nella normativa). L’Education Improvement Act così
definisce il Tennessee Value-‐‑Added Assessment System:
A statistical system [...] which uses measures of student learning to enable the es-‐‑
timation of teacher, school, and school statistical distributions [...] to account for
differences in prior student attainment, such that the impact which teacher,
school and school district have on the educational progress if students may be es-‐‑
timated on a student attainment constant basis.
lo di classe, scuola e distretto, viene misurata l’efficacia di insegnanti, di-‐‑
rigenti e sovrintendenti.
Secondo i ricercatori che hanno ideato il TVAAS21, l’utilizzo dei gain
consente, da solo, di ottenere misure del rendimento degli studenti al
netto dei fattori legati al loro contesto socio-‐‑economico: vista l’alta corre-‐‑
lazione tra tali fattori e il rendimento dello studente, l’inclusione nel
modello del rendimento dello studente nell’anno precedente consente di
tenere sotto controllo tale influenza. In tal modo ogni studente funge da
controllo su se stesso:
By taking advantage of the longitudinal aspect of the data, each students
serves as his or her “control”. In other words, each child can e thought as a
“blocking factor” that enables the estimation of school system, school and teacher
effects free of the socio-‐‑economic confoundings that historically have rendered
unfair any attempt to compare districts and school based on inappropriate com-‐‑
parison of group means (Sanders, Saxton, Horn, 1997, p. 138).
Il sistema del Tennessee fa dunque a meno delle variabili legate allo
stato socio-‐‑economico di studenti, classi e istituti. Alla base del TVAAS
c’è un’equazione22 che esprime il punteggio di uno studente alla fine di
un anno scolastico come la somma di tre componenti:
• La media del distretto scolastico per quella classe.
• L’effetto dell’insegnante (class effect).
• Cambiamenti sistematici e non.
In tal modo, la differenza tra il punteggio dello studente e il punteg-‐‑
gio medio del distretto viene attribuita all’insegnante (assieme ai contri-‐‑
buti di variazioni non determinate, incluso l’errore di misura). Quando
lo studente passa da un anno al successivo, il modello utilizza quattro
componenti:
• La media del distretto per quella classe in quell’anno.
• L’effetto dell’insegnante per quell’anno.
• L’effetto dell’insegnante dell’anno precedente.
• Cambiamenti sistematici e non.
21 Sul funzionamento del TVAAS vedi Braun (2005), McCaffrey, Lockwood, Ko-‐‑
Infine, sottraendo il punteggio del primo anno a quello del secondo,
si ottiene il gain ottenuto dallo studente, che viene considerato funzione
di tre componenti:
• Gain medio di quella classe nel distretto.
• Effetto dell’insegnante dell’ultimo anno.
• I due errori.
Ignorando gli errori, l’effetto dell’insegnante dell’ultimo anno è dun-‐‑
que dato dalla differenza tra il gain ottenuto dallo studente e il gain me-‐‑
dio a livello di distretto. Infine, inserendo nel sistema dati di anni suc-‐‑
cessivi per diverse classi e per diverse materie, la misura dell’efficacia di
un insegnante si basa sui seguenti elementi:
• La crescita, registrata per un certo numero di anni, nel rendi-‐‑
mento dei suoi studenti, corretta per gli effetti degli insegnanti
precedenti.
• La crescita dei suoi studenti negli anni successivi.
• I rendimenti dei suoi studenti nei diversi ambiti disciplinari
per un certo numero di anni, appropriatamente corretti per il
contributo degli altri insegnanti.
I sostenitori del TVAAS evidenziano come il sistema, a differenza de-‐‑
gli altri modelli per il calcolo del valore aggiunto, sia estremamente effi-‐‑
ciente. Il sistema fornisce in primo luogo indici dell’efficacia di inse-‐‑
gnanti, dirigenti e sovrintendenti senza la necessità di raccogliere infor-‐‑
mazioni sul retroterra socio-‐‑economico degli studenti. Inoltre il TVAAS
viene considerato efficiente, dato che consente di conservare nel modello
i dati degli studenti assenti in una delle somministrazioni. Questo ulti-‐‑
mo aspetto sta giocando un ruolo fondamentale nel successo recente-‐‑
mente riscontrato dal sistema. Dall’approvazione del NCLB, il modello
di Sanders, con il nuovo acronimo EVAAS (Educational Value-‐‑Added As-‐‑
sessment System), è stato adottato da un numero crescente di stati.
gnanti, ci sono infatti oltre due decenni di ricerca sull’efficacia delle ini-‐‑
ziative volte a contrastare la segregazione razziale in campo educativo.
Nel 1971, in seguito a proteste e disordini razziali scoppiati nella se-‐‑
conda metà degli anni sessanta, viene avviata una controversia legale
contro il sistema scolastico del distretto che nel 1990 porta la Commis-‐‑
sione per l’Eccellenza in Educazione a raccomandare lo sviluppo di un
sistema di accountability imparziale, basato su fairness variables (variabili
“di equità”: fanno riferimento allo stato socio-‐‑economico e al gruppo et-‐‑
nico di appartenenza degli studenti) e in grado di misurare, oltre
all’efficacia degli istituti, quella degli insegnanti. Il precedente sistema,
in vigore nel distretto dal 1984, era basato sulla somministrazione, di
anno in anno, di test standardizzati agli alunni: le scuole più efficaci
erano quelle in cui i risultati degli studenti eccedevano maggiormente i
tassi di crescita attesi.
Avviato nel 1992, il DVAAS raccoglie le indicazioni della Commis-‐‑
sione: utilizza infatti una combinazione di regressioni multiple (con
l’introduzione delle fairness variables come variabili indipendenti) e di
modelli gerarchici per il calcolo degli indici di efficacia ai vari livelli del
sistema scolastico. Lo sviluppo del DVAAS, inoltre, è stato improntato
alla massima trasparenza e alla partecipazione pubblica degli stakehol-‐‑
ders: l’Accountability Task Force (ATF) un gruppo di lavoro composto da
genitori, insegnanti, dirigenti scolastici, rappresentanti della comunità e
dell’imprenditoria, ha svolto infatti un ruolo decisivo nella scelta delle
variabili da utilizzare e del peso da assegnare a ciascuna di esse, nella
formulazione delle regole del sistema, delle misure da effettuare e delle
conseguenze legate a tali misure.
23 Per il funzionamento del DVAAS, vedi McCaffrey, Lockwood, Koretz, Hamil-‐‑
By regressing against the fairness variables and their interactions, levelling of ex-‐‑
isting differences associated with the fairness variables is demonstrated by com-‐‑
puting subgroup and marginal means at the end of the first stage. The political
advantages if this simple calculations cannot be overemphasized (no one trusts
statistical manipulations unless he or she can see their effects demonstrated; it is
not enough to say one has controlled for the fairness variables) (Webster, Mendro,
1997, p. 85).
Nel secondo stadio, utilizzando una regressione multilivello, il sistema
considera il residuo ottenuto nel primo passaggio in funzione del punteg-‐‑
gio ottenuto l’anno precedente (al netto delle fairness variables) e di alcune
variabili a livello scolastico (tra le quali: l’affollamento dell’istituto, un indi-‐‑
catore della ricchezza media delle famiglie, le percentuali di studenti neri,
ispanoamericani o appartenenti a minoranze etniche, di studenti esentati
dal pagamento della mensa).
Nel terzo grado di analisi gli “effetti degli insegnanti” vengono calco-‐‑
lati sulla base della media dei residui del secondo stadio calcolata a li-‐‑
vello di classe.
Il sistema di accountability a livello di istituto stabilisce premi per le
scuole definite efficaci e aiuti per quelle definite inefficaci. I membri de-‐‑
gli staff educativi delle scuole in cui i risultati degli studenti eccedono
maggiormente le aspettative ricevono una somma che va dai 240 ai 1000
dollari. Va segnalato che nessun premio è previsto per gli staff delle
scuole che, pur risultando efficaci (in termini di confronto tra attese e
rendimento effettivo degli studenti) non raggiungono standard minimi
di prestazione: su tale scelta è stata decisiva la pressione esercitata
dall’ATF. Gli aiuti per le scuole definite inefficaci vanno dall’erogazione
di servizi e dallo stanziamento di risorse supplementari alla sostituzione
(in caso di una successione di risultati negativi) del dirigente scolastico.
Anche nel caso del sistema di accountability degli insegnanti, il distret-‐‑
to ha optato per la strada della condivisione e della responsabilizzazione
dei soggetti sottoposti a valutazione e degli stakeholders. Un comitato di
insegnanti, loro rappresentanti, dirigenti, esponenti della comunità,
amministratori e genitori, la Teacher Evaluation Task Force (TETF), ha avu-‐‑
to il compito di sviluppare strumenti e procedure necessari alla costru-‐‑
zione di un sistema di valutazione degli insegnanti. Il TETF ha affronta-‐‑
to molti problemi, come quelli relativi ai modi e ai tempi delle sommini-‐‑
strazioni, al numero di osservazioni necessarie per definire gli indici (si è
Misurare l’efficacia scolastica 39
optato per 3 anni consecutivi), ai rapporti tra le variabili a livello di clas-‐‑
se e le variabili a livello di scuola e di distretto e all’utilizzo delle loro
misure, alle risorse disponibili per gli interventi di innalzamento
dell’efficacia.
Gli indici di efficacia degli insegnanti (Teacher Effectiveness Indexes)
vengono forniti ai dirigenti scolastici a inizio anno. Si tratta di indici
espressi in punti t: gli insegnanti sono considerati efficaci o inefficaci se
hanno un punteggio che si discosta di 2 punti dalla media (pari a 50). Va
sottolineato che, allo scopo di incentivare la cooperazione tra educatori e
di evitare atteggiamenti competitivi, nessun premio viene stabilito per
insegnanti efficaci che operano in istituti risultati inefficaci.
L’utilizzo dei Teacher Effectiveness Indexes merita un approfondimento.
In primo luogo, ai dirigenti scolastici e ai loro staff educativi è richiesto
di basare sui TEI forniti annualmente la ricerca delle cause che hanno
impedito o facilitato il miglioramento del rendimento degli studenti. Un
compito dall’esito tutt’altro che scontato, come sottolineano gli stessi
William J. Webster e Robert L. Mendro, che hanno sviluppato e avviato
il DVAAS:
The Teacher Effectiveness Indexes provide an indicator that, for nearly teacher
and students, reliably implies that the teacher is effective or ineffective in prom-‐‑
ulgating achievement gains with those students. From there, it generally requires
focused inquiry on the part of the principal or some degree of self-‐‑directed exam-‐‑
ination on the part of the teacher to determine why effectiveness is present or ab-‐‑
sent. The degree to which a principal or a teacher can focus the inquiry or, in
some instances, the degree to which resources are available to help a principal or
teacher do so is directly related to the utility of indexes (Webster, Mendro, 1997,
pp. 90-‐‑91).
Gli indici di efficacia degli insegnanti sono stati inoltre utilizzati come
elemento fondamentale di un primo sistema di valutazione formativa
degli educatori, successivamente modificato. Sulla base di tali indici, gli
insegnanti venivano suddivisi in tre gruppi e l’intensità e la frequenza
delle iniziative di valutazione era inversamente proporzionale
all’efficacia di ciascun insegnante.
Il gruppo di insegnanti con indici di efficacia non inferiori alla media,
composto da circa il 40% degli educatori, riceveva infatti un’unica osser-‐‑
vazione in classe (al primo anno di ogni ciclo) basata sul Texas Teacher
Appraisal System, che rimaneva isolata a meno di un esito negativo o di
una diminuzione significativa degli indici di efficacia. Gli insegnanti ap-‐‑
partenenti al gruppo di mezzo (circa il 50% del totale) erano oggetto di
40 Prima Parte
• Key Stage 1, sostenuto all’età di 6-‐‑7 anni (seconda classe della
scuola primaria) 24.
• Key Stage 2, sostenuto all’età di 10-‐‑11 anni (ultima classe della
scuola primaria)25.
• Key Stage 3, sostenuto all’età di 13-‐‑14 anni (terza classe della
scuola secondaria)26.
• Key Stage 4, sostenuto all’età di 15-‐‑16 anni (ultima classe della
scuola secondaria)27.
Se si considera che il 75% dei finanziamenti alle scuole viene deter-‐‑
minato in base al numero di studenti iscritti, si capisce la necessità per
gli istituti di non sfigurare nelle League Tables che, di anno in anno, com-‐‑
paiono sulla stampa.
Proprio l’avallo governativo alla pubblicazione delle classifiche degli
istituti basate sui risultati degli studenti agli esami di stato ha costituito la
premessa fondamentale dell’intervento nel dibattito politico educativo dei
ricercatori sull’efficacia scolastica. Nel 1988, lo stesso anno dell’ERA,
Goldstein e Cuttance avvertivano, in un articolo apparso sul Journal of Edu-‐‑
cation Policy, che avendo la vasta letteratura di ricerca dimostrato che “il
profitto degli studenti in ingresso è la determinante singola più importante
del rendimento successivo”, un sistema di valutazione dell’operato delle
scuole basato sul risultato degli studenti si sarebbe limitato a premiare le
scuole che iscrivevano gli alunni con i voti più alti. Visto lo stretto legame,
evidenziato nel corso degli anni dalla ricerca, tra il rendimento degli stu-‐‑
denti e le caratteristiche socio-‐‑economiche delle loro famiglie, le classifiche
pubblicate dalla stampa erano da considerare inique perché sfavorivano le
scuole che servivano un’utenza caratterizzata da un basso stato socio-‐‑
economico e inutili perché non aiutavano i genitori a identificare gli istituti
più efficaci. Nei mesi successivi altri ricercatori (come Smith e Tomlinson)
SER avrebbero denunciato l’impossibilità di cogliere il contributo specifico
fornito dagli istituti alla formazione degli alunni basandosi solamente sui
risultati “grezzi” degli studenti.
24 Le materie oggetto di esame al KS1 sono le seguenti: inglese, matematica,
scienze, tecnologia informatica, storia, geografia, arte, musica, educazione fisica,
educazione alla cittadinanza.
25 Le materie oggetto di esame al KS2 sono le stesse del KS1.
26 IL KS3 prevede l’introduzione, tra le materie d’esame, di una lingua straniera.
27 L’esame del KS4 prevede l’inserimento, oltre alle materie previste per il KS3, di
Nel corso degli anni ’90 l’intervento dei ricercatoti SER nella discus-‐‑
sione sulla pubblicazione dei risultati degli istituti doveva rivelarsi de-‐‑
terminante per lo sviluppo futuro del sistema nazionale di rilevazione
dei livelli di rendimento scolastici. La SER avrebbe posto all’attenzione
del dibattito politico-‐‑educativo il valore aggiunto, ovvero l’indicatore di
efficacia scolastica più avanzato che era stata in grado di sviluppare. Va
segnalato come, in anticipo sulle pressioni politiche, nel corso degli anni
’80 la ricerca inglese avesse intrapreso studi sull’analisi comparata delle
prestazioni degli istituti, come l’A-‐‑level Information System (ALIS), relati-‐‑
vo al rendimento degli studenti al termine della scuola dell’obbligo e di-‐‑
retto dalla Fitz-‐‑Gibbon28. Nel 1986 i ricercatori Gray, Jesson e Jones
avevano già posto i termini del problema, chiedendosi: Under what cir-‐‑
cumstances we might be justified in claming that school A has done “better”
than school B?
Nel 1991 Nuttall, che l’anno precedente aveva condotto un’analisi sui
risultati al General Certificate of Secondary Education (GCSE), pubblicava
un articolosul Time Educational Supplement che non si limitava a criticare
la pubblicazione di graduatorie degli istituti basate sui punteggi grezzi,
ma richiedeva esplicitamente l’utilizzo di misure del valore aggiunto per
“levigarle” (l’articolo si intitolava An instrument to be honed: Tables do not
reflect schools’ true performance):
For nearly 30 years, research on school effectiveness has used the progress
made by students from their level of performance on entry to their level of per-‐‑
formance at the time they leave, rather than just their “raw” results at the time of
leaving. This approach, well illuminated by the metaphor of “value added”,
makes intuitive sense and is readily comprehensible (Nuttall, 1991, p. 2).
Dopo aver sottolineato la necessità di utilizzato misure del preceden-‐‑
te profitto, l’articolo elencava gli altri requisiti indispensabili per uno
studio del valore aggiunto:
• Una gamma di misure di outcome sufficientemente ampia
(non solo i risultati al GCSE).
• Variabili di sfondo delle popolazioni degli istituti.
• Analisi di diversi tipi di efficacia (differential effectiveness), a se-‐‑
conda delle aree disciplinari oggetto di misurazione.
• Studio della variazione nel tempo dell’efficacia.
• Utilizzo dei modelli multilivello come tecnica statistica.
28 Fitz-‐‑Gibbon (1985, pp. 43-‐‑58).
Misurare l’efficacia scolastica 43
Quello di Nuttall doveva rivelarsi solo il primo di una lunga serie di
articoli, destinati anche a un pubblico non specialistico, sull’utilizzo del
valore aggiunto.
Un tema ricorrente nel dibattito era quello relativo all’opportunità di
inserire nel modello, oltre al rendimento in entrata, variabili relative al
retroterra socioeconomico degli studenti. È il caso di evidenziare come a
risolvere la questione sarebbero state più le considerazioni etiche e psi-‐‑
cologiche che quelle di natura statistica. Nel 1992 Jesson evidenziava
come l’utilizzo di tali variabili comportasse il rischio di determinare, ne-‐‑
gli insegnanti, aspettative inferiori nei confronti degli studenti con un
basso livello di stato socioeconomico. Nello stesso anno Wiliam, in un
articolo comparso sul British Educational Research Journal, sentenziava:
It is extremely doubtful that the use of socio-‐‑economic factors in value-‐‑added
models will do anything to combat under-‐‑achievement by pupils, and may serve
to consolidate it (Wiliam, 1992, p. 33).
L’argomento, affiancato dalla considerazione che nelle analisi la va-‐‑
riabile maggiormente predittiva dei risultati agli esami risultava essere il
rendimento precedente, avrebbe esercitato un ruolo fondamentale nella
scelta di non utilizzare i fattori socioeconomici per calcolare il valore ag-‐‑
giunto. Gli interventi di Williams Gray (1993 e 1996), Thomas e Morti-‐‑
more (1996) avrebbero, almeno per il momento, “chiuso” la questione,
schierandosi a favore dell’utilizzo del solo rendimento precedente come
variabile di background.
Sebbene la maggior parte dei ricercatori nutrisse serie perplessità nei
confronti di un sistema di accountability basato sulla pubblicazione di
classifiche degli istituti, gradualmente, anche nell’opinione pubblica, si
andava facendo strada l’idea di utilizzare il valore aggiunto come misu-‐‑
ra su cui basare la pubblicazione di graduatorie più eque e utili rispetto
alle Raw League Tables.
Nella prima metà del 1994 l’esecutivo mostrava ancora una certa dif-‐‑
fidenza nei confronti dell’utilizzo del valore aggiunto, come testimonia
la Saunders:
even when the principle of value added had been much more clearly understood
and its practical possibilities advanced to the point of several systems and ser-‐‑
vices being available, the Secretary of State for Education [John Patten, n.d.a.] in
1993-‐‑1994 was adamant that the results which were anything other than “raw”
must be “cooked”. He refuse to give official support to what he apparently con-‐‑
strued as another trick in the educational mafia book (Saunders, 1999b, p. 1).
44 Prima Parte
Le resistenze del mondo politico sarebbero state superate nel giro di
pochi mesi, determinante in questo senso fu l’avvento al ministero
dell’istruzione di Gillian Shepard, conservatore come il predecessore,
che diede mandato alla School Curriculum and Assessment Authority
(SCAA) di avviare la progettazione di un sistema di rilevazione naziona-‐‑
le basato sul valore aggiunto (il Value Added Project29).
Tra il 1995 e il 1997 i rapporti della SCAA suggerivano di basarsi sul
rendimento degli studenti ai quattro esami di stato per produrre misure
del valore aggiunto alle loro prestazioni rispettivamente dalla scuola
primaria (utilizzando il KS1 come variabile di input) e da quella secon-‐‑
daria (utilizzando prima il KS2 e poi il KS3 come variabili di input). Il
successivo avvento di ministri laburisti non avrebbe comportato muta-‐‑
menti di rotta: nel 1998 venivano pubblicati i primi risultati del progetto,
mentre le classifiche del valore aggiunto vengono regolarmente pubbli-‐‑
cate, per le scuole primarie e per quelle secondarie, dal 2002. Nel con-‐‑
tempo, nel 1997, veniva istituita la Standard and Effectiveness Unit
all’interno del dipartimento per l’educazione, con a capo alcuni ricerca-‐‑
tori SER. Come vedremo, questa “affiliazione” (espressione suggerita da
Goldstein e Woodhouse nel 2000) della ricerca all’interno della politica
educativa del New Labour era destinata a suscitare perplessità e dibattiti
accesi tra i ricercatori.
Le misurazioni del valore aggiunto rivestono dunque un ruolo ormai
consolidato nel sistema di accountability inglese. Nella figura 2 viene ri-‐‑
portata la “classifica” degli istituti primari aggiornata al mese di ottobre
2006 estratta da una pagina del sito web della BBC30. Accanto a misure
“grezze” del rendimento medio degli studenti al KS2 (la colonna APS,
Average Point Score, riporta il punteggio medio conseguito dagli studen-‐‑
ti), viene riportato il valore aggiunto (colonna VA) dall’istituto alle pre-‐‑
stazioni medie degli studenti (calcolato prendendo in considerazione,
come variabile di retroterra, il solo risultato degli alunni al KS1).
Fitz-‐‑Gibbon (1995), Trower, Vincent (1995).
29
news.bbc.co.uk/1/shared/bsp/hi/education05/school_tables/primary-‐‑schools/
30
html
Misurare l’efficacia scolastica 45
Figura 2. “Classifica” delle scuole primarie pubblicata sul sito della BBC. Le colonne in-‐‑
dicano rispettivamente il distretto educativo (LEA), il punteggio medio degli studenti
agli esami di stato (APS), il valore aggiunto (VA).
46 Prima Parte
Nella pubblicazione dei punteggi del valore aggiunto il ministero ha
scelto di elevare da 0 a 100 la media dei residui della regressione effet-‐‑
tuata sul rendimento degli studenti che hanno sostenuto il KS2. Tale
scelta ha evitato che venissero riportati punteggi inferiori allo zero per le
scuole con valore aggiunto al di sotto della media. Si è trattato, con ogni
probabilità (Wilson 2003), di una scelta frutto di un compromesso tra il
ministero e il mondo della scuola.
Dal sito, inoltre, è possibile ottenere informazioni aggiuntive sulle
prestazioni degli istituti (come l’andamento degli studenti negli ultimi 3
anni rispetto a diverse aree disciplinari) e sono disponibili on line i det-‐‑
tagliati rapporti redatti dagli ispettori dell’OFSTED (Office for Standard in
Education)31 scuola per scuola.
La questione relativa alle variabili legate al background degli studenti
è di nuovo all’ordine del giorno in Inghilterra. Recentemente il ministero
ha deciso di avviare uno studio sull’opportunità di introdurre nel mo-‐‑
dello di calcolo del valore aggiunto le variabili relative al retroterra so-‐‑
cioeconomico degli studenti. Con ogni probabilità le prossime graduato-‐‑
rie delle scuole saranno così arricchite di un secondo indicatore di valore
aggiunto, il Contextual Value Added, calcolato sulla base, oltre che del
rendimento precedente, anche del genere, del gruppo etnico di apparte-‐‑
nenza e di altre caratteristiche legate al retroterra degli studenti.
Va infine segnalato come in Inghilterra sia in atto il tentativo di basa-‐‑
re la valutazione formativa degli staff educativi delle scuole su un rap-‐‑
porto dialettico tra l’autovalutazione di istituto (che prende come punto
di riferimento anche le misure di valore aggiunto) e la valutazione ester-‐‑
na (incentrata sui resoconti dell’OFSTED e sui risultati agli esami e sulle
misure del valore aggiunto). Si tratta di un equilibrio talvolta compro-‐‑
messo dalle frizioni legate alla pubblicazione delle League Tables e dei
rapporti OFSTED, che determinano reazioni di chiusura da parte degli
educatori, allarmati dal prevalere, all’interno del processo valutativo,
delle istanze sommative e di controllo esterno rispetto a quelle formative
(Cfr. MacBeath, McGlynn, 2002).
Le ispezioni sono compiute ogni tre anni (nelle scuole che ottengono un ren-‐‑
31
dimento al di sotto delle aspettative sono più frequenti), senza alcun preavviso. I
rapporti contengono informazioni relative alla qualità dei processi educativi e ai ri-‐‑
sultati ottenuti dagli studenti della scuola.
Capitolo quarto
L’utilizzo del valore aggiunto: problemi e prospettive
spond to other notions of effective teaching […]. If empirical estimates of teacher
effects do not correlate with other generally accepted traits of effective teachers,
we might be concerned that our statistical estimation of teacher effects is too er-‐‑
ror-‐‑prone (due to sampling or systematic errors) to be useful (McCaffrey et al.,
2003, p. 14).
Un’utile riflessione è dunque legata al fatto che il valore aggiunto è
una misura, basata su un unico tipo di prodotto, della qualità di un pro-‐‑
cesso tanto complesso come l’insegnamento. In generale un legame
esclusivo, irrimediabilmente riduttivo, tra efficacia dell’insegnamento e
prestazioni degli studenti, non può non destare qualche perplessità, co-‐‑
me ricordava, venti anni fa, Aldo Visalberghi:
[…] questa riduzione ad un criterio legato al solo prodotto finale, per quanto pra-‐‑
ticamente accettabile, non è del tutto legittima. La qualità dell’insegnare, cioè del-‐‑
la performance del docente, ha un suo valore autonomo, se non altro perché la
scuola è un ambiente in cui tutti ci educhiamo o ci dovremmo educare, non solo
gli allievi ma anche gli adulti che a vario titolo vi operano. Immaginate, per as-‐‑
surdo, che venga accertata l’incontrovertibile efficacia, ai fini di apprendimenti
rilevanti, di un metodo didattico che esiga dall’insegnante attività stressanti, ripe-‐‑
titive, meccaniche. Come potremmo definire la “qualità dell’insegnamento che ne
deriverebbe”? Povera e umiliante dal punto di vista del docente, ma efficace e co-‐‑
struttiva dal punto di vista del discente? (Visalberghi, 1988, p. 22).
Va infine affrontata la questione relativa al peso esercitato dalla sele-‐‑
zione delle variabili di controllo da inserire nel modello sulla misurazio-‐‑
ne del valore aggiunto. Secondo Bell,
Too often the concept of value-‐‑added to the pupil over a period of time is taken
to be the same as value-‐‑added by the school over the period. When investigating
the relative progress of pupils in schools, it is necessary to take into account fac-‐‑
tors that influence the outcome measures that are not directly controlled by the
schools (Bell, 2003, p. 485).
La scelta di utilizzare solamente il rendimento in entrata come proxy
variable suscita non poche perplessità nel mondo scientifico. Kupermintz
(2003) critica aspramente il TVAAS sostenendo che variabili di sfondo
come lo stato socio-‐‑economico e il gruppo etnico di appartenenza non
influenzano solo il rendimento degli studenti ma anche i loro progressi,
tale dinamica è ritenuta plausibile anche da Braun (2005), McCaffrey et
al. (2003), Shkolnik et al. (2002). Se questi studiosi avessero ragione, le
misure del valore aggiunto basate solo sul rendimento in ingresso degli
studenti come variabile di retroterra rischierebbero di risultare penaliz-‐‑
Misurare l’efficacia scolastica 49
zanti nei confronti degli staff educativi operanti in contesti svantaggiati.
In un articolo pubblicato nel 2001 su School Effectiveness and School Impro-‐‑
vement, la ricercatrice inglese Thomas evidenzia come con l’inclusione
delle variabili di sfondo nel modello aumenti, seppur di poco, la quota
di varianza spiegata nel rendimento degli studenti.
Va considerato che, in generale, come sostengono Coe e Fitz-‐‑Gibbon
(1998), any relevant factors which are unmeasured, or measured unreliably,
will make school whit better raw performance seem more effective than is fair. Il
discorso va esteso, ovviamente, anche ad altre variabili di input, come le
risorse stanziate a favore degli istituti, la mancata introduzione delle
quali rende inoltre impossibile per il modello stimare l’efficienza delle
scuole.
Valore aggiunto e Accountability: una relazione pericolosa
La prossimità di non pochi ricercatori SER rispetto alle politiche educa-‐‑
tive governative ha suscitato, soprattutto in Gran Bretagna, forti polemi-‐‑
che nel mondo della ricerca. Da più parti si sostiene che l’enfasi posta
negli ultimi trenta anni dalla SER sulla capacità della scuola di incidere
sul rendimento degli alunni ponga in secondo piano le responsabilità
della società e della politica rispetto agli standard educativi raggiunti.
Pring (1995) sostiene che i ricercatori SER lavorino under the watchful
eye of their political mentors, responsabilizzando eccessivamente le scuole
rispetto a fallimenti che andrebbero imputati all’intera società. Secondo
Elliot (1996) le ricerche SER, costituendo una “legittimazione ideologica
di una visione coercitiva dell’istruzione”, sono musica per le orecchie dei
politici e supportano una metodologia meccanicistica, una visione stru-‐‑
mentale dei processi educativi. Per Hamilton (1996) le ricerche tendono
a “patologizzare” istituti e insegnanti considerandoli come i soli agenti
del rendimento degli studenti e riconoscendoli come i principali imputa-‐‑
ti rispetto ai problemi socio-‐‑economici del paese, tesi rilanciata da Gib-‐‑
son e Ashtana (1998).
Le critiche32 riflettono la preoccupazione che l’accoglienza, da parte
del New Labour, di assunzioni e metodi della SER finisca con il condizio-‐‑
nare pesantemente il lavoro dei ricercatori, determinando una situazione
in cui non è la ricerca a influenzare l’agenda politica ma il contrario. Il
32 Per una sintesi del dibattito sul rapporto tra SER e politica governativa, vedi
rischio, nello specifico, è relativo alla possibilità che un uso politico della
ricerca renda il lavoro del ricercatore superficiale e approssimativo.
Prendendo in considerazione proprio da questa prospettiva l’uso del va-‐‑
lore aggiunto ai fini di accountability, è possibile rilevare i seguenti ele-‐‑
menti di criticità:
1. Assenza di legami tra cause ed effetti (con conseguenti “attribu-‐‑
zioni indebite” di responsabilità).
2. Possibili iniquità delle misure ed effetti indesiderati.
3. Portata informativa e comprensibilità degli indicatori.
1. Assenza di legami tra cause ed effetti, attribuzioni indebite di responsabilità
Come è stato evidenziato in precedenza, le misurazioni del valore aggiunto
non si basano su disegni sperimentali ma su analisi di correlazioni e lo fan-‐‑
no in un contesto in cui l’assenza di randomizzazione dei gruppi (gli stu-‐‑
denti non sono casualmente raggruppati nelle scuole) impedisce l’inferenza
di rapporti causali tra le variabili (il discorso vale anche per i modelli gerar-‐‑
chici, incapaci di distinguere tra effetto dell’insegnante ed effetti legati alla
composizione della classe):
According to statistical theory, the ideal setting for obtaining proper estimates
of teacher effectiveness is a school system in which, for each grade, students are
randomly grouped into classes, and teachers in that grade are randomly allocated
to those classes […]. Unfortunately, school system do not operate by randomiza-‐‑
tion. Many parents have strong opinions about which districts (and even which
schools within the districts) they want their children to attend, and make corre-‐‑
sponding decisions about housing. Within a school, parents often exert influence
on the class or teacher to which their child is assigned. Similarly, teachers can
sometimes select which district to work and, by dint of seniority, have some
choice in the classes they teach, or even the schools in which they are placed
(Braun, 2005, p. 7).
La questione fondamentale è che, se l’obiettivo è quello di pervenire
ad attribuzioni causali, al momento nessun modello di analisi del valore
aggiunto può compensare l’assenza di randomizzazione (Braun 2005,
Bell 2003, McCaffrey et al. 2003). Questo limite non può essere sottovalu-‐‑
tato se si intende incentrare su misure del valore aggiunto i sistemi di ac-‐‑
countability e di remunerazione del personale educativo.
Va evidenziato quindi che definire l’efficacia di insegnanti ed educa-‐‑
tori sulla base dei residui di regressioni comporta inevitabilmente nei lo-‐‑
ro confronti una sorta di “attribuzione indebita” di responsabilità, dato
che, come abbiamo visto, su quel residuo esercitano la loro influenza tut-‐‑
Misurare l’efficacia scolastica 51
ti i fattori rilevanti che non sono controllati dal modello. È infine il caso
di sottolineare come nessuno dei sistemi di accountability basati sul valo-‐‑
re aggiunto inserisca nella funzione di produzione educativa utilizzata
informazioni relative alle risorse investite negli istituti, scelta che pena-‐‑
lizza il personale che opera in contesti svantaggiati e che rende impossi-‐‑
bile la misurazione dell’efficienza scolastica.
Un aspetto critico legato all’utilizzo di modelli del valore aggiunto ai
fini di accountability è quello relativo alla dubbia utilità di un uso esclu-‐‑
sivo di una misura che non fornisce informazioni sulle pratiche che con-‐‑
sentono a insegnanti e dirigenti di aggiungere valore alla preparazione
degli studenti. Secondo Fitz-‐‑Gibbon e Kochan, there is no accountability
without causality. Indicators about aspects which schools feel unable to alter are
not fair (267). Sapere esclusivamente che alcuni insegnanti aggiungono
valore poco aiuta le scuole a migliorarsi, anche in presenza di un sistema
di mercato educativo nel quale gli istituti sono messi in concorrenza tra
di loro.
34 Martini (2002), pp. 103-‐‑135.
Misurare l’efficacia scolastica 55
Figure 3 e 4. Distribuzione del valore aggiunto a seconda del livello di abilità
in ingresso degli studenti in sette istituti superiori inglesi (Wilson, 2003).
Seconda Parte
UN’INDAGINE SUL VALORE AGGIUNTO
NELLA SCUOLA PRIMARIA
Capitolo quinto
Ipotesi, disegno e campione di ricerca
Il disegno della ricerca e le sue fasi
Come tutte le indagini sul valore aggiunto, il presente studio rientra nel
filone delle “ricerche basate su correlazioni”. Non è infatti prevista alcu-‐‑
na manipolazione della variabile oggetto di studio, che in questo caso è
l’efficacia dell’ultimo anno della scuola elementare, misurata attraverso
l’analisi del valore aggiunto. Come esposto nella prima parte, la funzio-‐‑
ne di produzione educativa sulla quale si basa la misurazione del valore
aggiunto fa riferimento all’equazione n. 1 (Yi = α + βXi + ei ).
Facendo per ora riferimento alla sola regressione lineare (per il mo-‐‑
dello gerarchico si rinvia alla terza parte del lavoro), la presente ricerca
utilizza come misura di output (variabile dipendente) le competenze
linguistiche degli studenti al termine della scuola elementare, mentre le
misure di input (variabili di controllo) sono rappresentate sia dal livello
delle competenze linguistiche degli stessi studenti al termine del quarto
anno della scuola elementare sia dal loro stato socio-‐‑culturale. Nella
funzione utilizzata per calcolare il valore aggiunto è stato dunque inseri-‐‑
to un vettore legato allo stato socio-‐‑culturale degli studenti, che nel caso
specifico è rappresentato dalla variabile “anni di studio dei genitori” de-‐‑
gli alunni:
(4) Ri06 = λRi05 + βtFi06 + εi06
dove
Rit è il rendimento in italiano di uno studente i nell’anno 2006;
Rit-‐‑1 è il rendimento dello studente nell’anno precedente;
Fi06 è un vettore degli anni di studio dei genitori degli studenti corre-‐‑
lato al loro rendimento nel 2006;
εit è il residuo della regressione per ogni studente: aggregato a livello di
istituto, fornisce la misura del valore aggiunto della scuola; aggregato a
livello di classe, fornisce la misura del valore aggiunto dalla classe.
L’indagine è stata dunque strutturata secondo i seguenti passaggi:
• Rilevazione della competenza linguistica degli studenti
al termine della IV elementare in 11 scuole.
• Rilevazione delle variabili di sfondo degli studenti.
Un’indagine sul valore aggiunto nella scuola primaria 61
Il campione
Si è proceduto a un campionamento di giudizio allo scopo di inserire
nell’indagine istituti il più possibile eterogenei dal punto di vista delle
variabili di sfondo che, secondo l’ipotesi di ricerca n. 2, maggiormente
sarebbero state correlate con il rendimento degli studenti. Il territorio in
cui si è operato è quello del Comune di Roma, all’interno del quale si
sono scelti undici istituti situati in contesti sociali, economici e culturali
molto diversificati tra loro. Pertanto, la composizione del campione, dal
punto di vista sociale, culturale ed economico, non può considerarsi
rappresentativa della popolazione residente nel Comune di Roma. La
scelta effettuata ha tuttavia consentito di ottenere gruppi di studenti con
caratteristiche socio-‐‑culturali marcatamente divergenti sufficientemente
ampi da consentire analisi statisticamente significative del loro rendi-‐‑
mento.
Nella fase di selezione delle scuole ai dirigenti scolastici è stato chie-‐‑
sto un giudizio sugli stimoli socio-‐‑culturali offerti dal contesto nel quale
è inserito il proprio istituto. Le informazioni relative alle variabili di
sfondo degli studenti sono state raccolte in occasione delle due prove at-‐‑
traverso la somministrazione di un questionario. A causa dell’età degli
studenti coinvolti si è registrata, nella prima somministrazione, una per-‐‑
centuale di omissioni alla domanda centrale del questionario, quella re-‐‑
lativa al titolo di studio dei genitori, pari al 24% del totale. Per ottenere
maggiori e più affidabili informazioni si è in seguito scelto di prendere
accordi (diversi a seconda degli istituti e, in alcuni casi, delle classi) con
dirigenti e insegnanti partecipanti alla ricerca. Alla seconda sommini-‐‑
strazione del questionario, effettuata in occasione della prova in uscita,
le omissioni si sono così ridotte al 12,5% del totale dei rispondenti.
Le classi coinvolte nella ricerca sono state 38 (ciascun istituto ha forni-‐‑
to almeno due classi), per un totale di 731 studenti. La scelta di sommi-‐‑
nistrare le prove in quattro distinte giornate di somministrazione (due
per la prova “in entrata” e due per quella “in uscita”) ha comportato la
perdita del 19% degli studenti, soltanto 590 di loro infatti hanno sostenu-‐‑
to interamente le due prove. Di questi, 515 hanno risposto alle domande
sul titolo di studio dei genitori.
Sulla base delle risposte dei 515 studenti alle domande sul titolo di
studio dei genitori, è stata costruita la variabile “livello di istruzione fa-‐‑
miliare” (LIF), assegnando a ciascun titolo un punteggio pari al numero
di anni necessari per conseguirlo (cfr. Corda Costa, 1964). Se si prendono
in considerazione i terzili della distribuzione della variabile LIF (opera-‐‑
64 Seconda Parte
zione che consente di ottenere i tre livelli di istruzione familiare “alto”,
“medio”, “basso”), la popolazione risulta così suddivisa:
Tabella 5. Distribuzione della variabile “livello di istruzione familiare”.
LIVELLO di Frequenze e
Titoli di studio dei genitori ISTRUZIONE FAMILIARE Percentuali
degli studenti Sul totale
152
2 genitori con la laurea ALTO
29,46%
1 genitore con la laurea, 1 genitore con il diploma
240
1 genitore con la laurea, 1 genitore con la III media MEDIO
46,51%
2 genitori con il diploma
2 genitori con la III media. 124
BASSO
1 genitore con il diploma, 1 genitore con la III media 24,03%
Le differenze tra le undici scuole dal punto di vista del livello di
istruzione familiare dell’utenza, sintetizzate nella tabella 6, possono es-‐‑
sere apprezzate nella figura 6.
Tabella 6. Livello di istruzione familiare dell’utenza degli undici istituti par-‐‑
tecipanti alla ricerca.
Figura 6. Livello di istruzione familiare delle popolazioni delle undici scuole
della ricerca.
XIII
XII
XIV
XX
XI
istituti
XV
XXI
XVI
XVII
XIX
XVIII
Capitolo sesto
Gli strumenti
35 Cfr. Censis (1992), II vol., pp. 22-‐‑23 e Lucisano (1993), pp. 26-‐‑27.
68 Seconda Parte
Figura 8. Modello delle competenze nella lettura considerate nella scelta delle
prove. Tratto da Censis (1992 b, p. 26).
Capacità di Conoscenza degli usi Conoscenza del
decodifica corretti della lingua significato delle parole
registri
ortografia
grammatica
esercizio 3 esercizi 1, 2, 6, 7 esercizi 13, 14, 15, 16
Comprensione ricettiva
Lettura
esercizio 8 esercizi 3, 4, 5 esercizi 10, 11, 12
Comprensione di di-‐‑
versi tipi di testo
brevi lunghi
Competenza nell’uso Competenza nella let-‐‑ informativi narrativi
funzionale del testo tura top-‐‑down narrativi informativi
Facendo riferimento agli obiettivi della scuola, non senza richiami
espliciti ai programmi, gli esercizi del 1992 sono stati suddivisi dai co-‐‑
70 Seconda Parte
2. Prove di uso corretto della lingua (esercizi 2, 4, 6, 7)
La scuola ha lo scopo di assicurare agli studenti un uso corretto della
lingua fornendo loro competenze ortografiche e grammaticali. I costrut-‐‑
tori delle prove del 1992, per verificare il raggiungimento di tale obietti-‐‑
vo, hanno utilizzato i seguenti esercizi:
• il n. 2, che rileva la capacità di identificare errori ortografici di
diverso tipo all’interno di un testo.
• il n. 4, un cloze mirato che verifica la capacità d’uso di artico-‐‑
li, proposizioni, congiunzioni, avverbi ecc.
• il n. 6, un esercizio che richiede allo studente di identificare
tra due frasi quella in cui il verbo è correttamente coniugato.
• il n. 7, un esercizio che richiede agli studenti di coniugare
correttamente i verbi.
Un’indagine sul valore aggiunto nella scuola primaria 71
3. Prove di comprensione della lettura (esercizi 3, 5, 10, 11, 12)
Gli studenti devono saper leggere: secondo i programmi devono essere
cioè in grado di
capire il significato di testi scritti a fini diversi [...], saper ricercare e raccogliere in-‐‑
formazioni da testi scritti; seguire la descrizione, il resoconto, il racconto e saperne
cogliere l’essenziale; apprezzare l’efficacia linguistica ed espressiva dei vari tipi di
scrittura (Censis 1992b, 29).
Le abilità che sottendono l’attivazione di tali processi, secondo i co-‐‑
struttori delle prove, sono:
• la capacità di decodifica della parola scritta;
• le conoscenze lessicali e morfosintattiche;
• le attese sul tipo di testo che viene letto, la conoscenza di ciò
di cui si tratta e della situazione in cui il testo è ambientato.
Gli esercizi costruiti allo scopo di rilevare le abilità sopra elencate so-‐‑
no i seguenti:
• il n. 3, un cloze con cancellazione di lettere dalle parole che
verifica la capacità di decodifica.
• il n. 5, un cloze casuale (con cancellazione di parole di ogni ti-‐‑
po) che verifica la capacità inferenziale. Entrambi gli esercizi
rilevano la “capacità d’uso del contesto e l’attivazione dei pro-‐‑
cessi top-‐‑down e bottom-‐‑up”.
• i numeri 10, 11, 12, test di comprensione della lettura con do-‐‑
mande a scelta multipla. Questi esercizi rilevano l’abilità in-‐‑
terpretativa di testi di diverso tipo (narrativo, informativo) e
lunghezza, definendo tale abilità sulla base della capacità di
riconoscimento delle parole, di localizzazione delle informa-‐‑
zioni, di compimento di inferenze.
di base di De Mauro 1990, in particolare al lessico fondamentale, ai vo-‐‑
caboli ad alto uso e ad alta disponibilità):
• il n. 13 (“parole generali e particolari”), verifica la capacità di
distinguere su cinque coppie di vocaboli quale sia quella ge-‐‑
nerale rispetto alla corrispettiva particolare.
• il n. 14 (“le famiglie di parole”), rileva la capacità di indivi-‐‑
duare un vocabolo estraneo rispetto ad un’area di significato.
• il n. 15 (“qual è il contrario?”), rileva la capacità di sostituire
una parola in una frase con un contrario accettabile (in questo
esercizio i vocaboli vengono dunque proposti all’ interno di
un contesto).
• il n. 16. (“definizioni”), verifica la capacità di riconoscere, tra
quattro definizioni di un vocabolo fuori contesto, quella cor-‐‑
retta.
Le prove utilizzate nella presente ricerca
Come accennato, le prove utilizzate nella presente indagine prendono
come modello quelle somministrate nel 1992. A causa dei limiti imposti
dai tempi di svolgimento del dottorato di ricerca, è risultata impossibile
la correzione delle prove di produzione scritta, nella descrizione degli
strumenti e nella presentazione dei risultati si fa dunque riferimento alla
sola competenza ricettiva.
La prova in ingresso (2005)
Dal punto di vista della struttura complessiva le prove utilizzate nella
presente ricerca ricalcano quelle del 1992. La tipologia degli esercizi è
rimasta invariata, così come la scelta di suddividerli in due fascicoli e
somministrarli in due giornate diverse preferibilmente consecutive. In
totale sono stati inseriti nelle prova “in ingresso”, somministrata tra il 5
e il 26 maggio del 2005, 16 item presenti nelle prove del 1999. La diffe-‐‑
renza più evidente tra le due prove è la sostituzione del vecchio eserci-‐‑
zio 3, cloze con cancellazione delle lettere, con una prova di compren-‐‑
sione della lettura, il testo informativo breve intitolato “Basta con le pa-‐‑
role illeggibili”. Il numero complessivo di item è stato aumentato da 116
a 127.
Un’indagine sul valore aggiunto nella scuola primaria 73
Tabella 7.
Tabella 8. Confronto tra la struttura della prova MPI-‐‑Censis (1992) e quella utilizzata nella presente indagine nel 2005.
PROVA del 1992 PROVA del 2005
PRIMO GIORNO PRIMO GIORNO
Esercizio Contenuto item Esercizio Contenuto item
Scegli la frase più adatta REGISTRO 5 Scegli la frase più adatta REGISTRO 5
Correggi gli errori di Pieri-‐‑
ORTOGRAFIA 13 Correggi gli errori di Gianni ORTOGRAFIA 14
no
Cloze 1 “Le lettere cancella-‐‑ TCL1 "ʺBasta con le parole illeggibi-‐‑
COMPRENSIONE della LETTURA 3 COMPRENSIONE della LETTURA 7
te” li"ʺ
Cloze 2 “Le parole cancella-‐‑
GRAMMATICA 12 Cloze 1 "ʺLe scimmie protestano"ʺ GRAMMATICA 14
te”
Cloze 3 “Ancora parole can-‐‑
COMPRENSIONE della LETTURA 14 Cloze 2 "ʺIl giorno e la notte"ʺ COMPRENSIONE della LETTURA 17
cellate”
Scopri il verbo usato bene GRAMMATICA 9 Scopri il verbo usato bene GRAMMATICA 7
Coniuga i verbi GRAMMATICA 8 Coniuga i verbi GRAMMATICA 10
ALFABETIZZAZIONE della LET-‐‑ ALFABETIZZAZIONE della LETTU-‐‑
Pierino a casa da solo 7 Gianni a casa da solo 7
TURA RA
SECONDO GIORNO SECONDO GIORNO
Esercizio Contenuto item Esercizio Contenuto item
TCL1 "ʺBasta con le parole
COMPRENSIONE della LETTURA 7 TCL2 "ʺIndios"ʺ COMPRENSIONE della LETTURA 6
illeggibili"ʺ
TCL2 "ʺState zitti…"ʺ COMPRENSIONE della LETTURA 8 TCL3 "ʺLa tastiera QWERTY"ʺ COMPRENSIONE della LETTURA 7
TCL3 "ʺIl cane e la carne"ʺ COMPRENSIONE della LETTURA 8 TCL4 "ʺRe Leone e Madama Volpe"ʺ COMPRENSIONE della LETTURA 7
Parole generali e particolari LESSICO 5 Parole generali e particolari LESSICO 7
Qual è il contrario? LESSICO 5 Qual è il contrario? LESSICO 7
Le famiglie di parole LESSICO 5 Le famiglie di parole LESSICO 5
Definizioni LESSICO 5 Definizioni LESSICO 7
76 Seconda Parte
Figure 9 (in alto) e 10 (in basso). Percentuali di item per le aree di competenza
comprensione della lettura (CL), lessico (LES), grammatica (GRA), ortografia
(ORT), alfabetizzazione della lettura (AL), registro (REG) nella prova del 1992
(in alto) e in quella del 2005 (in basso).
6% 4%
11% 36%
25%
18%
6% 4%
11%
35%
24%
20%
Per valutare l’idoneità dei singoli item, nel mese di febbraio e marzo
2005 è stato eseguito il try-‐‑out delle prove in cinque classi quarte (per un
totale 86 studenti) in seguito al quale sono state apportate alcune modi-‐‑
fiche. Di seguito, vengono elencati gli interventi effettuati.
• Nell’esercizio n. 2 è stato aumentato il numero e la tipologia
degli item.
• Il cloze con cancellazione delle lettere è stato eliminato ed è
stata inserita la prova di comprensione della lettura “Basta
con le parole illeggibili”, presente nelle prove dell’indagine
del Censis.
• Gli esercizi di cloze con cancellazione delle parole sono stati
modificati eliminando gli item che presentavano un indice di
facilità troppo elevato.
• Negli esercizi relativi all’uso dei verbi le modifiche riguarda-‐‑
no soprattutto il numero di item. Sono stati diminuiti quelli
dell’esercizio n. 6 e aumentati quelli dell’esercizio n. 7. Il crite-‐‑
rio è stato, anche in questo caso, quello di eliminare gli item
con un indice di facilità medio troppo elevato.
• Nell’esercizio n. 8 è stato aggiunto un item relativo alla capa-‐‑
cità di trascrivere in tabella una serie di informazioni raccolte.
• Per il try-‐‑out si è scelto di somministrare quattro prove di
comprensione della lettura per poi inserire nel fascicolo defi-‐‑
nitivo le tre prove che hanno presentato i migliori indici di fa-‐‑
cilità e di discriminatività36.
• Nelle prove di lessico sono state apportate delle modifiche ad
ogni singolo esercizio ed è stato aumentato il numero di item.
L’esercizio relativo all’uso dei sinonimi è stato eliminato ed è
stato aggiunto l’esercizio n. 15 relativo alla capacità di indivi-‐‑
duare “famiglie di parole”.
La prova “Indios”, presente nel secondo fascicolo, è stata costruita dagli stu-‐‑
36
denti del corso 2003/2004 “Costruzione di prove oggettive” condotto dal professore
Giorgio Asquini.
78 Seconda Parte
Tabella 9. Confronto tra la prova somministrata nel 2005 e quella somministrata nel 2006.
PROVA del 2005 PROVA del 2006
PRIMO GIORNO PRIMO GIORNO
Esercizio Contenuto Item Esercizio Contenuto Item
Scegli la frase più adatta REGISTRO 5 Scegli la frase più adatta REGISTRO 5
Correggi gli errori di Gianni ORTOGRAFIA 14 Correggi gli errori di Gianni ORTOGRAFIA 19
TCL1 "ʺBasta con le parole
COMPRENSIONE della LETTURA 7 TCL1 “State zitti se potete” COMPRENSIONE della LETTURA 8
illeggibili"ʺ
Cloze 1 "ʺLe scimmie prote-‐‑
GRAMMATICA 14 Cloze 1 "ʺLe scimmie protestano"ʺ GRAMMATICA 19
stano"ʺ
Cloze 2 "ʺIl giorno e la notte"ʺ COMPRENSIONE della LETTURA 17 Cloze 2 "ʺIl giorno e la notte"ʺ COMPRENSIONE della LETTURA 16
Scopri il verbo usato bene GRAMMATICA 7 Scopri il verbo usato bene GRAMMATICA 7
Coniuga i verbi GRAMMATICA 10 Coniuga i verbi GRAMMATICA 10
ALFABETIZZAZIONE della LET-‐‑ ALFABETIZZAZIONE della LETTU-‐‑
Gianni a casa da solo 7 Gianni a casa da solo 7
TURA RA
SECONDO GIORNO SECONDO GIORNO
Esercizio Contenuto Item Esercizio Contenuto
TCL2 “L’inondazione del Nilo vi-‐‑
TCL2 "ʺIndios"ʺ COMPRENSIONE della LETTURA 6 COMPRENSIONE della LETTURA 9
sta da uno storico”
TCL3 "ʺLa tastiera QWER-‐‑ TCL3"ʺBasta con le parole illeggibi-‐‑
COMPRENSIONE della LETTURA 7 COMPRENSIONE della LETTURA 7
TY"ʺ li"ʺ
TCL4 "ʺRe Leone e Madama
COMPRENSIONE della LETTURA 7 TCL4 “Il cane e la carne” COMPRENSIONE della LETTURA 8
Volpe"ʺ
Parole generali e particolari LESSICO 7 Parole generali e particolari LESSICO 8
Qual è il contrario? LESSICO 7 Qual è il contrario? LESSICO 8
Le famiglie di parole LESSICO 5 Le famiglie di parole LESSICO 6
Definizioni LESSICO 7 Definizioni LESSICO 7
80 Seconda Parte
Figura 11. Percentuali del numero di item per le aree di competenza compren-‐‑
sione della lettura (CL), lessico (LES), grammatica (GRA), ortografia (ORT),
alfabetizzazione della lettura (AL), registro (REG) nella prova del 2006.
5% 3%
13%
34%
25%
20%
REGISTRO
Il primo esercizio richiede agli studenti di scegliere la frase con il regi-‐‑
stro più adatto alla situazione comunicativa proposta (rappresentata da
una vignetta). L’esercizio, composto da cinque item (identici a quelli del-‐‑
la prova del 2005) con quattro alternative di risposta, è stato presentato
senza alcuna modifica nella prova del 2006. Gli item 2 e 4 erano stati
precedentemente utilizzati nella prova MPI Censis del 1992.
Tabella 10. Struttura dell’esercizio n. 1 (prova del 2005 e prova del 2006).
SITUAZIONE REGISTRO
ITEM PERSONAGGI
COMUNICATIVA RICHIESTO
101 Un signore e un bambino Richiesta di informazioni Formale
105 Due calciatori Richiesta di un oggetto (pallone) Informale (tono: deciso)
82 Seconda Parte
ITEM ABILITÀ
Un’indagine sul valore aggiunto nella scuola primaria 83
ORTOGRAFIA
L’esercizio n. 2 richiede agli studenti di identificare errori di ortografia
all’interno di un resoconto di una gita al parco nazionale. Il testo presen-‐‑
tato agli studenti nel 2006 è del tutto simile rispetto a quello dell’anno
precedente, costruito nel corso dell’esercitazione di ricerca “Costruzione
di prove per la misura dell’efficacia scolastica” (a.a. 2004-‐‑2005), le diffe-‐‑
renze sono legate alla scelta di errori di diverso genere e all’introduzione
di nuove sviste ortografiche. Gli item sono passati, nella prova “in usci-‐‑
ta”, da 14 a 19, per conservare la stessa proporzione tra parole scritte
correttamente e parole contenenti errori ortografici, il testo è stato allun-‐‑
gato. Le modifiche sono state apportate nel corso dell’esercitazione di
ricerca “Costruzione di prove per la misura dell’efficacia scolastica” (a.a.
2005-‐‑2006).
Tabella 12. Item (errore da riconoscere) dell’esercizio n. 2 nella prova del 2005
(a sinistra) e in quella del 2006 (a destra).
ITEM ERRORE DA RICONOSCERE ITEM ERRORE DA RICONOSCERE
201 un assolata per un’assolata 201 un assolata per un’assolata
202 cene per ce ne 202 arivati per arrivati
203 complet-‐‑amente per completa-‐‑mente 203 cene per ce ne
204 legnio per legno 204 legnio per legno
205 cerano per c’erano 205 viv-‐‑ono per vivo-‐‑no
206 ha per a 206 inportanti per importanti
207 rincorrevano per rincorrevano 207 forze per forse
208 un’antico per un antico 208 giente per gente
209 abiamo per abbiamo 209 un'ʹanimale per un animale
210 aqua per acqua 210 paesagio per paesaggio
211 incaminati per incamminati 211 cerano per c’erano
212 o per ho 212 ha lungo per a lungo
213 piac-‐‑iuto per pia-‐‑ciuto 213 rifuggio per rifugio
214 acuila per aquila 214 o fatto per ho fatto
215 disegnio per disegno
216 anno portato per hanno portato
217 aqua per acqua
218 conzerverò per conserverò
219 piac-‐‑iuto per piaciu-‐‑to
84 Seconda Parte
GRAMMATICA
Cloze mirato
Si tratta del primo dei tre esercizi di grammatica. È un cloze mirato e ve-‐‑
rifica la capacità degli studenti nell’uso di connettivi, preposizioni, arti-‐‑
coli, avverbi. Il testo (informativo-‐‑breve) è costituito da un articolo, ria-‐‑
dattato nel corso dell’esercitazione di ricerca “Costruzione di prove per
la misura dell’efficacia scolastica” (a. a. 2004-‐‑2005), sull’”invasione”, da
parte di decine di scimmie, di alcune città asiatiche e africane. Anche in
questo caso (come nell’esercizio di ortografia), nel 2006 si è scelto di ap-‐‑
portare delle modifiche, sostituendo alcuni tra i “buchi” che nella prova
“in ingresso” erano risultati di facile riempimento e aggiungendone al-‐‑
tri. Il testo è stato modificato dalle studentesse e dagli studenti
dell’esercitazione di ricerca “Costruzione di prove per la misura
dell’efficacia scolastica” (a. a. 2005-‐‑2006). Gli item sono passati da 15 a
19. Per conservare la stessa proporzione di buchi del 2005, il testo è stato
leggermente allungato.
Tabella 13. Item (parola da inserire) nelle prove di buco (esercizio n. 4) nella
prova del 2005 (a sinistra) e in quella del 2006 (a destra).
ITEM CHIAVE ITEM CHIAVE
401 NELLA 401 NELLA
402 PER 402 DOVE
403 DALL'ʹ 403 PER
404 A 404 AL
405 DA 405 A
406 DELL'ʹ 406 DEI
407 IN 407 DA
408 DI 408 LE
409 E 409 DOPO
410 DI 410 IN
411 CHE 411 SI
412 DA 412 DI
413 L'ʹ 413 UNA
414 LE 414 LE
415 CON
416 FINO
417 DA
418 CONTRO
419 A
Un’indagine sul valore aggiunto nella scuola primaria 85
Test di Comprensione della Lettura
L’unico test di comprensione della lettura ad essere somministrato, in
entrambe le prove compare nel 2005 come terzo esercizio, mentre l’anno
successivo, come esercizio numero 11, apre il secondo fascicolo. Si tratta
di un test di comprensione della lettura già utilizzato nella prova MPI-‐‑
Censis del 1992. Il testo (informativo-‐‑breve), tratto da un quotidiano, fa
riferimento alla richiesta da parte del sistema postale americano di proi-‐‑
bire la scrittura in corsivo degli indirizzi allo scopo di agevolare lo smi-‐‑
stamento della corrispondenza.
Tabella 17. Abilità rilevate dal test di comprensione della lettura presentato
sia nella prova del 2005 (esercizio n. 3) sia in quella del 2006 (esercizio n. 11).
Tipo di testo: Informativo – Breve
Già presente nella Prova MPI-‐‑Censis 1992
ITEM ABILITÀ
Gli altri test di comprensione della lettura somministrati sono elencati
nella tabella seguente. Come si può notare, i test della prova in uscita
hanno un numero di item maggiore rispetto a quelli dell’anno preceden-‐‑
te.
Un’indagine sul valore aggiunto nella scuola primaria 89
Tabella 18. Abilità rilevate dai test di comprensione della lettura presenti nel-‐‑
la prova del 2005 e in quella del 2006.
Prova del 2005 Prova del 2006
Esercizio n. 10 Esercizio n. 3
Tipo di testo: Informativo – Breve
Costruito nell’ambito del corso Tipo di Testo: Informativo – Lungo
Costruzione di prove oggettive già presente nella Prova MPI-‐‑Censis 1992
(a. a. 2003-‐‑2004)
ITEM ABILITÀ ITEM ABILITÀ
1001 Fare inferenze 301 Compiere inferenze
1002 Competenza lessicale 302 Competenza lessicale
1003 Localizzare informazioni 303 Localizzare informazioni
1004 Localizzare informazioni 304 Comprendere l’idea principale
1005 Comprendere globalmente il testo 305 Localizzare informazioni
1006 Comprendere l'ʹidea principale 306 Competenza lessicale
307 Localizzare informazioni
308 Compiere inferenze
Esercizio n. 11 Esercizio n. 10
Tipo di testo: Informativo – Lungo Tipo di testo: Informativo – Breve
Costruito nell’ambito dell’esercitazione Costruito nell’ambito dell’esercitazione
di ricerca Costruzione di prove per la misura di ricerca Costruzione di prove per la misura
dell’efficacia scolastica (a. a. 2004-‐‑2005) dell’efficacia scolastica (a. a. 2005-‐‑2006)
ITEM ABILITÀ ITEM ABILITÀ
1101 Localizzare informazioni 1001 Compiere inferenze
1102 Fare inferenze 1002 Competenza lessicale
1103 Fare inferenze 1003 Localizzare informazioni
1104 Localizzare informazioni 1004 Comprensione globale del testo
1105 Localizzare informazioni 1005 Compiere inferenze
1106 Comprendere l’idea principale 1006 Compiere inferenze
1107 Comprendere globalmente il testo 1007 Compiere inferenze
1008 Compiere inferenze
1009 Compiere inferenze
Esercizio n. 12 Esercizio n. 12
Tipo di testo: Narrativo – Lungo
Costruito nell’ambito dell’esercitazione Tipo di Testo: Narrativo – Lungo
di ricerca Costruzione di prove per la misura già presente nella Prova MPI-‐‑Censis 1992
dell’efficacia scolastica (a. a. 2004-‐‑2005)
ITEM ABILITÀ ITEM ABILITÀ
1201 Localizzare informazioni 1201 Compiere inferenze
1202 Fare inferenze 1202 Compiere inferenze
1203 Fare inferenze 1203 Comprensione lessicale
1204 Localizzare informazioni 1204 Localizzare informazioni
1205 Fare inferenze 1205 Compiere inferenze
1206 Localizzare informazioni 1206 Compiere inferenze
1207 Fare inferenze 1207 Localizzare informazioni
1208 Comprensione dell’idea principale
90 Seconda Parte
9% 12%
10% 29%
9%
41%
19%
26%
24%
21%
Fondamentale Alto Uso Comune Tecnico Spec. Alta Disp. Fondamentale Alto Uso Comune Tecnico Spec. Alta Disp.
Legenda marche d’uso esercizi di lessico: AD = Alta Disponibilità; AU = Alto Uso; CO = Comune;
ES = Esotismi; FO = Fondamentale; TS = Tecnico-‐‑Specialistico
Un’indagine sul valore aggiunto nella scuola primaria 91
Esercizio 13 “Parole generali e particolari”
Si tratta del primo dei quattro esercizi di lessico. Verifica la capacità di
legare tra loro coppie di vocaboli e di riconoscere il più generale dal più
particolare. Nella prova del 2006 le coppie sono passate da sette a otto.
Tabella 19. Marche d’uso dei termini utilizzati nell’esercizio n. 13 della prova
del 2005 (a sinistra) e del 2005 (a destra).
ITEM Parola Marca Parola Marca ITEM Parola Marca Parola Marca
abita-‐‑
1301 AU villa FO 1301 albero FO betulla CO
zione
biscot-‐‑
1302 AD wafer ES 1302 bevanda AU frappè CO
to
rott-‐‑
1303 cane FO ES 1303 biscotto AD wafer ES
weiler
calzatu-‐‑ zocco-‐‑
1304 colore FO rosso FO 1304 AD AU
ra lo
set-‐‑ imbar-‐‑ bale-‐‑
1305 mese FO FO 1305 CO TS
tembre cazione niera
ortag-‐‑
1306 AU carota AU 1306 ortaggio AU carota AU
gio
stovi-‐‑ cuc-‐‑ cuc-‐‑
1307 AD AU 1307 stoviglia AD AU
glia chiaio chiaio
libec-‐‑
1308 vento FO CO
cio
Legenda marche d’uso esercizi di lessico: AD = Alta Disponibilità; AU = Alto Uso; CO = Comune;
ES = Esotismi; FO = Fondamentale; TS = Tecnico-‐‑Specialistico
92 Seconda Parte
ITEM Parola Marca parola marca parola marca Parola marca parola Marca
con-‐‑
rifiuta-‐‑
1401 capito FO FO negato CO trad-‐‑ AU frainteso CO
to
detto
denun-‐‑ con-‐‑
sospet-‐‑
1402 assolto AU FO nun-‐‑ FO dan-‐‑ FO giudicato FO
tato
ciato nato
confu-‐‑
1403 chiaro FO scuro AU CO acuto AD banale AU
so
com-‐‑
paro-‐‑
1404 offese AU CO saluti FO pli-‐‑ CO regali FO
lacce
menti
asciut-‐‑
1405 secco FO umido AU AU grasso CO bagnato CO
to
abbat-‐‑ Solle-‐‑ affit-‐‑ ven-‐‑ edifican-‐‑
1406 CO AU CO FO CO
tendo vando tando dendo do
superfi-‐‑ pro-‐‑ dolo-‐‑
1407 AU FO esterna FO AD lunga FO
ciale fonda rosa
ITEM Parola Marca parola marca parola marca parola marca Parola Marca
con-‐‑
rifiuta-‐‑
1401 capito FO FO negato CO trad-‐‑ AU frainteso CO
to
detto
econo-‐‑ conve-‐‑ sco-‐‑ costo-‐‑
1402 FO CO AD AU Stretti AD
mici nienti modi si
denun-‐‑ con-‐‑
sospet-‐‑
1403 assolto AU FO nun-‐‑ FO dan-‐‑ FO giudicato FO
tato
ciato nato
1404 rapido FO lento FO Largo FO abile AU Svelto FO
confu-‐‑
1405 chiaro FO scuro AU CO acuto AD banale AU
so
affet-‐‑ edu-‐‑
1406 freddo CO caldo CO FO CO duro FO
tuoso cato
licen-‐‑ boc-‐‑
1407 assunta CO punita AU CO CO promossa CO
ziata ciata
abbat-‐‑ solle-‐‑ affit-‐‑ ven-‐‑ edifican-‐‑
1408 CO AU CO FO CO
tendo vando tando dendo do
Un’indagine sul valore aggiunto nella scuola primaria 93
Terza Parte
RISULTATI DELL’INDAGINE
Capitolo settimo
Andamento degli studenti
98 Terza Parte
Figura14. Frequenze delle percentuali di risposte esatte alla prova del 2005
(IV elementare) e a quella del 2006 (V elementare).
140
135
125
122
120
111
104
100
90
80 75
studenti
66
60
48
42 40
40
26
18
20 16
9
3
0
9
, 99
, 99
, 99
, 99
, 99
, 99
0
0-2 9,9
90 -10
30 -39
40 -49
50 -59
60 -69
70 -79
80 -89
Come accennato, nella prova somministrata nel 2006 sono stati inseri-‐‑
ti 58 item già presenti nel 2005. Tali item rappresentano il 40,28% del to-‐‑
tale. Si è scelto di non apportare alcuna variazione rispetto allo scorso
anno in 4 dei 15 esercizi somministrati: uno di comprensione della lettu-‐‑
ra (testo informativo breve), uno di grammatica (“scegli il verbo coniu-‐‑
gato bene”), l’esercizio sull’uso del registro (“Scegli la frase giusta”),
l’esercizio di alfabetizzazione della lettura (“Gianni a casa da solo”). Gli
item di ancoraggio contenuti in questi esercizi sono 26. I restanti item di
ancoraggio sono stati inseriti all’interno di altri 7 esercizi. Si tratta
dell’esercizio di ortografia (“Correggi gli errori di Gianni”), del cloze mi-‐‑
rato di grammatica (“Riempi i buchi nel testo”), del secondo esercizio
sui verbi (“Coniuga i verbi”) e dei quattro esercizi sul lessico.
Gli item prescelti presentavano, nel 2005, un indice medio di facilità
(0,55) inferiore a quello dell’intera prova (0,60). Nella prova “in uscita”
gli stessi item evidenziano invece un indice medio di facilità (0,67) leg-‐‑
germente superiore a quello dell’intera prova (0,65). Se si prescinde da
questa differenza, tra gli item di ancoraggio si riscontrano gli stessi sco-‐‑
stamenti registrati tra le due prove: anche la distribuzione dei punteggi
degli item di ancoraggio nel 2006 si fa decisamente asimmetrica (grafici
5 e 6), mentre il coefficiente di variazione decresce (tabella 55). Inoltre, la
correlazione tra i punteggi ottenuti dagli studenti nei due anni agli item
di ancoraggio è pari a 0,81 (tabella 56).
Si segnala inoltre che nel 2005 la correlazione tra i punteggi ottenuti
dagli studenti agli item di ancoraggio e i punteggi ottenuti all’intera
prova corrisponde a quella registrata tra i due punteggi nel 2006 (in en-‐‑
trambi i casi è pari a 0,95, vedi tabella 56). La tabella (24), infine, mostra
l’andamento dei gli studenti ai singoli esercizi nei due anni.
Tabella 24. Dati sugli item di ancoraggio presenti nelle due prove.
2005 (IV elementare) Item di Ancoraggio 2006 (V elementare)
515 Studenti 515
58 Item 58
0,94 Alfa di Cronbach 0,95
32,36 (55,80% r. esatte) Media 39,03 (67,30% r. esatte)
0,38 E. S. della Media 0,38
9 (15,52% r. esatte) Punteggio Minimo 14 (24,14% r. esatte)
55 (94,83% r. esatte) Punteggio Massimo 58 (100% r. esatte)
8,72 Deviazione std. 8,72
26,98% Coefficiente di Variazione 22,35%
100 Terza Parte
Tabella 25. Correlazioni tra i punteggi ottenuti alla prova del 2005, a quella
del 2006 e alle 58 domande di ancoraggio presenti nelle due prove. Correla-‐‑
zioni significative al livello 0,001.
Prova 2005
Figura 15. Frequenze di risposte esatte agli item di ancoraggio della prova del
2005 (IV elementare) e del 2006 (V elementare).
120
107
103 105 105
100 98
96
80
74
65
studenti
60 58
47 47
40 36
28
23
20
10 8 9 9
1 1
0
0-1 4
15 -19
20 -24
25 -29
30 -34
35 -39
40 -44
45 -49
50 -54
55 -58
Risultati dell’indagine 101
Tabella28. Correlazioni tra i risultati degli studenti nelle aree di competenza
Comprensione della lettura (CL), Lessico (LES), Grammatica (GRA), Ortogra-‐‑
fia (ORT) nella prova del 2005. Correlazioni significative al livello 0,001.
CL
LES 0,68
Tabella 29. Correlazioni tra i risultati degli studenti nelle aree di competenza
Comprensione della lettura (CL), Lessico (LES), Grammatica (GRA), Ortogra-‐‑
fia (ORT) nella prova del 2006. Correlazioni significative al livello 0,001.
CL
LES 0,75
Si segnala infine come le correlazioni tra i punteggi ottenuti nei due
anni presentino correlazioni elevate e significative (al livello 0,001) per
ciascuna area di competenza (0,77 per comprensione della lettura, 0,64
per lessico, 0,78 per grammatica, 0,63 per ortografia).
104 Terza Parte
riale delle sei variabili (CL, LES, GRA, ORT, AL, REG) con il metodo del-‐‑
le componenti principali (ACP). I primi due fattori prodotti da tale ana-‐‑
lisi spiegano rispettivamente il 55% e il 14% della varianza nella prova
del 2005 e il 57% e il 14% di quella del 2006. Le correlazioni dei primi fat-‐‑
tori prodotti nelle due prove con le sei variabili vengono presentate nella
tabella 32.
Tabella 32. Correlazioni tra i fattori ricavati dalle analisi delle componenti
principali e i punteggi delle aree di competenza delle prove. Correlazioni si-‐‑
gnificative al livello 0,001.
Prova 2005 Prova 2006
CL 0,88 CL 0,89
LES 0,81 LES 0,85
GRA 0,87 GRA 0,86
ORT 0,72 ORT 0,72
AL 0,61 AL 0,67
REG 0,50 REG 0,48
In entrambe le prove, il primo fattore dell’ACP può essere considera-‐‑
to un indicatore affidabile della competenza linguistica degli studenti. Si
è quindi scelto, dopo aver standardizzato i due fattori esprimendoli in
punti t, di utilizzarli come variabili, chiamate rispettivamente ITA05
(competenza linguistica nel 2005) e ITA06 (competenza linguistica nel
2006). Si segnala infine che le due variabili correlano in maniera signifi-‐‑
cativa (al livello 0,001) con il rendimento degli studenti nei due anni cal-‐‑
colato con il metodo IRT37.
Rendimento e caratteristiche degli studenti
Come sottolineato nella descrizione del campione (pp. 73-‐‑75), gli studen-‐‑
ti sono stati divisi in tre categorie a seconda del loro livello di istruzione
familiare (calcolato sulla base delle risposte fornite alle domande del
questionario riguardanti il titolo di studio dei genitori). Tale suddivisio-‐‑
ne consente l’analisi dei legami tra questa variabile e il rendimento degli
alunni.
37 La correlazione tra ITA05 e il rendimento degli studenti alla prova del 2005
calcolata con il metodo IRT è pari a 0,99. ITA06 correla 0,98 con il rendimento alla
prova del 2006 calcolato con il metodo IRT.
106 Terza Parte
Titolo madre ITA 06 Dev. st. n. Titolo padre ITA 06 Dev. st. n.
Diploma di sc. sec. 49,85 8,42 201 Diploma di sc. sec. 49,18 9,49 218
Lic. media o inf. 45,03 10,56 109 Lic. media o inf. 45,15 10,29 100
La relazione tra rendimento e titolo di studio dei genitori rimane so-‐‑
stanzialmente invariata se si considera l’intera prova o soltanto gli item
di ancoraggio (tabella 35).
Tabella 35. Livello di Istruzione Familiare (LIF) e rendimento degli studenti
alla prova del 2006 e ai soli item di ancoraggio. I punteggi sono espressi in
punti t. (ANOVA: F 27,24; p < ,000).
Item di
LIF ITA 06
Ancoraggio
Risultati dell’indagine 107
Come viene evidenziato nella tabella 36 e nel grafico in figura 17, il
legame tra rendimento degli studenti e titolo di studio dei genitori carat-‐‑
terizza anche le quattro aree di competenza. Le differenze maggiori tra
studenti con livelli di istruzione familiare opposti si registrano nella sca-‐‑
la di lessico (dove si avvicinano a una deviazione standard), mentre in
ortografia si annota il minor scarto.
Tabella 36. Livello di istruzione familiare (LIF) e rendimento nell’intera pro-‐‑
va del 2006 e nelle aree competenza comprensione della lettura (CL), lessico
(LES), grammatica (GRA), ortografia (ORT). I punteggi sono espressi in punti
t.
Figura 16. Rendimento degli studenti alla prova del 2006 (ITA 06) e livello di
istruzione familiare.
60
Punteggio 2006
55
50
45
40
BASSO ALTO
Figura 17. Rendimento nel 2006 degli studenti nelle quattro aree di compe-‐‑
tenza e livello di istruzione familiare.
Risultati dell’indagine 109
Il rendimento degli studenti mostra legami significativi non solo con
il titolo di studio dei genitori ma anche con altre variabili di sfondo, co-‐‑
me il numero di libri posseduti (figura 18) e l’italiano parlato a casa (fi-‐‑
gura 19). Anche questi dati, come il titolo di studio dei genitori, sono sta-‐‑
ti raccolti attraverso il questionario somministrato agli studenti al termi-‐‑
ne delle prove.
Figura 18. Risposte alla domanda sui libri a casa e rendimento nel 2006.
Figura 19. Risposte alla domanda sull’italiano parlato a casa e rendimento nel
2006.
110 Terza Parte
__
Risultati dell’indagine 111
Figura 21. Differenze di rendimento tra le due prove (ITA 06 – ITA 05) e livel-‐‑
lo di istruzione familiare degli studenti (LIF).
112 Terza Parte
L’incremento delle differenze tra il rendimento degli studenti aventi
genitori con diversi livelli di istruzione caratterizza sia la prova nel suo
complesso sia le quattro aree di competenza. Tuttavia, la “forbice” mo-‐‑
stra ampliamenti significativi (tabella 39) ed evidenti (figura 22) nei soli
punteggi di Lessico.
Tabella 39. Livello di istruzione familiare, punteggi degli studenti nel 2005 e
nel 2006 nelle aree di competenza comprensione della lettura (CL), lessico
(LES), grammatica (GRA), ortografia (ORT) e differenza nel rendimento tra
un anno e l’altro.
Livello di Istruzione Familiare
Anno
AREA (differenza di ALTO BASSO
Punteggio)
2006 53,27 46,40
Il rapporto tra il rendimento nelle due prove e le altre variabili di
sfondo degli studenti (lingua parlata a casa, libri posseduti) presenta di-‐‑
namiche del tutto simili a quelle evidenziate dal livello di istruzione fa-‐‑
miliare.
Risultati dell’indagine 113
Figura 22. Rendimento (in punti t) nella prova del 2005 e in quella del 2006 degli stu-‐‑
denti con livello di istruzione familiare (LIF) alto e con livello di istruzione familiare
alto nelle aree di competenza comprensione della lettura (CL), lessico (LES), gramma-‐‑
tica (GRA), ortografia (ORT).
56
54
52
punteggi alle prove (punti t)
50
48
46
44
2005 (IV el.) 2006 (V el.)
CL (LIF ALTO) CL (LIF BASSO) LES (LIF ALTO) LES (LIF BASSO)
GRA (LIF ALTO) GRA (LIF BASSO) ORT (LIF ALTO) ORT (LIF BASSO)
147
Capitolo ottavo
Le scuole, le classi, gli insegnanti
Tabella 40. Rendimento medio (ITA 06), coefficiente di variazione (C. V.) ed
errore standard della media (E. S.) degli studenti nelle scuole alla prova del
2006. (ANOVA: F 3,35; p < ,000).
Tabella 41. Punteggio medio (ITA 06) e anni di studio dei genitori degli stu-‐‑
denti negli undici istituti.
Anni di studio
Istituto ITA 06
dei genitori
XII 53,66 16,16
XIV 53,18 15,73
XX 52,02 15,17
XIII 51,55 16,74
XI 49,59 14,83
XXI 48,54 13,44
XV 48,52 14,52
XVI 47,67 12,26
XIX 47,52 11,41
XVII 46,99 11,78
XVIII 45,00 10,33
F 3,35 F 17,195
ANOVA
p < ,000 p < ,000
L’analisi della varianza del rendimento alla prova del 200638 eviden-‐‑
zia come il fattore scuola “spieghi” il 5,95% dei risultati degli studenti. Si
tratta di una percentuale in linea con quanto emerso (vedi prima parte)
nella letteratura di riferimento. La classificazione delle scuole basata sul
rendimento grezzo degli studenti, riflettendo in maniera significativa lo
stato socio-‐‑culturale dell’utenza degli istituti, non sembra dunque in
grado di fornire indicazioni utili riguardo all’efficacia
dell’insegnamento.
38 Condotta con metodo ANOVA univariata software SPSS.
Risultati dell’indagine 117
Figura 23. Correlazione tra rendimento degli studenti alla prova del 2006 e
anni di studio dei genitori. Dati aggregati a livello di istituto.
55
54 XII
XIV
53
XX
52
XIII
51
50
ITA 06
XI
49
XXI
XV
48 XVI
XIX
47 XVII
46
R quadro lineare = 0,84
45 XIX
44
10 11 12 13 14 15 16 17
Anni di studio dei genitori
Dalla IV alla V elementare: differenze nelle prestazioni a livello di
istituto
Se si procede a un confronto tra i punteggi aggregati a livello di istituto
ottenuti dagli studenti alla prova “in uscita” con quelli ottenuti l’anno
precedente (tabella 42), risulta evidente come l’allargamento della forbi-‐‑
ce tra il profitto degli studenti con diverse caratteristiche socio-‐‑culturali
si rifletta significativamente sulle “classifiche” di rendimento delle scuo-‐‑
118 Terza Parte
Le classi e gli insegnanti
Se dai dati aggregati per istituto si passa a quelli aggregati per classe, si
registra in primo luogo una varianza significativa nei risultati di classi
all’interno della stessa scuola. Come si può notare (tabella 43), in quattro
istituti (scuole XIII, XV, XIX, XX) esistono differenze tra una classe e
l’altra dell’ordine di una deviazione standard dell’intero campione.
Va inoltre sottolineato come, rispetto al livello di istituto, a questo li-‐‑
vello di aggregazione dei dati si evidenzi una notevole attenuazione del
legame tra il rendimento medio degli studenti e gli anni di studio dei lo-‐‑
ro genitori (figura 24). La quota di varianza nel rendimento degli stu-‐‑
Risultati dell’indagine 119
denti alla prova del 200639 spiegata dal fattore classe raggiunge il
15,52%.
Va notato inoltre che alcuni insegnanti lavorano in più classi, è dun-‐‑
que possibile aggregare i punteggi degli studenti prendendo in conside-‐‑
razione l’educatore di riferimento (tabella 44). A questo livello di aggre-‐‑
gazione dei dati si registrano le stesse dinamiche del precedente riguar-‐‑
do all’attenuazione del legame tra rendimento medio degli studenti e
anni di studio dei loro genitori (figura 25) e alla quota di varianza dei ri-‐‑
sultati degli studenti spiegata da quello che, con molta cautela, può esse-‐‑
re definito fattore “insegnante”, che è pari al 14,63%.
Il fattore classe, rispetto al fattore scuola, risulta dunque maggior-‐‑
mente correlato con il rendimento degli studenti. Come evidenziato nel-‐‑
la prima parte, negli studi sull’efficacia scolastica degli ultimi venticin-‐‑
que anni l’evidenza empirica suggerisce che tanto più i fattori presi in
considerazione sono vicini ai processi educativi tanto maggiore risulta
essere il loro peso sugli esiti. Tali risultati hanno portato alcuni ricercato-‐‑
ri a mettere in discussione l’utilità di un sistema di accountability basato
esclusivamente su misure del rendimento degli studenti aggregate a li-‐‑
vello di istituto, che vengono ritenute scarsamente informative.
39 Condotta con metodo ANOVA univariata software SPSS.
120 Terza Parte
Tabella 43. Rendimento medio, coefficiente di variazione (C. V.), errore stan-‐‑
dard della media (E. S.) degli studenti nelle classi alla prova del 2006. Le clas-‐‑
si sono raggruppate per istituti (ANOVA: F 2,37; p < ,000).
Classe ITA 06 C. V. E. S. Classe ITA 06 C. V. E. S.
1101 51,06 19,30 2,39 1601 51,98 17,97 2,95
1102 48,11 19,89 2,89 1602 46,42 27,69 4,06
1103 48,50 18,97 2,17 1603 45,30 21,11 2,65
1104 50,21 17,50 2,13 1701 48,96 23,25 2,94
1202 53,67 12,77 1,90 1702 45,42 16,68 2,10
1203 50,21 20,79 2,61 1703 46,17 21,38 2,98
1204 55,79 16,04 1,83 1801 43,35 17,93 2,34
1205 53,87 11,16 1,38 1802 46,82 18,63 2,76
1301 52,82 12,56 1,71 1901 42,95 34,83 4,73
1302 51,74 15,86 2,12 1902 40,36 19,54 2,98
1303 56,96 11,62 1,84 1903 50,56 16,71 1,99
1304 48,28 23,47 3,27 1904 50,48 21,72 2,93
1305 47,76 21,75 2,78 2001 48,12 22,04 3,35
1401 51,92 17,46 2,27 2002 44,84 19,11 2,29
1402 54,63 11,65 1,70 2003 58,69 12,19 1,91
1501 51,49 17,90 2,46 2004 55,10 13,47 1,92
1502 48,08 16,93 2,88 2101 49,65 22,84 2,93
1503 43,95 28,22 3,01 2102 48,26 22,27 2,87
1504 52,10 21,77 3,42 2103 46,73 35,01 6,18
Risultati dell’indagine 121
Il seguente grafico può essere confrontato con quello dei dati aggregati a
livello di istituto (figura 23), che evidenzia una tendenza maggiore dei
punti ad aggregarsi intorno alla retta (con un R quadro pari a 0,85).
Figura 24. Correlazione tra punteggi degli studenti alla prova del 2006 e anni
di studio dei genitori. Dati aggregati per classi.
60
58
56
54
52
50
ITA 06
48
46
44
42
40
R quadro lineare = 0,35
38
8 10 12 14 16 18 20
Anni di studio dei genitori
122 Terza Parte
Tabella 44. Rendimento medio, coefficiente di variazione (C. V.), errore stan-‐‑
dard della media (E. S.) degli studenti alla prova del 2006. Dati aggregati per
insegnanti. (ANOVA: F 3,09; p < ,000)
Insegnante ITA 06 C. V. E. S. Insegnante ITA 06 C. V. E. S.
XI 1 49,90 19,39 1,83 XVI 1 51,98 17,97 2,95
XI 2 49,33 18,06 1,51 XVI 2 46,42 27,69 4,06
XII 1 53,67 12,77 1,90 XVI 3 45,30 21,11 2,65
XII 2 50,21 20,79 2,61 XVII 1 47,32 20,70 1,85
XII 3 54,94 14,13 1,18 XVII 2 46,17 21,38 2,98
XIII 1 53,70 13,76 1,13 XVIII 1 43,35 17,93 2,34
XIII 2 48,00 22,12 2,08 XVIII 2 46,82 18,63 2,76
XIV 1 51,92 17,46 2,27 XIX 1 41,88 29,33 2,98
XIV 2 54,63 11,65 1,70 XIX 2 50,52 18,73 1,67
XV 1 51,49 17,90 2,46 XX 1 48,12 22,04 3,35
XV 2 48,08 16,93 2,88 XX 2 44,84 19,11 2,29
XV 3 43,95 28,22 3,01 XX 3 58,69 12,19 1,91
XV 4 52,10 21,77 3,42 XX 4 55,10 13,47 1,92
XXI 1 48,98 22,22 2,02
XXI 2 46,73 35,01 6,18
Anche in questo caso è utile un confronto tra questo grafico e quello
relativo ai dati aggregati a livello di istituto (figura 23).
Risultati dell’indagine 123
Figura 25. Correlazione tra punteggi degli studenti alla prova del 2006 e anni
di studio dei genitori. Dati aggregati a livello di insegnante.
Gli insegnanti: punteggi medi dei loro studenti e anni di studio dei genitori dei
loro studenti
60
58
56
54
52
50
ITA 06
48
46
44
42
38
8 10 12 14 16 18 20
Anni di studio dei genitori
124 Terza Parte
Tabella 45. Rendimento alla prova del 2006, dati aggregati a livello di scuole, inse-‐‑
gnanti, classi.
ITA 06 ITA 06 ITA 06
(ANOVA: (ANOVA: (ANOVA:
SCUOLA INSEGNANTE CLASSE
F 3,35 F 3,09 F 2,37
p < ,000) p < ,000) p < ,000)
1101 51,06
XI 1 49,90
1102 48,11
XI 49,59
1103 48,50
XI 2 49,33
1104 50,21
XII 1 53,67 1202 53,67
XII 2 50,21 1203 50,21
XII 53,66
1204 55,79
XII 3 54,94
1205 53,87
1301 52,82
XIII 1 53,70 1302 51,74
XIII 51,55 1303 56,96
1304 48,28
XIII 2 48,00
1305 47,76
XIV 1 51,92 1401 51,92
XIV 53,18
XIV 2 54,63 1402 54,63
XV 1 51,49 1501 51,49
XV 2 48,08 1502 48,08
XV 48,52
XV 3 43,95 1503 43,95
XV 4 52,10 1504 52,10
XVI 1 51,98 1601 51,98
XVI 47,67 XVI 2 46,42 1602 46,42
XVI 3 45,30 1603 45,30
1701 48,96
XVII 1 47,32
XVII 46,99 1702 45,42
XVII 2 46,17 1703 46,17
XVIII 1 43,35 1801 43,35
XVIII 45,00
XVIII 2 46,82 1802 46,82
1901 42,95
XIX 1 41,88
1902 40,36
XIX 47,52
1903 50,56
XIX 2 50,52
1904 50,48
XX 1 48,12 2001 48,12
XX 2 44,84 2002 44,84
XX 52,02
XX 3 58,69 2003 58,69
XX 4 55,10 2004 55,10
2101 49,65
XXI 1 48,98
XXI 48,54 2102 48,26
XXI 2 46,73 2103 46,73
Risultati dell’indagine 125
Tabella 48. ANOVA, media dei punteggi di efficacia tra gli insegnanti.
Tabella 49. ANOVA, media dei punteggi di efficacia tra le classi.
Tabella 51. Quote di varianza spiegata dai livelli di aggregazione dei dati isti-‐‑
tuto, insegnante e classe sul rendimento degli studenti alla prova del 2006
(nelle aree di competenza comprensione della lettura, lessico, grammatica, or-‐‑
tografia) e sul residuo della regressione del rendimento nelle quattro aree di
competenza effettuata utilizzando gli anni di studio dei genitori come varia-‐‑
bile di controllo.
Fattori
(livello di aggregazione dei dati)
ISTITUTO INSEGNANTE CLASSE
dei punteggi di com-‐‑
Varianza (%)
(LES 06)
dei punteggi LES 06 al
netto degli anni di studio 1,31 10,11 10,99
dei genitori
dei punteggi di gramma-‐‑
Varianza (%)
(GRA 06)
dei punteggi GRA 06 al
netto degli anni di studio 1,81 9,62 10,94
dei genitori
dei punteggi di ortogra-‐‑
Varianza (%)
(ORT 06)
dei punteggi ORT 06 al
netto degli anni di studio 2,10 11,29 13,17
dei genitori
130 Terza Parte
lore aggiunto (VA1L) siano quelli (XIV, XIII, XII) che ospitano utenze ca-‐‑
ratterizzate da elevati livelli di istruzione familiare. Al contrario, le scuo-‐‑
le con i punteggi inferiori di VA1L (XVI, XVII, XIX), sono quelle frequen-‐‑
tate da studenti con livelli più bassi di istruzione familiare. Va eviden-‐‑
ziato come la variabile VA1L correli 0,19 (con livello di significatività pa-‐‑
ri a 0,001) con la variabile anni di studio dei genitori degli studenti.
Tabella 52. Valore aggiunto (VA1L) aggregato per istituto, calcolato sulla base
del solo rendimento degli studenti nel 2005 e espresso in punti t, e anni di
studio dei genitori degli studenti.
Anni di studio
Istituto VA1L E. S. dei genitori de-‐‑
gli studenti
XIV 54,08 2,24 15,73
XIII 52,76 1,10 16,74
XII 51,29 1,17 16,16
XV 50,47 1,42 14,52
XXI 49,87 1,40 13,44
XX 49,24 1,26 15,17
XI 48,90 1,35 14,83
XVIII 48,64 2,46 10,33
XVI 47,98 1,97 12,26
XIX 47,51 1,24 11,41
XVII 47,49 1,48 11,78
F 2,02 F 17,195
ANOVA
p < ,029 p < ,000
Si è quindi proceduto calcolando un secondo indicatore di valore ag-‐‑
giunto, inserendo stavolta nella formula di regressione, insieme al ren-‐‑
dimento degli studenti nel 2005 (ITA05), la variabile anni di studi dei
genitori come covariata. Dal residuo si ottiene così la variabile VA2L. Il
valore aggiunto così calcolato è quindi dato dalla differenza tra il ren-‐‑
dimento degli studenti alla prova del 2006 (ITA06) e il rendimento atteso
calcolato sulla base del loro punteggio alla prova del 2005 (ITA05) e de-‐‑
gli anni di studio dei loro genitori.
Questo secondo indicatore di valore aggiunto correla 0,97 con il pre-‐‑
cedente (VA1L). Tuttavia la tabella 53, che classifica gli istituti sulla base
del VA2L, mostra una graduatoria delle scuole ben diversa dalla prece-‐‑
dente. In primo luogo va sottolineato come le distanze tra gli istituti si
riducano sensibilmente e che la statistica, in questo caso, non risulti si-‐‑
132 Terza Parte
Figura 26. Correlazioni tra misure del valore aggiunto (VA1L) e anni di studio
dei genitori. Dati aggregati a livello di scuola.
55
54
53
52
51
VA1L
50
49
48
47
46
45
9 11 13 15 17
anni di studio dei genitori
Figura 27. Correlazioni tra misure del valore aggiunto (VA2L) e anni di studio
dei genitori. Dati aggregati a livello di scuola.
54
53
52
51
50
VA2L
49
48
47
46
45
9 11 13 15 17
anni di studio dei genitori
134 Terza Parte
(VA1L)
Del valore aggiunto
calcolato utilizzando
come covariate il ren-‐‑
1,72% 9,76% 10,97%
dimento nel 2005 e il
livello di istruzione
familiare (VA2L)
A incidere in maniera significativa sull’incremento nel rendimento
degli studenti è dunque quel che avviene all’interno delle classi, dato
che conferma l’importanza attribuita dalla letteratura di ricerca al “fatto-‐‑
re” insegnante. Va però evidenziato (tabelle 55 e 56) come le misure del
valore aggiunto (VA1L e VA2L) degli insegnanti delle scuole XI e XIX
varino sensibilmente a seconda delle classi di riferimento: l’efficacia de-‐‑
gli educatori così misurata è influenzata dunque da dinamiche legate al-‐‑
lo specifico contesto di classe nel quale lavora. Questa ultima considera-‐‑
zione suggerisce prudenza rispetto all’attribuzione dei residui a livello
di classe al singolo insegnante.
40 Sul livello insegnante, vedi p. 133.
Risultati dell’indagine 135
Tabella 55. Valore aggiunto calcolato utilizzando solo il rendimento nel 2005
come covariata (VA1L), aggregato a livello di scuola, insegnante, classe. Pun-‐‑
teggi espressi in punti t.
VA1L (sc.) VA1L (ins.) VA1L (cl.)
(ANOVA: (ANOVA: (ANOVA:
SCUOLA INSEGNANTE CLASSE
F 2,026 F 2,332 F 1,897
p < ,029 p < ,000 p < ,000
1101 43,35
XI 1 46,25
1102 50,72
XI 48,90
1103 52,85
XI 2 51,02
1104 49,08
XII 1 53,02 1202 53,02
XII 2 48,70 1203 48,69
XII 51,29
1204 52,11
XII 3 51,74
1205 51,27
1301 55,02
XIII 1 54,93 1302 54,65
XIII 52,76 1303 55,14
1304 49,40
XIII 2 49,17
1305 48,98
XIV 1 58,06 1401 58,06
XIV 54,08
XIV 2 49,53 1402 49,53
XV 1 53,11 1501 53,11
XV 2 50,41 1502 50,41
XV 50,47
XV 3 47,31 1503 47,31
XV 4 52,04 1504 52,04
XVI 1 48,70 1601 48,70
XVI 47,98 XVI 2 48,47 1602 48,47
XVI 3 47,04 1603 47,04
1701 47,77
XVII 1 47,32
XVII 47,49 1702 46,79
XVII 2 47,94 1703 47,94
XVIII 1 43,99 1801 43,99
XVIII 48,64
XVIII 2 53,75 1802 53,75
1901 45,13
XIX 1 44,06
1902 42,53
XIX 47,51
1903 51,37
XIX 2 49,35
1904 46,76
XX 1 42,09 2001 42,09
XX 2 46,35 2002 46,35
XX 49,24
XX 3 53,87 2003 53,87
XX 4 52,39 2004 52,39
2101 49,55
XXI 1 49,03
XXI 49,87 2102 48,47
XXI 2 53,37 2103 53,37
136 Terza Parte
Tabella 56. Valore aggiunto calcolato utilizzando come covariate il rendimen-‐‑
to nel 2005 e il livello di istruzione familiare (VA2L), aggregato a livello di
scuola, insegnante, classe. Punteggi espressi in punti t.
VA2L (sc.) VA2L (ins.) VA2L (cl.)
ANOVA ANOVA ANOVA
SCUOLA INSEGNANTE CLASSE
F ,88 F 1,95 F 1,589
p < ,551 p < ,003 p < ,017
1101 43,16
XI 1 45,83
1102 49,96
XI 48,61
1103 52,88
XI 2 50,83
1104 48,67
XII 1 52,55 1202 52,55
XII 2 48,47 1203 48,47
XII 50,50
1204 51,30
XII 3 50,64
1205 49,80
1301 53,32
XIII 1 53,44 1302 52,70
XIII 51,51 1303 54,41
1304 48,88
XIII 2 48,32
1305 47,84
XIV 1 57,28 1401 57,28
XIV 53,47
XIV 2 49,12 1402 49,12
XV 1 53,33 1501 53,33
XV 2 50,13 1502 50,13
XV 50,27
XV 3 46,74 1503 46,74
XV 4 51,93 1504 51,93
XVI 1 50,49 1601 50,49
XVI 48,98 XVI 2 48,55 1602 48,55
XVI 3 48,16 1603 48,16
1701 48,73
XVII 1 48,41
XVII 48,72 1702 48,04
XVII 2 49,52 1703 49,52
XVIII 1 45,95 1801 45,95
XVIII 50,52
XVIII 2 55,56 1802 55,56
1901 45,33
XIX 1 45,13
1902 44,84
XIX 48,98
1903 52,63
XIX 2 51,03
1904 48,97
XX 1 41,13 2001 41,13
XX 2 45,81 2002 45,81
XX 48,91
XX 3 53,57 2003 53,57
XX 4 52,64 2004 52,64
2101 49,14
XXI 1 49,23
XXI 50,27 2102 49,32
XXI 2 54,57 2103 54,57
Risultati dell’indagine 137
dove
γ00 è il rendimento medio complessivo;
Rit è il rendimento in italiano di uno studente i nell’anno t;
Rit-‐‑1 è il rendimento dello studente nell’anno precedente;
Fi06 è un vettore degli anni di studio dei genitori degli studenti corre-‐‑
lato al loro rendimento nel 2006;
u0j è l’effetto sulla variabile dipendente della classe j-‐‑ma;
εij è il residuo della regressione per ogni studente.
Facendo uso dei modelli gerarchici per calcolare nuovamente gli in-‐‑
dicatori di efficacia sin qui utilizzati, si ottengono residui individuali
correlati al livello 0,98 con i corrispettivi ricavati sulla base delle regres-‐‑
sioni lineari tradizionali. A dispetto di tale correlazione (che si riflette su
una sostanziale identità nelle posizioni degli istituti nelle diverse gra-‐‑
duatorie di efficacia), gli indicatori calcolati utilizzando i modelli gerar-‐‑
chici evidenziano una regressione verso la media tale da non consentire
l’individuazione di istituti e classi significativamente efficaci (o ineffica-‐‑
ci). È dunque consigliabile l’utilizzo di tali analisi in presenza di cam-‐‑
pioni più numerosi di scuole e classi.
Distribuzione del valore aggiunto all’interno della popolazione
Sono state sin qui espresse riserve nei riguardi dell’impiego, ai fini di ac-‐‑
countability di istituti e insegnanti, del valore aggiunto calcolato inseren-‐‑
do nella funzione di regressione soltanto il rendimento precedente degli
studenti come variabile di controllo. Tali perplessità, tuttavia, non im-‐‑
pediscono di osservare come l’indicatore fornisca una utile misura
dell’andamento degli studenti al termine di un dato anno di istruzione,
una volta preso in considerazione il loro precedente livello di rendimen-‐‑
to. L’indicatore fornisce dunque una misura dell’incremento nel rendi-‐‑
mento relativo di ciascuno studente.
La tabella 57 riporta la distribuzione del valore aggiunto (variabile
VA1L, calcolata utilizzando il solo rendimento nel 2005 come variabile
di controllo) all’interno della popolazione a seconda del livello di istru-‐‑
zione familiare (LIF42) degli studenti. Per facilitare il confronto tra le di-‐‑
stribuzioni dei punteggi, la popolazione è stata suddivisa in terzili sia
42 Per la costruzione di questa variabile, vedi pp. 73-‐‑74.
Risultati dell’indagine 139
rispetto alla variabile VA1L sia rispetto alla variabile LIF. È degno di no-‐‑
ta il fatto che con “basso” valore aggiunto si fa riferimento a punteggi al
di sotto dello zero (si tratta infatti di saldi negativi tra valore ottenuto e
valore atteso): in tal caso sembra più corretto ragionare in termini di va-‐‑
lore sottratto piuttosto che aggiunto.
Osservando la tabella 57 e le figure 28 e 29 si può notare come solo il
22% degli studenti con un basso livello di istruzione familiare ottenga
un valore aggiunto elevato, mentre tale percentuale raddoppia se si
prendono in considerazione gli studenti con un alto livello di istruzione
familiare. La distribuzione del valore aggiunto all’interno della popola-‐‑
zione risulta dunque estremamente iniqua.
Tabella 57. Distribuzione del valore aggiunto a seconda del livello di istruzione fami-‐‑
liare. Percentuali per riga.
Valore Aggiunto (VA1L)
ALTO MEDIO BASSO
Livello di ALTO 67 (44,08%) 42 (33,87%) 35 (23,03%)
istruzione MEDIO 78 (32,64%) 80 (33,47%) 81 (33,89%)
familiare
(LIF) BASSO 27 (21,77%) 50 (32,89%) 55 (44,35%)
Figura 28. Distribuzione del valore aggiunto (VA1L) tra gli studenti con alto
livello di istruzione familiare.
23%
33%
140 Terza Parte
Figura 28. Distribuzione del valore aggiunto (VA1L) tra gli studenti con basso
livello di istruzione familiare.
22%
34%
Conclusioni
Misure del valore aggiunto possono avere spazio nei processi di au-‐‑
tovalutazione degli istituti (a tal fine è ovviamente necessaria la collabo-‐‑
razione tra più scuole). Una raccolta longitudinale delle prestazioni degli
studenti fornisce non solo un’informazione immediata sui loro livelli di
rendimento, ma anche la base per misurare il miglioramento (o il peg-‐‑
gioramento) che, anno dopo anno, gli alunni di una classe o di una
scuola registrano se confrontati con l’intera popolazione studentesca
coinvolta nel processo di autovalutazione. Se la gamma di misure del
rendimento degli studenti non si limita a una materia, è possibile anche
confrontare il valore aggiunto da classi e istituti rispetto a diversi ap-‐‑
prendimenti degli studenti.
Può essere inoltre utile osservare, raggruppando gli alunni a seconda
di caratteristiche come il rendimento nell’anno precedente o il livello di
istruzione familiare, la distribuzione del valore aggiunto tra studenti
dello stesso istituto. Per questa operazione, che fornisce indicazioni
sull’equità dell’azione delle scuole, l’indicatore di efficacia più adatto è
quello che si ottiene inserendo nella formula di regressione, come unica
variabile di controllo, il rendimento degli studenti dell’anno precedente.
Il valore aggiunto così calcolato (VA1L) fornisce una misura
dell’andamento degli studenti in un dato anno scolastico rispetto alle
aspettative determinate dal loro precedente livello di rendimento.
Le figure (30 e 31) mostrano la distribuzione del valore aggiunto
(VA1L) all’interno di sette scuole partecipanti alla ricerca, considerando
rispettivamente (figura 30) il livello di istruzione familiare degli studenti
e (figura 31) il rendimento degli stessi l’anno precedente.
Come si può notare, molte delle scuole in questione “aggiungono va-‐‑
lore” in maniera diversa a seconda delle caratteristiche degli studenti via
via considerate. Se si prende in considerazione il livello di istruzione
familiare degli studenti (figura 30), appare evidente come negli istituti
XI e XXI siano soltanto gli studenti con un alto livello di istruzione fami-‐‑
liare a evidenziare valori positivi dell’indicatore, mentre nella scuola XX
i punteggi prescindono dalle caratteristiche socio-‐‑culturali degli alunni.
Se invece si considera il livello di rendimento in entrata degli studenti
(figura 31) si può apprezzare come negli istituti XV e XIX a evidenziare
punteggi negativi dell’indicatore siano gli studenti che nel 2005 appar-‐‑
tenevano al terzile con il punteggio meno elevato, mentre la scuola XII
mostra la tendenza opposta. Infine i punteggi di valore aggiunto
dell’istituto XIII non risultano correlati con il livello delle abilità “in en-‐‑
trata” degli studenti.
Risultati dell’indagine 143
1
valore aggiunto
XI
0
XX
-1
XXI
-2
-3
-4
basso medio alto
livello di istruzione familiare degli studenti
Figura 31. Distribuzione del valore aggiunto (calcolato utilizzando il solo
rendimento alla prova del 2005 come variabile di controllo) a seconda del
rendimento degli studenti alla prova del 2005 (terzile di appartenenza)
all’interno degli istituti XII, XIII, XV, XIX.
2
valore aggiunto
1 XII
XIII
0
XV
-1 XIX
-2
-3
basso medio alto
livello di rendimento degli studenti nel 2005
144 Terza Parte
Bibliografia
FITZ-‐‑GIBBON C. T. (1995), The Value Added National Project General Report: Issues to
be Considered in the Design of a National Value Added System, SCAA, Lon-‐‑
don.
FITZ-‐‑GIBBON C.T. (1996), Monitoring Education: Indicators, Quality and Effective-‐‑
ness, Cassell, London-‐‑New York.
FITZ-‐‑GIBBON C. T., KOCHAN S. (2000), School Effectiveness and Education Indicators,
in TEDDLIE C., REYNOLDS D. (ed.), pp. 257-‐‑280.
FREEMAN J., TEDDLIE C. (1997), A phenomenological examination of ‘naturally occur-‐‑
ring’ school improvement: Implication for democratization of school, Paper pre-‐‑
sented at the annual meeting of American Education Research Associa-‐‑
tion, New York.
GAY G. (a cura di, 2006), Valutazione degli apprendimenti disciplinari nella scuola di
secondo grado, IRER, Milano.
GENERAL ASSEMBLY OF PENNSYLVANIA (2002), House bill n. 45.
GIACOMANTONIO A. (2006), I fattori che influenzano gli esiti scolastici: vincoli, cultu-‐‑
ra, razionalità e progettualità, tesi di Dottorato di ricerca in Pedagogia Spe-‐‑
rimentale, a.a. 2004-‐‑2005.
GOLDHABER D. (2002), The Mystery of Good Teaching, in “Education Next”,
www.educationnext.org , pp. 50-‐‑55.
GOLDHABER D., ANTHONY E. (2002), Can Teacher Quality Be Effectively Assessed?,
www.educationnext.org .
GOLDSTEIN H., HUIKI P., RATH T. (2000), The use of value added information in judg-‐‑
ing school performance, www.ioe.uk
GOLDSTEIN H., SAMMONS P. (1997), The influence of secondary and junior schools on
sixteen year examination performance: a cross classified multilevel analysis, in
“School Effectiveness and School Improvement”, 8, pp. 219-‐‑231.
GOLDSTEIN H., WOODHOUSE G. (2000), School Effectiveness Research and Education-‐‑
al Policy, in “Oxford Review of Education”, 26, 3-‐‑4, pp. 353-‐‑363.
GOOD T.L. , BROPHY J.E. (1986), School Effects, in WITTROCK M., Third handbook of
Research on Teaching, Macmillan, New York, pp. 570-‐‑602
GORI E., BATTAUZ M. (2004), Quali prospettive dalla ricerca sulla qualità e l’efficacia
della scuola per la costruzione di sistemi di Accountability dell’istruzione, in
“Non Profit”, 10, pp. 473-‐‑490.
GORI E., VIDONI D. (2003), Valutazione dei risultati scolastici e misura del valore ag-‐‑
giunto, in BOTTANI N. e CENERINI A. (a cura di).
GRAY J., JESSON D., JONES B. (1986), The search for a fairer way of comparing schools’
examinations results, in “Research Papers in Education”, 1, 2, pp. 91-‐‑122.
GREEN et al. (1964), The Educational Status of Children in a District Without Public
Schools, Bureau of Educational Research, Michigan State University, East
Lansing.
Bibliografia 149
HANUSHEK E.A. (2003), The failure of input-‐‑based schooling policies, in “The Eco-‐‑
nomic Journal”, 113, February, pp. 64-‐‑98.
HANUSHEK E.A., RAYMOND M.E. (2002), Improving Educational Quality: How
Best to Evaluate Our Schools?, Presented at “Education in the 21st Century:
Meeting the Challenges of a Changing World Federal Reserve Bank of Boston,
June 19-‐‑21,
www.bos.frb.org/economic/conf/conf47/hanushekraymond.pdf.
HANUSHEK E. A., RAYMOND M. E. (2004) Does School Accountability Lead to
Improved Student Performance?, National Bureau of Economic Research,
www.nber.org/papers/w10591.
HAYCOCK K. (2004), The Real Value of Teachers: If good teachers matter, why don’t we
act like it?, in “Thinking K-‐‑16”, 8, 1, pp. 1-‐‑3.
HERDMAN P.A, SMITH N., DORAN H.C. (2002), Value-‐‑Added Analysis: A Critical
Component of Determining Adequate Yearly Progress, CFNN Policy Brief.
HERSHBERG T. (2004a), Value-‐‑Added Assessment: Powerful Diagnostic to Improve In-‐‑
struction and Promote Student Achievement, paper resented at “Women
Administrator Conference”.
HERSHBERG T. (2004b), The Real Value of Teachers: Using New Information about
Teacher Effectiveness to Close the Achievement Gap, in “Thinking K-‐‑16”, 8, 1,
pp. 3-‐‑32.
HERSHBERG T. (2004c), Getting the Most Value Out of Value-‐‑Added Data, in “Think-‐‑
ing K-‐‑16”, 8, 1, pp. 33-‐‑35.
HERSHBERG T. (2004d), The Opportunity Gap, in “Thinking K-‐‑16”, 8, 1, pp. 36-‐‑37.
HERSHBERG T. (2004e), How states, districts and schools are using value-‐‑added data,
in “Thinking K-‐‑16”, 8, 1, pp. 38-‐‑42.
HERSHBERG T., SIMON V.A., LEA-‐‑KRUGER B. (2004a), Measuring what matters: How
Value-‐‑Added assessment can be used to drive learning gains, in “American
School Board Journal”, February,
www.cgp.upenn.edu/pdf/measuring_what_matters.pdf.
HERSHBERG T., SIMON V.A., LEA-‐‑KRUGER B. (2004b), The Revelations of Value-‐‑
Added, in “The School Administrator”, December, pp. 10-‐‑14.
HILL P.W., ROWE K.J., HOLMES-‐‑SMITH P. (1995), Factors affecting students’ educa-‐‑
tional progress, paper presented at the 8th International Congress for
School Effectiveness and School Improvement, Leeuwarden.
HILL P.W., ROWE K.J. (1996), Multilevel modelling in School Effectiveness Research,
in “School Effectiveness and School Improvement”, 7, 1, pp. 21-‐‑36.
HUTCHINSON D., SCOTT E. (2003), Using National Value-‐‑Added Datasets to Explore
the Impact of School and Pupil Factors on Progress from Key Stage 2 to Key
Stage 4, Paper presented at the British Educational Research Annual Con-‐‑
ference, NFER, London.
150 Bibliografia
MILLMAN J. (ed., 1997), Grading Teachers, Grading Schools: Is Student Achievement a
Valid Evaluation Measure?, Corwin Press, Thousand Oaks.
MILLMAN J. (1997), How Do I Judge Thee? Let Me Count the Ways, in MILLMAN J.
(ed. 1997), pp. 243-‐‑247.
MORTIMORE P. et al. (1988), School Matters, Wells, Open Book, London.
MURNAME R.J. (1981), Interpreting the evidence on school effectiveness, in “Teacher
College Record”, 83, pp. 19-‐‑35.
NUTTALL D. (1991), An instrument to be honed: tables do not reflect schools’ true per-‐‑
formance, in “Time Educational”, 3924, 13 sept., p. 22.
PLOWDEN COMMITTEE (1967), Children and their primary schools, HMSO, London.
POSTLETHWAITE T.N., ROSS K.N. (1992), Effective schools in reading, IEA, Ham-‐‑
burg.
RAMPICHINI C. (2002), Introduzione ai modelli multilivello,
hal9000.cisi.unito.it/wf/DIPARTIMENT/Scienze_de/AISMetdo/Convegni/
La-‐‑rappres/Paperprog/udine2002.doc
REYNOLDS D., TEDDLIE C. (2000), The Processes of School Effectiveness, in TEDDLIE
C., REYNOLDS D. (ed.), pp. 134-‐‑159.
REYNOLDS D., TEDDLIE C. (2001), Reflections on the critics, and beyond them, in
“School Effectiveness and School Improvement”, 12, 1, pp. 99-‐‑113.
ROGOSA D., SANER D. (1995), Reply to discussants: Longitudinal data analysis exam-‐‑
ples with random coefficients models, in “Journal of Educational and Behav-‐‑
ioural Statistics”, 20, 2, pp. 234-‐‑238.
ROWE K.J. (2000), Assessment, Performance Indicators, League Tables, Value-‐‑Added
Measures and School Effectiveness? Consider the Issues and Let’s Get Real!,
www.are.edu.au
ROWAN B., CORRENTI R., MILLER R.J. (2002), What large-‐‑scale survey research
tells us about teacher effects on student achievement: Insights from the
Prospects study of elementary schools, in “Teachers College Record”,
104, 1525-‐‑1567.
RUTTER M. et al. (1979), Fifteen Thousand Hours: Secondary Schools and Their Effects
on Children, Open Books, London-‐‑Boston.
SAMMONS P. (2001), Fairer Comparisons of Schools: The role of school effectiveness re-‐‑
search in promoting improvement, Institute of Education, London.
SAMMONS P., NUTTALL D., CUTTANCE P. (1993), Differential school effectiveness: Re-‐‑
sults from a re-‐‑analysis of the Inner London Education Authority’s junior school
project data, in “British Educational Research Journal”, 19 (4), pp. 381-‐‑405.
SANDERS W.L., RIVERS J.C. (1996), Cumulative and Residuals Effects of Teachers on
Future Student Academic Achievement, Value-‐‑Added Research Center, Uni-‐‑
versity of Tennessee, Knoxville.
152 Bibliografia
SANDERS W.L., SAXTON A.M., HORN S.P. (1997), The Tennessee Value-‐‑Added Sys-‐‑
tem: A Quantitative, Outcome-‐‑Based Approach to Educational Assessment, in
MILLMAN J. (ed. 1997), pp. 137-‐‑162.
SANDERS W.L., WRIGHT S.P., ROSS S.M., WANG L.W. (2000), Value-‐‑Added Achieve-‐‑
ment Results for Three Cohorts of Roots and Wings Schools in Memphis: 1995-‐‑
1999 Outcomes, Center for Research in Educational Policy, University of
Memphis, Memphis.
SAS INSTITUTE (2006), SAS for Mixed Models.
SAUNDERS L. (1999a), ‘Value Added’ measurement of school effectiveness: a critical re-‐‑
view, NFER, Slough.
SAUNDERS L. (1999b), A brief history of educational “value added”: How did we get to
where we are?, in “School Effectiveness and School Improvement”, 10, 2,
pp. 233-‐‑256.
SAUNDERS L. (2003), Il valore aggiunto nella valutazione scolastica. Il punto di vista
inglese, in BOTTANI N., CENERINI A. (a cura di).
SCHAGEN I. (2003), Methods for Presenting Value-‐‑Added Analyses Effectively for a
Wider Audience, Paper presented at the Value Added Measures Advisory
Group, NFER, London.
SCHAGEN I., GOLDSTEIN H. (2002), Do Specialist Schools Add Value? Some methodo-‐‑
logical problems, Paper presented at the British Educational Research An-‐‑
nual Conference, NFER, London.
SCHAGEN I., SCHAGEN S. (2002), Using National Value-‐‑Added Datasets to Explore the
Effects of School Diversity, Paper presented at the British Educational Re-‐‑
search Annual Conference, NFER, London.
SCHAGEN I., BENTON T. (2003), The Relationship Between School and Pupil Back-‐‑
ground Factors and Progress from Key Stage 1 to Key Stage 2, Paper presented
at the British Educational Research Annual Conference, NFER, London.
SCHEERENS J. (1990), School effectiveness and the development of process indicators of
school functioning, in “School Effectiveness and School Improvement”,
1(1), pp. 61-‐‑80.
SCHEERENS J. (2000 a), Autovalutazione e uso delle informazioni nella scuola orientata
ai risultati, in BARZANÒ G., MOSCA S., SCHEERENS J. (2000), pp. 48-‐‑52.
SCHEERENS J. (2000 b), Improving School Effectiveness, UNESCO, Paris.
SCHEERENS J. (2004), Perspectives on Education Quality, Education Indicators and
Benchmarking, in SCHEERENS J., HENDRIKS M. (ed.), pp. 115-‐‑138.
SCHEERENS J., BOSKER R. (1997), The Foundations of Educational Effectiveness, Per-‐‑
gamon, Oxford.
SCHEERENS J., BRUMMELHUIS A.C.A. (1996), Process indicators on the functioning of
schools, paper presented at AERA annual meeting, New York.
Bibliografia 153
SCHEERENS J., DEMEUSE M. (2005), The Theoretical Basis of the Effective School Im-‐‑
provement Model (ESI), in “School Effectiveness and School Improve-‐‑
ment”, 16, 4, 2005, pp. 373-‐‑385.
SCHEERENS J., HENDRIKS M. (ed. 2004), Benchmarking the Quality of Education, in
“European Educational Research Journal”, pp. 101-‐‑399.
SINISCALCO M.T., MARANGON C. (2005), Gli studenti quindicenni nel Veneto: quali
competenze?, INVALSI-‐‑MIUR, Venezia.
SPOURS K., HODGSON A. (1996), Value Added & Raising Attainment: a Formative
Approach, BPES, Poole.
STONE J.E. (1999), Value Added Assessment: An Accountability Revolution”, in KAN-‐‑
STOROOM M., FINN E.J., Better Teachers, Better Schools, www.education-‐‑
consumers.com/articles/value_added_assessments, Thomas B. Fordham
Foundation, Washington
STONE J.E. (2002), The Value-‐‑Added Achievement Gains of NBPTS-‐‑Certified Teachers
in Tennessee: A Brief Report, East Tennessee State University, XXX.
SYKES G. (1997), On Trial: The Dallas Value-‐‑Added Accountability System, in MILL-‐‑
MAN J. (ed.), pp. 110-‐‑120.
TEDDLIE C., REYNOLDS D. (ed. 2000), The International Handbook of School Effective-‐‑
ness Research, Falmer, London-‐‑New York.
TEDDLIE C., REYNOLDS D., SAMMONS P. (2000), The Methodologies and Scientific
Properties of School Effectiveness Research, in C. TEDDLIE, D. REYNOLDS
(2000), pp. 55-‐‑133.
TEDDLIE C., STRINGFIELD S. (1985), A differential analysis of effectiveness in middle
and lower socioeconomic status school, in “Journal of Classroom Interaction”,
20, pp. 38-‐‑44.
TEDDLIE C., STRINGFIELD S. (1993), Schools Do Make A Difference, Teacher College
Press, New York.
THOMAS S. (1998), Value Added Measures of School Effectiveness in United Kingdom,
in “Prospects”, XXVIII, 1, pp. 91-‐‑108.
THOMAS S., MORTIMORE P. (1996), Comparison of value-‐‑added models for secondary
school effectiveness, in “Research Papers in Education”, 11, 1, pp. 5-‐‑33.
THRUPP M. (2001), Sociological and political concerns about school effectiveness re-‐‑
search: time for a new research agenda, in “School Effectiveness and School
Improvement”, 12, 1, pp. 7-‐‑40.
THRUPP M., MANSELL H., HAWKSWORTH L., HAROLD B. (2003), “Schools Can Make
a Difference”. But do Teachers, Heads and Governors Really Agree?, in “Ox-‐‑
ford Review of Education”, 29, 4, pp. 471-‐‑484.
THUM Y.M., BRYK A.S. (1997), Value-‐‑Added Productivity Indicators: The Dallas Sys-‐‑
tem, in MILLMAN J. (Ed.) (1997), pp. 100-‐‑110.
154 Bibliografia
TROWER P., VINCENT L. (1995), The Value Added National Project Technical report:
Secondary, SCAA, London.
TYMMS P. (1999), Baseline assessment, value-‐‑added and the prediction of reading, in
“Journal of Research in Reading, 22, 1, pp. 27-‐‑36.
TYMMS P. (1994), Monitoring school performance: A guide for educators, in “School
Effectiveness and School Improvement”, 5, 4, pp. 394-‐‑397.
VAN KESTEREN J.H.M. (1996), Doorlichten en herontwerpen van organisatiecom-‐‑
plexen, Groningen, University of Groningen.
VISALBERGHI A. (1988), Insegnare ed apprendere, La Nuova Italia, Firenze.
VISALBERGHI A. (a cura di, 1964), Educazione e condizionamento sociale, La Nuova
Italia, Firenze.
VISSCHER A., DIJKSTRA A.B., KARSTEN S., VEENSTRA R. (2003), Una carta dei principi
per la valutazione delle valutazioni scolastiche, in BOTTANI N., CENERINI A. (a
cura di).
WALBERG H.J. (1997), Assessment Requires Incentives to Add Value: A Review of the
Tennessee Value Added Assessment System, in MILLMAN J. (ed., 1997), pp.
169-‐‑178.
WEBER G. (1971), Inner City Children Can Be Taught to Read. Four Successful
Schools, Council for Basic Education, Washington.
WEBSTER J.W., MENDRO R.L. (1997), The Dallas Value-‐‑Added Accountability System,
in MILLMAN J. (Ed.) (1997), pp. 81-‐‑99.
WEBSTER J.W., MENDRO R.L., ORSAK T., WEERASINGHE D., BEMBRY K. (1997), Little
Practical Difference and Pie in the Sky: A Response to Thum and Bryk and a Re-‐‑
joinder to Sykes, in MILLMAN J. (Ed. 1997), pp. 111-‐‑120.
WIKELEY F., MURILLO J. (2005), Effective School Improvement: An Introduction, in
“School Effectiveness and School Improvement”, 16, 4, pp. 355-‐‑358.
WILLMS D. (1992) Monitoring School Performance: A Guide for Educators, Falmer
Press, London.
WILSON D. (2004), Which Ranking? The Impact of “Value-‐‑Added” Measure of Sec-‐‑
ondary School Performance, in “Public Money & Management”, January,
pp. 37-‐‑45.
WOESSMANN L. (2001), Why Students in Some Countries do Better, in “Education
Matters”, www.edmatters.org .
WRIGHT S.P., HORN S.P., SANDERS W.L. (1997), Teacher and classroom context effects
on student achievement: Implications for teacher evaluations, in “Journal of
Personnel Evaluation in Education”, 11, pp. 57-‐‑67.
Indice
Premessa Il valore da aggiungere di Pietro Lucisano ....................................................... VII
Introduzione ......................................................................................................................... XI
Prima parte. Misurare l'ʹefficacia scolastica
Il concetto di Efficacia Scolastica ..................................................................................... 3
Misurare gli effetti della scuola: il valore aggiunto ..................................................... 5
L’efficacia scolastica tra ricerca e accountability ............................................................ 8
L’efficacia scolastica tra ricerca e accountability ............................................................ 9
I primi studi: un inizio poco incoraggiante ................................................................. 11
Gli studi successivi: dentro la “scatola nera” .............................................................. 13
L’impiego dei modelli gerarchici .................................................................................. 16
Le classi “contano” .......................................................................................................... 20
Valore aggiunto e Accountability negli USA: Tennessee e Texas .............................. 32
Il TVAAS (Tennessee Value-‐‑Added Assessment System) ............................................ 32
Il funzionamento del TVAAS .............................................................................................. 34
Il DVAAS (Dallas Value-‐‑Added Accountability System) .............................................. 36
Il funzionamento del DVAAS .............................................................................................. 37
Il valore aggiunto in Inghilterra .................................................................................... 40
Validità del valore aggiunto come indicatore di Efficacia Scolastica ...................... 47
Valore aggiunto e Accountability: una relazione pericolosa ...................................... 49
1. Assenza di legami tra cause ed effetti, attribuzioni indebite di responsabilità ..... 50
2. Possibili iniquità delle misure ed effetti indesiderati ................................................. 51
3. Portata informativa e comprensibilità dell’indicatore di valore aggiunto ............. 52
Valore aggiunto e autovalutazione d’istituto ............................................................. 53
Seconda parte. Un’indagine sul valore aggiunto nella scuola primaria
Ipotesi della ricerca ......................................................................................................... 59
Il disegno della ricerca e le sue fasi .............................................................................. 60
Il campione ....................................................................................................................... 63
Capitolo sesto Gli strumenti ............................................................................................... 67
La rilevazione della competenza linguistica: il modello delle prove ...................... 67
1. Prove di competenza comunicativa e funzionale (esercizi 1, 8) ............................... 70
2. Prove di uso corretto della lingua (esercizi 2, 4, 6, 7) .................................................. 70
3. Prove di comprensione della lettura (esercizi 3, 5, 10, 11, 12) ................................... 71
4. Prove di conoscenza delle parole (esercizi 13,14, 1 5, 16) ........................................... 71
Le prove utilizzate nella presente ricerca .................................................................... 72
La prova in ingresso (2005) ............................................................................................ 72
156 Bibliografia
Finito di stampare nel mese di novembre 2008
dal Centro Stampa Nuova Cultura, Roma