Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
35 | 2004
L’università valutata
la società italiana / L’università valutata
La valutazione nell’insegnamento
universitario. Metodologia delle
prove strutturate e standardizzate
e trasparenza della relazione
didattica
Daniele Nigris
p. 23-57
https://doi.org/10.4000/qds.1107
Testo integrale
L’italiano ha un solo vero nemico: l’arbitro delle partite di calcio, perché emette un
giudizio.
(Flaiano, 1993, 6)
8 Si sancisce così l’autonomia dei singoli atenei per quanto riguarda anche la didattica,
in tutte le sue componenti. Gli esami di profitto vengono esplicitamente citati
all’articolo 11, Regolamenti didattici di ateneo (commi 1 e 7):
1. Le università disciplinano gli ordinamenti didattici dei propri corsi di studio nei
regolamenti didattici di ateneo che sono redatti nel rispetto, per ogni corso di
studio, delle disposizioni del presente regolamento e di successivi decreti
ministeriali, e che sono approvati dal Ministro ai sensi dell’articolo 11, comma 1,
della legge 19 novembre 1990, n. 341.
(…)
7. I regolamenti didattici di ateneo, nel rispetto degli statuti, disciplinano altresì gli
aspetti di organizzazione dell’attività didattica comuni ai corsi di studio, con
particolare riferimento:
(…)
c) alle procedure per lo svolgimento degli esami e delle altre verifiche di profitto,
nonché della prova finale per il conseguimento del titolo di studio;
d) alle modalità con cui si perviene alla valutazione del profitto individuale dello
studente, che deve comunque essere espressa mediante una votazione in
trentesimi per gli esami e in centodecimi per la prova finale, con eventuale lode.
10 La situazione legislativa è quindi mutata, almeno in parte, nel senso che – con
l’autonomia didattica – ogni ateneo, ogni facoltà e ogni corso di laurea possono stabilire
criteri generali e vincolanti per la forma della valutazione agli esami di profitto entro,
diciamo, uno stesso Corso di laurea; ovvero di lasciare una relativa autonomia ai
docenti, pur se entro un quadro comune; ovvero ancora di lasciare totale autonomia ai
docenti per quanto riguarda la scelta delle modalità di valutazione, in maniera di
privilegiare il criterio della libertà di insegnamento su quello dell’uniformità delle
valutazioni. Le uniche fonti affidabili per individuare gli eventuali vincoli che
incombono su un docente universitario sono oggi lo Statuto dell’ateneo entro il quale
ognuno svolge la propria attività, il relativo Regolamento didattico, e le eventuali
disposizioni della facoltà e del consiglio di corso di laurea.
11 L’autonomia del docente è pertanto molto ampia, anche se può variare a seconda
della sua sede di lavoro. I vincoli sono di fatto sono solo tre: l’obbligo di tenere esami
finali di profitto che si svolgano secondo una delle modalità indicate (forma scritta,
orale, o entrambe); l’impossibilità di modificare la modalità valutativa all’interno dello
stesso anno accademico per un certo corso; e appunto l’esistenza di eventuali
disposizioni delle strutture d’appartenenza volte ad omogeneizzare la valutazione.
12 Per il resto, il docente è libero sia di scegliere la modalità specifica della prova finale,
sia di decidere se integrare la valutazione con prove in itinere, colloqui, prove pratiche.
13 Ecco perché è di fatto impossibile fare un ragionamento sulla valutazione osservando
i dati aggregati: a parte il nodo delle differenze individuali nell’uso della scala di
valutazione (ovviamente risolvibile standardizzando i dati5), il problema risiede nella
notevole varietà di possibili forme di valutazione con cui lo studente può, all’interno del
suo percorso di studi, trovarsi a confronto: molti esami con sola prova orale; qualche
esame con sola prova scritta; magari uno o due esami con più prove scritte e una prova
orale; qualche esame con prove in itinere o tesine e prova orale finale; forse un esame
con prove pratiche e prova orale alla fine, e via dicendo. Questa situazione ingenera
senz’altro confusione nello studente, cui sfugge il senso di tanta difformità, ma
soprattutto lo porta a farsi delle domande: alla fine, in base a che cosa mi viene dato un
ventitré, anziché un ventiquattro? Quali sono i criteri in base a cui vengo giudicato? E
come mai i criteri del docente Verdi sono completamente diversi rispetto a quelli del
docente Bianchi, ma tutti e due fanno solamente esami orali, mentre il docente Rossi –
noto come bestia nera della facoltà – fa solo esami scritti, pur avendo un metro di
giudizio identico a quello di Bianchi?
14 Non è facile rispondere a queste domande, che a mio parere dovrebbe porsi non
soltanto uno studente, ma prima di tutto un corpo docente nella sua interezza.
Proviamo allora a riflettere sulle pratiche effettivamente seguite, al di là dei disposti di
legge.
2. Pratiche sociali nella valutazione
universitaria
15 Ritornando a quanto ricordato a proposito della normativa vigente, e delle
innovazioni introdotte dal sistema dell’autonomia universitaria, è chiaro come lo stato
attuale della prassi, in questo settore, sia estremamente diversificato. Mi pare
interessante ipotizzare alcune dinamiche sociali che hanno probabilmente a che fare con
questa situazione. Non si tratta di illazioni più o meno fondate, ma del frutto di colloqui
avuti in questi ultimi anni con colleghi di molti atenei italiani, appartenenti a diversi
raggruppamenti scientifico-disciplinari. Si tratta peraltro di osservazioni comuni a
chiunque abbia una certa esperienza di insegnamento in università.
16 La sensazione è che vi siano ragioni diverse, a volte anche entro una medesima
situazione, che possono condurre ad una decisione condivisa su come si debba valutare
– oppure alla sua assenza. Personalmente, le raggrupperei in due categorie:
28 Com’è noto, una relazione didattica è composta da due fasi, quella dell’insegnamento
e quella della valutazione di quanto appreso da parte dello studente.
29 Di converso, dunque, vi saranno due momenti in cui la qualità della relazione
didattica viene messa alla prova da parte dello studente (in quanto cliente di un
servizio) e non la supera:
a. la qualità della valutazione della prova del singolo (il problema in questo caso
è la validità della valutazione);
b. la qualità della valutazione delle prove comparate tra loro (il problema qui è
invece l’equità della valutazione).
44 ii) Standardizzazione della prova. Una prova d’esame standardizzata è quella in cui a
tutti i candidati vengono poste le stesse domande (anche se non necessariamente, in
ambito valutativo, nello stesso ordine). L’esempio più chiaro di prova standardizzata è
la prova scritta con domande a scelta multipla, ma anche una prova pratica può
benissimo essere standardizzata, quando il problema da risolvere o l’attività da eseguire
siano gli stessi per tutti i candidati. Sul versante della non-standardizzazione, troviamo
tipicamente l’esame con la sola prova orale: le domande vengono modificate ad ogni
candidato, essendo la prova pubblica, ed essendo gli studenti interessati, in attesa del
loro turno, ad ascoltare le domande del docente e le risposte fornite dai colleghi.
47 iv) Strutturazione del testo della domanda. Una domanda potrà essere ben posta – e
cioè strutturata in maniera corretta, e quindi inequivoca – in una prova orale o scritta.
Quello che conta, in questo caso, è la natura linguistica della formulazione, che può
assumere aspetti molto diversi (Dautriat, 1997; Gobo, 1997; Pitrone, 1984), e presentare
problemi di varia natura.
55 Prova orale. La prova orale presenta una sola delle proprietà indicate, quella sub:
62 Prova scritta a domande chiuse. La prova scritta a domande chiuse presenta tutte e
quattro le proprietà individuate.
63 La prova è ispezionabile; la strutturazione scritta del testo delle domande e delle
modalità di risposta permette di controllarne la correttezza; la validità della valutazione
è dunque accertabile e non equivoca.
64 Unitamente alla strutturazione del testo delle domande e delle modalità di risposta, la
standardizzazione della prova assicura in modo completo l’equità della valutazione – e
cioè la comparabilità tra le prove di tutti gli studenti che abbiano sostenuto l’esame in
una data occasione – eliminando quell’elemento interpretativo comunque presente
nelle domande strutturate a risposta aperta.
65 Prove pratiche. Uso il plurale alla luce di una considerazione banale: le prove pratiche
vere e proprie sono strettamente legate alla specificità di una disciplina, e possono
assumere forme diversissime.
66 Alcune di esse richiedono ad esempio azioni manuali da parte del candidato, e
osservazione diretta da parte del docente (si pensi ai campi della medicina – come
suturare una ferita – o della biologia – preparare in maniera corretta un vetrino –
oppure al campo artistico). Altre vertono su capacità dialogico-relazionali (come la
conduzione di una storia di vita, o la gestione di un colloquio con un paziente
psichiatrico), e richiedono osservazione e ascolto da parte del docente; altre esigono
competenze statistiche unite alla conoscenza di un software d’analisi (per un corso
avanzato di analisi dei dati), e così via. In più, vi sono prove pratiche che producono una
base empirica materica – il vetrino, il vaso in terracotta; altre che producono una base
empirica scritta – i tabulati dell’analisi; altre che non producono una vera e propria base
empirica, come nelle dimensioni dell’interazione verbale.
67 È chiaro che, in questi casi, abbiamo a che fare con saperi pratici veri e propri, con
competenze, e non con conoscenze, o con la connessione conoscenza-competenza di
base. Ed è altrettanto chiaro che – stante la diversità e la specificità che
contraddistingue queste pratiche – potremo avere o meno ispezionabilità della prova; vi
sarà o meno standardizzazione; il quesito posto potrà essere o meno strutturato;
certamente non sarà presente – per definizione, trattandosi di prove pratiche – la
strutturazione delle modalità di risposta.
68 Sottolineo infine che, se i principi metodologici ed etici che dovrebbero guidare la
nostra azione come docenti-valutatori sono la validità e l’equità, allora quanto più anche
le prove pratiche sono standardizzate, e quanto più producono una base empirica
ispezionabile, tanto più esse risponderanno a quei criteri.
69 Validità ed equità formano insieme quello che in senso etico e politico si potrebbe
definire trasparenza della relazione didattica in ambito valutativo. La trasparenza delle
valutazioni (garanzia di democraticità della relazione didattica, non vulnus della libertà
di docenza) appare a mio parere requisito necessario in un’università che voglia
riscoprire la sua capacità di offrire qualità dell’alta formazione.
70 Se come sociologi e metodologi sosteniamo che la «scienza» è un’impresa pubblica, e
se pensiamo che essa richieda quindi ogniqualvolta sia possibile la pubblicità degli atti
(e cioè l’ispezionabilità della base empirica), non si capisce come e perché non dovrebbe
valere lo stesso principio per il procedimento accademico di valutazione, parte così
importante dell’insegnamento universitario.
71 Quando si pongono delle premesse per un’azione – nel caso che ci interessa: quando
si definiscono i criteri cui si informerà poi una valutazione – il problema non è affatto
convincere: i criteri di giudizio sono una premessa maggiore, dal punto di vista logico,
e non una conclusione. Non hanno bisogno di accettazione: ciò che deve essere accettato
o rigettato è la validità dell’atto valutativo che ne seguirà. Se nessun cedimento va cioè
concesso a forme di irrazionalismo soi-disant «democratico» che accetterebbe l’ipotesi
di criteri di giudizio «concordati» con gli studenti – posizioni incomprensibili, perché i
criteri di giudizio sono di competenza del docente, oltre ad essere un suo preciso obbligo
– dev’essere anche chiaro che essi lo sono ad una condizione. E questa condizione è ad
un tempo politica ed etica: che i criteri siano resi espliciti, perché è di competenza del
docente anche fare sì che gli studenti sappiano in base a che cosa verranno giudicati.
Anche questo è – a mio parere – un preciso obbligo del docente. A questo riguardo la
differenza assiologica tra le prove d’esame orali e le prove d’esame scritte non pare
trascurabile.
81 Gli elementi appena accennati possono dare un’idea di quante forme di distorsione
possano incombere su una situazione in cui un giudizio viene emesso in base ad una
pura interazione dialogica. Non solamente non vi è, come già visto, alcuna base
empirica a sostegno delle ragioni dell’una o dell’altra parte; non solo non vi è equità
possibile tra le prove dei singoli studenti che vengono valutati in una data occasione, ma
vi sono in più validi motivi per dubitare in linea di principio che ciò che viene valutato
sia davvero solamente la preparazione dello studente, e non – potenzialmente – anche
in qualche misura lo studente stesso. Se anche si trattasse solamente di un dubbio di
metodo, ciò sarebbe sufficiente per procedere a abbandonare la prova orale come forma
esclusiva di valutazione in un esame di profitto.
82 Le voci che si levano in difesa di questa pratica valutativa sono invece ancora molte,
in base ad argomenti che sembrano, da un punto di vista logico (Copi e Cohen, 1997) e
di teoria dell’argomentazione (Perelman, Olbrechts-Tyteca, 1958), nient’altro che
fallacie. Ne presento alcuni:
88 Presento tre analisi9, che mettono in luce aspetti che mi sembrano interessanti di
questa pratica valutativa mista: l’andamento globale delle prove, con gli scarti tra voti
dello scritto e voti finali; l’andamento per sessione, sia con i valori di sintesi e di
dispersione, sia con l’analisi esplorativa tramite boxplot; l’analisi di una singola
sessione, con i dati dei voti positivi (ammessi all’orale) e negativi (non ammessi). Gli
studenti che hanno superato la prova nelle otto sessioni sono, complessivamente, 127.
Fig. 1 Grafico a barre sovrapposte dei risultati conseguiti dagli studenti che hanno
superato la prova nelle otto sessioni analizzate (N = 127)
Tab. 1 Correlazioni voto dello scritto – voto finale e scarto scritto-orale (N = 127)
r 0,91
Voto finale
Sig. (2 code) 0,000
r 0,14
Scarto scritto-orale
Sig. (2 code) 0,117
Fig. 2 Grafico lineare congiunto della differenza tra voto dello scritto e voto finale nei
risultati conseguiti dagli studenti che hanno superato la prova nelle otto sessioni
analizzate (N = 127)
94 Voto dello scritto e voto finale sono cioè correlati in maniera altamente significativa, e
la forza della loro relazione è molto grande. In termini analitici, questo significa che
effettivamente la base inferenziale su cui hanno poggiato le valutazioni in queste
sessioni d’esame era costituita in massima parte dalla prestazione fornita nella prova
scritta, e quindi da una base empirica certa, e non equivoca.
95 D’altra parte l’insignificante (sia perché non significativa, sia perché irrilevante
quanto a forza) correlazione dello 0,14 tra il voto dello scritto e lo scarto scritto-orale
suggerisce altre due osservazioni:
96 Andamento per sessione. Nei grafici di fig. 3 e 4 osserveremo l’andamento delle prove
nelle otto sessioni d’esame considerate.
97 Possiamo riassumere sinteticamente le misure di tendenza centrale e di dispersione
in una tabella:
Tab. 2 Media e deviazione standard delle tre variabili nelle otto sessioni d’esame analizzate
(N = 127)
1a 2a 3a 4a 5a 6a 7a 8a
98 Come si vede, i voti finali e soprattutto i voti dello scritto sono mediamente bassi,
andamento visualizzato nel grafico di Fig.3. Osservando il grafico otteniamo una
conferma di quanto detto in precedenza: l’andamento è molto simile tra voto dello
scritto e voto finale, e meno tra queste due serie e quella che descrive l’incremento
dovuto all’orale.
99 L’analisi statistica classica, però, non ci dà informazioni sulla forma delle
distribuzioni, base sia visuale sia numerica dell’approccio esplorativo tukeyano
(Hoaglin, Mosteller, Tukey, a cura di 1983). Il grafico di Fig. 4, infatti, comparato con il
precedente, ci mostra un andamento decisamente più erratico di quanto possa risultare
dalla semplice analisi delle medie e delle deviazioni standard. In particolare, ci fa vedere
che sia la forma delle distribuzioni, sia la loro dispersione varia di molto sia tra le
sessioni, sia – comparando volto dello scritto e voto finale – all’interno della stessa
sessione d’esame.
Fig. 3 Grafico lineare congiunto riassuntivo dei valori medi conseguiti dagli studenti che
hanno superato la prova nelle otto sessioni d’esame analizzate (N = 127)
Fig. 4 Boxplot delle distribuzioni dei voti conseguiti dagli studenti che hanno superato la
prova nelle otto sessioni d’esame analizzate (N = 127)
101 Analisi di una singola sessione. Nella sessione d’esame rappresentata in Fig. 5 si sono
presentati 47 studenti. 26 hanno superato la prova orale (barre in grigio).
102 21 studenti (barre bianche) invece hanno conseguito risultati che andavano dai 17/30
allo zero11, e quindi non sono stati ammessi all’orale. Questo tipo di analisi visuale
consente al docente di valutare due aspetti:
Fig. 5 Grafico a barre dei voti sia positivi sia negativi (candidati ammessi all’orale più non
ammessi) conseguiti dagli studenti che hanno sostenuto la prova nell’ottava sessione
analizzata (N = 47)
6. Valutazione e democrazia: equità
dell’atto valutativo e trasparenza della
relazione didattica
103 I cambiamenti che la nostra università12 sta attraversando, e la domanda di qualità
che proviene dagli studenti, sono due fattori che con buona probabilità trasformeranno
nel breve periodo molte pratiche accademiche consolidate.
104 Un problema che possiamo porci è quale sia una prassi metodologicamente e
istituzionalmente corretta di valutazione, tale da assicurare al massimo grado validità
ed equità.
105 Personalmente individuo in cinque punti la preferibilità etica e politica delle prove
strutturate e standardizzate (anche se affiancate, come detto, da integrazioni di
carattere orale). Questi punti sono: l’eguaglianza del punto di partenza; l’esplicitazione
dei criteri; l’anonimato delle prove; la correzione pubblica; l’ispezionabilità della
prova. In breve:
eguaglianza del punto di partenza. A tutti gli studenti, durante una prova
scritta e standardizzata vengono poste le medesime domande; non vi è pertanto il
sospetto di possibili sperequazioni quanto a difficoltà diversificate dell’esame;
esplicitazione dei criteri. Poter esplicitare in maniera chiara i criteri di
valutazione rappresenta, da parte del docente, una garanzia per sé e per gli
studenti, che sapranno in maniera inequivoca, e prima della prova, qual è il
metro con cui verranno giudicati;
anonimato delle prove. Per scelta etica, si può rendere le prove attribuibili, ma
del tutto anonime, facendo riportare agli studenti sulla griglia di risposta le
ultime cifre della matricola, e nient’altro. Così la correzione è solo correzione sul
merito, e non sulla persona;
correzione pubblica. Terminata la prova, e corretti i compiti, è utile correggere
la prova stessa pubblicamente, di fronte agli studenti. In questa maniera gli
studenti avranno la possibilità di argomentare subito la scelta di una data
modalità di risposta ad una domanda che ritenessero ambigua, e il docente potrà
pubblicamente, e in maniera argomentata, decidere se dar loro ragione;
ispezionabilità della prova. Chiunque – lo studente, il docente, eventuali
organi di controllo – potrà controllare la validità della valutazione solamente
quando vi sia una base empirica ispezionabile. In caso contrario, lo studente non
è protetto da errori, né il docente da eventuali lamentele infondate.
106 Come si vede, diritti e doveri sono presenti, nel ragionamento, per entrambi gli attori
coinvolti. E solo in questo modo il giudizio emesso potrà, alla fine, essere definito
democratico, e rispondere a quel requisito di trasparenza della relazione didattica da cui
abbiamo preso le mosse.
107 Chiudo queste riflessioni con una nota personale, e non esattamente ottimistica. È
chiaro come la mia posizione leghi in maniera molto stretta diritti e doveri
nell’interazione, così come nell’idea di democrazia che mi è propria. Siccome l’idea di
giudizio emesso può facilmente essere fraintesa, ritorno alla citazione che apre questo
contributo.
108 Quando Flaiano parla dell’«arbitro delle partite di calcio» come unico nemico
dell’italiano, «perché emette un giudizio», fotografa a mio parere una dimensione
culturale essenziale dell’ethos politico e morale della nostra nazione.
109 L’arbitro è arbiter, cioè «giudice secondo equità», e non dispone dell’arbitrium, del
«libero potere assoluto» di volizione. E questo perché, nel calcio, ci sono regole,
regolamenti, e commissioni disciplinari che ne sanzioneranno in caso di bisogno
l’operato. Così le sue decisioni, che sono pubbliche per definizione, comportano la
responsabilità soggettiva, debbono sottostare a regole esplicite, e sono revocabili.
110 C’è un parallelo importante tra la situazione stigmatizzata da Flaiano e le possibili
scelte sulla valutazione degli esami di profitto in università. Come abbiamo visto, nella
situazione di interazione tipica di un esame orale le regole non sono esplicite, e i criteri
aleatori. È proprio per questo che sopravvive la possibilità di un negoziato svincolato da
una base empirica certa per entrambe le parti coinvolte: per il docente, che può
giudicare in maniera non necessariamente documentabile né come merito, né come
metodo, ma anche per lo studente, che può negoziare con formule del tipo «mi faccia
un’altra domanda», che può sostenere «sì, ma io intendevo proprio in quel senso», e
così via.
111 Vie di fuga contrattuali che sono negate alla radice dal vincolo costituito da una base
empirica certa e ispezionabile di comune accordo dalle due parti come quella costituita
da una prova scritta, strutturata e standardizzata. In questo caso, il negoziato può
vertere solamente sugli errori delle due parti: le lacune nella preparazione dello
studente; gli errori commessi dal docente nella formulazione delle domande, o nel
calcolo del voto di profitto.
112 Di fronte ad un documento nessuno può sottrarsi alla responsabilità costituita
dall’evidenza dei suoi sbagli. Questa dimensione di garanzia costituita dalla prova
scritta è anche un vincolo: per il docente, che sarà eventualmente costretto a rivedere il
suo giudizio, ma anche per lo studente, che – in assenza di errori da parte del docente –
sarà legato all’evidenza della sua preparazione, e all’esito della sua prestazione e al
conseguente risultato raggiunto.
113 Per mia esperienza, come da quella di altri colleghi con cui ho discusso, non tutti gli
studenti apprezzano il risvolto (forse inatteso) di questa prassi valutativa. Forse in
alcuni, al di là delle giustificate lamentele a proposito dell’arbitrarietà nelle valutazioni
di molte prove orali, permane la difficoltà ad accettare l’elemento soggettivo di
responsabilità negativa che la strutturazione e la standardizzazione delle prove scritte
portano con sé quando esso si volge contro i propri interessi.
Bibliografia
Alvesson M. e Berg P.O. (1992), Corporate culture and organizational symbolism, Berlin, Walter
de Gruyter &Co.
DOI : 10.1515/9783110136074
Baxter J. C., Winter E. P. e Hammer R. E. (1968), Gestural behavior during a brief interview as a
function of cognitive variables, «Journal of personality and social psychology», 8, 303-307.
DOI : 10.1037/h0025597
Bichi R. (2002), L’intervista biografica, Milano, Vita e Pensiero.
Copi I. M. e Cohen C. (1997), Introduzione alla logica, Bologna, il Mulino.
Corbetta P. (1999), Metodologia e tecniche della ricerca sociale, Bologna, il Mulino.
Crespi F. (1985), Le vie della sociologia. Problemi, teorie, metodi, Bologna, il Mulino.
Crozier M. e Friedberg E. (1977), L’acteur et le système. Les contraintes de l’action collective,
Paris, Seuil.
Dautriat H. (1997), Il questionario. Guida per la preparazione e l’impiego nelle ricerche sociali di
psicologia sociale e di mercato, Milano, FrancoAngeli (10a ed.).
Di Franco G. (2001), EDS. Esplorare, descrivere e sintetizzare i dati. Guida pratica all’analisi dei
dati nella ricerca sociale, Milano, Franco Angeli.
D.M. 3 novembre 1999, n. 509, Regolamento recante norme concernenti l’autonomia didattica
degli atenei.
Ebel R. L. e Frisbie D. A. (1991), Essentials of Educational Measurement (5a ed.), Englewood
Cliffs (NJ), Prentice-Hall.
Eco U. (1975), Trattato di semiotica generale, Milano, Garzanti.
Elster J. (1989), Nuts and bolts for the social sciences, Cambridge, Cambridge University Press.
DOI : 10.1017/CBO9780511812255
Flaiano E. (1993), Frasario essenziale per passare inosservati in società, Milano, Bompiani [la
citazione proviene da un taccuino di appunti del 1959].
Gattullo M. (1968), Didattica e docimologia. Misurazione e valutazione nella scuola, Roma,
Armando.
Gobo G. (1997), Le risposte e il loro contesto. Processi cognitivi e comunicativi nelle interviste
standardizzate, Milano, Franco Angeli.
Goffman E. (1959), The presentation of self in everyday life, New York, Doubleday [edizione
riveduta e ampliata; prima edizione: Edinburgh, University of Edinburgh Press 1956]
Id. (1961), Asylums, New York, Doubleday.
Id. (1963a), Behavior in public places: Notes on the social organization of gatherings, New York,
The Free Press.
Id. (1963b), Stigma. Notes on the management of spoiled identity, Englewood Cliffs, Prentice-
Hall.
Id. (1969), Strategic Interaction, Philadelphia, University of Pennsylvania Press.
Id. (1971), Relations in public. Microstudies of the public order, New York, Basic Books.
Green W. P. e Giles H. (1973), Reactions to a stranger as a function of dress style: the tie,
«Perceptual and motor skills» 37, 676.
DOI : 10.2466/pms.1973.37.2.676
Grimaldi R. (a cura di) (2001), Valutare l’università. La Facoltà di Scienze della Formazione a
Torino, Torino, utet Libreria.
Gronlund N. E. (1993), How to Make Achievement Tests and Assessments (5a ed.), Needham
Heights (MA), Allyn and Bacon.
Id. (1997), Assessment of student achievement, Boston, Allyn and Bacon.
Hoaglin D.C., Mosteller F. e Tukey J.W., (a cura di) (1983), Understanding robust and
exploratory data analysis, New York, John Wiley & Sons.
Luhmann N. (1984), Soziale Systeme. Grundriß einer allgemeinen Theorie, Frankfurt am Main,
Suhrkamp Verlag.
Marradi A. (1993), L’analisi monovariata, Milano, Franco Angeli.
Id. (1997), Linee guida per l’analisi bivariata dei dati nelle scienze sociali, Milano, Franco Angeli.
Montesperelli P. (1998), L’intervista ermeneutica, Milano, Franco Angeli.
Mueser K. T. et al. (1984), You’re anly as pretty as you feel: facial expression as a determinant
of physical attractiveness, «Journal of personality and social psychology», 46, 469-478.
Nigris D. (1994), L’esperienza del ricovero: aspetti sociali e identità del paziente «I Fogli di
Oriss», 1/2, pp. 53-78; «Psichiatria generale e dell’età evolutiva», xxxii, 2, pp. 169-193.
Id. (2003), Standard e non-standard nella ricerca sociale. Riflessioni metodologiche, Milano,
Franco Angeli.
Ory J. C. e Ryan K. E. (1993), Tips for Improving Testing and Grading, Newbury Park (CA) Sage.
Perelman Ch. e Olbrechts-Tyteca L. (1958), Traité de l’argumentation. La nouvelle rhétorique,
Paris, Presses Universitaires de France.
Pisati M. (2003), L’analisi dei dati. Tecniche quantitative per le scienze sociali, Bologna, il
Mulino.
Pitrone M. C. (1984), Il sondaggio, Milano, Franco Angeli.
Quinn R., Tabor J. e Gordon L. (1968), The decision to discriminate, Ann Arbor (MI), Survey
Research Center.
R.D. 4 giugno 1938 n. 1269.
R.D. 6 aprile 1924 n. 674.
Ricolfi L. (1995), La ricerca empirica nelle scienze sociali. Una tassonomia, «Rassegna Italiana di
Sociologia», 3, 389-418.
Roethlisberger F. e Dickson W. (1939), Management and the worker. An account of a research
program conducted by the Western Electric Company, Hawthorne Works, Chicago, Cambridge
(Mass.)-London, Harvard University Press.
Siegel S. e Castellan N. J. Jr. (1999), Statistica non parametrica, Milano, Mc Graw-Hill.
Simon H. (1983), Reason in human affairs, Stanford (CA), Stanford University Press.
DOI : 10.1515/9780804766685
Sissons M. (1971), The psychology of social class, in Money, wealth and class, Milton Keynes,
Open University Press.
Trivellato P. (1997), Paese che vai, formazione che trovi. Appunti per un confronto tra i modi di
apprendere, in Baldissera A. (a cura di), Le politiche dell’istruzione nell’epoca della
globalizzazione, sezione monografica di «Quaderni di Sociologia», XLI, 15, pp. 65-80.
Turner B. A. (1971), Exploring the industrial subculture, London, Macmillan.
DOI : 10.1007/978-1-349-00687-8
Vertecchi B. (1993), Decisione didattica e valutazione, Firenze, La Nuova Italia.
Von Beyer C. L. (1981), Impression management in the job interview: when the female applicant
meets the male (chauvinist) interviewer, «Personality and social psychology bulletin», 7, 45-51.
Weber M. (1961), Economia e società, Milano, Comunità (ed. or. 1922).
Allegato
a. estrapolata una frase da un testo d’esame, la si scompone. Una parte della frase sarà il
testo della domanda, l’altra parte la modalità di risposta corretta. Le domande non devono
riguardare dettagli insignificanti;
b. si creano le modalità di risposta alternative;
c. si controlla che nessuna modalità alternativa di risposta:
possa essere ritenuta corretta sotto alcun profilo: dovranno cioè essere tutte sbagliate nel
merito, o incomplete, o prive di senso;
contenga informazioni che guidino lo studente verso la risposta corretta (questo controllo
va operato in maniera incrociata anche tra le diverse domande che compongono la prova);
possa confondere lo studente. Va fatta attenzione – linguaggio tecnico a parte – a non fare
uso di un italiano involuto; è inoltre preferibile incorporare nel testo della domanda quelle
parti della frase che verrebbero altrimenti ripetute in tutte le modalità di risposta.
La tipologia dei possibili errori dipende solo dalla fantasia del docente: modalità di risposta
incomplete (un solo autore corretto su tre); modalità di risposta completamente sbagliate (una
definizione priva di senso); modalità di risposta sbagliate rispetto alla domanda posta, sebbene
corrette se riferite a un altro concetto (la definizione del concetto di status sociale riferita a quella
di ruolo); risposte assurde (tre teorici delle élites che rispondano ai nomi di Biasini, La Malfa e La
Malta), e così via.
Per quanto non si debba abusare di modalità palesemente sbagliate come quella appena citata –
perché con la loro insensatezza ridurrebbero di una modalità l’elenco delle possibili risposte –
posso assicurare, dopo anni di prove strutturate, che la creatività degli studenti è grande, e
controbilancia quella del docente.
– domande a singolo elemento. L’oggetto della domanda è unico; sono domande dirette a
controllare la conoscenza di base dei concetti di una disciplina. Esemplifico, lasciando in
maiuscoletto il testo della domanda e la modalità di risposta corretta, la tecnica che utilizzo
quando preparo le prove: è utile per evitare distrazioni, e serve da riferimento immediato quando
si deve randomizzare le modalità. L’esempio è tratto da Corbetta (1999, 251):
– domande a elementi multipli. Gli oggetti sono più di uno; si tratta di completare frasi. Sono
domande che valutano la coerenza tra concetti nella preparazione dello studente. L’esempio è
tratto da Montesperelli (1998, 55):
– domande a ordinamento. Si chiede allo studente di collegare tra loro elementi di due elenchi,
come nell’esempio (da Nigris 2003) autori e opere (ma anche autori e periodi storici, nomi di test
e formule, e così via):
1 – A. Marradi a – Elementi di teoria dei campioni
D. Questioni di metodo
Accenno brevemente ad alcuni problemi metodologici che sottendono la costruzione delle prove
strutturate e standardizzate:
– Il «dettato del testo». Si dice comunemente che le domande e le modalità di risposta corrette
devono rispondere al «dettato del testo». Ma non si tratta di un criterio vincolante in assoluto:
qualsiasi testo implica oltre ad asserire; e più porzioni di testo comparate tra loro contengono una
quantità di possibili asserzioni non presenti esplicitamente nel «dettato del testo», ma
logicamente in esso implicate.
Il fatto che lo studente possa non ritrovare in alcuno dei testi d’esame la frase esatta che
costituisce l’insieme domanda-risposta corretta non ha alcuna importanza. Non si tratta della
situazione in cui un docente pone domande inerenti a materie trattate a lezione in un corso dove
la frequenza non è obbligatoria: quando una risposta è chiaramente evincibile dal combinato
disposto di più asserti presenti nelle pagine dei testi d’esame, il «dettato del testo» deve senz’altro
ritenersi presente nella domanda.
Questo, oltretutto, è un altro elemento a supporto della critica alle due fallacie «del nozionismo» e
«delle capacità elaborative e critiche». Uno studente che risponda correttamente a una domanda
che richiede la comparazione tra asserti presenti in parti diverse di un testo, o di più testi diversi,
dimostra proprio capacità elaborativa e critica, e non risponde affatto ad una domanda
«nozionistica».
Note
1 Scienze della Formazione, Università di Trieste.
2 Per la letteratura docimologica in questo campo rimando a Gattullo (1968), Vertecchi (1993).
Nello specifico dell’assessment e dei test, alcuni punti di riferimento attuali sono: Ebel e Frisbie
(1991), Gronlund (1993; 1997), Ory e Ryan (1993).
3 Voglio ringraziare Rita Bichi, Paolo Sorzio, Giorgio Porcelli, Elena Bortolotti, Francesca Zanon,
Serena D’Ambrosio e Lidia Maccan, con cui in vari momenti ho condiviso le mie riflessioni.
4 Preciso che farò uso della forma maschile-neutra dell’italiano. Va da sé che non si tratta di un
misconoscimento delle differenze di genere, ma solo di una scelta stilistica: vista la frequenza con
cui ricorreranno le parole «studente» e «docente» in questo scritto, è poco utile appesantirne la
lettura con forme del tipo «il docente o la docente».
5 Rimando a Marradi (1993, 123-130).
6 Un’apparente eccezione può essere la situazione in cui si voglia valutare la capacità di un
collaboratore – laureato, dottorando, dottore di ricerca, giovane ricercatore – di esporre con
chiarezza una tematica prima di permettergli di tenere delle lezioni integrative, e gli si dica
«intrattienimi su quello su cui ti senti più preparato». Ma si badi bene: in questo caso non si sta
valutando affatto la preparazione della persona, ma solamente la sua capacità didattica: la
preparazione sostantiva è una condizione implicitamente necessaria, e data per assodata in quella
situazione.
7 Non prenderò in considerazione la categoria delle prove d’esame miste (strutturate su più prove
diverse, come un esame costituito da una prova scritta più una prova orale): una prova mista è un
insieme di prove distinte, riconducibili alle osservazioni presentate nel testo.
8 Per ragioni di riservatezza, non fornisco riferimenti circa la sede e il corso.
9 Per gli aspetti tecnici rimando a Di Franco (2001); Marradi (1993; 1997); Pisati (2003); Siegel,
Castellan (1997).
10 Tutte le otto sessioni hanno visto la presenza contemporanea degli stessi due esaminatori.
11 La natura di una formula che elimini la risposta casuale con il complemento algebrico a zero
del valore di 1 assegnato alla risposta corretta è tale – qualsiasi sia il numero di domande, il
numero di modalità e il peso assegnato in trentesimi a ognuna delle risposte corrette – da fornire
sempre, come valore minimo possibile, un valore negativo. E questo spiega la barra
corrispondente ad un «voto» di -3/30. Dal momento che la scala di valutazione in università è per
legge da 0/30 a 30/30, è chiaro che ad essa va ricondotto ogni valore inferiore allo zero.
12 Legislazioni e culture nazionali influenzano in maniera notevole gli assetti sociali. Si veda
Trivellato (1997) per una comparazione tra Italia e Giappone a proposito di modelli educativi.
Titolo Fig. 4 Boxplot delle distribuzioni dei voti conseguiti dagli studenti che hanno
superato la prova nelle otto sessioni d’esame analizzate (N = 127)
URL http://journals.openedition.org/qds/docannexe/image/1107/img-4.jpg
File image/jpeg, 44k
Fig. 5 Grafico a barre dei voti sia positivi sia negativi (candidati ammessi
Titolo all’orale più non ammessi) conseguiti dagli studenti che hanno sostenuto la
prova nell’ottava sessione analizzata (N = 47)
URL http://journals.openedition.org/qds/docannexe/image/1107/img-5.jpg
File image/jpeg, 53k
Autore
Daniele Nigris
Università di Trieste
Diritti d'autore
Creative Commons - Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale -
CC BY-NC-ND 4.0
https://creativecommons.org/licenses/by-nc-nd/4.0/