Sei sulla pagina 1di 26

Quaderni di Sociologia

35 | 2004
L’università valutata
la società italiana / L’università valutata

La valutazione nell’insegnamento
universitario. Metodologia delle
prove strutturate e standardizzate
e trasparenza della relazione
didattica
Daniele Nigris
p. 23-57
https://doi.org/10.4000/qds.1107

Testo integrale
L’italiano ha un solo vero nemico: l’arbitro delle partite di calcio, perché emette un
giudizio.
(Flaiano, 1993, 6)

1 In questo lavoro raccolgo alcuni spunti analitici riguardanti la politica e la


metodologia della valutazione agli esami di profitto nelle università italiane. La
riflessione ha preso le mosse da un’esperienza interessante come entità numerica: nella
Facoltà1 dove insegno vi furono infatti, a partire dal 1998, più di 6.000 immatricolati in
un singolo Corso di laurea in soli tre anni. Questa situazione, estremamente gravosa per
l’impatto che ebbe sulle risorse umane disponibili, fu risolta per decisione del Consiglio
di Corso di laurea mediante il ricorso all’adozione estensiva prima, ed esclusiva in un
secondo momento, di esami scritti con prove standardizzate.
2 Negli insegnamenti di cui sono titolare facevo già uso di strumenti di valutazione di
questo tipo, e con l’occasione iniziai ad approfondire – da metodologo della ricerca, non
da docimologo2 – le diverse strategie di valutazione degli esami di profitto, proseguendo
sperimentazioni discusse in varie occasioni con studenti e colleghi3. Le argomentazioni
che seguono sono dunque un primo tentativo di sistematizzare la mia esperienza come
docente4 chiamato a valutare le conoscenze che uno studente dimostra di possedere
all’atto della prova d’esame.
1. «Valutare l’università», valutare in
università
3 Tre anni fa venne pubblicato un importante testo, frutto di un lungo lavoro di ricerca
presso la Facoltà di Scienze della Formazione dell’Università di Torino, Valutare
l’università (Grimaldi, a cura di, 2001). In questa raccolta di saggi sociologi, statistici e
pedagogisti si sono occupati di aspetti degli studi universitari in una specifica
situazione, analizzando più di otto anni di dati sulla popolazione studentesca quanto
all’andamento dei voti d’esame e di laurea (i lavori di Barugola, Baldissera e Borini-
Grimaldi), alla valutazione della funzione docente (le ricerche di Capriello e di
Cattelino), e alle trasformazioni intercorse nella facoltà e nel suo corpo studente (i
contributi di Fiorini-Grimaldi-Montinaro-Nicolini, Grimaldi, Coggi e Trinchero).
L’insieme di ricerche presentate è molto articolato e sfaccettato, e offre notevoli spunti
di riflessione, sia di carattere istituzionale, sia di carattere strettamente sociologico.
Rimando in proposito principalmente ai lavori di Baldissera, Grimaldi, Coggi e
Trinchero.
4 Ciò che non è presente nel volume, per ragioni che tra poco saranno evidenti, è una
riflessione sulle modalità di valutazione degli studenti agli esami di profitto, e sugli
andamenti di questo processo. Quest’assenza deriva da un dato strutturale:
nell’università italiana, a tutt’oggi, non esiste una modalità di valutazione condivisa per
gli esami di profitto che sia vincolante per il corpo docente nel suo insieme, né a livello
nazionale, né a quello di facoltà, o di corsi di laurea.
5 Per capire le ragioni di quanto appena detto, bisogna fare un passo indietro, e
ripercorrere brevemente la storia della legislazione universitaria in materia.
6 La valutazione degli esami di profitto nell’università italiana è tuttora in gran parte
normata dalle disposizioni in materia di attività per lo svolgimento degli «esami di
profitto, di laurea e di diploma» di cui all’art.87 del Regolamento Generale
Universitario, che recepisce il R.D. 6 aprile 1924 n.674 e il successivo R.D.4 giugno 1938
n.1269. Questa normativa non specifica alcunché di vincolante in materia, definisce
semplicemente modalità generiche di accertamento del profitto: prova scritta, prova
orale, prova scritta e orale. In aggiunta, sono citate: prove pratiche, colloqui, e prove di
profitto svolte in itinere durante il corso, che possono concorrere a formare la
valutazione finale, che si sostanzierà in un voto attribuito allo studente.
7 Con il decreto ministeriale 3 novembre 1999, n. 509 (Regolamento recante norme
concernenti l’autonomia didattica degli atenei), poi, assistiamo ad un ulteriore
passaggio. Il comma 2 dell’articolo 2, Finalità, recita infatti:

Ai fini della realizzazione dell’autonomia didattica di cui all’articolo 11 della legge


19 novembre 1990, n. 341, le università, con le procedure previste dalla legge e
dagli statuti, disciplinano gli ordinamenti didattici dei propri corsi di studio in
conformità con le disposizioni del presente regolamento e di successivi decreti
ministeriali.

8 Si sancisce così l’autonomia dei singoli atenei per quanto riguarda anche la didattica,
in tutte le sue componenti. Gli esami di profitto vengono esplicitamente citati
all’articolo 11, Regolamenti didattici di ateneo (commi 1 e 7):

1. Le università disciplinano gli ordinamenti didattici dei propri corsi di studio nei
regolamenti didattici di ateneo che sono redatti nel rispetto, per ogni corso di
studio, delle disposizioni del presente regolamento e di successivi decreti
ministeriali, e che sono approvati dal Ministro ai sensi dell’articolo 11, comma 1,
della legge 19 novembre 1990, n. 341.
(…)
7. I regolamenti didattici di ateneo, nel rispetto degli statuti, disciplinano altresì gli
aspetti di organizzazione dell’attività didattica comuni ai corsi di studio, con
particolare riferimento:
(…)
c) alle procedure per lo svolgimento degli esami e delle altre verifiche di profitto,
nonché della prova finale per il conseguimento del titolo di studio;
d) alle modalità con cui si perviene alla valutazione del profitto individuale dello
studente, che deve comunque essere espressa mediante una votazione in
trentesimi per gli esami e in centodecimi per la prova finale, con eventuale lode.

9 Fa seguito l’articolo 12, Regolamenti didattici dei corsi di studio, commi 1 e 2:

1. In base all’articolo 11, comma 2, della legge 19 novembre 1990, n. 341, il


regolamento didattico di un corso di studio, deliberato dalla competente struttura
didattica in conformità con l’ordinamento didattico nel rispetto della libertà
d’insegnamento, nonché dei diritti e doveri dei docenti e degli studenti, specifica
gli aspetti organizzativi del corso di studio. Il regolamento è approvato con le
procedure previste nello statuto dell’ateneo.
2. Il regolamento didattico di un corso di studio determina in particolare:
(…)
d) la tipologia delle forme didattiche, anche a distanza, degli esami e delle altre
verifiche del profitto degli studenti.

10 La situazione legislativa è quindi mutata, almeno in parte, nel senso che – con
l’autonomia didattica – ogni ateneo, ogni facoltà e ogni corso di laurea possono stabilire
criteri generali e vincolanti per la forma della valutazione agli esami di profitto entro,
diciamo, uno stesso Corso di laurea; ovvero di lasciare una relativa autonomia ai
docenti, pur se entro un quadro comune; ovvero ancora di lasciare totale autonomia ai
docenti per quanto riguarda la scelta delle modalità di valutazione, in maniera di
privilegiare il criterio della libertà di insegnamento su quello dell’uniformità delle
valutazioni. Le uniche fonti affidabili per individuare gli eventuali vincoli che
incombono su un docente universitario sono oggi lo Statuto dell’ateneo entro il quale
ognuno svolge la propria attività, il relativo Regolamento didattico, e le eventuali
disposizioni della facoltà e del consiglio di corso di laurea.
11 L’autonomia del docente è pertanto molto ampia, anche se può variare a seconda
della sua sede di lavoro. I vincoli sono di fatto sono solo tre: l’obbligo di tenere esami
finali di profitto che si svolgano secondo una delle modalità indicate (forma scritta,
orale, o entrambe); l’impossibilità di modificare la modalità valutativa all’interno dello
stesso anno accademico per un certo corso; e appunto l’esistenza di eventuali
disposizioni delle strutture d’appartenenza volte ad omogeneizzare la valutazione.
12 Per il resto, il docente è libero sia di scegliere la modalità specifica della prova finale,
sia di decidere se integrare la valutazione con prove in itinere, colloqui, prove pratiche.
13 Ecco perché è di fatto impossibile fare un ragionamento sulla valutazione osservando
i dati aggregati: a parte il nodo delle differenze individuali nell’uso della scala di
valutazione (ovviamente risolvibile standardizzando i dati5), il problema risiede nella
notevole varietà di possibili forme di valutazione con cui lo studente può, all’interno del
suo percorso di studi, trovarsi a confronto: molti esami con sola prova orale; qualche
esame con sola prova scritta; magari uno o due esami con più prove scritte e una prova
orale; qualche esame con prove in itinere o tesine e prova orale finale; forse un esame
con prove pratiche e prova orale alla fine, e via dicendo. Questa situazione ingenera
senz’altro confusione nello studente, cui sfugge il senso di tanta difformità, ma
soprattutto lo porta a farsi delle domande: alla fine, in base a che cosa mi viene dato un
ventitré, anziché un ventiquattro? Quali sono i criteri in base a cui vengo giudicato? E
come mai i criteri del docente Verdi sono completamente diversi rispetto a quelli del
docente Bianchi, ma tutti e due fanno solamente esami orali, mentre il docente Rossi –
noto come bestia nera della facoltà – fa solo esami scritti, pur avendo un metro di
giudizio identico a quello di Bianchi?
14 Non è facile rispondere a queste domande, che a mio parere dovrebbe porsi non
soltanto uno studente, ma prima di tutto un corpo docente nella sua interezza.
Proviamo allora a riflettere sulle pratiche effettivamente seguite, al di là dei disposti di
legge.
2. Pratiche sociali nella valutazione
universitaria
15 Ritornando a quanto ricordato a proposito della normativa vigente, e delle
innovazioni introdotte dal sistema dell’autonomia universitaria, è chiaro come lo stato
attuale della prassi, in questo settore, sia estremamente diversificato. Mi pare
interessante ipotizzare alcune dinamiche sociali che hanno probabilmente a che fare con
questa situazione. Non si tratta di illazioni più o meno fondate, ma del frutto di colloqui
avuti in questi ultimi anni con colleghi di molti atenei italiani, appartenenti a diversi
raggruppamenti scientifico-disciplinari. Si tratta peraltro di osservazioni comuni a
chiunque abbia una certa esperienza di insegnamento in università.
16 La sensazione è che vi siano ragioni diverse, a volte anche entro una medesima
situazione, che possono condurre ad una decisione condivisa su come si debba valutare
– oppure alla sua assenza. Personalmente, le raggrupperei in due categorie:

organizzative (di carattere culturale organizzativo; logistico; burocratico);


individuali (di carattere culturale personale; logistico; contenutistico).

17 Ragioni di carattere organizzativo. La cultura di un’organizzazione, come illustrano


i teorici di questo settore disciplinare – a partire dallo studio Hawthorne
(Roethlisberger e Dickson, 1939), sino ad acquisizioni più recenti (Turner, 1971;
Alvesson e Berg, 1992) – è una realtà sociale, fatta di un comune sentire, e soprattutto di
prassi relazionali consolidate. Il fenomeno della resistenza organizzativa al
cambiamento è un topos della letteratura sociologica, e certamente può essere utilizzato
come lettura di un mondo come quello dell’accademia che vede in azione gruppi ristretti
di soggetti, segmentati al loro interno in fasce occupazionali che costituiscono una
gerarchia di diritto e di fatto. Possiamo aggiungere che la tradizionale tendenza alla
scarsa mobilità territoriale, tipica dell’università italiana, ha dato come esito anche
situazioni in cui il corpo docente di alcune facoltà non solo è originario in buona parte
della città in cui l’ateneo ha sede, ma è composto non di rado da persone che hanno
studiato in quell’ateneo, e vi hanno fatto carriera negli anni. Gruppi di persone con
relazioni talvolta pluridecennali, che da studenti, e poi assistenti volontari o ricercatori,
sono in seguito diventati gli ordinari della facoltà. La permanenza nel tempo di modelli
di relazioni interpersonali, e non solamente istituzionali, tenderà facilmente a produrre
come risultato una situazione di consolidamento dell’idea organizzativa di che cosa sia
«università» all’interno di quel determinato gruppo di docenti. Ne discenderanno
pratiche, modelli di comportamento, norme informali, che non potranno non
riguardare – in casi come quelli accennati – anche una tradizione organizzativa sulle
metodiche di valutazione.
18 Una seconda dimensione di carattere organizzativo si manifesta quando una struttura
si trova di fronte a pressioni di natura logistica, che sono in sé un potente motore di
cambiamento dei comportamenti e dei modelli culturali consolidati – anche se si tratta
di un cambiamento spesso non desiderato, e cui l’organizzazione si adatta
esclusivamente come risposta sistemico-organizzativa alla sfida ambientale (Crozier e
Friedberg, 1977; Luhmann, 1984). In casi di overwhelming del corpo docente di una
facoltà per ragioni di apertura di nuovi corsi di laurea, o per grandi afflussi di studenti
da altre istituzioni universitarie che non offrano certi titoli di studio, è frequente il
ricorso improvviso e massiccio a certi tipi di valutazione a preferenza di altri. In questi
casi, si adottano frequentemente le prove scritte con test a scelta multipla, che offrono
tra gli altri il vantaggio di un notevole risparmio di tempo sui grandi numeri. Si noti che
la ratio della scelta in queste situazioni non è sempre ragionata; si tratta sovente della
scelta di una via di compromesso che permetta, pur con tutte le difficoltà, di fare fronte
alla situazione contingente. A presiedere alle scelte operative sovente non opera, in altri
termini, una filosofia coerente di valutazione.
19 La terza categoria – quella delle decisioni prese a livello burocratico-organizzativo –
indica quelle situazioni in cui un consiglio di facoltà, o di corso di laurea, decide di
uniformare i criteri di valutazione non sulla spinta di necessità logistiche, ma per una
precisa scelta di qualità della didattica. Casi come questi – in nome dell’autonomia di
insegnamento – sono probabilmente rari, oggi, in Italia.

20 Ragioni di carattere individuale. La cultura personale di un docente, e cioè la


generazione accademica alla quale appartiene; le esperienze che ha fatto come studente
e come ricercatore, e sia in Italia, o all’estero; le sue inclinazioni personali e le sue scelte
docimologiche, e certamente anche la tradizione vigente nella sua disciplina (in molti
settori, il rifiuto della strutturazione è senso comune, e scelta condivisa) sono senz’altro
fattori che possono concorrere alla scelta – se non esclusiva, almeno preferenziale – di
un modello di valutazione rispetto ad un altro, indipendentemente dal merito e dal
metodo dell’insegnamento impartito.
21 Le scelte valutative possono poi essere individuali, ma prese in base a criteri
logistici: in base cioè alla numerosità degli studenti, e al carico didattico del singolo
docente. Non è raro che accada che lo stesso docente, insegnando materie diverse, o
magari la stessa materia in più corsi di laurea, o in sedi diverse, sia portato dalla
numerosità degli studenti di ogni singolo corso ad adottare modalità di valutazione
differenti. Ciò accade talvolta anche quando il corso sia il medesimo e con lo stesso
programma, però tenuto in due diverse sedi staccate, l’una delle quali con trecento, e
l’altra con sedici studenti. Va da sé che un simile comportamento fa sorgere alcuni
quesiti in merito all’equità della valutazione.
22 La situazione ideale è quella in cui un docente è libero – come esperto della materia, e
come persona informata su criteri docimologici minimali – di scegliere individualmente
in base al contenuto dell’insegnamento la modalità valutativa più adatta, a seconda che
il programma d’esame riguardi l’acquisizione di conoscenze o di competenze. È evidente
che in un corso in metodologia della ricerca di trenta ore che abbia come argomento le
interviste biografiche, e sia tenuto in una laurea triennale di fronte a duecento studenti,
il focus verterà sull’acquisizione di conoscenze metodologiche e tecniche di base, e
largamente teoriche; lo stesso corso, tenuto in una laurea specialistica con quindici
studenti, e magari con un monte-ore di aula superiore, può permettere invece al docente
di far acquisire delle competenze di carattere comunicativo-relazionale su come si
intervistano le persone. Ovviamente la forma della valutazione terrà conto del differente
contenuto dei due insegnamenti, e sarà quindi flessibile a seconda del programma
d’esame, e di ciò che il docente ritiene gli studenti debbano dimostrare di aver acquisito
come proprio patrimonio personale.
23 Nella prassi dell’università italiana di oggi appare quindi arduo parlare di un unico
modello valutativo. Di fatto anche il singolo docente è spesso costretto a modificare i
propri criteri di valutazione in risposta al modificarsi degli assetti e delle richieste che
gli vengono poste.
24 A chiunque abbia riflettuto su queste pratiche – organizzative e individuali – è senza
dubbio venuta in mente la tipologia dell’azione di Weber (1961). Agire tradizionale e
agire orientato allo scopo sono categorie applicabili alle prassi sociali ora descritte,
tenuto conto dei due diversi livelli d’azione di cui si è parlato: quello organizzativo e
quello individuale.
25 Sia le prassi di carattere culturale organizzativo sia quelle di carattere culturale
personale possono essere infatti ricomprese entro l’ambito dell’agire tradizionale,
dettato da abitudini acquisite: tanto una prassi collettiva che crei un modus
comunemente accettato (e solitamente in maniera tacita) da un gruppo di soggetti,
quanto una prassi individuale che derivi dalla pura ripetizione del sempre eguale,
infatti, sfuggono alla dimensione della razionalità mezzi-fini che impone – con tutte le
implicazioni di limitatezza e contingenza descritte da Simon (1983) e da Elster (1989) –
di ricercare il corso d’azione preferibile, tenuto conto della situazione presente, dei
vincoli esistenti, e dei fini che l’attore si propone rispetto ad uno scopo da perseguire.
26 Le prassi di carattere logistico (organizzativo o individuale), quelle di carattere
burocratico-organizzativo e quelle individuali in base al contenuto dell’insegnamento
ricadono invece sicuramente entro l’ambito dell’agire orientato allo scopo. Con
un’importante specificazione: la ratio delle scelte di carattere logistico è una ratio
imposta, e non scelta, e il fine verso cui l’agire si orienta è in entrambi i casi un aspetto
di carattere istituzionale, e cioè il buon funzionamento della didattica in una situazione
ambientale caotica.
27 Diverso è il fine dell’agire negli altri due casi, quello delle scelte di carattere
burocratico-organizzativo, e quelle individuali in base al contenuto dell’insegnamento:
in entrambi i casi, l’azione appare rivolta ad un fine scelto – individualmente o
collettivamente, e secondo logiche solo in parte sovrapponibili – in base alla qualità
dell’offerta formativa che si vuole proporre. Sia la decisione di un consiglio di corso di
laurea volta a migliorare la qualità della valutazione globale, sia la decisione di un
docente che cerca una better way per svolgere il proprio lavoro si collocano su un piano
etico ed istituzionale ben diverso tanto dalla semplice pressione degli eventi, quanto
dalla ripetizione del già noto, e dell’abitudine.

28 Com’è noto, una relazione didattica è composta da due fasi, quella dell’insegnamento
e quella della valutazione di quanto appreso da parte dello studente.
29 Di converso, dunque, vi saranno due momenti in cui la qualità della relazione
didattica viene messa alla prova da parte dello studente (in quanto cliente di un
servizio) e non la supera:

quando la qualità dell’insegnamento risulti insoddisfacente -sotto uno o più


profili;
quando la ratio della valutazione sia revocabile in dubbio.

30 Questo dubbio può riguardare due distinti momenti, o addirittura entrambi:

a. la qualità della valutazione della prova del singolo (il problema in questo caso
è la validità della valutazione);
b. la qualità della valutazione delle prove comparate tra loro (il problema qui è
invece l’equità della valutazione).

3. Forme e metodo nella valutazione


dell’apprendimento
31 Non è facile dire che cosa vada valutato nella preparazione di uno studente
universitario, in un esame di profitto. Tanto meno è facile dire come questo quid vada
valutato. In effetti, l’intero problema va affrontato – dal punto di vista del merito – a
partire dal contenuto dell’insegnamento che viene impartito. La distinzione
fondamentale è, ovviamente, quella tra acquisizione di un sapere teorico e quella di un
sapere pratico.
32 Costruire e valutare una conoscenza, un sapere teorico di base sulla storia del
pensiero sociologico, sui modelli di rete nel servizio sociale, sui fondamenti dell’analisi
statistica bivariata o sulla metodologia delle storie di vita è un tipo di compito didattico.
33 C’è poi un altro compito didattico, a cavallo tra sapere teorico e sapere pratico: ad
esempio, insegnare con apposite esercitazioni ad analizzare ermeneuticamente il testo
di un sociologo contemporaneo riconducendone gli argomenti alle radici del pensiero
dei classici della sociologia. O far apprendere a una classe di assistenti sociali in una
laurea specialistica come si costruiscono modelli di intervento di rete in base a specifici
casi. Ancora: riuscire a far analizzare a un gruppo di studenti alcune matrici di dati
appositamente preparate con i test di significatività e i coefficienti di associazione
appropriati. Oppure far imparare come utilizzare i rilanci nell’interazione dialogica con
un intervistato durante la raccolta di una storia di vita. Qui il problema è applicare un
sapere teorico per sviluppare un sapere pratico; siamo in un campo in cui conoscenze
(saperi teorici) e competenze (saperi pratici) si trovano unite.
34 Un compito didattico ancora diverso è valutare le capacità acquisite come sapere
pratico in una specifica situazione d’azione. Ad esempio, chiedere a un gruppo
selezionato di studenti di produrre in un tempo definito una recensione di due cartelle
di un saggio sociologico sulla globalizzazione. Oppure far svolgere una relazione di
tirocinio ad un assistente sociale chiedendogli di proporre un modello di rete per il
sostegno all’utente di un servizio. O ancora, valutare quanto uno studente in tirocinio in
un’azienda sanitaria sia in grado di analizzare dei dati epidemiologici al livello bivariato
producendo una relazione scritta. Oppure controllare, in base alla registrazione e alla
trascrizione di una storia di vita, quanto uno studente sia in grado di gestire
autonomamente una situazione di intervista. In questi casi, è chiaro che si tratta di
valutare una competenza, di cui le conoscenze sono solamente una premessa necessaria,
ma non sufficiente.
35 Ecco perché è così difficile parlare in senso univoco di «valutazione». La forma della
valutazione dovrebbe infatti dipendere da che cosa si è insegnato: diverse conoscenze e
competenze – e diversi livelli di conoscenza e competenza – richiedono forme diverse di
valutazione. Ciò che può essere comune, invece, è un metodo di fondo.
36 Esaminiamo allora le possibili specie di prova valutativa, partendo dalle loro
caratteristiche strutturali. Introdurrò ora alcuni termini sui quali si basa l’analisi. Si
tratta di quattro specificazioni del lessico metodologico, inerenti alla situazione di
intervista (Bichi, 2002, 19-22 e 20 nota 9; Nigris, 2003, 15-49 e 15 nota 1).
Successivamente ne analizzerò i campi di applicabilità nel contesto valutativo
universitario.
37 Per direttività intendiamo la possibilità, da parte del ricercatore, di decidere nel corso
dell’intervista i contenuti da trattare. La direttività attiene alla conduzione di
un’intervista.
38 Con il termine standardizzazione intendiamo l’uniformità delle domande poste, per
quanto riguarda sia la loro forma sia l’ordine della loro presentazione. La
standardizzazione attiene alla conduzione di un’intervista.
39 Con la locuzione strutturazione della traccia ci riferiamo al grado di dettaglio della
traccia di intervista nel suo complesso, quanto a livello di approfondimento dei temi da
trattare.
40 Con la locuzione strutturazione delle domande ci riferiamo al grado di definizione del
testo delle domande, ed eventualmente dell’elenco delle possibili modalità di risposta.
La strutturazione delle domande attiene ad ogni singolo quesito posto.
41 Va precisato che queste proprietà di un’intervista sono continue, non discrete, e meno
che mai dicotomiche. Ogni singola traccia di intervista (questionario o traccia per
un’intervista semistrutturata, per un racconto di vita, o per una storia di vita) si
collocherà tipicamente (Bichi, 2002, 36) in una certa posizione, rispetto alle quattro
caratteristiche strutturali, ma una concreta traccia di intervista – con l’eccezione del
questionario, che è un’intervista standardizzata per definizione, ma varia comunque
quanto a strutturazione – potrà manifestare in misura maggiore o minore ognuna della
caratteristiche illustrate.
42 Queste categorie metodologiche si applicano a una dimensione – quella della
rilevazione delle informazioni – che è descrittiva, e non prescrittiva. La situazione di
valutazione è invece una relazione sociale intrinsecamente prescrittiva, e non
descrittiva. Bisogna quindi vedere come ognuna di queste quattro categorie possa
mostrarsi utile nell’applicazione al discorso valutativo a proposito degli esami di profitto
in università.
43 i) Direttività. Se con questo termine intendiamo la possibilità di chi pone dei quesiti
di decidere in merito all’argomento dei quesiti stessi, è chiaro che questa caratteristica
deve considerarsi sottesa a ogni tipo di valutazione: è il docente a decidere – come
mandato istituzionale – di che cosa debba discutere lo studente in sede d’esame di
profitto. Assumerò d’ora in poi che qualsiasi atto valutativo non possa che essere
direttivo per definizione6. Non terrò conto, quindi, di questa categoria nell’analisi
tipologica che segue.

44 ii) Standardizzazione della prova. Una prova d’esame standardizzata è quella in cui a
tutti i candidati vengono poste le stesse domande (anche se non necessariamente, in
ambito valutativo, nello stesso ordine). L’esempio più chiaro di prova standardizzata è
la prova scritta con domande a scelta multipla, ma anche una prova pratica può
benissimo essere standardizzata, quando il problema da risolvere o l’attività da eseguire
siano gli stessi per tutti i candidati. Sul versante della non-standardizzazione, troviamo
tipicamente l’esame con la sola prova orale: le domande vengono modificate ad ogni
candidato, essendo la prova pubblica, ed essendo gli studenti interessati, in attesa del
loro turno, ad ascoltare le domande del docente e le risposte fornite dai colleghi.

45 iii) Strutturazione della prova. La strutturazione di un insieme di quesiti è quella


caratteristica dell’intera serie di quesiti che attiene al grado di approfondimento dei
temi da trattare. Una serie di domande su temi molto generali, prive di successivi
approfondimenti, sarà quindi una prova d’esame scarsamente strutturata. Un insieme
di quesiti a un sempre maggiore livello di dettaglio può essere ritenuta una prova
strutturata.
46 Nel caso della valutazione della didattica, questa distinzione metodologica ha però
riguardo ad ogni specifica prova. Il concetto di «strutturazione» può quindi essere utile
solamente qualora si volesse analizzare una prova d’esame, e non il tipo cui questa
prova appartiene, come qui stiamo facendo.

47 iv) Strutturazione del testo della domanda. Una domanda potrà essere ben posta – e
cioè strutturata in maniera corretta, e quindi inequivoca – in una prova orale o scritta.
Quello che conta, in questo caso, è la natura linguistica della formulazione, che può
assumere aspetti molto diversi (Dautriat, 1997; Gobo, 1997; Pitrone, 1984), e presentare
problemi di varia natura.

48 v) Strutturazione delle modalità di risposta. Le modalità di risposta strutturate


attengono tipicamente alle prove scritte strutturate e standardizzate: elenchi di
possibilità tra le quali una è quella corretta, o quella errata, o la più corretta (a seconda
della costruzione della domanda).
49 Per la successiva discussione sulle caratteristiche delle prove valutative negli esami di
profitto ho ridotto le quattro categorie presentate a tre: standardizzazione della prova,
strutturazione dei testi delle domande e strutturazione delle modalità di risposta.
Possiamo aggiungerne un’altra: l’ispezionabilità della base empirica.
50 Con questa locuzione intendo la possibilità per una comunità di studiosi di una certa
disciplina di disporre – per giudicare della validità della pretesa di verità degli asserti
proposti in una ricerca – di elementi definiti e pubblicamente ispezionabili: i
questionari e la relativa matrice dei dati, ad esempio. E in base a questa caratteristica è
possibile (Ricolfi, 1995; Nigris, 2003) disporre su di un continuum le varie strategie di
ricerca empirica. Va da sé che l’idea si configura più come «dover essere», e come una
tensione verso pratiche virtuose in seno alle varie comunità scientifiche, che come realtà
effettuale: la pratica delle scienze sociali entro la quale viviamo ci informa con
sufficiente chiarezza che i dati di una ricerca solo di rado sono messi a disposizione della
«comunità scientifica». Ma in campo valutativo, dove il lavoro viene svolto all’interno di
organizzazioni, e quindi secondo una dimensione regolativa, il concetto è certamente
utilizzabile.

51 vi) Ispezionabilità della prova. Una prova d’esame è ispezionabile quando è


documentata. Ogni documento scritto che attesti la prestazione di un candidato è per
definizione ispezionabile (e, per legge, la prova scritta d’esame può essere visionata
dallo studente). L’ispezionabilità della prova è invece chiaramente assente nella
situazione della prova orale, o del colloquio.
52 Le categorie derivate dal dibattito metodologico che ora impiegherò per classificare i
vari tipi di prova sono dunque quattro:

a. ispezionabilità della prova;


b. standardizzazione della prova;
c. strutturazione del testo delle domande;
d. strutturazione delle modalità di risposta.

53 Le più diffuse forme di valutazione negli esami di profitto in università sono le


seguenti7, che ora esaminerò: prova orale; prova scritta a domande aperte; prova
scritta a domande chiuse; prove pratiche.
54 Passerò in rassegna questi tipi di prova, individuandone le caratteristiche e
valutandone la maggiore o minore desiderabilità didattica ed etica alla luce delle quattro
categorie individuate.

55 Prova orale. La prova orale presenta una sola delle proprietà indicate, quella sub:

c) strutturazione del testo delle domande.

56 La presenta tuttavia in modo parziale, essendo verbale la formulazione della


domanda.
57 Trattandosi di una transazione comunicativa orale, l’ ispezionabilità della prova è
assente per definizione; la prova d’esame non è mai standardizzata (le domande variano
da studente a studente); non vi è alcuna strutturazione delle modalità di risposta. È
soprattutto l’assenza delle due prime caratteristiche a far sorgere dei gravi dubbi su
questa forma della valutazione. Se ritorniamo alla diade validità-equità della
valutazione, è chiaro che la validità dell’atto valutativo, in un esame orale, è sempre
supposta, ma mai dimostrabile, perché manca una base empirica pubblicamente
ispezionabile. L’assenza di standardizzazione rende poi quanto meno problematico il
concetto di equità della valutazione, dal momento che le domande sono diverse da
studente a studente, e non è dimostrabile che la difficoltà delle stesse sia comparabile
tra un candidato e l’altro.

58 Prova scritta a domande aperte. La prova scritta a domande aperte manifesta la


presenza di tre delle quattro caratteristiche esaminate:

a. ispezionabilità della prova;


b. standardizzazione della prova;
c. strutturazione del testo delle domande.

59 La caratteristica che non si presenta, trattandosi di domande aperte, è la


strutturazione delle modalità di risposta.
60 La prova è dunque ispezionabile, e quindi la validità della valutazione è
pubblicamente esaminabile, anche perché la strutturazione scritta del testo delle
domande ne permette il controllo quanto a possibili ambiguità.
61 La standardizzazione della prova assicura in buona parte l’equità della valutazione: il
punto di debolezza è costituito comunque, in questo caso, dal fatto che le risposte sono
espresse in forma libera, e quindi entrano comunque in gioco aspetti ermeneutici
nell’interpretazione delle risposte da parte del docente, che andranno ad influire sul
conseguente giudizio valutativo.

62 Prova scritta a domande chiuse. La prova scritta a domande chiuse presenta tutte e
quattro le proprietà individuate.
63 La prova è ispezionabile; la strutturazione scritta del testo delle domande e delle
modalità di risposta permette di controllarne la correttezza; la validità della valutazione
è dunque accertabile e non equivoca.
64 Unitamente alla strutturazione del testo delle domande e delle modalità di risposta, la
standardizzazione della prova assicura in modo completo l’equità della valutazione – e
cioè la comparabilità tra le prove di tutti gli studenti che abbiano sostenuto l’esame in
una data occasione – eliminando quell’elemento interpretativo comunque presente
nelle domande strutturate a risposta aperta.

65 Prove pratiche. Uso il plurale alla luce di una considerazione banale: le prove pratiche
vere e proprie sono strettamente legate alla specificità di una disciplina, e possono
assumere forme diversissime.
66 Alcune di esse richiedono ad esempio azioni manuali da parte del candidato, e
osservazione diretta da parte del docente (si pensi ai campi della medicina – come
suturare una ferita – o della biologia – preparare in maniera corretta un vetrino –
oppure al campo artistico). Altre vertono su capacità dialogico-relazionali (come la
conduzione di una storia di vita, o la gestione di un colloquio con un paziente
psichiatrico), e richiedono osservazione e ascolto da parte del docente; altre esigono
competenze statistiche unite alla conoscenza di un software d’analisi (per un corso
avanzato di analisi dei dati), e così via. In più, vi sono prove pratiche che producono una
base empirica materica – il vetrino, il vaso in terracotta; altre che producono una base
empirica scritta – i tabulati dell’analisi; altre che non producono una vera e propria base
empirica, come nelle dimensioni dell’interazione verbale.
67 È chiaro che, in questi casi, abbiamo a che fare con saperi pratici veri e propri, con
competenze, e non con conoscenze, o con la connessione conoscenza-competenza di
base. Ed è altrettanto chiaro che – stante la diversità e la specificità che
contraddistingue queste pratiche – potremo avere o meno ispezionabilità della prova; vi
sarà o meno standardizzazione; il quesito posto potrà essere o meno strutturato;
certamente non sarà presente – per definizione, trattandosi di prove pratiche – la
strutturazione delle modalità di risposta.
68 Sottolineo infine che, se i principi metodologici ed etici che dovrebbero guidare la
nostra azione come docenti-valutatori sono la validità e l’equità, allora quanto più anche
le prove pratiche sono standardizzate, e quanto più producono una base empirica
ispezionabile, tanto più esse risponderanno a quei criteri.

69 Validità ed equità formano insieme quello che in senso etico e politico si potrebbe
definire trasparenza della relazione didattica in ambito valutativo. La trasparenza delle
valutazioni (garanzia di democraticità della relazione didattica, non vulnus della libertà
di docenza) appare a mio parere requisito necessario in un’università che voglia
riscoprire la sua capacità di offrire qualità dell’alta formazione.
70 Se come sociologi e metodologi sosteniamo che la «scienza» è un’impresa pubblica, e
se pensiamo che essa richieda quindi ogniqualvolta sia possibile la pubblicità degli atti
(e cioè l’ispezionabilità della base empirica), non si capisce come e perché non dovrebbe
valere lo stesso principio per il procedimento accademico di valutazione, parte così
importante dell’insegnamento universitario.
71 Quando si pongono delle premesse per un’azione – nel caso che ci interessa: quando
si definiscono i criteri cui si informerà poi una valutazione – il problema non è affatto
convincere: i criteri di giudizio sono una premessa maggiore, dal punto di vista logico,
e non una conclusione. Non hanno bisogno di accettazione: ciò che deve essere accettato
o rigettato è la validità dell’atto valutativo che ne seguirà. Se nessun cedimento va cioè
concesso a forme di irrazionalismo soi-disant «democratico» che accetterebbe l’ipotesi
di criteri di giudizio «concordati» con gli studenti – posizioni incomprensibili, perché i
criteri di giudizio sono di competenza del docente, oltre ad essere un suo preciso obbligo
– dev’essere anche chiaro che essi lo sono ad una condizione. E questa condizione è ad
un tempo politica ed etica: che i criteri siano resi espliciti, perché è di competenza del
docente anche fare sì che gli studenti sappiano in base a che cosa verranno giudicati.
Anche questo è – a mio parere – un preciso obbligo del docente. A questo riguardo la
differenza assiologica tra le prove d’esame orali e le prove d’esame scritte non pare
trascurabile.

4. Realtà e retorica del colloquio orale


d’esame: un’analisi microsociologica
72 Se la trasparenza necessita di un metodo, l’analisi condotta mi sembra mostrare
ragionevolmente perché – quando si tratti di valutare aspetti della conoscenza, o della
competenza di base – le prove scritte strutturate e standardizzate appaiano preferibili
sotto ogni profilo ai tradizionali colloqui d’esame.
73 Il loro merito è infatti, come abbiamo visto, assicurare la validità della valutazione
attraverso l’ispezionabilità della prova e la strutturazione del testo delle domande (e
preferibilmente delle modalità di risposta), e l’equità della prova attraverso la
standardizzazione, e la strutturazione di domande e risposte.
74 Le prove scritte presentano anche un altro aspetto rilevante: proteggere lo studente e
il docente da una serie di aspetti che possono influire sulla prestazione da un lato e sulla
formazione del giudizio dall’altro, aspetti che sono estranei alla relazione didattico-
valutativa, e sono invece interni alla dimensione comunicativa della relazione di
interazione dialogica.
75 La considerazione di fondo da cui si può muovere è duplice: la natura della
mediazione simbolica umana (Crespi, 1985) fa sì che di fronte all’esperienza sensoriale
non sia per noi possibile non attribuire a ciò che percepiamo dei significati che
permettano di ordinare tale esperienza. L’analisi semiotica (Eco, 1975) ci porta inoltre a
riflettere su quanto la natura della nostra esperienza sensoriale sia governata da codici,
su quanto questi codici siano locali e culturali, e su come chiunque – docente
universitario italiano, képi blanc della Legione Straniera, regina d’Inghilterra, medico
nepalese – porti in sé e con sé i propri, idiosincrasici elementi di attribuzione di senso.
76 Nell’interazione comunicativa ognuno di noi è continuamente esposto a questo filtro
percettuale-cognitivo che media il mondo che lo circonda ed anche, in prima istanza,
l’apparenza fisica delle persone che ci troviamo di fronte nell’interazione faccia-a-faccia.
77 Alcuni brevi cenni tratti dalla letteratura sulla comunicazione non-verbale possono
aiutarci ad individuare alcune di queste componenti, e a riconoscerle come altamente
indesiderabili nella situazione di valutazione.
78 Dimensione non-verbale. Gli studi di Goffman (1959; 1961; 1963a; 1963b; 1969; 1971)
ci forniscono il frame di base dell’analisi. L’immagine che forniamo agli altri
nell’interazione faccia-a-faccia riflette per noi la nostra identità autopercepita, ma per
gli altri è solo una configurazione percettiva, che verrà interpretata come una certa
immagine presentata, e che darà luogo ad inferenze circa la nostra identità (Nigris,
1994).
79 Tra gli elementi di maggiore rilevanza in questo processo possiamo ricordare:

Elementi dell’abbigliamento e ornamentali. Gli studi condotti dagli psicologi


dell’interazione non-verbale su questa dimensione ci forniscono molte
informazioni sull’importanza dell’apparenza. Ricordando qualche esempio
classico: l’uso della cravatta tende a suggerire un senso di affidabilità nei maschi
che la indossano nelle interazioni di lavoro (Green e Giles, 1973); le persone
tendono ad avere nell’interazione con un soggetto atteggiamenti marcatamente
diversi a seconda che i suoi vestiti suggeriscano un’immagine middle-class o
working-class (Sissons, 1971); donne che si presentano ad un colloquio di lavoro
possono scegliere accessori e abiti molto seducenti nel caso che venga detto loro
che il selezionatore è una persona con una visione maschilista delle relazioni tra i
sessi (Von Beyer e altri, 1981). L’influenza degli abiti esiste, e la sua conoscenza e
la sua manipolazione sono patrimonio sociale diffuso. I suoi effetti coinvolgono
entrambi i protagonisti dell’interazione: sia chi vuole produrre un certo effetto,
sia chi fa da spettatore.
Elementi corporei, gestuali e mimici. Anche in questo campo la letteratura è
vastissima. Cito solamente qualche esempio: le persone attraenti di entrambi i
sessi tendono a trovare lavoro più facilmente, e a ricevere paghe migliori (Quinn,
Tabor e Gordon, 1968); le persone che fanno minore uso della gestualità sono,
controintuitivamente, quelle che hanno anche una minore capacità di interazione
verbale (Baxter, Winter e Hammer, 1968); le persone tendono generalmente ad
essere considerate più piacevoli quando sorridono (Mueser e altri, 1984). Il
possibile elenco qui è sterminato; ciò che mi sembra chiaro è che raramente
siamo immuni dall’influenza dell’aspetto corporeo e degli stili comunicativi delle
persone che interagiscono con noi.
Somiglianze e attrazioni inconscie. In ognuno di noi sono presenti, non
sempre a livello cosciente, elementi percettivi che ci portano a vedere in positivo
o in negativo determinate configurazioni somatiche: attributi etnici del sòma,
lineamenti che ci ricordano persone care o persone che ci hanno fatto del male;
caratteristiche fisiche di chi ci sta davanti che ci attraggono, anche sessualmente,
perché corrispondono alle nostre preferenze erotiche. Tutti questi elementi,
assolutamente umani, non dovrebbero avere nulla a che fare con la situazione di
valutazione in un esame universitario. Preciso: io non sto affatto sostenendo che
così in realtà avvenga, nemmeno in una piccola percentuale dei casi. Sostengo
invece che nessuno – né i docenti, né gli studenti – ha mai la garanzia che
questo non possa accadere in una situazione di esame orale. E questo,
chiaramente, è un possibile elemento di perturbazione del processo di
valutazione, dal punto di vista etico e istituzionale.

80 Dimensione verbale. Anche ipotizzando il più virtuoso, controllato e padrone di sé tra


gli esaminatori possibili, che sia in grado di eliminare le proprie percezioni visive,
l’interazione dialogica in un esame orale comprende comunque un’altra dimensione: la
dimensione verbale. Anche qui vi sono molti elementi di possibile perturbazione della
valutazione. Innanzitutto, va sottolineato che quanto detto al punto precedente a
proposito delle attrazioni inconsce non vale solamente per le dimensioni di carattere
visivo, ma anche per quelle di carattere olfattivo e cenestesico, e anche per quelle di
carattere uditivo: una voce roca, una voce decisa, un accento della propria regione
d’origine. Oltre a questi elementi possiamo ricordare:
Elementi sovrasegmentali. Pause ed esitazioni nell’eloquio possono spesso
indicare una tendenza a riflettere per scegliere i termini più adatti ad esprimere il
proprio pensiero, o semplicemente il bisogno di riportare alla memoria un
elemento, magari molto specifico della materia che si ritiene sia quello che il
docente vuole sottolineare; possono del resto indicare una scarsa conoscenza
della materia stessa, o una sua scarsa sedimentazione nella memoria dello
studente. Allo stesso modo, la tendenza a parlare velocemente o lentamente, con
toni più o meno concitati, e a voce più o meno alta, possono essere indici di
tensione dovuta alla prova, o anche semplicemente componenti dello stile
comunicativo dello studente. Né il docente, né soprattutto lo studente che gli sta
di fronte, è in grado di valutare se questi aspetti possano entrare nel processo di
valutazione, e giocarvi un ruolo.
Elementi linguistici. La correttezza e la ricchezza dell’espressione italiana, e la
presenza di termini dialettali sono elementi che possono concorrere facilmente
alla formazione di un giudizio in chi per professione studia ed è chiamato a
valutare. Rimane però un fatto: ciò che si è chiamati a valutare è la preparazione
su un programma d’esame, e anche l’influenza di questi fattori non è solo
difficilmente controllabile, ma soprattutto ignota in ogni singolo caso.

81 Gli elementi appena accennati possono dare un’idea di quante forme di distorsione
possano incombere su una situazione in cui un giudizio viene emesso in base ad una
pura interazione dialogica. Non solamente non vi è, come già visto, alcuna base
empirica a sostegno delle ragioni dell’una o dell’altra parte; non solo non vi è equità
possibile tra le prove dei singoli studenti che vengono valutati in una data occasione, ma
vi sono in più validi motivi per dubitare in linea di principio che ciò che viene valutato
sia davvero solamente la preparazione dello studente, e non – potenzialmente – anche
in qualche misura lo studente stesso. Se anche si trattasse solamente di un dubbio di
metodo, ciò sarebbe sufficiente per procedere a abbandonare la prova orale come forma
esclusiva di valutazione in un esame di profitto.
82 Le voci che si levano in difesa di questa pratica valutativa sono invece ancora molte,
in base ad argomenti che sembrano, da un punto di vista logico (Copi e Cohen, 1997) e
di teoria dell’argomentazione (Perelman, Olbrechts-Tyteca, 1958), nient’altro che
fallacie. Ne presento alcuni:

l’argomento «della disumanizzazione della valutazione». Accade talvolta di


sentir dire che le prove scritte, soprattutto se strutturate e standardizzate,
«disumanizzerebbero» la relazione didattica nel suo momento di valutazione. Il
che equivale a dire che la valutazione dovrebbe essere «umana» nel senso di
poter essere assoggettata a tutti gli elementi extravalutativi propri di
un’interazione dialogica tra conoscenti. Il mandato che l’istituzione impone al
docente universitario richiede esattamente l’opposto, e si basa su obblighi di
ruolo, non sui buoni sentimenti;
l’argomento «del nozionismo delle prove strutturate e standardizzate». È il
tipico caso della fallacia detta «dell’uomo di paglia»: si costruisce un bersaglio
polemico e lo si attacca, fingendo che sia la tesi realmente espressa
dall’avversario. Naturalmente le prove strutturate e standardizzate possono,
come ogni cosa umana, essere costruite in maniera stupidamente nozionistica,
ma l’eventualità riguarderà l’incompetenza del docente che ha costruito la prova,
e non la forma della valutazione. Si può essere nozionistici in un colloquio orale
d’esame, così come si può essere intelligentemente critici, e richiedere
comparazioni e inferenze nella prova più strutturata. Il problema è di
responsabilità, di preparazione e di aggiornamento docimologico del singolo
docente;
l’argomento «delle capacità elaborative e critiche». Quest’argomento è
estremamente subdolo, e va analizzato a fondo. Sostengono alcuni che
all’università si dovrebbe, soprattutto negli anni avanzati di corso, valutare anche
e soprattutto la «capacità di collegamento tra le materie», la «capacità di
elaborazione soggettiva e critica» dello studente.

83 In linea di principio, nulla da eccepire. Però quello che il mandato istituzionale


richiede, di nuovo, è innanzitutto di valutare che cosa lo studente sa del programma
d’esame. Ad esempio: tra uno studente che abbia sostenuto già cinque esami di
sociologia, e uno che sia al suo secondo esame nella disciplina, è sperabile che il primo
abbia capito, della materia, qualcosa di più rispetto al secondo; questi, del resto, può
essere ben preparato sul programma, pur non avendo una serie di strumenti –
collegamenti, informazioni aggiuntive – di cui il primo dispone. Ma se lo studente che
ha maggiore confidenza con la disciplina fosse preparato in maniera approssimativa
rispetto al programma, in una situazione di colloquio orale sarebbe comunque
avvantaggiato, potendo vantare una migliore conoscenza del linguaggio tecnico, una
maggiore ricchezza di citazioni, e fare così bella figura di fronte a un docente poco
accorto. È evidente che l’esito potrebbe essere assai diverso, con una prova strutturata e
standardizzata che vertesse rigorosamente sul programma d’esame, e solo su quello.
84 Se il mandato istituzionale ha un senso, obiettivo primario è valutare la preparazione
sul programma, e solo poi, eventualmente, le «capacità elaborative e critiche», aiutando
gli studenti a svilupparle con momenti di confronto e di ricerca in comune e soprattutto
in sede di tesi di laurea, e non d’esame, la cui ratio è diversa.

5. Valutare mediante prove strutturate e


standardizzate più colloquio orale: uno
studio su otto sessioni d’esame
85 Presenterò ora alcune analisi di prove strutturate e standardizzate, facendo uso di
dati8 tratti da otto sessioni d’esame consecutive di uno dei corsi di metodologia e tecnica
della ricerca sociale di cui sono titolare.
86 Le prove scritte sono costituite da 30 domande, ognuna con quattro modalità di
risposta (non ordinate: una sola è corretta). I voti vengono assegnati secondo lo schema:
risposta corretta =+1; risposta mancante =0; risposta errata =-1/3. Chi supera la prova
scritta è ammesso alla prova orale, che consiste in un breve colloquio a proposito degli
errori commessi nella prova scritta.
87 In campo valutativo la non-strutturazione gioca un ruolo importante se consideriamo
gli stili comunicativi individuali. Non tutti, per competenza linguistica generale, o per
abitudine all’uso della lingua scritta, riescono a manifestare appieno la loro
preparazione di fonte a prove strutturate. Per questo trovo preferibile la soluzione di far
seguire la prova scritta – standardizzata e strutturata – da un breve colloquio orale, che
dà la possibilità allo studente di argomentare in maniera libera su domande specifiche,
inerenti ai temi della prova scritta.

88 Presento tre analisi9, che mettono in luce aspetti che mi sembrano interessanti di
questa pratica valutativa mista: l’andamento globale delle prove, con gli scarti tra voti
dello scritto e voti finali; l’andamento per sessione, sia con i valori di sintesi e di
dispersione, sia con l’analisi esplorativa tramite boxplot; l’analisi di una singola
sessione, con i dati dei voti positivi (ammessi all’orale) e negativi (non ammessi). Gli
studenti che hanno superato la prova nelle otto sessioni sono, complessivamente, 127.

89 Andamento globale delle prove. Possiamo osservare nei grafici di Fig. 1 e 2 la


distribuzione complessiva dei voti. Il 71% dei voti dello scritto va da un minimo di 18/30
ad un massimo di 22. La situazione migliora nel voto finale (76% tra il 18/30 e il 24). Si
nota chiaramente, nella Fig. 1, come molti voti dello scritto non subiscano incrementi: il
46,5% degli studenti, infatti, termina l’orale vedendo confermato, come voto finale, il
voto dello scritto, e solo 66 studenti sul totale di 127 migliorano la prestazione.
90 Nel grafico di Fig. 2, che mette in risalto gli scarti tra scritto e orale, e quindi il
miglioramento del voto, possiamo sia osservare la quantità di soggetti che mantiene il
voto dello scritto, sia vedere con maggiore chiarezza la natura e la dispersione degli
incrementi. Per il 37,7% si tratta di aumentare di uno o due voti; l’11,8% migliora di tre
punti. Solo il 4% (5 studenti) migliora la prestazione di quattro o cinque punti.
91 Già dall’analisi grafica è poi evidente come il miglioramento, indicato dalle «frecce»
non abbia un andamento monotòno rispetto al voto dello scritto: vi sono cioè studenti
che migliorano a partire da molto voti bassi, e studenti che mantengono il voto dello
scritto pur partendo da 26/30.

Fig. 1 Grafico a barre sovrapposte dei risultati conseguiti dagli studenti che hanno
superato la prova nelle otto sessioni analizzate (N = 127)

92 L’informazione più interessante a questo riguardo ci viene dall’utilizzo del coefficiente


di correlazione (r di Bravais-Pearson).
93 Correlando le due distribuzioni del voto finale e dello scarto scritto-orale con il voto
dello scritto, otteniamo questo risultato:

Tab. 1 Correlazioni voto dello scritto – voto finale e scarto scritto-orale (N = 127)

Voto dello scritto

r 0,91
Voto finale
Sig. (2 code) 0,000

r 0,14
Scarto scritto-orale
Sig. (2 code) 0,117

Fig. 2 Grafico lineare congiunto della differenza tra voto dello scritto e voto finale nei
risultati conseguiti dagli studenti che hanno superato la prova nelle otto sessioni
analizzate (N = 127)
94 Voto dello scritto e voto finale sono cioè correlati in maniera altamente significativa, e
la forza della loro relazione è molto grande. In termini analitici, questo significa che
effettivamente la base inferenziale su cui hanno poggiato le valutazioni in queste
sessioni d’esame era costituita in massima parte dalla prestazione fornita nella prova
scritta, e quindi da una base empirica certa, e non equivoca.

95 D’altra parte l’insignificante (sia perché non significativa, sia perché irrilevante
quanto a forza) correlazione dello 0,14 tra il voto dello scritto e lo scarto scritto-orale
suggerisce altre due osservazioni:

l’assenza di determinismi nei valutatori10: non c’è alcuna decisione a priori su


«quanto aumentare» il voto dello scritto in base al risultato, alto o basso,
conseguito dallo studente;
l’effettiva desiderabilità di affiancare alla certezza dello scritto un correttivo
orale che, pur vincolando lo studente ai temi della prova non svolti, permetta
però di sondarne meglio la preparazione, non essendo questa, evidentemente,
evincibile per tutti gli studenti dal solo test a scelta multipla.

96 Andamento per sessione. Nei grafici di fig. 3 e 4 osserveremo l’andamento delle prove
nelle otto sessioni d’esame considerate.
97 Possiamo riassumere sinteticamente le misure di tendenza centrale e di dispersione
in una tabella:

Tab. 2 Media e deviazione standard delle tre variabili nelle otto sessioni d’esame analizzate
(N = 127)

1a 2a 3a 4a 5a 6a 7a 8a

media 19,0 21,2 22,2 22,3 21,0 19,8 21,6 21,8


Voto dello scritto
devstd 0,7 2,5 2,9 3,2 2,5 1,8 2,2 3,0

media 20,1 22,0 24,8 24,1 22,6 20,1 22,8 22,8


Voto finale
devstd 1,1 1,6 3,1 3,5 3,1 2,1 2,7 3,5
media 1,1 0,8 2,6 1,8 1,6 0,4 1,2 0,9
Scarto scritto-orale
devstd 1,0 1,0 1,7 1,2 1,2 0,8 1,5 1,4

98 Come si vede, i voti finali e soprattutto i voti dello scritto sono mediamente bassi,
andamento visualizzato nel grafico di Fig.3. Osservando il grafico otteniamo una
conferma di quanto detto in precedenza: l’andamento è molto simile tra voto dello
scritto e voto finale, e meno tra queste due serie e quella che descrive l’incremento
dovuto all’orale.
99 L’analisi statistica classica, però, non ci dà informazioni sulla forma delle
distribuzioni, base sia visuale sia numerica dell’approccio esplorativo tukeyano
(Hoaglin, Mosteller, Tukey, a cura di 1983). Il grafico di Fig. 4, infatti, comparato con il
precedente, ci mostra un andamento decisamente più erratico di quanto possa risultare
dalla semplice analisi delle medie e delle deviazioni standard. In particolare, ci fa vedere
che sia la forma delle distribuzioni, sia la loro dispersione varia di molto sia tra le
sessioni, sia – comparando volto dello scritto e voto finale – all’interno della stessa
sessione d’esame.

Fig. 3 Grafico lineare congiunto riassuntivo dei valori medi conseguiti dagli studenti che
hanno superato la prova nelle otto sessioni d’esame analizzate (N = 127)

100 Aggiungo un elemento informativo: si discute spesso, a proposito delle prove


strutturate e standardizzate, dei possibili effetti negativi della differente difficoltà di due
prove d’esame sottoposte agli studenti in due sessioni diverse. Ho creduto fosse il caso
di fare una piccola controprova: nella quinta e nella sesta sessione tra quelle analizzate
ho sottoposto agli studenti la stessa identica prova, senza modificare nemmeno l’ordine
delle modalità di risposta. Uno sguardo ai boxplot relativi di Fig. 4 e alle relative misure
di Tab. 2 può suggerire al lettore come probabilmente non sia sempre vero che i risultati
dipendono dalla difficoltà della prova, ma anche invece dal grado di preparazione degli
studenti.

Fig. 4 Boxplot delle distribuzioni dei voti conseguiti dagli studenti che hanno superato la
prova nelle otto sessioni d’esame analizzate (N = 127)
101 Analisi di una singola sessione. Nella sessione d’esame rappresentata in Fig. 5 si sono
presentati 47 studenti. 26 hanno superato la prova orale (barre in grigio).
102 21 studenti (barre bianche) invece hanno conseguito risultati che andavano dai 17/30
allo zero11, e quindi non sono stati ammessi all’orale. Questo tipo di analisi visuale
consente al docente di valutare due aspetti:

l’andamento complessivo della prova, tenendo conto della numerosità relativa


degli ammessi e dei non ammessi all’orale, soprattutto nell’esame comparato
delle due distribuzioni affiancate;
le ragioni ipotizzabili del non superamento della prova. Ventuno persone che
non passassero la prova scritta con voti tra i 15/30 e 17/30 indicherebbero
certamente una carenza nella preparazione, ma potrebbero suggerire che la
prova d’esame proposta potesse essere di difficoltà eccessiva. Un andamento
come quello visualizzato dalle barre bianche di Fig. 5 (voti degli studenti non
ammessi alla prova orale), invece, dove il gruppo dei non ammessi all’orale si
distribuisce – anche se non uniformemente – lungo tutto l’arco dai che va dai
17/30 agli 0/30, porta a pensare che una parte degli studenti che non hanno
superato l’esame scritto avessero una preparazione insufficiente persino per
decidere di presentarsi all’esame stesso – se non, cosa assolutamente lecita, per
accertarsi di che prova si trattasse, in modo di potersi orientare nello studio in
vista di un appello successivo.

Fig. 5 Grafico a barre dei voti sia positivi sia negativi (candidati ammessi all’orale più non
ammessi) conseguiti dagli studenti che hanno sostenuto la prova nell’ottava sessione
analizzata (N = 47)
6. Valutazione e democrazia: equità
dell’atto valutativo e trasparenza della
relazione didattica
103 I cambiamenti che la nostra università12 sta attraversando, e la domanda di qualità
che proviene dagli studenti, sono due fattori che con buona probabilità trasformeranno
nel breve periodo molte pratiche accademiche consolidate.
104 Un problema che possiamo porci è quale sia una prassi metodologicamente e
istituzionalmente corretta di valutazione, tale da assicurare al massimo grado validità
ed equità.
105 Personalmente individuo in cinque punti la preferibilità etica e politica delle prove
strutturate e standardizzate (anche se affiancate, come detto, da integrazioni di
carattere orale). Questi punti sono: l’eguaglianza del punto di partenza; l’esplicitazione
dei criteri; l’anonimato delle prove; la correzione pubblica; l’ispezionabilità della
prova. In breve:

eguaglianza del punto di partenza. A tutti gli studenti, durante una prova
scritta e standardizzata vengono poste le medesime domande; non vi è pertanto il
sospetto di possibili sperequazioni quanto a difficoltà diversificate dell’esame;
esplicitazione dei criteri. Poter esplicitare in maniera chiara i criteri di
valutazione rappresenta, da parte del docente, una garanzia per sé e per gli
studenti, che sapranno in maniera inequivoca, e prima della prova, qual è il
metro con cui verranno giudicati;
anonimato delle prove. Per scelta etica, si può rendere le prove attribuibili, ma
del tutto anonime, facendo riportare agli studenti sulla griglia di risposta le
ultime cifre della matricola, e nient’altro. Così la correzione è solo correzione sul
merito, e non sulla persona;
correzione pubblica. Terminata la prova, e corretti i compiti, è utile correggere
la prova stessa pubblicamente, di fronte agli studenti. In questa maniera gli
studenti avranno la possibilità di argomentare subito la scelta di una data
modalità di risposta ad una domanda che ritenessero ambigua, e il docente potrà
pubblicamente, e in maniera argomentata, decidere se dar loro ragione;
ispezionabilità della prova. Chiunque – lo studente, il docente, eventuali
organi di controllo – potrà controllare la validità della valutazione solamente
quando vi sia una base empirica ispezionabile. In caso contrario, lo studente non
è protetto da errori, né il docente da eventuali lamentele infondate.

106 Come si vede, diritti e doveri sono presenti, nel ragionamento, per entrambi gli attori
coinvolti. E solo in questo modo il giudizio emesso potrà, alla fine, essere definito
democratico, e rispondere a quel requisito di trasparenza della relazione didattica da cui
abbiamo preso le mosse.

107 Chiudo queste riflessioni con una nota personale, e non esattamente ottimistica. È
chiaro come la mia posizione leghi in maniera molto stretta diritti e doveri
nell’interazione, così come nell’idea di democrazia che mi è propria. Siccome l’idea di
giudizio emesso può facilmente essere fraintesa, ritorno alla citazione che apre questo
contributo.
108 Quando Flaiano parla dell’«arbitro delle partite di calcio» come unico nemico
dell’italiano, «perché emette un giudizio», fotografa a mio parere una dimensione
culturale essenziale dell’ethos politico e morale della nostra nazione.
109 L’arbitro è arbiter, cioè «giudice secondo equità», e non dispone dell’arbitrium, del
«libero potere assoluto» di volizione. E questo perché, nel calcio, ci sono regole,
regolamenti, e commissioni disciplinari che ne sanzioneranno in caso di bisogno
l’operato. Così le sue decisioni, che sono pubbliche per definizione, comportano la
responsabilità soggettiva, debbono sottostare a regole esplicite, e sono revocabili.
110 C’è un parallelo importante tra la situazione stigmatizzata da Flaiano e le possibili
scelte sulla valutazione degli esami di profitto in università. Come abbiamo visto, nella
situazione di interazione tipica di un esame orale le regole non sono esplicite, e i criteri
aleatori. È proprio per questo che sopravvive la possibilità di un negoziato svincolato da
una base empirica certa per entrambe le parti coinvolte: per il docente, che può
giudicare in maniera non necessariamente documentabile né come merito, né come
metodo, ma anche per lo studente, che può negoziare con formule del tipo «mi faccia
un’altra domanda», che può sostenere «sì, ma io intendevo proprio in quel senso», e
così via.
111 Vie di fuga contrattuali che sono negate alla radice dal vincolo costituito da una base
empirica certa e ispezionabile di comune accordo dalle due parti come quella costituita
da una prova scritta, strutturata e standardizzata. In questo caso, il negoziato può
vertere solamente sugli errori delle due parti: le lacune nella preparazione dello
studente; gli errori commessi dal docente nella formulazione delle domande, o nel
calcolo del voto di profitto.
112 Di fronte ad un documento nessuno può sottrarsi alla responsabilità costituita
dall’evidenza dei suoi sbagli. Questa dimensione di garanzia costituita dalla prova
scritta è anche un vincolo: per il docente, che sarà eventualmente costretto a rivedere il
suo giudizio, ma anche per lo studente, che – in assenza di errori da parte del docente –
sarà legato all’evidenza della sua preparazione, e all’esito della sua prestazione e al
conseguente risultato raggiunto.
113 Per mia esperienza, come da quella di altri colleghi con cui ho discusso, non tutti gli
studenti apprezzano il risvolto (forse inatteso) di questa prassi valutativa. Forse in
alcuni, al di là delle giustificate lamentele a proposito dell’arbitrarietà nelle valutazioni
di molte prove orali, permane la difficoltà ad accettare l’elemento soggettivo di
responsabilità negativa che la strutturazione e la standardizzazione delle prove scritte
portano con sé quando esso si volge contro i propri interessi.
Bibliografia
Alvesson M. e Berg P.O. (1992), Corporate culture and organizational symbolism, Berlin, Walter
de Gruyter &Co.
DOI : 10.1515/9783110136074
Baxter J. C., Winter E. P. e Hammer R. E. (1968), Gestural behavior during a brief interview as a
function of cognitive variables, «Journal of personality and social psychology», 8, 303-307.
DOI : 10.1037/h0025597
Bichi R. (2002), L’intervista biografica, Milano, Vita e Pensiero.
Copi I. M. e Cohen C. (1997), Introduzione alla logica, Bologna, il Mulino.
Corbetta P. (1999), Metodologia e tecniche della ricerca sociale, Bologna, il Mulino.
Crespi F. (1985), Le vie della sociologia. Problemi, teorie, metodi, Bologna, il Mulino.
Crozier M. e Friedberg E. (1977), L’acteur et le système. Les contraintes de l’action collective,
Paris, Seuil.
Dautriat H. (1997), Il questionario. Guida per la preparazione e l’impiego nelle ricerche sociali di
psicologia sociale e di mercato, Milano, FrancoAngeli (10a ed.).
Di Franco G. (2001), EDS. Esplorare, descrivere e sintetizzare i dati. Guida pratica all’analisi dei
dati nella ricerca sociale, Milano, Franco Angeli.
D.M. 3 novembre 1999, n. 509, Regolamento recante norme concernenti l’autonomia didattica
degli atenei.
Ebel R. L. e Frisbie D. A. (1991), Essentials of Educational Measurement (5a ed.), Englewood
Cliffs (NJ), Prentice-Hall.
Eco U. (1975), Trattato di semiotica generale, Milano, Garzanti.
Elster J. (1989), Nuts and bolts for the social sciences, Cambridge, Cambridge University Press.
DOI : 10.1017/CBO9780511812255
Flaiano E. (1993), Frasario essenziale per passare inosservati in società, Milano, Bompiani [la
citazione proviene da un taccuino di appunti del 1959].
Gattullo M. (1968), Didattica e docimologia. Misurazione e valutazione nella scuola, Roma,
Armando.
Gobo G. (1997), Le risposte e il loro contesto. Processi cognitivi e comunicativi nelle interviste
standardizzate, Milano, Franco Angeli.
Goffman E. (1959), The presentation of self in everyday life, New York, Doubleday [edizione
riveduta e ampliata; prima edizione: Edinburgh, University of Edinburgh Press 1956]
Id. (1961), Asylums, New York, Doubleday.
Id. (1963a), Behavior in public places: Notes on the social organization of gatherings, New York,
The Free Press.
Id. (1963b), Stigma. Notes on the management of spoiled identity, Englewood Cliffs, Prentice-
Hall.
Id. (1969), Strategic Interaction, Philadelphia, University of Pennsylvania Press.
Id. (1971), Relations in public. Microstudies of the public order, New York, Basic Books.
Green W. P. e Giles H. (1973), Reactions to a stranger as a function of dress style: the tie,
«Perceptual and motor skills» 37, 676.
DOI : 10.2466/pms.1973.37.2.676
Grimaldi R. (a cura di) (2001), Valutare l’università. La Facoltà di Scienze della Formazione a
Torino, Torino, utet Libreria.
Gronlund N. E. (1993), How to Make Achievement Tests and Assessments (5a ed.), Needham
Heights (MA), Allyn and Bacon.
Id. (1997), Assessment of student achievement, Boston, Allyn and Bacon.
Hoaglin D.C., Mosteller F. e Tukey J.W., (a cura di) (1983), Understanding robust and
exploratory data analysis, New York, John Wiley & Sons.
Luhmann N. (1984), Soziale Systeme. Grundriß einer allgemeinen Theorie, Frankfurt am Main,
Suhrkamp Verlag.
Marradi A. (1993), L’analisi monovariata, Milano, Franco Angeli.
Id. (1997), Linee guida per l’analisi bivariata dei dati nelle scienze sociali, Milano, Franco Angeli.
Montesperelli P. (1998), L’intervista ermeneutica, Milano, Franco Angeli.
Mueser K. T. et al. (1984), You’re anly as pretty as you feel: facial expression as a determinant
of physical attractiveness, «Journal of personality and social psychology», 46, 469-478.
Nigris D. (1994), L’esperienza del ricovero: aspetti sociali e identità del paziente «I Fogli di
Oriss», 1/2, pp. 53-78; «Psichiatria generale e dell’età evolutiva», xxxii, 2, pp. 169-193.
Id. (2003), Standard e non-standard nella ricerca sociale. Riflessioni metodologiche, Milano,
Franco Angeli.
Ory J. C. e Ryan K. E. (1993), Tips for Improving Testing and Grading, Newbury Park (CA) Sage.
Perelman Ch. e Olbrechts-Tyteca L. (1958), Traité de l’argumentation. La nouvelle rhétorique,
Paris, Presses Universitaires de France.
Pisati M. (2003), L’analisi dei dati. Tecniche quantitative per le scienze sociali, Bologna, il
Mulino.
Pitrone M. C. (1984), Il sondaggio, Milano, Franco Angeli.
Quinn R., Tabor J. e Gordon L. (1968), The decision to discriminate, Ann Arbor (MI), Survey
Research Center.
R.D. 4 giugno 1938 n. 1269.
R.D. 6 aprile 1924 n. 674.
Ricolfi L. (1995), La ricerca empirica nelle scienze sociali. Una tassonomia, «Rassegna Italiana di
Sociologia», 3, 389-418.
Roethlisberger F. e Dickson W. (1939), Management and the worker. An account of a research
program conducted by the Western Electric Company, Hawthorne Works, Chicago, Cambridge
(Mass.)-London, Harvard University Press.
Siegel S. e Castellan N. J. Jr. (1999), Statistica non parametrica, Milano, Mc Graw-Hill.
Simon H. (1983), Reason in human affairs, Stanford (CA), Stanford University Press.
DOI : 10.1515/9780804766685
Sissons M. (1971), The psychology of social class, in Money, wealth and class, Milton Keynes,
Open University Press.
Trivellato P. (1997), Paese che vai, formazione che trovi. Appunti per un confronto tra i modi di
apprendere, in Baldissera A. (a cura di), Le politiche dell’istruzione nell’epoca della
globalizzazione, sezione monografica di «Quaderni di Sociologia», XLI, 15, pp. 65-80.
Turner B. A. (1971), Exploring the industrial subculture, London, Macmillan.
DOI : 10.1007/978-1-349-00687-8
Vertecchi B. (1993), Decisione didattica e valutazione, Firenze, La Nuova Italia.
Von Beyer C. L. (1981), Impression management in the job interview: when the female applicant
meets the male (chauvinist) interviewer, «Personality and social psychology bulletin», 7, 45-51.
Weber M. (1961), Economia e società, Milano, Comunità (ed. or. 1922).

Allegato

Linee guida per la costruzione di prove


d’esame strutturate e standardizzate
Avendo argomentato le ragioni che militano a favore dell’abbandono della pratica esclusiva delle
prove orali, illustrerò brevemente alcuni aspetti tecnici e di metodo della costruzione di prove
scritte strutturate e standardizzate.

A. Aspetti strutturali della prova d’esame


La prova d’esame strutturata e standardizzata è costituita da un numero di domande che per un
esame universitario oscilla solitamente tra le trenta e le sessanta (a seconda, ad esempio, del
monte-ore del corso e del numero di testi adottati). Tutte le domande sono a risposta chiusa: vi
sono n modalità di risposta prefissate, e gli studenti debbono decidere qual è la risposta corretta
ad ogni domanda.
Vanno prodotte quattro o cinque modalità di risposta (una corretta, le altre errate) per ogni
domanda, in maniera che la possibilità di fornire una risposta casualmente corretta non abbia una
probabilità di verificarsi maggiore del 25-20%. Domande dicotomiche o con tre sole modalità di
risposta innalzano in modo inaccettabile la probabilità di rispondere casualmente in modo
corretto; elenchi di modalità maggiori risultano faticosi per lo studente e possono ingenerare
confusioni.
B. Aspetti tecnici della costruzione delle domande
Ogni domanda si compone di due parti:

testo del quesito;


elenco delle modalità di risposta.

La loro costruzione prevede tre fasi:

a. estrapolata una frase da un testo d’esame, la si scompone. Una parte della frase sarà il
testo della domanda, l’altra parte la modalità di risposta corretta. Le domande non devono
riguardare dettagli insignificanti;
b. si creano le modalità di risposta alternative;
c. si controlla che nessuna modalità alternativa di risposta:

possa essere ritenuta corretta sotto alcun profilo: dovranno cioè essere tutte sbagliate nel
merito, o incomplete, o prive di senso;
contenga informazioni che guidino lo studente verso la risposta corretta (questo controllo
va operato in maniera incrociata anche tra le diverse domande che compongono la prova);
possa confondere lo studente. Va fatta attenzione – linguaggio tecnico a parte – a non fare
uso di un italiano involuto; è inoltre preferibile incorporare nel testo della domanda quelle
parti della frase che verrebbero altrimenti ripetute in tutte le modalità di risposta.

La tipologia dei possibili errori dipende solo dalla fantasia del docente: modalità di risposta
incomplete (un solo autore corretto su tre); modalità di risposta completamente sbagliate (una
definizione priva di senso); modalità di risposta sbagliate rispetto alla domanda posta, sebbene
corrette se riferite a un altro concetto (la definizione del concetto di status sociale riferita a quella
di ruolo); risposte assurde (tre teorici delle élites che rispondano ai nomi di Biasini, La Malfa e La
Malta), e così via.
Per quanto non si debba abusare di modalità palesemente sbagliate come quella appena citata –
perché con la loro insensatezza ridurrebbero di una modalità l’elenco delle possibili risposte –
posso assicurare, dopo anni di prove strutturate, che la creatività degli studenti è grande, e
controbilancia quella del docente.

C. Struttura delle domande


Dalla mia esperienza, i quattro tipi di domanda più utili sono – quanto a struttura – i seguenti:

– domande a singolo elemento. L’oggetto della domanda è unico; sono domande dirette a
controllare la conoscenza di base dei concetti di una disciplina. Esemplifico, lasciando in
maiuscoletto il testo della domanda e la modalità di risposta corretta, la tecnica che utilizzo
quando preparo le prove: è utile per evitare distrazioni, e serve da riferimento immediato quando
si deve randomizzare le modalità. L’esempio è tratto da Corbetta (1999, 251):

una misura di coerenza interna di una scala di atteggiamento


a) è il chi-quadrato
b) è l’alfa di cronbach
c) è il beta di Simmel
d) è il rho di Spearman

– domande a elementi multipli. Gli oggetti sono più di uno; si tratta di completare frasi. Sono
domande che valutano la coerenza tra concetti nella preparazione dello studente. L’esempio è
tratto da Montesperelli (1998, 55):

«Tipizzare» in __ significa compiere ___, ridurre la complessità del reale


T. Parsons – un’astrazione
T. Parsons – una valutazione
A. Schutz – un’astrazione
A. Schutz – una valutazione

– domande a ordinamento. Si chiede allo studente di collegare tra loro elementi di due elenchi,
come nell’esempio (da Nigris 2003) autori e opere (ma anche autori e periodi storici, nomi di test
e formule, e così via):
1 – A. Marradi a – Elementi di teoria dei campioni

2 – R. Bichi b – Due famiglie, un insieme

3 – V. Castellano, A. Herzel c – Emica

4 – J. P. Olivier de Sardan d – L’intervista biografica


quale dei seguenti accostamenti tra autore e opera è corretto?
1d, 2a, 3c, 4b
1a, 2d, 3c, 4b
1b, 2a, 3d, 4c
1b, 2d, 3a, 4c

– risoluzione di problemi. Lo studente dovrà risolvere una semplice operazione, oppure


analizzare un grafico e dire quale interpretazione o quale risultato tra quelli enunciati nelle
modalità di risposta è corretto (da Corbetta 1999, 500):

La mediana della seguente serie di valori cardinali (1; 3; 4; 4; 4; 5; 5; 6; 9; 9) è


ci sono due mediane: 4 e 5
La mediana è 4,5
la mediana non è calcolabile per variabili cardinali
nessuno dei precedenti

D. Questioni di metodo
Accenno brevemente ad alcuni problemi metodologici che sottendono la costruzione delle prove
strutturate e standardizzate:

– Significato e interpretazione della domanda. È da Lazarsfeld in poi che la letteratura


metodologica riflette sul problema del significato nella somministrazione di questionari, e cioè
sulle dimensioni ermeneutiche che comunque si presentano quando un soggetto pone una
domanda, e un altro soggetto in interazione con il primo risponde alla domanda interpretandola
(per una rassegna della problematica, rimando a Gobo 1997). Si badi: nel caso di prove d’esame,
qualora siano presenti sia la strutturazione delle domande sia la strutturazione delle modalità di
risposta, lo studente è chiamato a rispondere in base alla conoscenza di testi che utilizzano il
linguaggio tecnico della disciplina e, ovviamente, una parte del processo di acquisizione di
conoscenze e di competenze è costituita proprio dall’acquisizione del linguaggio tecnico. Per cui –
errori del docente nella formulazione della domanda a parte – possiamo ritenere che lo studente
che non comprenda il linguaggio tecnico in cui è formulato un test non abbia una preparazione
sufficiente.

– Il «dettato del testo». Si dice comunemente che le domande e le modalità di risposta corrette
devono rispondere al «dettato del testo». Ma non si tratta di un criterio vincolante in assoluto:
qualsiasi testo implica oltre ad asserire; e più porzioni di testo comparate tra loro contengono una
quantità di possibili asserzioni non presenti esplicitamente nel «dettato del testo», ma
logicamente in esso implicate.
Il fatto che lo studente possa non ritrovare in alcuno dei testi d’esame la frase esatta che
costituisce l’insieme domanda-risposta corretta non ha alcuna importanza. Non si tratta della
situazione in cui un docente pone domande inerenti a materie trattate a lezione in un corso dove
la frequenza non è obbligatoria: quando una risposta è chiaramente evincibile dal combinato
disposto di più asserti presenti nelle pagine dei testi d’esame, il «dettato del testo» deve senz’altro
ritenersi presente nella domanda.
Questo, oltretutto, è un altro elemento a supporto della critica alle due fallacie «del nozionismo» e
«delle capacità elaborative e critiche». Uno studente che risponda correttamente a una domanda
che richiede la comparazione tra asserti presenti in parti diverse di un testo, o di più testi diversi,
dimostra proprio capacità elaborativa e critica, e non risponde affatto ad una domanda
«nozionistica».

– Suggerimento della risposta e risposte casualmente corrette. Un problema rilevante, derivato


dalla metodologia della ricerca tramite questionario, è il meccanismo del «suggerimento della
risposta»: soggetti che non abbiano un’opinione su un tema possono essere indotti a rispondere
comunque, in base alle modalità di risposta loro offerte.
Questo primo processo si sovrappone parzialmente ad un secondo: in campo valutativo, ogni
prova strutturata e standardizzata fa incorrere nel rischio di produrre risposte casualmente
corrette, secondo una distribuzione stocastica che dipende dal numero complessivo delle
domande e delle modalità di risposta presenti nella prova. Inoltre, dato che difficilmente lo
studente si presenta a sostenere una prova senza avere una seppur scarsa conoscenza del
programma d’esame, la probabilità di superare la prova aumenta, una volta che lo studente abbia
fornito tutte le risposte della cui esattezza è certo, e disponga casualmente le altre.
Il modo per eliminare questa evidente fonte di distorsione nella valutazione è di introdurre dei
voti negativi frazionari, che diano il complemento algebrico a zero del valore di 1 assegnato alla
modalità di risposta corretta per ogni domanda. Così, se le domande sono trenta, e le modalità
quattro per ogni domanda, i valori saranno: +1, -1/3, -1/3, -1/3. In questa maniera, e non
assegnando alcun voto positivo né negativo alla mancata risposta, si premia la strategia che
consiste nel fornire solo le risposte di cui lo studente è sicuro.

Note
1 Scienze della Formazione, Università di Trieste.
2 Per la letteratura docimologica in questo campo rimando a Gattullo (1968), Vertecchi (1993).
Nello specifico dell’assessment e dei test, alcuni punti di riferimento attuali sono: Ebel e Frisbie
(1991), Gronlund (1993; 1997), Ory e Ryan (1993).
3 Voglio ringraziare Rita Bichi, Paolo Sorzio, Giorgio Porcelli, Elena Bortolotti, Francesca Zanon,
Serena D’Ambrosio e Lidia Maccan, con cui in vari momenti ho condiviso le mie riflessioni.
4 Preciso che farò uso della forma maschile-neutra dell’italiano. Va da sé che non si tratta di un
misconoscimento delle differenze di genere, ma solo di una scelta stilistica: vista la frequenza con
cui ricorreranno le parole «studente» e «docente» in questo scritto, è poco utile appesantirne la
lettura con forme del tipo «il docente o la docente».
5 Rimando a Marradi (1993, 123-130).
6 Un’apparente eccezione può essere la situazione in cui si voglia valutare la capacità di un
collaboratore – laureato, dottorando, dottore di ricerca, giovane ricercatore – di esporre con
chiarezza una tematica prima di permettergli di tenere delle lezioni integrative, e gli si dica
«intrattienimi su quello su cui ti senti più preparato». Ma si badi bene: in questo caso non si sta
valutando affatto la preparazione della persona, ma solamente la sua capacità didattica: la
preparazione sostantiva è una condizione implicitamente necessaria, e data per assodata in quella
situazione.
7 Non prenderò in considerazione la categoria delle prove d’esame miste (strutturate su più prove
diverse, come un esame costituito da una prova scritta più una prova orale): una prova mista è un
insieme di prove distinte, riconducibili alle osservazioni presentate nel testo.
8 Per ragioni di riservatezza, non fornisco riferimenti circa la sede e il corso.
9 Per gli aspetti tecnici rimando a Di Franco (2001); Marradi (1993; 1997); Pisati (2003); Siegel,
Castellan (1997).
10 Tutte le otto sessioni hanno visto la presenza contemporanea degli stessi due esaminatori.
11 La natura di una formula che elimini la risposta casuale con il complemento algebrico a zero
del valore di 1 assegnato alla risposta corretta è tale – qualsiasi sia il numero di domande, il
numero di modalità e il peso assegnato in trentesimi a ognuna delle risposte corrette – da fornire
sempre, come valore minimo possibile, un valore negativo. E questo spiega la barra
corrispondente ad un «voto» di -3/30. Dal momento che la scala di valutazione in università è per
legge da 0/30 a 30/30, è chiaro che ad essa va ricondotto ogni valore inferiore allo zero.
12 Legislazioni e culture nazionali influenzano in maniera notevole gli assetti sociali. Si veda
Trivellato (1997) per una comparazione tra Italia e Giappone a proposito di modelli educativi.

Indice delle illustrazioni


Fig. 1 Grafico a barre sovrapposte dei risultati conseguiti dagli studenti che
Titolo
hanno superato la prova nelle otto sessioni analizzate (N = 127)
URL http://journals.openedition.org/qds/docannexe/image/1107/img-1.jpg
File image/jpeg, 56k
Fig. 2 Grafico lineare congiunto della differenza tra voto dello scritto e voto
Titolo finale nei risultati conseguiti dagli studenti che hanno superato la prova
nelle otto sessioni analizzate (N = 127)
URL http://journals.openedition.org/qds/docannexe/image/1107/img-2.jpg
File image/jpeg, 52k
Fig. 3 Grafico lineare congiunto riassuntivo dei valori medi conseguiti dagli
Titolo studenti che hanno superato la prova nelle otto sessioni d’esame analizzate
(N = 127)
URL http://journals.openedition.org/qds/docannexe/image/1107/img-3.jpg
File image/jpeg, 60k

Titolo Fig. 4 Boxplot delle distribuzioni dei voti conseguiti dagli studenti che hanno
superato la prova nelle otto sessioni d’esame analizzate (N = 127)
URL http://journals.openedition.org/qds/docannexe/image/1107/img-4.jpg
File image/jpeg, 44k
Fig. 5 Grafico a barre dei voti sia positivi sia negativi (candidati ammessi
Titolo all’orale più non ammessi) conseguiti dagli studenti che hanno sostenuto la
prova nell’ottava sessione analizzata (N = 47)
URL http://journals.openedition.org/qds/docannexe/image/1107/img-5.jpg
File image/jpeg, 53k

Per citare questo articolo


Notizia bibliografica
Daniele Nigris, «La valutazione nell’insegnamento universitario. Metodologia delle prove
strutturate e standardizzate e trasparenza della relazione didattica», Quaderni di Sociologia,
35 | 2004, 23-57.

Notizia bibliografica digitale


Daniele Nigris, «La valutazione nell’insegnamento universitario. Metodologia delle prove
strutturate e standardizzate e trasparenza della relazione didattica», Quaderni di Sociologia
[Online], 35 | 2004, online dal 30 novembre 2015, consultato il 09 juin 2023. URL:
http://journals.openedition.org/qds/1107; DOI: https://doi.org/10.4000/qds.1107

Autore
Daniele Nigris
Università di Trieste

Diritti d'autore

Creative Commons - Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale -
CC BY-NC-ND 4.0

https://creativecommons.org/licenses/by-nc-nd/4.0/

Potrebbero piacerti anche