Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
1 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
Indice
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
2 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
Gli animali e gli esseri umani non si limitano a reagire agli stimoli esterni: essi si impegnano
attivamente in azioni finalizzate ad ottenere determinati stimoli o cambiamenti ambientali (il cane
gratta alla porta per farsi aprire; noi premiamo un interruttore per accendere la luce in una stanza).
Queste azioni sono definite risposte operanti, in quanto operano sul mondo in modo da produrre
particolari effetti, oppure risposte strumentali, poiché fungono da strumenti per ottenere un
tali risposte è detto condizionamento operante (o, talvolta, condizionamento strumentale). Esso
può essere definito come un processo di apprendimento mediante il quale gli effetti
(conseguenze) di una risposta influenzano la probabilità che essa sia prodotta di nuovo in futuro.
Figura 1. La gabbia-problema di Thorndike e tempo necessario per uscire in funzione del numero di prove
I primi studi sul condizionamento operante furono pubblicati da Thorndike (1898), il quale
utilizzava una procedura molto diversa da quella di Pavlov. Egli si serviva di una particolare
apparecchiatura nota come gabbia-problema (puzzle box): si trattava di una piccola gabbia che
l’animale poteva aprire dall’interno sollevando un gancio o premendo una leva (si veda la Figura
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
3 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
1). Nei suoi esperimenti, Thorndike introduceva dei gatti affamati (uno per volta) dentro la gabbia,
con il cibo bene in vista all’esterno. Non appena rinchiusi nella gabbia, i gatti eseguivano molte
azioni diverse nel tentativo di uscire (graffiare le sbarre o fare pressione contro il coperchio), finché,
casualmente, riuscivano a sollevare il gancio o a premere la leva che apriva la porta e gli
permetteva di raggiungere il cibo. Ripetendo questa procedura molte volte, lo studioso notò che,
in media, il tempo necessario per compiere l’azione appropriata e uscire dalla gabbia diminuiva in
maniera costante, finché i gatti erano in grado di far scattare il gancio (o la leva) subito dopo
Basandosi sui risultati degli esperimenti effettuati con la gabbia-problema, Thorndike formulò
la cosiddetta legge dell’effetto, la quale assume che le risposte che in una particolare situazione
nella stessa situazione, mentre le risposte che producono effetti insoddisfacenti hanno minori
probabilità di essere prodotte di nuovo nella stessa situazione. Negli studi di Thorndike, la situazione
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
4 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
veniva rinchiuso nella gabbia: all’inizio tali stimoli evocavano molte risposte diverse (ad esempio,
grattare contro le sbarre della gabbia), una sola delle quali era in grado di aprire la gabbia;
tuttavia, una volta aperta la gabbia, l’effetto soddisfacente prodotto dall’accesso al cibo
rafforzava la risposta corretta, per cui le probabilità che il gatto, trovandosi nella stessa situazione,
producesse la stessa risposta aumentavano rapidamente gabbia (si veda la Figura 3 per uno
schema).
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
5 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
2. La gabbia di Skinner
condizionamento operante è stato Burrhus Skinner (1904-1990). Intorno al 1930, egli ideò
un’apparecchiatura che ben presto divenne nota come ‘gabbia di Skinner’: essa consisteva in
una gabbia contenente una leva su cui l’animale poteva agire in modo da ricevere un pezzetto di
cibo. Rispetto alla gabbia-problema di Thorndike, i vantaggi ottenuti con questo semplice metodo
erano notevoli:
• in primo luogo, dopo aver risposto la prima volta, l’animale rimaneva chiuso nella gabbia e
poteva quindi continuare a fornire altre risposte (al contrario, utilizzando la gabbia-
• in secondo luogo, poiché la quantità di cibo dispensata ad ogni risposta era piccola, un
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
6 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
Figura 3. Tipica curva di frequenza delle risposte di un gatto che apprende a premere la leva in una gabbia di Skinner
Skinner non si limitò soltanto a creare un’apparecchiatura più efficiente per lo studio
dell’apprendimento negli animali, ma coniò anche una nuova terminologia. Secondo questo
studioso:
un effetto sull’ambiente;
risposta operante modifica la probabilità che essa sia nuovamente prodotta in futuro;
• inoltre, il termine rinforzo si riferisce al cambiamento dello stimolo che è prodotto dalla
Così, in un tipico esperimento con la gabbia di Skinner si ha che: a) la pressione della leva è
la risposta operante; b) l’aumento della frequenza con cui la risposta viene prodotta è un esempio
gancio corrisponde alla risposta operante, l’aumento della rapidità con cui l’animale esegue la
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
7 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
risposta a ogni nuova prova è un esempio di condizionamento operante, e l’uscita dalla gabbia e
Secondo Skinner, alcuni stimoli, come il cibo per un animale affamato o l’acqua per un
animale assetato, rappresentano rinforzi naturali. D’altra parte, negli esseri umani, determinati
Skinner chiamò utilizzò il termine ‘rinforzi condizionati’ per riferirsi a questo secondo tipo di rinforzi. Un
esempio classico è il denaro: una volta compreso ciò che è possibile comprare con il denaro, la
maggior parte degli esseri umani apprende a comportarsi in modo da guadagnarne il più
possibile.
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
8 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
operante. In primo luogo, nella gabbia di Skinner, il rinforzo viene emesso soltanto dopo una
risposta corretta. Tuttavia, in alcuni casi, il ratto messo in una gabbia di Skinner non preme mai la
leva, o un gatto rinchiuso in una gabbia-problema non riesce mai ad alzare il chiavistello. In questi
casi, il rinforzo non viene mai emesso e quindi la risposta corretta non può essere condizionata. Per
ovviare a questo problema, Skinner ideò una procedura nota come ‘tecnica del modellamento’
(o shaping), che consiste nel rinforzare ogni risposta che si avvicina a quella desiderata (ad
esempio, si potrebbe rinforzare il gatto ogni volta che si avvicina al lato della gabbia che contiene
la leva), finché quest’ultima viene prodotta e può essere rinforzata. In effetti, le persone che
addestrano animali (ad esempio, in un circo) si servono di questa tecnica per insegnare loro ad
Al pari del condizionamento classico, Skinner scoprì che, se non porta più a ottenere un
rinforzo, una risposta operante condizionata diminuisce di frequenza in maniera graduale, fino a
scomparire del tutto (i ratti cessano di premere la leva se non ricevono più cibo e le persone
smettono di sorridere a chi non contraccambia). Il mancato rinforzo di una risposta operante e il
conseguente declino nella sua frequenza sono indicati col termine ‘estinzione’. Anche in questo
caso, l’estinzione non è mai totale: il semplice passare del tempo può portare ad un recupero
spontaneo, e una singola risposta rinforzata può riportare la frequenza di risposta al livello
precedente all’estinzione.
proficuo utilizzare uno schema di rinforzo parziale, in cui la risposta viene rinforzata solo alcune
volte. Skinner e colleghi hanno identificato quattro principali schemi di rinforzo parziale:
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
9 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
• Schemi a rapporto fisso: il rinforzo si verifica sempre dopo n risposte (dove ‘n’ è un numero
intero maggiore di 1); per esempio, in uno schema a rapporto fisso 5, il rinforzo viene
sempre fornito in corrispondenza della quinta risposta, dopo quattro risposte non rinforzate.
modo tale che la media sia pari a n; per esempio, in uno schema a rapporto variabile 5, il
rinforzo può essere fornito dopo 7 risposte non rinforzate e successivamente dopo 3 risposte
• Schema a intervallo fisso: tra due risposte rinforzate successive deve passare un intervallo di
tempo fisso; ad esempio, in uno schema a intervallo fisso di 30 secondi, viene rinforzata una
• Schema a intervallo variabile: il tempo che deve trascorrere tra due risposte rinforzate
successive varia in modo che la media sia pari a n; ad esempio, in uno schema a intervallo
variabile di 30 secondi, la risposta può essere rinforzata dopo 10 secondi e poi dopo 50
secondi di distanza dalla risposta precedente, in modo che la media sia pari a 30.
Un vantaggio connesso all’uso di schemi di rinforzo parziale è dato dal fatto che essi
rendono la risposta condizionata molto resistente all’estinzione. Infatti, ratti che passano da uno
schema a rapporto continuo ad uno schema a rapporto parziale in cui i rinforzi sono sempre più
rari fino ad annullarsi del tutto, spesso producono centinaia di risposte non rinforzate prima di
smettere di rispondere. Secondo Skinner (1953), questo fenomeno aiuta a spiegare perché i
giocatori d’azzardo continuano a scommettere anche quando non vincono da parecchio tempo:
essi sono vittime degli schemi ad intervalli variabili che caratterizzano praticamente tutte le slot
cognitiva, i giocatori d’azzardo continuano a giocare perché hanno appreso che la prossima
processo che aumenta la probabilità che una certa risposta venga emessa: esso può essere
positivo o negativo. Un rinforzo positivo si ha quando l’arrivo di uno stimolo gradito (ad esempio il
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
10 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
cibo, il denaro, o dei complimenti) in seguito ad una risposta aumenta la probabilità di produrre la
stessa risposta in futuro. D’altra parte, un rinforzo negativo si ha quando la rimozione di uno stimolo
spiacevole in seguito ad una risposta rende la risposta stessa più probabile in futuro. Tipici rinforzi
negativi sono le scosse elettriche, le compagnie sgradevoli, i rimproveri, i rumori forti, e qualsiasi
Figura 4. Significato di rinforzo positivo, rinforzo negativo, punizione positiva e punizione negativa
processo opposto al rinforzo, in cui le conseguenze di una risposta fanno diminuire (anziché
aumentare) la probabilità di emettere la stessa risposta in futuro. Anche la punizione può essere
positiva o negativa. Una punizione positiva si ha quando l’arrivo di uno stimolo sgradito (una scossa
elettrica per un ratto o un rimprovero per una persona) diminuisce la frequenza di risposta; al
contrario, una punizione negativa si ha quando la rimozione di uno stimolo gradito (la sottrazione di
cibo ad un ratto affamato o di denaro ad una persona) fa diminuire la frequenza di risposta (si
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
11 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
È importante notare che uno stesso stimolo può agire sia da rinforzo che da punizione: ad
esempio, un genitore che rimprovera il figlio assume che il bambino consideri il rimprovero come
una punizione; tuttavia, esso potrebbe rappresentare anche un rinforzo per il bambino, se il suo
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
12 di 13
Pietro Spataro - L’Apprendimento: Il condizionamento operante
Bibliografia
Bologna: Zanichelli.
Attenzione! Questo materiale didattico è per uso personale dello studente ed è coperto da
copyright. Ne è severamente vietata la riproduzione o il riutilizzo anche parziale, ai sensi e
per gli effetti della legge sul diritto d’autore (L. 22.04.1941/n. 633).
13 di 13